El pasado 26 de junio de 2004 la entonces vicepresidenta de la Comisión Europea, Loyola de Palacio, firmaba con Colin Powell un acuerdo por el que la UE y EEUU compartían sus sistemas de posicionamiento global por satélite para utilizarlos de forma conjunta y complementaria. El sistema americano es el conocido GPS. El europeo se llama Galileo.
El sistema GPS (Global Positioning System) fue desarrollado como tal entre 1974 y 1979 por el Departamento de Defensa de los Estados Unidos. En principio servía únicamente para propósitos militares, y su diseño incluía tecnologías claramente orientadas en este sentido. Por ejemplo los satélites GPS lanzados desde 1980 incorporaban sensores llamados NUDET que detectaban explosiones nucleares y evaluaban el daño de la zona afectada. Hay que tener en cuenta los tiempos que corrían por entonces. Pero la principal cualidad del GPS era y es facilitar la localización en tierra de cualquier cosa y en cualquier lugar, con una precisión de unos pocos metros. Hoy en día podemos comprar un aparatito GPS en cualquier parte. A estas alturas prácticamente todos los medios de transporte, públicos o de carga, llevan uno. Va uno por la carretera con esa cajita mágica y una pantalla te va indicando lo que le queda por delante, e incluso te dice que gires en la próxima salida y esas cosas. Así da gusto viajar.
Pero, ¿cómo funciona este sistema? Tenemos el dispositivo GPS en tierra, y los satélites orbitando. ¿Cómo pueden los 25 satélites GPS comunicarse con miles de aparatitos en tierra a la vez, y decirle a cada uno su posición particular? Lo que sucede es lo siguiente: Todos los satélites tienen un reloj de alta precisión. Además disponen de un sistema de emisión de impulsos de alta frecuencia y baja intensidad. Al estar sincronizados, todos emiten estos impulsos exactamente en el mismo momento. Un dispositivo GPS colocado en tierra va recibiendo los impulsos de los distintos satélites, y como está más lejos de unos satélites que de otros, unos impulsos le llegan un poquito más tarde que otros. Cuanto más lejos esté el satélite, mayor es ese pequeño retraso. Utilizando los valores de los retrasos entre señal y señal, el dispositivo puede calcular por sí mismo la posición exacta en cualquier parte del planeta. Así cada satélite se limita a anunciar su posición particular; va orbitando mientras dice “estoy aquí”, y un poco más tarde “ahora estoy aquí”, según se va moviendo en su órbita.
Si el dispositivo GPS en tierra recibe correctamente la señal de al menos 3 de los 25 satélites, tendrá la localización que busca. ¿Por qué 3? La razón es puramente geométrica: Cada satélite emite su señal en todas direcciones, luego la señal es como una esfera que va creciendo desde cada satélite. Podemos decir que todas las esferas van creciendo y en cierto momento chocan con el dispositivo GPS que está localizado en un punto del espacio. Luego se trata de un simple problema de intersección de esferas, de esos que hacíamos en secundaria: La intersección de dos esferas es una circunferencia. Si esa circunferencia la intersectamos con una tercera esfera, obtenemos 2 puntos. Y si esos dos puntos los intersectamos con una cuarta esfera, obtenemos el punto que buscábamos. Pero, un momento, habíamos dicho 3 satélites, luego 3 esferas. ¿Cuál es la cuarta esfera que hemos usado? Pues en nuestro caso es el propio planeta Tierra. Resumiendo, definimos cualquier punto de la superficie terrestre con la intersección de tres señales de radio en dicho punto.
Si sólo hacen falta 3, ¿para qué tenemos 25 satélites GPS en órbita? En primer lugar, para ir sobrados. Y después para dar cobertura al mayor número de lugares posibles. A estos 25 se le sumarán los 27 de Galileo, que la UE pondrá en órbita desde finales de este año. Ambos darán cobertura conjunta y cooperativa al 98% de los dispositivos de posicionamiento. Podrán ser desactivados si se detecta que se usan con fines terroristas, pero por lo demás serán un servicio público y global. Un gran acuerdo para un excelente sistema.
lunes, febrero 28, 2005
lunes, febrero 21, 2005
El código de la vida
En 1953 James Watson y Francis Crick descubren la estructura del ADN, que hoy en día todos hemos visto en imágenes, y que tiene esa elegante y misteriosa forma de doble hélice. Poco después se descubre que esta estructura genética se extiende no sólo a los humanos o a los animales, sino a todos los seres vivos. A partir de entonces comienza la aventura de leer letra a letra el código de la vida, y descifrar qué hay detrás de él. Todo el código genético se puede expresar mediante 4 letras que representan los 4 tipos de bases nitrogenadas que se suceden a lo largo de la cadena. Estas 4 letras son A (Adenina), T (Timina), C (Citosina), G (Guanina). Básicamente se trata de un lenguaje cuyo alfabeto tiene sólo 4 letras, o si lo prefieren, como un código numérico que sólo tuviera 4 posibles cifras (código cuaternario).
El código es más o menos largo según la especie. Y no existe una relación directa entre la longitud del código y la complejidad del ser vivo que codifica. Por ejemplo, la levadura del pan tiene un ADN de tan solo 12 millones de bases. El pez globo tiene 400 millones de bases. Pero curiosamente, la planta del arroz tiene 450 millones de bases (menos complejo, pero más ADN). Ahora, el ejemplo más claro lo tenemos aquí: los humanos tenemos entre 2800 y 3500 millones de bases en nuestro código genético, mientras que la ameba tiene más de 686000 millones. Tanta información para tan poco bicho.
Si dispusiéramos en una línea recta el ADN de una célula humana, tendría unos dos metros de largo. Cada célula de nuestro cuerpo enrolla de una forma muy elaborada esos dos metros de línea para que quepan cómodamente dentro del núcleo de la célula. Básicamente la van enrollando, y luego enrollan los rollos y los rollos de los rollos… de ahí el nombre de superenrrollamiento. El resultado del último enrrollamiento da la forma a los conocidos cromosomas. Los humanos tenemos 23 pares de ellos.
De toda esta línea de información, aproximadamente el 97% se considera completamente inútil. ¿Cómo sabemos que ese trozo tan grande no tiene ninguna información de interés? Pues bien, resulta que su estructura está repetida miles de veces. Es como si yo llegara y dijera “Hola hola hola hola hola hola hola hola, ¿que tal?”. La única información interesante que se puede sacar de ahí es “Hola, ¿qué tal?”.
El 3% restante es información útil normalmente dispuesta en zonas separadas a lo largo del código. De ella extraemos secuencias de centenares e incluso millares de bases que son las que llamamos genes, y que en último término se podrán identificar con características del ser vivo que generen. Claro que esta selección de trozos grandes se hace sobre la base de que en seres con cierta característica, el gen viene a repetirse siempre. Por ejemplo, diferentes personas que comparten un determinado color de pelo, tienen también en común varios trozos de cientos o miles de bases. Y por eso identificamos esos trozos de código como genes que caracterizan el color del pelo. Siguiendo este criterio de selección, tendremos más o menos genes según la opinión del que interpreta. Así llegamos a que deben existir entre 30000 y 120000 genes según el punto de vista de cada genetista.
A pesar de la información que nos aporta, este tipo de procedimiento de comparación entre características y genes no llega a ser suficientemente riguroso. La principal razón de esto es que en general los genes no se encuentran localizados en una zona determinada, sino que son lecturas aparentemente aleatorias de distintos puntos del código genético. También se ha podido explicar a un nivel básico (los primeros días de la gestación), lo que ocurre en la especialización de las células (para tejidos, músculos, huesos…) pero la genética tendrá mucho que decir sobre la regeneración y especialización a un nivel más complejo. Por todo esto es muy importante que la genética del siglo XXI esté también en manos de gente con buenas herramientas matemáticas. Herramientas que en su mayor parte todavía no hemos inventado. Tenemos el listón muy alto si queremos algún día desglosar el código de la vida.
Esquema de la distribución de bases nitrogenadas
El código es más o menos largo según la especie. Y no existe una relación directa entre la longitud del código y la complejidad del ser vivo que codifica. Por ejemplo, la levadura del pan tiene un ADN de tan solo 12 millones de bases. El pez globo tiene 400 millones de bases. Pero curiosamente, la planta del arroz tiene 450 millones de bases (menos complejo, pero más ADN). Ahora, el ejemplo más claro lo tenemos aquí: los humanos tenemos entre 2800 y 3500 millones de bases en nuestro código genético, mientras que la ameba tiene más de 686000 millones. Tanta información para tan poco bicho.
Si dispusiéramos en una línea recta el ADN de una célula humana, tendría unos dos metros de largo. Cada célula de nuestro cuerpo enrolla de una forma muy elaborada esos dos metros de línea para que quepan cómodamente dentro del núcleo de la célula. Básicamente la van enrollando, y luego enrollan los rollos y los rollos de los rollos… de ahí el nombre de superenrrollamiento. El resultado del último enrrollamiento da la forma a los conocidos cromosomas. Los humanos tenemos 23 pares de ellos.
De toda esta línea de información, aproximadamente el 97% se considera completamente inútil. ¿Cómo sabemos que ese trozo tan grande no tiene ninguna información de interés? Pues bien, resulta que su estructura está repetida miles de veces. Es como si yo llegara y dijera “Hola hola hola hola hola hola hola hola, ¿que tal?”. La única información interesante que se puede sacar de ahí es “Hola, ¿qué tal?”.
El 3% restante es información útil normalmente dispuesta en zonas separadas a lo largo del código. De ella extraemos secuencias de centenares e incluso millares de bases que son las que llamamos genes, y que en último término se podrán identificar con características del ser vivo que generen. Claro que esta selección de trozos grandes se hace sobre la base de que en seres con cierta característica, el gen viene a repetirse siempre. Por ejemplo, diferentes personas que comparten un determinado color de pelo, tienen también en común varios trozos de cientos o miles de bases. Y por eso identificamos esos trozos de código como genes que caracterizan el color del pelo. Siguiendo este criterio de selección, tendremos más o menos genes según la opinión del que interpreta. Así llegamos a que deben existir entre 30000 y 120000 genes según el punto de vista de cada genetista.
A pesar de la información que nos aporta, este tipo de procedimiento de comparación entre características y genes no llega a ser suficientemente riguroso. La principal razón de esto es que en general los genes no se encuentran localizados en una zona determinada, sino que son lecturas aparentemente aleatorias de distintos puntos del código genético. También se ha podido explicar a un nivel básico (los primeros días de la gestación), lo que ocurre en la especialización de las células (para tejidos, músculos, huesos…) pero la genética tendrá mucho que decir sobre la regeneración y especialización a un nivel más complejo. Por todo esto es muy importante que la genética del siglo XXI esté también en manos de gente con buenas herramientas matemáticas. Herramientas que en su mayor parte todavía no hemos inventado. Tenemos el listón muy alto si queremos algún día desglosar el código de la vida.
Esquema de la distribución de bases nitrogenadas
sábado, febrero 12, 2005
Los últimos años del Hubble
La semana pasada fue noticia la sentencia de muerte del telescopio Hubble. Se trata sin duda del telescopio que más ha aportado al conocimiento de nuestro universo desde que por primera vez Galileo apuntara sus lentes a las lunas de Saturno y a las misteriosas manchas de Júpiter. El Hubble lleva ya 15 años en órbita a tan solo 600km de la superficie terrestre. Se lanzó en 1990, y por aquel entonces nadie le daba más de 5 años de vida. Pero para sorpresa de todos, el telescopio resistió más allá de todas las expectativas. La estrategia de la NASA cambió y decidieron que sería más barato reparar el Hubble aumentando su longevidad en otros 10 o 15 años, en lugar de destruirlo y mandar otro telescopio, partiendo una vez más desde cero.
Los planes quedan aparcados cuando el 1 de febrero de 2003 se desintegra el transbordador Columbia con 7 tripulantes a bordo, y la tragedia supone la cancelación de todos los vuelos espaciales. La NASA no ha salido precisamente airosa del informe posterior al accidente, y por eso extrema las precauciones en los futuros viajes tripulados. Asuntos como la reparación del Hubble se van atrasando hasta que en septiembre de 2004, la NASA anuncia la cancelación de todos los servicios y reparaciones del telescopio. Desde ese momento comienzan a surgir entre románticos y economistas una serie de proyectos que prometen una reparación suficiente del Hubble, a costes muy bajos. Dicha puesta a punto no requeriría un viaje tripulado, sino que se plantea enviando un robot que en el momento de la reparación pueda ser manejado desde la Tierra. Otras voces sugieren que ese tipo de misión tiene una alta probabilidad de fracaso. En noviembre de 2004 la NASA se desdice y anuncia un intento de salvar el Hubble. Pero a la vez se extendía el rumor de que la NASA únicamente buscaba el mejor momento para anunciar una cancelación definitiva.
Hace tan solo 2 semanas todavía podíamos encontrar propuestas serias de reparación del telescopio a muy bajo coste. El punto final a este cuento de nunca acabar lo puso el presidente Bush al presentar el pasado 8 de febrero el presupuesto que incluía las asignaciones en materia de investigación espacial. Y no es que se haya quedado corto en dar dinero. Muy al contrario, la NASA percibirá en el periodo fiscal 2005-2006 un 2.4% más que en el periodo anterior. Para el Hubble el dinero está contadísimo, y más del 80% servirá para desviarlo de su actual órbita y dejarlo desintegrarse mientras cae hacia uno de nuestros océanos. Como mucho esperarán a 2008 ó 2009 cuando sus baterías se habrán acabado completamente.
El telescopio Hubble es sin duda una maravilla de su tiempo en lo que a exploración espacial se refiere. En cada una de sus mejoras se le fueron instalando equipos preparados para abarcar una gran parte del espectro luminoso. Primero tenía la cámara para objetos tenues, con la que consiguió unas preciosas imágenes de estrellas como la supergigante roja llamada Betelgeuse. Los sensores de guía fina nos permitieron seguir los astros de forma que no se emborronaran las fotos. Con el espectrógrafo conocimos la composición química de multitud de cuerpos celestes. Con la cámara de frecuencias cercanas al infrarrojo medíamos la temperatura de las estrellas. Con la gran angular se tomaron fotos de nebulosas como la de la imagen… una maravilla. Y finalmente hace dos años se le instaló una cámara sofisticadísima para estudiar el clima en planetas del sistema solar, la manera en que se distribuyen las galaxias, y penetrar todavía más en los confines del universo conocido. Con esta breve enumeración de momentos “estelares” rindo tributo al que probablemente es el telescopio más famoso de nuestro tiempo. Vendrán muchos más y mejores, pero este quedará como padre de todos ellos, cargado del romanticismo de ser el primero en salir ahí fuera para enseñarnos cosas que jamás habríamos imaginado.
La Nebulosa Cono
Los planes quedan aparcados cuando el 1 de febrero de 2003 se desintegra el transbordador Columbia con 7 tripulantes a bordo, y la tragedia supone la cancelación de todos los vuelos espaciales. La NASA no ha salido precisamente airosa del informe posterior al accidente, y por eso extrema las precauciones en los futuros viajes tripulados. Asuntos como la reparación del Hubble se van atrasando hasta que en septiembre de 2004, la NASA anuncia la cancelación de todos los servicios y reparaciones del telescopio. Desde ese momento comienzan a surgir entre románticos y economistas una serie de proyectos que prometen una reparación suficiente del Hubble, a costes muy bajos. Dicha puesta a punto no requeriría un viaje tripulado, sino que se plantea enviando un robot que en el momento de la reparación pueda ser manejado desde la Tierra. Otras voces sugieren que ese tipo de misión tiene una alta probabilidad de fracaso. En noviembre de 2004 la NASA se desdice y anuncia un intento de salvar el Hubble. Pero a la vez se extendía el rumor de que la NASA únicamente buscaba el mejor momento para anunciar una cancelación definitiva.
Hace tan solo 2 semanas todavía podíamos encontrar propuestas serias de reparación del telescopio a muy bajo coste. El punto final a este cuento de nunca acabar lo puso el presidente Bush al presentar el pasado 8 de febrero el presupuesto que incluía las asignaciones en materia de investigación espacial. Y no es que se haya quedado corto en dar dinero. Muy al contrario, la NASA percibirá en el periodo fiscal 2005-2006 un 2.4% más que en el periodo anterior. Para el Hubble el dinero está contadísimo, y más del 80% servirá para desviarlo de su actual órbita y dejarlo desintegrarse mientras cae hacia uno de nuestros océanos. Como mucho esperarán a 2008 ó 2009 cuando sus baterías se habrán acabado completamente.
El telescopio Hubble es sin duda una maravilla de su tiempo en lo que a exploración espacial se refiere. En cada una de sus mejoras se le fueron instalando equipos preparados para abarcar una gran parte del espectro luminoso. Primero tenía la cámara para objetos tenues, con la que consiguió unas preciosas imágenes de estrellas como la supergigante roja llamada Betelgeuse. Los sensores de guía fina nos permitieron seguir los astros de forma que no se emborronaran las fotos. Con el espectrógrafo conocimos la composición química de multitud de cuerpos celestes. Con la cámara de frecuencias cercanas al infrarrojo medíamos la temperatura de las estrellas. Con la gran angular se tomaron fotos de nebulosas como la de la imagen… una maravilla. Y finalmente hace dos años se le instaló una cámara sofisticadísima para estudiar el clima en planetas del sistema solar, la manera en que se distribuyen las galaxias, y penetrar todavía más en los confines del universo conocido. Con esta breve enumeración de momentos “estelares” rindo tributo al que probablemente es el telescopio más famoso de nuestro tiempo. Vendrán muchos más y mejores, pero este quedará como padre de todos ellos, cargado del romanticismo de ser el primero en salir ahí fuera para enseñarnos cosas que jamás habríamos imaginado.
La Nebulosa Cono
sábado, febrero 05, 2005
Baile de cifras
Una disciplina que saca resultados a diario, y que la prensa utiliza casi de forma continua es la estadística. En muchas ocasiones se ha visto desprestigiada, bien por error de uso, o por mala intención de sus usuarios. No siendo en general culpables los estadistas, que trabajan con instrumentos muy elaborados y precisos.
Todavía tenemos recientes los primeros informes de la pasada huelga de grúas, que esta vez, se ha extendido a casi todo el país. A 22 de Enero las empresas de grúas informaban que el 81% de sus trabajadores secundaban la huelga. El mismo día, las aseguradoras decían que el 80% de las llamadas de asegurados tirados en carretera estaban siendo atendidas. Esto sólo es viable de dos maneras: O bien hay tantos operarios de grúas que el 20% cubre el 80% de la necesidad (raro), o bien coincide que la gente tiene últimamente a punto los coches, y no había exceso de demanda de grúas en estos días (menos raro, pero raro). Todo esto es, por supuesto, asumiendo que todo el mundo dice la verdad. Un caso imposible de digerir es el de la huelga general del 20 de Junio de 2002. UGT cifraba la participación en el 94.43%, y CC.OO. en un aplastante 98%. Las patronales en cambio daban cifras en el otro extremo: APCE decía que sólo el 36.5% de sus obreros hicieron huelga, mientras que SEOPAN, por poner un caso límite, reportó un 10% de participación. Ante estos datos sólo cabe preguntarse quién es el que nos toma por tontos. Recomiendo a los que disfruten de estas pesquisas que lean “Cómo mentir con la estadística” de Darrell Huff, para desentrañar los trucos más típicos de este arte.
Salvando las manipulaciones de cifras, hay quienes utilizan las estadísticas para sacar conclusiones falsas o confusas. Un ejemplo muy divertido fue el del Rh negativo de los vascos. Es decir, el predominio de ausencia de la proteína Rh en la sangre de los vascos. El tema saltaba a la prensa en Noviembre de 2000. El portavoz del PNV, Joseba Egibar, parafraseaba a un periodista en una entrevista con Arzalluz diciendo: “y la cuestión a la que usted se refiere, del Rh negativo, esto confirma sólo que este pueblo [el vasco] es antiguo, que tiene sus propias raíces identificables en la prehistoria, como sostienen investigaciones de famosos genetistas”. Genetistas que, por cierto, no tienen nombre ni apellido, porque la comunidad científica los habría criticado muy duramente. El alto porcentaje de Rh negativo de los vascos sólo puede demostrar un alto índice de endogamia dentro de esa comunidad. Es decir, que los vascos se unen principalmente con vascos para tener hijos. Y cuidado, ni siquiera eso está fuera de toda cuestión. La propagación del gen del Rh es un tema mucho más complejo que todo esto, y sin duda está a un nivel de estudio superior que el de un simple porcentaje, o resultado estadístico lineal.
Una estadística bien definida, conoce bien los márgenes que abarcan sus predicciones. Pero todavía existen situaciones muy especiales que tienen mucho que enseñarnos. Un claro ejemplo lo tuvimos en las elecciones del pasado 14 de Marzo. El PP había ido descendiendo en intención de voto a lo largo de la campaña electoral, mientras que el PSOE subía en las encuestas. Todavía se vaticinaba una victoria por mayoría relativa para el PP. Y entonces vino el 11 de Marzo. A partir de ese momento muchas nuevas variables entraron en juego. A mucha gente le pareció importante conocer la autoría de los atentados antes de ir a votar. Nuestra sociedad sufrió una conmoción que sesgó todas las estadísticas. El día de las elecciones preguntaban a un chico en las noticias que a quién iba a votar. El contestaba: “Mi cabeza me dice una cosa, y mi corazón otra”. El PP confiaba en el “voto silencioso” de aquellos que tal vez no dijeron la verdad en las encuestas a pie de urna, o evitaron ser encuestados. El PSOE confiaba en el “voto útil” de aquellos que iban a votar a terceros partidos. El resultado fue que de las tres principales cadenas de televisión, sólo una acertó (más o menos) en sus predicciones. Todavía se sigue estudiando un fenómeno tan excepcional.
Todavía tenemos recientes los primeros informes de la pasada huelga de grúas, que esta vez, se ha extendido a casi todo el país. A 22 de Enero las empresas de grúas informaban que el 81% de sus trabajadores secundaban la huelga. El mismo día, las aseguradoras decían que el 80% de las llamadas de asegurados tirados en carretera estaban siendo atendidas. Esto sólo es viable de dos maneras: O bien hay tantos operarios de grúas que el 20% cubre el 80% de la necesidad (raro), o bien coincide que la gente tiene últimamente a punto los coches, y no había exceso de demanda de grúas en estos días (menos raro, pero raro). Todo esto es, por supuesto, asumiendo que todo el mundo dice la verdad. Un caso imposible de digerir es el de la huelga general del 20 de Junio de 2002. UGT cifraba la participación en el 94.43%, y CC.OO. en un aplastante 98%. Las patronales en cambio daban cifras en el otro extremo: APCE decía que sólo el 36.5% de sus obreros hicieron huelga, mientras que SEOPAN, por poner un caso límite, reportó un 10% de participación. Ante estos datos sólo cabe preguntarse quién es el que nos toma por tontos. Recomiendo a los que disfruten de estas pesquisas que lean “Cómo mentir con la estadística” de Darrell Huff, para desentrañar los trucos más típicos de este arte.
Salvando las manipulaciones de cifras, hay quienes utilizan las estadísticas para sacar conclusiones falsas o confusas. Un ejemplo muy divertido fue el del Rh negativo de los vascos. Es decir, el predominio de ausencia de la proteína Rh en la sangre de los vascos. El tema saltaba a la prensa en Noviembre de 2000. El portavoz del PNV, Joseba Egibar, parafraseaba a un periodista en una entrevista con Arzalluz diciendo: “y la cuestión a la que usted se refiere, del Rh negativo, esto confirma sólo que este pueblo [el vasco] es antiguo, que tiene sus propias raíces identificables en la prehistoria, como sostienen investigaciones de famosos genetistas”. Genetistas que, por cierto, no tienen nombre ni apellido, porque la comunidad científica los habría criticado muy duramente. El alto porcentaje de Rh negativo de los vascos sólo puede demostrar un alto índice de endogamia dentro de esa comunidad. Es decir, que los vascos se unen principalmente con vascos para tener hijos. Y cuidado, ni siquiera eso está fuera de toda cuestión. La propagación del gen del Rh es un tema mucho más complejo que todo esto, y sin duda está a un nivel de estudio superior que el de un simple porcentaje, o resultado estadístico lineal.
Una estadística bien definida, conoce bien los márgenes que abarcan sus predicciones. Pero todavía existen situaciones muy especiales que tienen mucho que enseñarnos. Un claro ejemplo lo tuvimos en las elecciones del pasado 14 de Marzo. El PP había ido descendiendo en intención de voto a lo largo de la campaña electoral, mientras que el PSOE subía en las encuestas. Todavía se vaticinaba una victoria por mayoría relativa para el PP. Y entonces vino el 11 de Marzo. A partir de ese momento muchas nuevas variables entraron en juego. A mucha gente le pareció importante conocer la autoría de los atentados antes de ir a votar. Nuestra sociedad sufrió una conmoción que sesgó todas las estadísticas. El día de las elecciones preguntaban a un chico en las noticias que a quién iba a votar. El contestaba: “Mi cabeza me dice una cosa, y mi corazón otra”. El PP confiaba en el “voto silencioso” de aquellos que tal vez no dijeron la verdad en las encuestas a pie de urna, o evitaron ser encuestados. El PSOE confiaba en el “voto útil” de aquellos que iban a votar a terceros partidos. El resultado fue que de las tres principales cadenas de televisión, sólo una acertó (más o menos) en sus predicciones. Todavía se sigue estudiando un fenómeno tan excepcional.
Suscribirse a:
Entradas (Atom)