domingo, diciembre 25, 2005

Mensajes subliminares

Una de las cosas a las que nos tienen acostumbrados desde un mes antes de las navidades es al incesante bombardeo publicitario de cientos de productos. Los anuncios de televisión son el doble de largos y con mucha más calidad. La ciudad se llena de carteles luminosos, y te aprendes de memoria todas las colonias y muchos juguetes. Pero sea navidad o no, a menudo hablamos de la manipulación que las masas sufren con este continuo goteo de productos. Y siempre que pensamos en las masas, nos resistimos a incluirnos dentro de ellas, como si nosotros fuéramos al menos un poco más conscientes que la media a la hora de filtrar manipulaciones. Pero hay un tipo de ataque mediático que todos, en nuestra culturilla general, hemos reconocido como potencialmente peligroso: La publicidad subliminar.
Ya en los años 50 se empezó a hacer de dominio público la posibilidad de incluir en imágenes y sonidos, mensajes que no eran perceptibles por el consciente, pero que quedaban grabados e influían a nivel subconsciente. El primer mensaje de este tipo que se hizo famoso fue el enorme letrero de “drink Coke” que colaron en medio de dos fotogramas en el cine, y que se veía durante una fracción de segundo. James Vicary fue el autor de este estudio en particular, pero después de publicar sus conclusiones, se retractó de las mismas, y el asunto quedó en el aire.
En la imagen que acompaña a este artículo podemos ver un cartel con un mensaje subliminar oculto. ¿Lo veis? Tomaros unos segundos antes de seguir leyendo, a ver si lo encontráis... En efecto, se puede apreciar sutilmente la palabra “sex” inscrita en los cubitos de hielo.
Otra ocasión muy sonada fue la de la campaña electoral Bush-Gore del año 2000 en Estados Unidos. Los demócratas acusaron a los republicanos de incluir mensajes subliminares en sus anuncios publicitarios. Los republicanos no lo negaron, porque además era cierto que lo habían hecho, pero respondieron que no había nada de malo en ello porque la llamada influencia subliminar no estaba completamente demostrada. Y en esto último tenían razón.
Hemos tenido que esperar hasta mayo de 2005 para ver por primera vez un estudio bastante completo y concluyente que pone en evidencia el poder de este tipo de mensajes. El trabajo en cuestión, publicado en el Proceedings of the National Academy of Sciences, no sólo pone de manifiesto la influencia de los mensajes subliminares, sino que además da una medida concreta a esta influencia.
Se aprovecharon las pruebas preliminares que se estaban haciendo a tres pacientes con epilepsia. En primer lugar les colocaron electrodos esperando percibir actividad eléctrica de las partes del cerebro relacionadas con el miedo. Los pusieron delante de una pantalla de ordenador, donde proyectaron palabras neutras (“primo”, “ver”...) que intercalaban con secuencias instantáneas de otras palabras como “peligro” o “matar”. Estas últimas se emitían durante 1/30 segundos; casi imperceptibles. Sin embargo en todos los casos se registró actividad eléctrica en la amígdala cerebral, que está directamente relacionada con el miedo, cada vez que se emitía una de las palabras subliminares. Estos hallazgos ponen claramente de manifiesto que el significado emocional de las palabras tiene acceso a nuestro cerebro también a nivel subconsciente, y que nuestro cuerpo reacciona acorde con dichas emociones implícitas.
“¿Llevaba razón Vicary?”, se pregunta Joel Cooper de la Universidad de Princeton. “Nuestros hallazgos, junto con un creciente cuerpo de conocimiento en estudios sociales, sugieren que puede haber alguna verdad en la propuesta de que nuestros estados emocionales se vean afectados por estímulos recibidos pre-conscientemente”.

lunes, diciembre 19, 2005

Vida en la luna helada

Ya fue noticia en esta sección el pasado 19 de Enero el aterrizaje de la sonda Huygens en Titán, el decimoquinto satélite de Saturno. El resumen de todo aquello viene a ser que la Agencia Espacial Europea lanzó el orbitador Cassini, que llevaba acoplada la sonda Huygens. En órbita de acercamiento, Huygens se desprendió de Cassini y tomó rumbo a Titán, teniendo una entrada en el planeta bastante diferente a lo que se esperaba. Al parecer, sufrió turbulencias al entrar en la atmósfera, y frenó hasta los 50 metros por segundo cuando desplegó el paracaídas principal. Cercano al suelo llegó a reducir su velocidad hasta los 5 metros por segundo, dando tumbos laterales de 1 metro y medio. Cuando aterrizó saltó un poco de pringue sobre las lentes del aparato, y la electrónica no dio muestras de sufrir la típica interrupción que tiene cualquier chisme con circuitos cuando recibe un golpe seco. En otras palabras, parece que la sonda aterrizó sobre un suave colchón de, llamémosle, barro.
Sin más dilaciones, Huygens pone en marcha sus funciones y empieza a hacer fotos estereoscópicas de estas que se ven con unas gafitas en 3D. Las primeras imágenes que envía a la Tierra muestran una cadena montañosa de baja altura con un picacho sobresaliendo. Es fácil observar en las fotografías unas estrías oscuras que se ramifican sobre la ladera. Se trata una imagen muy familiar para cualquier geólogo: algún líquido ha erosionado las laderas, formando las cavidades características de los ríos... Dicho de otra forma: Algún tipo de líquido llueve habitualmente en esta luna. Recordemos que la temperatura media a ras de suelo es de -178ºC.
Corrientes de aire, lluvia, ríos, valles y montañas dan forma al panorama de Titán. ¿Se podrían dar las condiciones suficientes para la vida en esta luna helada? El geólogo y exobiólogo Dirk Schulze-Makuch de Washington State University y David Grinspoon del Southwest Research Institute en Boulder, Colorado, plantean de un modo interesante esta posibilidad: “Todos los requisitos básicos para la vida, tal y como los entendemos hoy, están presentes en Titán. Incluyendo moléculas orgánicas, fuentes de energía y un medio líquido”. Schulze-Makuch y Grinspoon citan algunos factores que dan cabida, al menos, a la vida microscópica en Titán. A continuación cito los más importantes resumidos.
El frío extremo no es lo idóneo para la vida porque ralentiza las interacciones químicas entre moléculas. Pero hay procesos en Titán que podrían dar el aporte de calor necesario para llevar a cabo estas interacciones. Los rayos ultravioletas del Sol producen acetileno en la atmósfera de Titán, que inmediatamente solidifica y cae al suelo, donde puede ser una fuente de calor muy útil.
Existen también en Titán muchos componentes químicos que las posibles células podrían usar de nutrientes, liberando grandes cantidades de energía (como el mismo acetileno) durante su descomposición. En la Tierra, estos componentes a veces liberan su energía de una forma tan brusca, que dañan las células más que ayudarlas. En Titán, ese peligro sería mucho menor debido a las bajas temperaturas.
El hecho de que Huygens haya caído en un charco de barro ha despertado también muchas especulaciones sobre la vida, ya que es sobre ese tipo de caldos de cultivo donde más teorías se han desarrollado en lo que a aparición de la vida se refiere.
Si bien el agua es el elemento base de la vida en la Tierra, en Titán se especula con la posibilidad de que sea el metano, que a esas temperaturas se encuentra en estado líquido. La propia composición de la molécula de agua le atribuye cargas eléctricas en sus extremos, que no favorecen ciertas reacciones dentro de la célula, y por eso la obligan a no ser mayor que un determinado tamaño. Ese problema no lo tendrían las células de Titán si flotaran en metano, ya que éste no está cargado del mismo modo. Así que en principio podrían ser mucho más grandes que en la Tierra.
En fin, todo son especulaciones. Pero el peso que tienen es que están basadas en cómo funcionan las cosas aquí, y eso algo de consistencia tendrá. En cualquier caso, habrá futuras misiones, y pronto sabremos más de todo esto.

lunes, diciembre 12, 2005

El reloj atlántico

Parte suave y cálida, entre Cuba y La Florida, como un lengüetazo venido del Golfo de México. En su travesía al norte se aleja levemente de la costa de Estados Unidos para volver a acercarse ya más fría en Terranova, extremo este de Canadá. Alimenta una rotación de aguas frías entre Canadá y Groenlandia, y comienza su descenso hacia las costas occidentales de Irlanda. Pasa ventosa por Galicia y se aleja despacio de la Península Ibérica para rozar Canarias. Finalmente se curva en los llanos oceánicos de Cabo Verde, para poner rumbo de nuevo a las islas caribeñas. En su tramo ascendente tiene por nombre Corriente Labrador; bautizado así por su paso por tierras canadienses.
No se trata de una corriente de gran velocidad (un promedio de 35 kilómetros cada día), y tampoco de mucha profundidad. Pero sí es un firme flujo que mantiene en marcha la gigantesca maquinaria de vida de varias decenas de especies marinas en nuestro océano occidental. Los corales caribeños, con todo el ecosistema que albergan, absorben el impacto de sus aguas templadas desde Cabo Verde. En su extremo norte son las ballenas y los delfines dos ejemplos exponentes de los fenómenos migratorios que esta corriente sustenta.
¿Pero cómo puede este gigante mantenerse en marcha? Podemos señalar dos razones que mantienen esta enorme masa de agua en continua rotación.
La primera, muy evidente, la diferencia de temperaturas entre el Atlántico tropical y el Atlántico norte. Las leyes de la termodinámica y de la física de fluidos dictan que esa diferencia necesita ser compensada y buscar un equilibrio. Las aguas cálidas buscan mezclarse con las frías por la costa americana, mientras que las frías buscan a las cálidas bajando por el litoral afro-europeo. La compensación nunca resulta suficiente, porque el Sol mantiene cálidas las aguas del trópico, y su ausencia hace que predominen frías en latitudes del norte. Es pues, el Sol, el motor de esta turbina.
La segunda razón de esta rotación tiene que ver con la salinidad del océano. Las bajas temperaturas de los mares del norte llevan a la congelación de capas de agua cercanas a los continentes. En el proceso de congelación, el agua expulsa todas sus sales para dar cabida a la estructura cristalina del hielo. Esa sal expulsada queda en exceso en los mares del norte, haciendo que tengan más soluto que las aguas del trópico. La física estadística muestra como necesaria una compensación a esta diferencia de salinidades, forzando una vez más las corrientes ascendente y descendente.
La cara oscura de todo este asunto es que las corrientes de diferentes océanos (Labrador incluida) parecen estar ralentizándose. Y esto no es más que otro de los efectos del cambio climático, según las investigaciones del equipo de Harry Braden, en el Centro Nacional de Oceanografía de la Universidad de Southampton. Con sondas y boyas enormes se han echado a la mar para medir la velocidad de las corrientes y confirmar la tendencia que tienen a detenerse.
La primera causa es que el calentamiento generalizado reduce sensiblemente la diferencia de temperaturas entre las aguas del norte y del sur, haciendo menos necesaria una compensación. La segunda es que el deshielo hace que las aguas del norte estén menos salinizadas, haciendo de nuevo menos necesaria la compensación de solutos.
Es más o menos fácil especular con las consecuencias: Si las corrientes se paran, o incluso invierten su sentido, alterarán el orden ecológico de los océanos, así como la climatología de las regiones costeras cercanas a las mismas. Muchas especies necesitarán readaptarse o desaparecerán por su incapacidad de cumplir con los plazos migratorios que la naturaleza les impone. Este no es más que otro de los cientos de avisos que la Tierra nos deja, parece que todavía a tiempo de que tomemos medidas efectivas.

martes, noviembre 29, 2005

La forma del Universo

Desde sus inicios milenarios, la cosmología ha tenido entre sus máximas el explicar el origen del Universo, su tamaño y su forma. Sólo en los últimos siglos se ha propuesto averiguarlo sirviéndose del método científico. Y sólo en las últimas décadas ha dispuesto de datos razonables para empezar a trabajar.
Sobre si el Universo es finito, podemos decir ya que tiene pinta de que no. El descubrimiento de la llamada radiación de fondo nos dio la posibilidad de poner fecha y límites al Universo y ver sus orígenes como en una fotografía.
El año pasado, entre otras especulaciones, la revista Astronomy & Astrophysics publicó en su tirada de septiembre los resultados de Luminet y su equipo, que defienden que el Universo tiene forma de dodecaedro (ver imagen).
Veamos un poco cómo han llegado a esa conclusión. Pensemos en primer lugar en una campana. Cuando se golpea y recibimos su característico sonido, éste nos llega en ondas de varias longitudes. Pero una campana nunca podrá emitir sonido en una longitud de onda mayor que la campana misma. Cuanto mayor sea la campana, mayor será la longitud de onda en la que puede emitir y por tanto más grave será su sonido. Por esta misma regla, un contrabajo puede emitir sonidos más graves que un violín. El principio general que estamos tratando es que de una cosa pequeña nunca puede salir una más grande; más intuitivo imposible.
Con nuestro Universo sucede algo parecido. Recibimos de las zonas más alejadas del mismo ondas electromagnéticas de muchos tamaños, pero siempre hay un límite superior al tamaño de la longitud de onda que podemos recibir. Igual que de la campana no salen ondas más grandes que la campana misma, en el Universo no se generan propagaciones mayores que el mismo Universo.
Nuestros telescopios apuntan a los confines del Universo y encuentran diferentes distancias desde la Tierra dándonos la forma aproximada del mencionado objeto de 12 caras. A partir de este punto la cosa se complica, porque no podía ser suficiente para un Universo tan rico en complejidad el tener una forma tan simplona como la de un dodecaedro. Además se especula con que las 12 caras que forman este dodecaedro sean además puertas de salida y reentrada nuestro Universo. De nuevo, la imagen muestra esquemáticamente lo que quiero decir. Así, para un viajero intergaláctico puede parecer el Universo es infinito cuando en realidad no hace más que salir por una cara y entrar por la cara opuesta. Claro que también acabará dándose cuenta cuando vea las mismas cosas una y otra vez. Otro ejemplo de lo mismo es que si miráramos con la suficiente profundidad a los confines del Universo, deberíamos acabar viendo nuestro propio cogote.
La vuelta de tuerca final a todo esto es ya para los que gusten de la geometría de muchas dimensiones. Empecemos por un círculo... pensemos ahora en cuál sería la versión tridimensional de un círculo: en efecto, una esfera. En esta misma línea podemos decir que existen esferas de cuatro o más dimensiones que son versiones multidimensionales de la esfera tridimensional que todos conocemos. A estas esferas de más de tres dimensiones se las conoce como hiperesferas. Ahora imaginemos un balón de fútbol. La costura del balón está formada por pentágonos y hexágonos que se doblan un poco para ajustarse a las forma esférica del balón. Con 12 pentágonos curvados es suficiente para cubrir completamente un balón de fútbol.
Volvemos ahora a nuestro Universo. Se especula con que también tiene más de tres dimensiones. Y además, con que la hiperforma que tiene puede cubrirse con 120 hiperdodecaedros con una peculiaridad: de los 120, 119 no son más que un reflejo del que falta. ¿Se lo pueden imaginar? Pues ni ustedes, ni yo, ni nadie por mucha geometría que sepa. Otra cosa es que sí se puede comprobar sobre el papel, aunque nadie sea capaz de imaginarlo en realidad. Todavía no hay resultados suficientes para hacer de esta forma del Universo una parte más del temario de cosmología, pero están en ello.


Dodecaedro

lunes, noviembre 21, 2005

Patrones del terror

Encontrar regularidades en medio del caos nunca pudo ser un título más adecuado que en el caso del estudio publicado el pasado 30 de Septiembre por los físicos Clauset y Young de la Universidad de Nuevo México, en Albuquerque. Utilizando herramientas matemáticas de una rama de la estadística llamada estadística extrema, presentan una serie de invarianzas en las incidencias de ataques terroristas en todo el mundo. Dicho de otra forma, muestran que hay aspectos de los ataques terroristas que han permanecido constantes a lo largo del tiempo. El estudio abarca desde 1968 hasta el año pasado, e incluye los datos aportados por el National Memorial Institute for Prevention of Terrorism (MIPT). Podemos acceder a esta crónica del terrorismo en la web www.tkb.org

El estudio pasa por alto las razones políticas, religiosas, medioambientales o territoriales de cada ataque en particular, y presenta sin embargo una norma común a todos ellos, como un pulsador aparentemente regular de rabia, desesperación y violencia. En promedio se produce un ataque en el mundo cada 17 horas, y este es el punto de partida para estimar el tiempo necesario para que un número determinado de ataques maten a un cierto número de personas.

Luego están los picos de la gráfica: Los ataques más terribles, pero también menos frecuentes. El 20 de Marzo de 1995 se libera gas Sarín en la hora punta del metro de Tokio, con más de 5000 personas entre heridos y muertos. El 7 de Agosto de 1998 un coche bomba en Nairobi, Kenya, mata o hiere a más de 5200 personas. El 11 de Septiembre de 2001... etc. Se estima un ataque de esta magnitud o peor para antes de 2012 si la tendencia sigue como hasta ahora.

La probabilidad de que ocurra un nuevo ataque sigue una ley de tipo exponencial. Es decir, que crece según un exponente que permanece constante. Esto se debe a cómo han ido teniendo los distintos grupos terroristas acceso a nuevas tecnologías con las que han aumentado las posibilidades de lograr sus objetivos. Al igual que cuando se han hecho estudios de incidencias bélicas, el terrorismo sigue con bastante fidelidad este patrón de comportamiento.

En la gráfica de este estudio vemos dos representaciones. En rojo y con círculos se representa la severidad de estos ataques a lo largo del tiempo. Los puntos se alinean en subidas y bajadas como si de escaladas de violencia y enfriamientos se tratara (recordemos que son ataques diferentes en diferentes partes del mundo). Casi parece como si los terroristas de un lado dijeran, tras ver las noticias, algo así como “Bueno, ahora a nosotros nos toca hacer un ataque de esta severidad”. Surrealista.

En azul y con triángulos vemos el intervalo de días entre un ataque y otro a lo largo del tiempo. De finales de los años 60, cuando podemos ver que se producía un ataque 1 vez al mes, hasta nuestros días ha habido un descenso claro en el intervalo de días sin ataques. Merece la pena hacer un breve énfasis en la esquina inferior derecha de la gráfica, de 2002 a 2004, donde vemos que los ataques son ya diarios. Este es el feliz resultado de la “guerra contra el terror” que algunos países de occidente han llevado a cabo en este tiempo. Sin quererlo (o eso se espera) han contribuido notablemente a dar forma a esta lamentable representación.

Lo más preocupante de este estudio es que trasciende de muchísimas variables locales para mostrar tendencias globales que podrían tener más que ver con un mal endémico al que sólo algunos se atreven a poner nombre. Como en otras ocasiones, el que lee, entienda.



domingo, noviembre 13, 2005

El cero, el loro y la nada

La palabra "cero" nos viene prestada del italiano (zèro) en el siglo XVII. El italiano lo tomó del latín científico medieval (zephyrum), que a su vez lo tomó del árabe (sifr, "vacío"). Si bien el concepto de cantidad nula nos resulta sencillo e intuitivo a día de hoy, es importante recordar que tal concepto no se extendió lo suficiente por occidente hasta el siglo XVI. Nos siguen en mérito algunos chimpancés de laboratorio, que siendo entrenados, han llegado a dar muestras de que lo entienden. Pero en el logro de entender el cero lo antes posible y sin ayuda alguna, parece que hemos sido desbancados por Alex, un loro gris de 28 años que convive con investigadores de la Universidad Brandeis en Waltham, Massachusetts.
La historia es como sigue: Resulta que Alex llevaba ya tiempo aprendiendo números y colores, y dando resultados excelentes en su aprendizaje. Se le estaba poniendo a prueba con los números del uno al seis; el cero no estaba incluido en la prueba. Los investigadores ponían varios objetos de distintos colores y tamaños (por ejemplo, 1 objeto azul, 3 objetos rojos y 4 verdes) y le preguntaban: "Alex, ¿cual color cuatro?". Esto quería decir que cuál era el color de esos objetos que eran 4 del mismo color. Alex contestaba "verde" sin el menor reparo, y era felizmente premiado por sus entrenadores.
Todo bien, hasta que un día Alex decidió ignorar las preguntas, o peor, empezó a dar respuestas equivocadas adrede. Parece que se divertía mucho viendo las reacciones de frustración de sus cuidadores. Concluyeron que esta reacción venía de que el loro se aburría y ya no valoraba tanto los premios que se le daban por respuestas correctas. Así que tuvieron que pensar en premios más interesantes para Alex, y un par de semanas después éste accedió a seguir jugando a numeritos y colores. Sólo de vez en cuando le venían lapsus, pero no parecían ser muy importantes.
Y no lo fueron hasta que un día le pusieron por delante 2 objetos de un color, 3 de otro y 6 de otro. Y le preguntaron: "Alex, ¿cuál color tres?", a lo que Alex contestó sin demora "Cinco". Le hicieron la pregunta varias veces, y la respuesta fue siempre la misma: "Cinco". Esto no tenía sentido pues se esperaba que la respuesta fuera un color, no un número. Cansados de intentar cambiar su respuesta, le dijeron "OK, Alex, dime: ¿cuál color cinco?". Su respuesta les dejó de una pieza: "Ninguno". En efecto, la respuesta era correcta, pues no había ningún grupo de cinco objetos del mismo color. Así que incorporaron la respuesta "ninguno" a otras pruebas, y Alex siguió utilizando la palabra correctamente. No sólo sorprende que Alex entendiera la ausencia de objetos de un color, sino también que se sacara él solito de la manga la palabra "none" (del inglés, "ninguno").
Los inversigadores de Brandeis concluyen que esa respuesta claramente incoherente pudo ser causada por el deseo de Alex de añadir nuevos retos a las pruebas que se le hacían. En otras palabras, que encima este loro se busca las vueltas para dar a entender que se aburre y que quiere más dificultad en las pruebas.
Lo siguiente que quieren intentar con Alex es que sume y reste con resultados que incluyan el cero. Se busca en este caso saber si Alex comprende las sutiles diferencias que existen entre el concepto de "cero" y el concepto de "ninguno".
Pero venga lo que venga, lo cierto es que ya ha superado todas las expectativas. Nosotros no incorporamos el término "cero" hasta el siglo XVI y esta rara avis lo ha aprendido de Dios sabe donde y ha puesto los medios para mostrarlo. Nos quedamos pues sin referentes en los que anclarnos; bien podría ser lo próximo un tucán resolviendo polinomios.

martes, noviembre 01, 2005

De las estrellas al mar

Hay tecnologías desarrolladas para ciertos campos de investigación que en un momento determinado encuentran su utilidad en áreas completamente diferentes a aquellas para las que fueron pensadas. Este es el caso de los sistemas de detección y catalogación de estrellas. Se trata de programas capaces de reconocer la porción de cielo a la que se hizo la foto, según la posición de las estrellas que aparecen en la misma. El programa en cuestión mete en su base de datos la posición relativa de las estrellas que detecta en la imagen, así como la intensidad con que emiten, y la base de datos le devuelve el nombre de cada estrella y las coordenadas. Esta es una forma rápida y automática de catalogar los miles de millones de estrellas que tenemos al alcance de nuestros telescopios, además de ir ubicando los nuevos astros que vayamos encontrando.
Refinando esta máquina de detección y catalogación de puntitos blancos, la NASA’s Goddard Space Flight Center en Greenbelt, Md., ha iniciado un proyecto con el biólogo marino Brad Norman de Australia, y el programador Jason Holmberg. El sistema seguiría registrando imágenes, y estas imágenes seguirían teniendo puntitos. Pero esta vez las imágenes no serían de estrellas y galaxias, sino de las impresionantes y moteadas ballenas-tiburón. Así, el conjunto de manchas que rodean el cuerpo de la ballena-tiburón serán utilizadas como su huella dactilar, para tenerla localizada y reconocible independientemente del lugar desde donde se le haga la foto, y de lo que haya crecido y cambiado la ballena desde la última foto.
De nuevo, se trata de una forma rápida y cómoda de automatizar el catálogo de ballenas-tiburón. Este trabajo de reconocimiento ya se hacía antes con medios más rudimentarios, pero se volvía muy tedioso debido al elevado número de ballenas-tiburón y a la inevitable y continua revisión debida a nuevas generaciones.
Por supuesto las aplicaciones van más allá de tener un álbum de fotos de las ballenas-tiburón que se vayan detectando y fotografiando. Se aprovechará el sistema para saber también velocidad y la forma en la que crecen estas ballenas, además de poder estudiar muchas facetas de su comportamiento como migraciones, dispersión, afectividad social y familiar, etc.
La aplicación funciona especialmente con esta especie, debido a que las manchas de su piel destacan con mucha claridad con respecto al fondo negro del resto de su cuerpo (ver imagen). Pocos animales o plantas poseen esta cualidad.
El interés es además particular en este caso, debido a que esta especie está considerada como susceptible de extinción, y un conocimiento más profundo de la misma, podría poner en marcha medidas más efectivas para su protección.
Las ballenas-tiburón miden unos 20 metros de largo en su edad adulta, y habitan aguas cálidas no muy alejadas del ecuador al norte y el sur del mismo. Su alimentación comienza con la selección y filtrado de alimentos, y resultan inofensivas para el hombre. Sin embargo el hombre, en su vertiente degenerada de cazador furtivo, representa el mayor peligro para esta especie. De las estrellas al mar, tal vez podamos protegerlas lo suficiente.

lunes, octubre 24, 2005

Breve sobre la gripe aviar

Ya llegan al mar los ríos de tinta sobre una incertidumbre sencillamente irresoluble (de momento). ¿Estaremos al borde de una pandemia? ¿Se puede evitar? Se suelen producir pandemias de gripe unas 3 ó 4 veces por siglo. Las últimas fueron las de 1918-1919, 1957-1958 y 1968-1969. Carecemos de datos suficientes para poder hacer predicciones sobre cuándo será la próxima. Y si esto es difícil, mucho más es concluir que podemos o podremos tener las futuras epidemias bajo control.
El caso particular de la gripe aviar es además complejo por su elevado número de variables. Tenemos en registro 15 subtipos de esta gripe, que van desde los más leves hasta los catalogados como altamente patógenos. Después están las aves, que reaccionan al virus de manera muy diferente según tipos. Las aves acuáticas migratorias, en su inmensa mayoría, no presentan síntomas graves a casi todos los subtipos. En cambio, las aves de corral han mostrado ser mucho más vulnerables. Esto convierte a las aves migratorias en una reserva permanente para el virus: no las mata, pero campa a sus anchas de una a otra. Una situación habitual de riesgo es aquella en la que se juntan aves de corral y otros tipos en una misma plaza o mercado, como suele ser común en pueblos y ciudades del sur de Asia.
Hay dos características del virus de la gripe que hacen que la comunidad médica ande de cabeza con ellos. La primera consiste en que el virus carece de mecanismos de corrección de nuevas copias de sí mismo. Me explico mejor: Cuando el virus se reproduce, transfiere su código genético a las células del organismo infectado, que a su vez creará nuevos virus. Bien, pues de vez en vez hay errores en esa copia del código genético, y sin posibilidad de corregirlos tenemos mutaciones y cambios en el virus de generación en generación. Este cambio continuo del código se denomina “deriva antigénica”, y es lo que obliga cada año a hacer ajustes en las vacunas para la temporada de gripe.
La segunda característica es además la que tanto temen en estos días nuestros gobiernos. Un virus de la gripe tiene la facultad de poder combinarse con otros virus de la gripe de distinta naturaleza. El ejemplo en este caso es el siguiente: De momento se oye hablar de gripe aviar encontrada en un pájaro muerto en Turquía, Croacia, Suecia... También tenemos algunas historias de personas infectadas y muertas en países de Asia. Pero un posible principio de la pandemia sería la siguiente desafortunada coincidencia: Una persona con virus de la gripe (humana), que se contagie además de la gripe aviar. En este caso existe la posibilidad de que esos dos tipos de gripe recombinen sus códigos genéticos y den con un subtipo de gripe nuevo, que cómodamente anide, contagie y mate a personas. Esto es precisamente lo que se está temiendo que suceda con la variante H5N1. Lo que tiene esta cepa de especial es que ya sabemos de 2 ocasiones en las que ha matado a personas. La primera fue en 1997 en Hong Kong cuando causó una enfermedad respiratoria grave a 18 personas, 6 de las cuales murieron. La segunda fue en febrero de 2003 en Vietnam, con 1 víctima mortal.
El pasado sábado 8 de octubre ponías la CNN, y el bombardeo con la gripe aviar era para caerse de la silla. Cambiabas a los canales españoles y nada; ni una triste línea sobre el tema. Unos días después era el tema central de todos los canales. Gracias a la globalización, puede uno ver aquí que hay otro tipo de infecciones mediáticas que no estaría mal prevenir... al menos hasta que sepamos de verdad qué es lo que va a pasar con tanto pájaro muerto por las fronteras de Europa.

lunes, octubre 17, 2005

Sobrecompensación masculina

Me lo estoy pasando en grande revisando estudios psicosociales de todos los colores y temas. Aquí os dejo uno de los que más me han divertido.
El doctorando Robb Willer de la Universidad de Cornell en Ithaca (Nueva York), presentó el pasado mes de agosto los resultados de sus estudios sobre “Masculine overcompensation”, que yo he traducido como “Sobrecompensación masulina” sin saber bien si hay algún vocablo técnico más adecuado para esto. El término en cuestión hace referencia a ciertas reacciones que tenemos los hombres como consecuencia de que se ponga en tela de juicio nuestra masculinidad. Esto es algo que ya estaba en los arcanos del saber popular, pero que nunca viene mal cuantificar.
Willer asaltó los pasillos, dormitorios y jardines del campus de Cornell en busca de estudiantes (elegidos al azar) para que contestaran a un cuestionario. Bueno, más bien dos tipos diferentes de cuestionario. A algunos se les hacía el cuestionario normal, en el que se les hacían preguntas como su postura sobre la Guerra de Irak, los matrimonios gays, y luego cosas más personales como... qué tipo de coche se comprarían si pudieran. A los demás se les hacía es mismo cuestionario, pero con una peculiaridad: en mitad del cuestionario se les informaba sobre el nivel de masculinidad o feminidad que se extraía de las preguntas que se les había hecho hasta ese momento. Por supuesto se trataba de una trampa porque para empezar no hay manera de saber ese nivel, y mucho menos a partir de semejantes preguntas. Una vez informados de este nivel, se continuaba con el cuestionario como si nada. El objetivo era saber si las respuestas dadas después de informarles de su masculinidad o feminidad tenían algo de diferente con las de aquellos sujetos que hicieron el cuestionario normal.
Vamos por partes con los resultados. Mujeres a las que se les dijo en mitad del cuestionario que eran más bien femeninas: a partir de ese punto contestaron muy parecido a las que no se les dijo nada. Mujeres a las que se les dijo en mitad del cuestionario que eran más bien masculinas: Igual, ningún cambio. Hombres a los que se les dijo que eran más bien masculinos: Igual, ningún cambio. Y por último, y aquí está el tema, hombres a los que se les dijo que eran más bien femeninos: En este último caso cambia el comportamiento mucho, con respecto a los hombres a los que no se les dijo nada.
Veamos con más detenimiento este último caso. Algo sucede en los hombres a partir de que son informados de una supuesta feminidad. Según el informe, en este caso los hombres se muestran avergonzados, con sentimiento de culpa, enfadados e incluso hostiles. A partir de ese momento se les pregunta por su postura en cuanto a la Guerra de Irak, y de forma muy clara se muestra que muchos más de lo normal tienen posturas a favor. Se les pregunta por los gays, y tienen opiniones más tendentes a la homofobia. Y la que me parece más divertida: cuando les preguntan que qué coche quieren, contestan aplastantemente que quieren lo que los americanos llaman un SUV (sport utility vehicle); en otras palabras, un deportivo o un todoterreno. Compensan la inseguridad que les crea su recién anunciada feminidad con posturas que según ellos son claramente masculinas.
Me llama la atención el componente cultural que tiene esta concepción de la masculinidad. En España, que la mayoría somos anti-guerra y que los gays tienen más libertades, ¿qué prontos nos entrarían a los hombres si nos sometieran a esta prueba? ¿Es esto solo cosa de los varones norteamericanos? Permitidme dudarlo. ¿A más macho más inseguro? Bueno, eso es caer otra vez en lo de medir la masculinidad. En fin, no sé, divagaciones.

lunes, octubre 10, 2005

Raros. Geniales.

Es más o menos aceptado por todos que en ocasiones existe una relación entre ser una persona creativa y estar un poco tocado del ala. En efecto hay investigaciones al respecto que muestran que personas con una visión de las cosas un poco peculiar, que podría ser considerada un problema, tienen sin embargo un ingrediente esencial en lo que a inventiva y creatividad se refiere. Hay suficiente base para creer que lumbreras como Isaac Newton, Vincent Van Gogh, Emily Dickinson o Albert Einstein padecían un trastorno llamado personalidad esquizotípica. La esquizotipia aísla parcialmente a las personas que la padecen, y hace que desarrollen pensamientos y percepciones algo peculiares. A veces es el paso previo a la equizofrenia, pero en la mayoría de los casos no pasa de ser interpretada como un comportamiento “raro”. Para hacernos a una idea de lo comunes que son los comportamientos esquizotípicos, sirve contar que estos incluyen el llamado pensamiento mágico, que consiste en pensar que una acción determinada tiene consecuencias sobre algo que en realidad no tiene nada que ver con ella. Creer en una superstición como puede ser la de cruzarse con un gato negro, es un ejemplo de leve esquizotipia.
Los psicólogos Brad Foie y Sohee Park de la Universidad Vanderbilt en Nashville han publicado unos resultados muy interesantes a este respecto en la revista Schizophrenia Research. La novedad consiste en confirmar esta relación entre rareza y creatividad basándose en el comportamiento interno del cerebro. Para ello tomaron individuos de tres grupos: Esquizotípicos, esquizofrénicos y gente, llamémosla, “normal”.
La primera prueba era bastante sencilla. A todos se les enseñaba objetos típicos del hogar, y se les pedía que buscaran un uso diferente al habitual para cada objeto. Los esquizotípicos mostraban con diferencia una mayor creatividad en las propuestas para cada objeto, mientras que los esquizofrénicos y la gente más promedio mostraron más o menos la misma creatividad. Se observa aquí que es más mito el hecho de que la esquizofrenia esté asociada tan directamente a la creatividad. En algún lugar entre la cordura y la esquizofrenia se haya un toque que distingue a unos pocos privilegiados.
En la segunda prueba se les volvió a pedir nuevos usos para objetos cotidianos, pero además se estudió el comportamiento cerebral de cada uno de ellos mediante un método de escaneo cerebral llamado espectroscopia óptica. El estudio confirmaba otro asunto ya discutido hacía mucho tiempo. En el proceso creativo, todos los sujetos puestos a prueba mostraban una actividad cerebral repartida entre ambos hemisferios del cerebro. Sin embargo, los esquizotípicos mostraron además una intensa actividad en el hemisferio derecho, que supone un patrón completamente diferente en el proceso creativo. Esta peculiaridad es la que se cree asociada a la creatividad, en este caso concreto.
Ya fue cruel el destino con el pobre Van Gogh, que padecía una enfermedad que en nuestros días se habría resuelto con un tratamiento de pastillas de lo más habitual. El segador de aquel campo de trigo que se agachaba laborioso en su último cuadro fue un claro preludio de su muerte; la última llamada de socorro. Sin embargo todo pasa, y buenos son los tiempos que vivimos; la ciencia misma nos ayuda hoy a reconocer a los genios de mañana.


Vincent Van Gogh, Autorretrato

lunes, octubre 03, 2005

ADN versus bacterias

La decisión final del Premio Nobel de Medicina ha estado bien reñida este año, pero ya tenemos ganador. Los galardonados fueron anunciados nada más empezar la semana. El premio incluye un diploma, una medallita, 1.3 millones de dólares y un apretón de manos del rey de Suecia. Los descubrimientos premiados suelen venir de muy atrás, porque es habitual que su trascendencia tarde en hacerse notoria. Detrás de algunos de estos hallazgos encontramos con frecuencia a gente muy valiente que no se dejó amedrentar por las críticas y el riesgo a estar equivocados de plano. Algo de esto vemos en las dos historias que vienen a continuación.
Uno de los equipos favoritos para ganar el premio este año es el formado por Alec Jeffreys de la Universidad de Leicester y Edwin Southern de Oxford. El descubrimiento de estos señores es lo que conocemos coloquialmente como la “huella del ADN”. Data del año 1984, cuando Jeffreys vio que era posible vincular de forma casi infalible una muestra de ADN con la persona de la que procede. Hoy en día ya estamos muy acostumbrados, y llamamos a esto “la prueba del ADN” sin poner mucho asombro en ello. Demasiado CSI. En efecto ha servido para la identificación de cadáveres, y como prueba en centenares de juicios donde los culpables pasaron a ser inocentes, y los inocentes, culpables. Pero las aplicaciones van muchísimo más allá: aclarar disputas sobre paternidad y orígenes, establecer las bases para el estudio de las enfermedades hereditarias, mejorar los conocimientos sobre aptitud para transplantes, ayudar en la protección de especies en peligro de extinción, arrojar luz sobre los orígenes y movimientos migratorios del hombre desde tiempos inmemoriales... ¿sigo?
Jeffreys y Southern, eran los candidatos por los que yo hubiera apostado, pero los ganadores han sido otros. Los australianos Barry J. Marshall y J. Robin Warren se han llevado el premio por sus trabajos sobre la bacteria 'Helicobacter pylori' (ver imagen). En 1982, Marshall y Warren plantaron cara a unos principios más que establecidos sobre los orígenes de la gastritis y la úlcera de estómago. Sus hallazgos pusieron de manifiesto que la 'Helicobacter pylori' causa ambos trastornos. Hasta entonces se había dado por aceptadísimo que las causas de la úlcera de estómago eran el estrés, el ritmo de vida y las amarguras de cada uno. Sus descubrimientos abrieron las carnes de la comunidad médica, y fueron tan criticados que Marshall llegó a inocularse la bacteria para probar como ciertas sus tesis. La bacteria en cuestión tiene una vía de transmisión de madre a hijo, y se encuentra en 1 de cada 2 personas. Es responsable de la inmensa mayoría de las úlceras, que ahora han pasado de ser crónicas a curables gracias a los trabajos de Marshall y Warren. Un año más, un premio bien merecido.


Helicobacter pylori

lunes, septiembre 26, 2005

Cazadores de planetas

Hay retahílas sobre las expectativas que tenemos sobre nuestro Universo que están más que trilladas. Por ejemplo aquella que dice “Imagínate los millones de planetas que debe haber ahí fuera, y cuántos de ellos deben ser habitables y patatín y patatán”. Pero realmente, ¿cómo de fácil es encontrar un planeta más allá de nuestro Sistema Solar (exoplaneta)? Si de verdad hay millones, ¿no deberían estar bien a la vista? Pues ni mucho menos, como tampoco es difícil de imaginar. Y no digo que no haya millones; simplemente que poder verlos es bien difícil. No sé si ya llega al centenar el número de aquellos que han sido “medio vistos”. Y voy a explicar un poco qué quiere decir eso de más o menos ver un planeta.
Ni que decir tiene que los planetas no brillan con luz propia. Al menos no lo hacen en el espectro de la luz visible. Así que como norma general, forman parte de esa oscuridad de la que no podemos sacar gran cosa. También es verdad que los planetas suelen girar entorno a estrellas. Pero si piensan que podríamos verlos por el reflejo de la luz de las estrellas cercanas, ya les digo que tampoco: esa luz reflejada no tiene la suficiente intensidad como para alegrar nuestros telescopios más finos. Así pues, sólo hay un momento especial en el que podemos, al menos, decir “¡Ahí hay un planeta!”. El momento en cuestión es cuando coincide que un planeta pasa por delante de una estrella. Lo que nuestros telescopios reciben es una atenuación muy característica de la intensidad de la luz de esa estrella. Es como cuando es de noche, y alguien pasa por delante de la ventana de un cuarto iluminado y de lejos vemos su silueta. En realidad no estamos viendo a la persona, pero sabemos que ahí hay una persona pasando. Muchos astrofísicos han hecho de detectar y catalogar estas atenuaciones de luz, no sólo una profesión, sino una afición. En el gremio son llamados cazadores de planetas; probablemente una de las cacerías que más tiempo y paciencia requiere.
Pero vivimos tiempos fascinantes en lo que a telescopios se refiere, y el Observatorio Europeo Austral (ubicado en Chile) volvió a dar la campanada en 2004 con la que puede ser la primera foto obtenida de un planeta fuera del Sistema Solar (véase la mancha roja de la imagen). El objeto en cuestión orbita en las proximidades de la estrella 2M1207, que está a 230 años luz de la Tierra. La imagen fue tomada por el telescopio Yepún, de 8.2 metros, que está situado en el monte Paranal. Tras una mejora considerable en las imágenes obtenidas, descubrieron incluso indicios de la existencia de moléculas de agua, lo que les llevó a pensar que efectivamente se trataba de un planeta. De confirmarse, estaríamos ante un planeta con una masa que es cinco veces la de Júpiter, y una temperatura 10 veces superior.
Necesitamos esperar hasta 2006 para confirmar la naturaleza, trayectoria y comportamiento de este objeto. Si los datos confirman lo esperado, estaremos ante un momento histórico en la búsqueda de exoplanetas. El primero de muchísimos más que tienen que estar por aparecer. Una mirada muy al futuro nos hace soñar con la posibilidad de encontrar exotierras, habitables por nosotros, además de grandes avances en lo que a exobiología se refiere: formas y expansión de la vida en otros planetas. Verdad, a veces soñar despierto es inspirador.


2m1207

martes, septiembre 13, 2005

Qué pasa con los transbordadores

La noticia es de este verano pasado: Tras dos años trabajando para evitar desprendimientos en los tanques de combustible, el lanzamiento del transbordador Discovery fue la mejor demostración de que la NASA no ha conseguido evitarlos, y por tanto cancela las misiones de los transbordadores. Esto supone un importante retraso en la construcción de la Estación Espacial Internacional (ISS), y un futuro incierto para las misiones tripuladas de la agencia espacial norteamericana.
Desde el principio los transbordadores han seguido un camino muy diferente al que se había pensado para ellos. Fueron propuestos en el año 1972 como una forma barata y fiable de poner satélites en órbita. Hubo que esperar hasta el año 1981 para ver el primer lanzamiento de uno de ellos. Las misiones fallidas dejaron de superar en número a las exitosas a partir de 1983. El año 1984 volvería a dar un saldo negativo, pues sólo 5 de las 12 misiones que se hicieron concluyeron con éxito. Pero las críticas sobre la conveniencia de los viajes en transbordador alcanzarían su clímax en 1986 con el accidente del Challenger, que todos vimos reventar poco después del despegue. Terrible día.
Después de esto se limitaron las misiones a aquellas con objetivos científicos y/o militares. Esta tónica se mantuvo invariable con los 4 transbordadores restantes de la NASA: Columbia, Discovery, Atlantis y Endeavour. Los vuelos siempre se consideraron de tipo experimental. Y me explico: un vuelo regular de aerolíneas comerciales jamás se podría considerar experimental, porque los márgenes de error están muy ajustados para que sean raros los accidentes aéreos. En cambio, a partir de cierto punto no se ha podido aumentar mucho más la seguridad de los viajes en transbordador. Esto es sabido por todos, y aceptado por aquellos que deciden participar en las misiones. Sin embargo la NASA se ve obligada a velar por su imagen con unos márgenes de seguridad que se lo ponen bien difícil. La opinión pública no perdona cuando las cosas salen mal, incluso sabiendo que es posible que salgan mal.
Era cuestión de tiempo, y el siguiente desastre lo tenemos todavía fresco. El Columbia se desparramaba incandescente por el cielo del sur de Estados Unidos. De los 4 transbordadores, el Columbia precisamente era todo un símbolo; la personificación femenina de los Estados Unidos, en referencia a los primeros descubridores de las américas.
Ahora el Discovery sale al espacio y vemos a los ingenieros probando pegamentos y soldaduras sobre el fuselaje. Da miedo de solo pensarlo. Y encima oímos hablar de misiones de rescate con... ¡otro transbordador! Vamos, de mal en peor. Gracias a Dios todo fue bien.
Si este es el fin de la era de los transbordadores, tendremos que estrujarnos mucho el coco para igualar sus virtudes: Una bodega de carga de 18x4x4 metros, puesta en órbita de varios satélites a la vez, reparación y recogida de aquellos que estén averiados, reciclaje y abastecimiento de la Estación Espacial Internacional. Pero lo mejor de todo, y a lo que estamos obligados a aspirar: Casi todo en una misión de transbordador se reutiliza. Eso lo hemos conseguido en esta etapa, pero no al precio que se esperaba.
De momento las naves rusas y europeas cubrirán la demanda abierta por la NASA, pero el tema de fondo es mucho más ambicioso, y tiene mucho que ver con ese salto definitivo a la conquista del sistema solar, que todos tenemos en mente, pero que todavía no parece cercano a nuestro tiempo.

martes, septiembre 06, 2005

Lo que no sabemos sobre huracanes

Como sucede con muchos otros temas, los huracanes están sólo comenzando a comprenderse. La definición de escuela es que se trata de un tipo de ciclón tropical con un rotacional lo suficientemente violento como para generar vientos de 110km/h como mínimo. Sabemos también que para conseguir semejante revuelo, necesitan coger carrerilla: Los huracanes se generan en los océanos cuando el sol calienta el agua y el aire húmedo, provocando corrientes verticales y forzando la entrada en el ciclo de más aire húmedo por abajo. Ayudado por los efectos de la rotación de la Tierra, este proceso toma el comportamiento de una peonza que va embruteciéndose conforme recorre el trópico sobre el océano. La carrerilla termina cuando el huracán se topa con tierra firme. Igual que cuando se le acaba la cuerda al trompo, el huracán llega lanzado a tierra, y empieza a frenarse por a ausencia de realimentación de esas corrientes que tan fácilmente obtenía en los océanos. Más rápida será la frenada si hay algún frente de montañas lo bastante significativo más allá de la costa.
En Cuba dicen que octubre es el mes de los huracanes, y su razón tienen. Sin embargo, las posibilidades dan mucho más margen a estos fenómenos. Los huracanes que acaban golpeando el Golfo de México se suelen originar a partir de finales de mayo y principios de junio junto a la costa del África ecuatorial. Y tardan sus semanas en cobrar relevancia suficiente como para dominar el paisaje oceánico y comenzar su vacilante travesía hasta Centroamérica. Algunos llegan en octubre, sí, pero otros tantos llegan bastante antes. Y este asunto de las incidencias no está para nada resuelto.
Tampoco hay satisfacción generalizada con el tema de predecir las trayectorias que van a seguir. Un ejemplo notable de esto lo tuvimos el pasado 2003 con los huracanes Isabel y Charlie. Los superordenadores de la NASA y de Silicon fallaron por centenares de kilómetros, y esto crea de verdad la necesidad de replantearse las cosas. Estos sistemas, además de tener en cuenta la física del fenómeno huracán con un lujo de detalle pasmoso, disponen de una base de datos con el historial de antiguos huracanes, para sacar por imitación conclusiones semejantes. Pues ni por esas. En particular se predijo que Charlie iba a subir por el borde Atlántico de Florida, y acabó más bien metido en el golfo. Cuando la evacuación de miles de personas está en juego, este es un tema muy serio. Una evacuación en falso también tiene consecuencias económicas importantes para una región.
Es también difícil en general conocer el impacto que un huracán tendrá en el territorio que zarandee, cuando por fin llegue a tierra firme. En 1998 el huracán Mitch asoló varias regiones de Centroamérica y todos pensamos que son pobres y les falta infraestructura. ¿Qué podemos decir ahora? ¿Quién se iba a imaginar unas pocas horas antes que el Katrina iba a tener estos efectos sobre Nueva Orleáns y su entorno? Sin duda Nueva Orleáns tiene unas características que la hacían carne de cañón, pero qué decir de las poblaciones vecinas. La infraestructura es vital para estos casos, y en particular los norteamericanos se encargarán de no tropezar dos veces en la misma piedra. Esperemos que eso empiece a ser suficiente.

lunes, julio 18, 2005

En la cabina de una lanzadera de RENFE

A mi vuelta de un fantástico fin de semana en Córdoba, subo a la cada vez más popular lanzadera de AVE. Me han asignado el vagón 4, que es el último y por tanto el contiguo a la cabina del tren. Así que suelto las maletas y cuando me siento me doy inmediatamente cuenta de que la puerta de la cabina está abierta de par en par. No me lo pienso dos veces, y me acerco hasta la mismísima puerta para echar un vistazo. Dentro de la cabina a derecha e izquierda hay varios muebles con tomas de corriente de cada uno de los departamentos del tren, así como de partes de la cafetería, los servicios, etc. Todos los paneles van dentro de estos armarios que tienen una puerta entera de cristal, para que puedas ver el estado de cada toma, sin necesidad de abrir la puertecilla. Al fondo de la cabina el piloto miraba el infinito, inmóvil, sin haber reparado en mi presencia hasta que suelto un “Hola, que maravilla es esto”. De un salto se da la vuelta y me dice “¡Hombre! ¡Qué tal! Pasa, pasa, no te quedes ahí. Me llamo A., encantado”. Entro y me cuenta que en dirección les permiten tener viajeros de vez en cuando para ver cómo funciona todo. El panel de mandos rodea al piloto. A mano izquierda, tiene la aceleración, punto muerto, y algo semejante al freno motor en un manguito de sólo 3 posiciones. En la mano derecha tiene un mango semejante que le permite de una forma muy humanizada controlar la frenada del tren. Justo en el centro de la mesa de mandos hay sitio para sus papeles y sus cosas. “¿Fumas?” Me pregunta. “Este es el único lugar del tren en el que se permite fumar”. Me invita a sentarme junto a los controles de Aire Acondicionado, pero prefiero quedarme de pie. Las puertas del tren se cierran a su hora, y no veo que haya tocado nada. Entonces salta un pilotito blanco y me dice “Ese es el operario que ha comprobado que todos los pasajeros están dentro y las puertas están bien cerradas”. La señal llegó por radio. Adiós al jefe de estación y su banderita.
Salimos, y el primer tramo es manual y a una velocidad de 30km/h. “Mira, en esta pantalla indico la velocidad máxima que quiero alcanzar”. Lo pone a 180km/h y deja el mando de aceleración puesto para que el tren vaya alcanzando suavemente esa velocidad. Salimos de la ciudad, y se activa la navegación informatizada. Me cuenta cómo puede llevar el tren de 4 maneras diferentes si se van estropeando las más avanzadas, claro que cada vez a velocidades menores. Pasado el túnel del castillo pasa a una velocidad de crucero de 250km/h. Cada cambio de velocidad lo anticipa un sistema de navegación que te muestra una cuenta atrás de los kilómetros que quedan hasta cambiar de zona. Todo calculadísimo, todo anticipado.
“¿Y si soltaran una piedra desde uno de esos puentes?”, le pregunto. “Hombre, si la sueltan justo cuando pasamos, nos la tragamos, pero en general saltan los sistemas de detección de caída vertical, y se para automáticamente cualquier tren que esté en trayectoria de colisión. Además el vallado impide cualquier manera de acercarse a la vía sin ser detectado, como ya ocurrió con los del 11 de Marzo que después intentaron reventar la vía del AVE”. Hablamos de política y de hipotecas, y luego volvemos al tren. “Lo que la gente no entiende es que cuando vendemos puntualidad, en realidad les vendemos la protección de todo el trayecto, y que llegarán seguros y a tiempo a su destino, y eso requiere una infraestructura de seguridad muy avanzada”.
En esa misma línea le pregunto, “Ha sido muy fácil para mi entrar aquí. ¿Y si sacara un cuchillo y le matara en pleno trayecto?”. Me contesta, “Bueno, a mi me puedes matar, pero el ordenador de a bordo detecta automáticamente que yo no respondo, y desde control pararían el tren en muy poco tiempo. Ni siquiera yo podría llegar lejos si decido hacer alguna barbaridad.”
Con la misma suavidad que salimos, inició la entrada en Sevilla. Le pregunto, “¿Es verdad que frenan los trenes para ofrecer más velocidad dentro de unos años?”. Me mira extrañado, “De ninguna manera, aunque conforme se generalice la alta velocidad, podremos ofrecer más velocidad en trayectos con mejor infraestructura, alcanzando hasta 350km/h. Los jóvenes viviréis el gustazo de cruzar el país en sólo 5 horas”.

domingo, julio 10, 2005

Más agua, por favor

Estamos ya bien metidos en el verano y las reservas de agua se van agotando a un ritmo preocupante. Los últimos informes del Ministerio de Medio Ambiente hablan de una caída del 1.3% cada semana si promediamos el nivel de todos los embalses del país. Esto nos sitúa en el 53%, que es un 20% menos que el año pasado por las mismas fechas. La situación es especialmente seria en las cuencas del Segura (15%), la del Júcar (27.4%) y la del Sur (39%). La prensa habla de la polémica del trasvase Tajo-Segura. Imposible que todos queden contentos.
Un sistema tan dependiente de la infraestructura y la climatología acabará dándonos alguna época de crisis antes o después. Máxime en un periodo en el que el calentamiento global nos aleja del equilibrio climatológico cuasiperiódico que el planeta ha venido disfrutando hasta la intervención industrial del hombre.
Necesitamos agua de donde sea. El 67% de la superficie terrestre son océanos y mares. Este agua representa el 97% de toda la del planeta. Luego sólo el 3% es agua dulce. De este 3%, las dos terceras partes es agua helada de los glaciares. Así que nos queda aproximadamente el 1% del agua para uso propio, y la tenemos que tomar de ríos, lagos, aguas subterráneas... que dicho sea de paso, la necesitan para mantener la riqueza de los valles que riegan.
El escritor e inventor Alberto Vázquez Figueroa, presentaba en uno de los cursos que organiza la fundación Rey Juan Carlos en Aranjuez el pasado 7 de Julio un sistema de desaladora de agua de mar por ósmosis inversa muy original. Le ha llevado 6 años diseñar el sistema, montar la empresa y pagar las correspondientes patentes. El sistema se sirve de energía eléctrica residual para elevar agua de mar hasta más de 600 metros de altura, en las montañas más cercanas a la costa. El agua se deposita en balsas, y se vuelve a dejar caer por tuberías que la ponen a unas 6 atmósferas de presión. En este estado consiguen que el 45% del agua quede desalinizada, frente al otro 55% sobresalinizado. Y de paso se aprovecha la bajada para producir parte de la energía eléctrica que se utilizó para subir el agua en primer lugar.
El sistema de Vázquez Figueroa ya se está montando en Almería, e Israel ha comprado la patente. Los países en vías de desarrollo podrán acceder al invento sin tener que pagar los derechos correspondientes. El gobierno español lleva ya varios años proyectando desaladoras por ósmosis inversa, que no son las de Vázquez Figueroa, en las zonas de mayor necesidad del país.
En líneas generales la desalación por ósmosis inversa sigue los siguientes pasos: Se drena el agua para quitar las hojas, algas y objetos más grandes. Un tratamiento de cloro desinfecta el agua y evita que vuelvan a crecer las algas. Esto también previene que los filtros que vendrán a continuación queden obstruidos. Se usan filtros de arena para eliminar sólidos, y se aplican coagulantes que precipiten las partículas que quedan suspendidas. Finalmente nos ayudamos de la gravedad para pasar el agua por un filtro de carbón poroso, y la tratamos con ácido para regular su pH. La ósmosis inversa se lleva acabo en una membrana semipermeable sobre la que se presiona el agua a más de 20 atmósferas. El agua pasa, mientras que el cloruro de sodio se queda en el camino.
Las expectativas actuales para la desalación del agua como recurso están en la línea de que sirvan de paliativo. Se puede decir que a medio plazo no serán la solución de una sequía seria, pero podrían aliviarla un poco. Lo mejor de ella, claro está, es que podemos considerar que la materia prima es prácticamente ilimitada. Veremos a dónde nos lleva esta tecnología.

domingo, junio 26, 2005

El eclipse del año

Supongo que a partir de septiembre le darán mucho bombo a este tema, así que voy a contarlo antes de tiempo para que no suene como más de lo mismo. El próximo 3 de octubre un eclipse solar atravesará la Península Ibérica, dándonos una oportunidad única de ponernos a su sombra y ser testigos del espectáculo.
La trayectoria de este eclipse se originará en el Atlántico Norte a las 8:41UT. En el primer momento será una sombra alargada de unos 222km de ancho. Diez minutos más tarde alcanzará el noroeste de la Península Ibérica. Para entonces la sombra tendrá una forma elíptica de 195km de ancho. Vigo y Santiago de Compostela serán las primeras capitales en divisar el fenómeno. Luego llegará a Orense, Zamora, Salamanca, Valladolid, Segovia, Madrid, Toledo, Guadalajara, Albacete, Valencia y Alicante. Parte de Ibiza cae también dentro de la trayectoria, aunque cerca de su borde superior. Pero de todas las capitales de provincia, la más privilegiada será sin duda Madrid. Y particularmente la zona norte de la ciudad, que estará en pleno centro del eclipse. Allí el eclipse durará 4 minutos y 11 segundos en los que serán testigos de un oscurecimiento del 90% del Sol. Valencia, por su parte, tendrá 3 minutos y 38 segundos de fase anular, a una elevación sobre el horizonte de 32º. El eclipse tardará unos 5 minutos en recorrer el tramo Vigo-Madrid, y algo menos para el tramo Madrid-Valencia.
Una vez en el Mediterráneo, el eclipse se dirigirá a Argelia. Luego atravesará Túnez por su parte central, y recorrerá Libia hasta su límite sur oriental. Será entonces cuando el eclipse alcance su mejor momento: A medio camino en su viaje por Sudán, el eclipse total será de 4 minutos y 31 segundos, con el Sol situado a 71º sobre el horizonte de un precioso paraje desértico. La sombra rozará Etiopía por su frontera sur, y Kenia por el norte. Finalmente saldrá de África por las playas de Somalia, para acabar desapareciendo de nuevo en el Océano Índico.
Durante su viaje de 3 horas y 41 minutos, la sombra de la luna recorrerá 14100km y cubrirá un 0.57% de la superficie terrestre. La mayor parte de Europa occidental y el norte de África podrán ver al menos un eclipse parcial, que también merece la pena.
Los eclipses solares son un fenómeno mucho más común de lo que la gente piensa, sólo que normalmente tardan bastante tiempo en ocurrir dos veces en el mismo sitio. Desde el año 1000, la España peninsular ha disfrutado de 23 eclipses totales y 16 anulares. Ha habido siglos en los que no se ha visto ninguno, y siglos en los que se han llegado a ver hasta 5. En algunas ocasiones han sucedido muy seguidos en el tiempo, como ocurrió en 1406, 1408, 1411(anular) y 1415; o bien una serie de tres eclipses totales como la de 1600, 1605 y 1614. Con este eclipse de 2005, termina un periodo de 87 años en el que no hemos tenido ninguno; al menos tres generaciones españolas que no han conocido el fenómeno.
En el futuro inmediato nos esperan 3 eclipses muy seguidos (2026, 2027 y 2028), aunque las condiciones de observación no serán las mejores en ninguno de ellos. En promedio, tendremos un eclipse en España cada 25 años, ya sea total o anular.
Desde 1999 hasta el año 4000 tenemos calculados 14263 eclipses en toda la Tierra. No podemos ir mucho más allá debido a las imprecisiones en el cálculo producidas por las sutiles variaciones de la velocidad de rotación de nuestro planeta.
De momento nos quedamos pendientes del eclipse del próximo octubre. Es un lunes, y muy temprano. Pero sin duda es un fenómeno por el que merece la pena hacer la escapada.

sábado, junio 18, 2005

Vida en la burbuja

Un adecuado cuidado de las mascotas que tengamos en casa comienza por una atención específica a sus necesidades vitales, así como atender a los pormenores de su psique y su higiene. Deberíamos elegir la raza de perro adecuada al tamaño de la casa en la que va a vivir, y en función de las veces que lo podamos sacar y del tiempo que podemos estar en compañía de ellos. Los gatos, ya se sabe, se las suelen apañar bien, aunque también hay características que hacen a unos más idóneos que a otros. Los peces y pájaros tienen una enorme sensibilidad a la luz y la temperatura. Más delicados son los peces, que requieren un mantenimiento exquisito de la pecera. Mucha gente todavía no se informa bien antes de llevar un animal de compañía a su casa.
Hay sin embargo un experimento de la NASA que ha evolucionado hasta llegar a ponerse a la venta para el público en general. Se trata de las llamadas ecoesferas. El propósito inicial de la NASA era encontrar maneras de transportar sistemas cerrados de vida que duraran el tiempo suficiente para llegar, digamos, a Marte, y que una vez allí pudieran servir para proporcionar agua, alimento y aire a los humanos colonizadores del planeta. Toda una empresa.
Para ello se propusieron ecosistemas sencillitos que fueran capaces de durar como poco un par de años encerrados en una burbuja de cristal hermética. La luz sería la única aportación exterior al ecosistema. Agua de mar adecuadamente filtrada llena estas burbujas hasta algo menos de dos tercios de su capacidad. Un selecto baño de microorganismos se extiende por todo el agua. Un tipo de alga oscura parte desde unos cimientos de piedrecitas al fondo de la burbuja, hasta incluso salir por encima de la superficie del agua. Y por último se encuentran los que tal vez tengan más protagonismo en todo el sistema: unos cuantos camarones, que se sabe muy rara vez muestran una conducta agresiva entre ellos.
El ciclo está cerrado y bien cerrado. La luz junto con el dióxido de carbono del agua sirve para que las algas produzcan oxígeno. Este oxígeno es respirado por los camarones, que a su vez comen algas y microorganismos. Cuando la vida de algún camarón toca a su fin, son los microorganismos los que se encargan de procesar los restos mortales y convertirlos en alimento para las algas. Y de esta manera se cierra este pequeño círculo de vida, tan sumamente delicado.
Como se puede ver, la burbuja y sus habitantes casi no necesitan de nuestra atención y cuidados. Sólo hay una cosa muy importante que debemos tener en cuenta: La cantidad de luz que reciba la burbuja no debe ser ni mucha ni poca. Un periodo de más de 60 horas de oscuridad acabaría completamente con la vida del sistema, empezando por una degradación de las algas, que a su vez no aportarían los nutrientes necesarios para los camarones. En cambio, si la burbuja recibiera más de 12 horas diarias de luz, el excesivo crecimiento de las algas consumiría rápidamente los recursos disponibles, acabando todo en un desastre parecido. Nunca, nunca debe dejarse una ecoesfera expuesta a la luz directa del sol. Siempre deben de estar lejos de las ventanas. La temperatura ideal está entre los 15 y los 30ºC, aunque los efectos negativos de no respetar estos márgenes pueden tardar más en manifestarse.
Las ecoesferas se venden por Internet en www.ecosferas.com y a pesar de ser un poquito caras, son toda una lección sobre el equilibrio de la vida y la complejidad de los sistemas autosostenidos. El experimento ideal para hacer un diario en la clase de ciencias. Si les gustan este tipo de cosas, no se lo pierdan.

domingo, junio 12, 2005

Mensajeros de las estrellas

Hablábamos la semana pasada de las dos sondas Voyager, que se encuentran en las fronteras de nuestro sistema solar rumbo a lo desconocido. Cuando se agote toda la energía de sus reactores, simplemente se dejarán llevar por su propia inercia, que es mucha gracias a la enorme velocidad que han alcanzado.
Pero aunque dejen de comunicarse con nosotros, todavía tienen una misión muy especial que cumplir: llevar un mensaje a cualquier forma de vida inteligente que encuentren en su camino.
Y no son las dos primeras en hacerlo, de hecho son la tercera y la cuarta, ya que antes de las sondas Voyager I y II, se lanzaron las Pioneer 10 y 11, que llevaban una pequeña placa donde se identificaban entre otras cosas, el tiempo y el espacio en el que nos encontramos nosotros (ver imagen). Un hombre saluda junto a una mujer, y en la parte de abajo aparece esquemáticamente nuestro Sistema Solar, con la trayectoria de escape de las sondas. Todo está hecho de manera simbólica en un lenguaje lo más simplificado posible, pensado especialmente para que pueda ser procesado con relativa facilidad.
Para las sondas Voyager se preparó un mensaje mucho más elaborado. Tomaron un disco fonográfico de cobre de 30 centímetros chapado en oro y serigrafiado bajo el título “Sonidos de la Tierra”. En él grabaron una selección de 115 imágenes de nuestro mundo, además de una variedad de sonidos tales como las olas, el viento, pájaros, ballenas, monos, perros, grillos, ranas, volcanes, terremotos, burbujas, y demás sonidos característicos. Luego pusieron 95 minutos de música de distintas épocas y culturas, y saludos en 55 idiomas que van desde el Akkadian, que fue hablado hace 6000 años, hasta el Wu, que es un dialecto moderno del Chino. A esto le sigue un mensaje del Presidente de los Estados Unidos (que era Carter en el momento en el que se lanzaron las sondas) y otro del entonces Secretario General de Naciones Unidas. Finalmente grabaron una hora con impulsos eléctricos de los pensamientos, latidos del corazón de un ser humano, y el movimiento de los ojos y los músculos, para que nuestros vecinos estelares pudieran saber cómo nos sentimos. Probablemente esta sea la parte que menos entiendan, o incluso que no entiendan en absoluto, porque está recogida como una acumulación de golpes sonoros sin orden aparente. De todas maneras se pensó que el intento merecía la pena, por si están capacitados para distinguir el fondo orgánico de todos estos sonidos.
El disco va en una funda de aluminio y acompañado de todo lo que hace falta para poder reproducirlo, manual de instrucciones incluido. De nuevo, todo está en un lenguaje simbólico que explica también el origen de la nave de un modo parecido a como lo hacían las placas de las Pioneer.
A la velocidad que van, se estima que pasarán unos 2 millones de años hasta que lleguen a las primeras estrellas que hay en sus caminos. Si es que llegan. Y si llegan después de tanto viaje, puede que encima no encuentren a nadie esperando. Pero por baja que sea la probabilidad de éxito de las viajeras y las pioneras, ilusiona pensar en el caso de que ocurra el milagro, y lleguen a manos de nuevos amigos.

lunes, junio 06, 2005

El Viajero en la Frontera Final

Es noticia que la Voyager I ha alcanzado en estos días lo que conocemos como el límite de nuestro Sistema Solar. Veintisiete años ha tardado desde que el verano de 1977 partiera de Cabo Cañaveral. Del mismo sitio partía también entonces la Voyager II, con diferentes objetivos. Aunque les asignaron distintos planetas para explorar, las dos comparten un destino final parecido. Tal y como muestra el esquema de la imagen, la Voyager I se aleja hacia el norte con respecto al plano planetario a una velocidad que supera el millón y medio de kilómetros al día. Para hacerse a una idea de lo que esto significa, podríamos decir que en este momento la Voyager I completaría el tramo Madrid-Moscú en menos de 4 minutos. Por su parte, la Voyager II se aleja por el semiplano sur, y está todavía un 20% más cerca de la Tierra que la Voyager I. Su velocidad de crucero también es algo menor, y por eso todavía no ha alcanzado la frontera del Sistema Solar.
Podría pensarse que la órbita del planeta más alejado del Sol sería el límite más razonable para la frontera del sistema, pero se proponen otros límites bastante adecuados. La llamada Fase Shock de Terminación (Termination Shock) delimita la zona a partir de la cual el viento solar pierde su fuerza y comienzan a producirse cambios en el comportamiento de las partículas cargadas. Los sensores de la Voyager I ya han dado testimonio de esto, y por ello se piensa que justo ahora se encuentra en esa zona. A partir de este punto, las placas solares de ambas Voyagers irán perdiendo utilidad, por la extrema distancia con el Sol. En previsión de esta situación, les instalaron 3 reactores nucleares para que puedan seguir emitiendo toda la información sobre lo que les está pasando en cada momento.
De esta manera, la Voyager pasará a explorar la llamada Heliosfera (Heliosphere), en la que se espera que encontremos vientos solares cambiantes, así como grandes perturbaciones caóticas e inesperadas. La zona de la Heliosfera que se encuentra en la trayectoria del Sol, se llama Heliocubierta o Heliocapa (Heliosheath). En efecto, el Sol también tiene una dirección determinada en su paseo particular por nuestra galaxia, de modo que deforma la Heliosfera retirando a su paso multitud de perturbaciones y tormentas. Estas perturbaciones acumuladas forman lo que la imagen muestra como Arco de Shock (Bow Shock), que nos encontramos a partir de la llamada Heliopausa (Heliopause). Desde ese punto, esperamos que el campo magnético del sol tenga influencia casi despreciable, y por tanto la Voyager quedará expuesta a durísimas tormentas magnéticas, y a los vientos interestelares.
Se preguntará el lector a qué viene tanto Helio-esto y Helio-aquello. Se trata de una ocasión muy especial para demostrar que la física tal y como la entendemos tiene consistencia. Porque todas esas capas y zonas, de momento no son más que predicciones que hemos hecho, pero está por ver si nuestras elucubraciones coinciden con lo que las Voyagers se encontrarán allí. Estos resultados son extremadamente importantes para seguir muchas líneas de investigación en lo que a cosmología se refiere.
Los reactores nucleares de ambas Voyagers dejarán de rendir allá por 2020, aunque esperamos que para entonces hayan tenido aventuras suficientes. Sin embargo todavía les queda una misión muy especial por cumplir. Aunque de esa hablaré en el artículo de la semana que viene.

domingo, mayo 29, 2005

La rebelión de las máquinas

Todos nos hemos imaginado alguna vez un futuro en el que los robots llenen una parte importante de nuestras vidas. Tarde más o menos, ya se espera el momento en el que nos limpien la casa, paseen al perro y nos lleven al trabajo. Equipados con un buen “cerebro”, pueden llegar a conocer y reconocer su entorno. Pero en previsión del momento en el que sus “procesos mentales” sean suficientemente complicados, Isaac Asimov estableció en sus novelas las famosas Leyes de la Robótica:
1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Implícita en estas leyes está la prevención de que algún día los ordenadores y, por extensión física, las máquinas tomen conciencia de sí mismas. Este descubrimiento de uno mismo como ser pensante y libre, es en realidad algo muy complejo de definir y acotar, pero para el propósito de este texto, creo que se entiende con facilidad. Las leyes de la robótica pretenden evitar que algún día las máquinas se desquicien, y se vuelvan peligrosas. Y no es una idea demasiado peregrina, si tenemos en cuenta que pretendemos hacerlas a nuestra imagen y semejanza... y nosotros bajo cierto punto de vista ya estamos bastante desquiciados.
De todas formas el problema hoy en día es otro, ya que los avances realizados en lo que a crear conciencia de uno mismo se refiere son nulos. Nada de nada. A fecha de hoy las máquinas pueden ver, oír, tocar... incluso oler y gustar. Y además pueden responder a todos estos estímulos de una forma coherente. ¿Pero coherente con qué? Únicamente con lo que nosotros les digamos que es coherente. Sobre esta misma base pueden darnos su opinión, que claro está, ni es opinión ni nada porque nosotros establecemos los márgenes de lo aconsejable y lo desaconsejable.
Lo más interesante podría ser en todo caso, que las máquinas ya pueden aprender. Tras varios intentos de hacer una misma cosa son capaces de ajustar ciertas variables internas y lograr a hacer lo que se proponían con un margen de error muy pequeño. En otras palabras: aprenden y se adaptan. De todo lo dicho, sólo esto último se conoce como Inteligencia Artificial; la conciencia de las máquinas pertenece enteramente al mundo de la ficción.
Por tanto, ¿qué clase de rebelión de las máquinas podría darse en las condiciones actuales? A mí se me ocurren dos:
La primera podría ser algo que ocurre de forma natural en los sistemas demasiado complicados. Si llegáramos a desarrollar un ordenador que procese un entendimiento de nuestro mundo demasiado enrevesado, podría aparecer lo que en sistemas complejos se llama un “fenómeno emergente”. Dicho mal y pronto, sería algo así como que al ordenador “se le iría la olla”. Esto ya lo hemos visto en otras situaciones de la física, y no sería extraño que ocurriera aquí.
La segunda queda reflejada de forma muy clara en el final de la película “Yo, Robot”. Crean este ordenador gigantesco y le dan la tarea de calcular la manera más viable de proteger al mundo. Y, para sorpresa de pocos, el ordenador calcula que un mundo sin humanos tiene un futuro más próspero. Así que se pone manos a la obra con el exterminio. Pero al fin y al cabo, todo son cuentas y algoritmos. Del mundo interior de los conscientes no se han hecho matemáticas... Tal vez sea mejor así.


Imagen tomada de la película "Yo, Robot".

martes, mayo 24, 2005

Mar de luz

No se han navegado ya todos los mares, y no se conocen todos los vientos. La NASA empieza a publicar sus primeros éxitos en lo que a velas solares se refiere. Pero no velas como candiles, sino las de los navíos. Y navíos que tampoco son los del mar, sino que cruzan el océano estelar.
Me explicaré un poco mejor. Un nazareno pasea una tarde de Agosto por la tranquila Calle Real. En medio de la calma, el viandante se encuentra sometido a varias presiones exteriores. La más evidente es ese aire caluroso que a veces viene de abajo y a veces corre por las calles, golpeándole en la cara. Menos evidente es la presión atmosférica: una columna de aire que se eleva por encima de él, y que descansa sobre su cabeza y sus hombros. Pero la presión más insignificante, y no por ello inexistente, es aquella que le viene directamente del sol. Nuestro cuerpo no solo se calienta y se pone moreno, sino que es levemente empujado por cualquier fuente de luz a la que se interponga. En efecto, la luz tiene un comportamiento de partícula cuando colisiona con cualquier cuerpo. De modo que la luz literalmente desplaza el cuerpo con el que colisiona, como hace el viento con las velas de los barcos.
Este fenómeno, conocido en lo relativo a viajes espaciales como viento solar, es significativo según cada caso en particular. Una comparación tosca, pero aproximada, sería por ejemplo que la presión luminosa que puede ejercer el sol sobre mi brazo es 10000 veces menos intensa que la presión que puede ejercer una hoja cayendo de un árbol y rozándome.
Algo mucho más importante sucede con la estela de los cometas que se acercan al Sol. Sus partículas son tan pequeñas que el viento solar puede empujarlas fácilmente, y coloca la estela en dirección contraria al Sol, cuando el cometa está muy cerca, al contrario de lo que podría intuirse. El viento solar vence claramente a la gravedad ejercida por el sol, que no es decir poco. El cometa hace así las veces de veleta del viento solar.
Con todo este conjunto de evidencias, no podía tardar mucho en encenderse la bombilla de los soñadores de viajes espaciales a bajo combustible. La idea es clara: Lanzamos un módulo al espacio que tenga únicamente el combustible necesario para escapar de la atracción terrestre. Una vez allí arriba, desplegamos las velas, y a navegar.
La dificultad está, por tanto, en construir velas que pesen tan poco como para no tener problemas para ser empujadas de forma eficaz por el viento solar. La última prueba de la NASA se hizo con una vela que tenía un grosor 30 veces más fino que un cabello humano. Ya pueden imaginarse lo tremendamente delicado que es desplegar esa vela, y manipularla sin que se rompa. Además, se calcula que la vela debe tener un tamaño de entre 80 y 200 metros para que dé resultados aceptables. La tela, además de fina, es especular, es decir, como un espejo. En definitiva, se trata de llevar al espacio una enorme mantilla de papel de plata y utilizarla para propulsarnos. Los estudios más optimistas hablan de que puede acelerar una nave hasta los 64 kilómetros por segundo, lo cual no está nada mal.
Una última cuestión que dejo en el aire: ¿Cómo hacemos para volver a casa? En el espacio no funciona el rumbo de Ceñida, como en el agua. Pero ya se han inventado formas de servirnos de la vela para navegar contra el viento solar. Mejor que contarlas, las dejo en el aire para los que les gusta pensar en estas cosas.

lunes, mayo 09, 2005

El arte de inventar mundos

La Red Andaluza de Sistemas Complejos se reunió el pasado 5 de mayo en la Facultad de Física de la Universidad de Sevilla. Miembros de los grupos de Granada, Málaga y Sevilla expusieron todo un abanico de trabajos y proyectos. Entre los estudios que han estado realizando los últimos meses encontramos temas de lo más dispares:
-Un método para conseguir que la catalización llevada a cabo en los motores de los vehículos produzca menos polución.
-Un estudio para reorganizar la logística de distribución de alimentos en caso de que algún país de la UE decida cerrar fronteras para protegerse de la extensión de alguna peste.
-Una breve explicación sobre el gran atasco de hace dos fines de semana, que dejó a mucha gente cerca de 11 horas en las salidas de las grandes ciudades. Y además, una explicación sobre porqué no eran necesarias las medidas de prevención que se tomaron para la vuelta del puente.
-Un estudio que presenta algunas características propias de la selección griega de fútbol, y que le hicieron más idóneo para ganar la última Eurocopa.
-Un proyecto del ejército español para mejorar el movimiento de tropas en el campo de batalla.
-Un sistema para anticipar el crecimiento de las ciudades, y proponer soluciones para una ciudad autosostenible.
En la misma línea se estudian cosas tales como razones por las que desapareció la civilización maya, sin mediar un conflicto bélico, o motivos para que se pueda producir la cuarta glaciación.
Y aunque se hace evidente que estos temas no tienen nada que ver entre sí, todos ellos tienen algo en común para su estudio: el ordenador. Gracias a la enorme capacidad de cálculo de los ordenadores, y a la posibilidad de hacer las cuentas con muchos ordenadores a la vez, podemos “inventarnos” situaciones de todo tipo y dejarlas evolucionar, para ver qué pasa.
Por ejemplo, supongamos que planteamos el problema de la logística de redistribución de alimentos, suponiendo que hay vacas locas en Francia, y hemos cerrado las fronteras. Podemos contratar al mejor responsable de logística. Pero también podemos ir al ordenador e inventarnos muchos responsables de logística. ¿Cómo los inventamos? Creamos una cadena con todas las posibles decisiones que podrían tomar ante cada situación, y hacemos que cada uno adquiera aleatoriamente un grupo determinado de decisiones. Entonces los ponemos a cada uno por separado a dirigir la logística, y vemos qué tal lo hacen. A los que nos dan peores resultados, los despedimos (cosa fácil en nuestro mundo imaginado). Más tarde cogemos las decisiones de los mejores, las combinamos para hacer nuevos jefes de logística, y volvemos a repetir el juego. Con este método evolutivo vamos teniendo cada vez mejores responsables de logística, hasta dar con un sistema de redistribución de alimentos más que satisfactorio, que puede venderse a las empresas de alimentación como un valioso producto.
Este sistema de inventar pequeños mundos en el ordenador y dejar que evolucionen “a ver qué pasa” se llama heurística, y consigue darnos soluciones muy buenas a problemas casi imposibles de tratar con papel y lápiz. De nuevo, los límites vienen impuestos únicamente por la velocidad de nuestros ordenadores, y nuestra imaginación. El futuro para estos métodos de trabajo promete ser largo y llenos de excelentes resultados.

domingo, mayo 08, 2005

Viviendo a la sombra de un volcán

Catania celebra elecciones locales los días 15 y 16 de mayo. Las fotos llenan las paredes de la ciudad con los nombres en letras bien grandes de centenares de candidatos que aspiran a alcalde, concejal o responsable de barrio. El pasado viernes 29 de Abril, el partido de izquierdas “Sindaco Bianco” presentaba sus candidatos cerca de la Plaza Duomo, en el corazón de la ciudad. Terminado el acto, el partido “Forza Italia” de Berlusconi, montó un impresionante escenario con casetas llenas de productos típicos de Sicilia, y toda una puesta en escena. Hablaron de cambio, de más trabajo en la ciudad, mejores infraestructuras… en fin, de todo. Pero ni una sola palabra del Volcán Etna, omnipresente desde cualquier punto de la ciudad.
Con 3350 metros de altura y 210 km de perímetro, el Etna es el volcán activo más alto de Europa, y por tanto toda una atracción para turistas y vulcanólogos. Claro que esta altura varía de erupción en erupción, según sea la deformación resultante del cráter. Casi se tarda más en contar las ocasiones en las que está activo que las ocasiones en las que duerme. El peor de los despertares del Etna se registró en 1669 cuando la lava arrasó una docena de poblaciones, e incluso llegó a la parte occidental de Catania, y poco después al mar. En 18 días hizo la lava este recorrido. Esta ocasión fue también famosa porque fue la primera vez en la historia que se intentaron cavar zanjas y canales para desviar la lava de un volcán. Hasta 1992 no fue posible mostrar la verdadera eficacia de la canalización de la lava del Etna, con grandes obras de ingeniería de por medio. Gracias a estas prevenciones, la lava debería tardar entre 5 y 6 meses para llegar a las puertas de Catania.
La mayor parte del volcán es parque natural, y si bien puedes acercarte mucho, en general no está permito asomarse al cráter o los conos de chimenea. La razón es clara; tiene pequeñas erupciones con demasiada frecuencia. Ya en 1979 se cobró la vida de 9 personas que se encontraban demasiado cerca en el momento de una de sus súbitas explosiones.
Ocurren con tanta frecuencia que casi no son noticia. En los tres últimos años ha habido varias, aunque todas ellas con poca salida de lava. En 2002 sin embargo hubo una erupción de mayor importancia, y todavía están las tiendas de souvenirs llenas de postales preciosas con los ríos de lava bajando por la ladera. A cualquiera que viene de fuera esto le puede causar impresión, pero los lugareños llaman al Etna, el volcán amistoso. Lo que tiene de buena gente este gigante es que sus pendientes son muy poco pronunciadas, y por tanto la lava avanza en general a un ritmo que da a las poblaciones vecinas tiempo suficiente para una evacuación ordenada.
La última vez que hubo un poco de alarma fue entre 1999 y 2000, cuando el volcán se pasó meses humeando densamente hasta el punto de llegar a cubrir Catania y los alrededores con ceniza volcánica. Fue necesario repartir mascarillas entre la población y limpiar la ciudad. Pero lo que más preocupaba es que este humo era ya bien conocido por ser el preludio de una erupción importante, que afortunadamente no se llegó a producir.
Sobre el fondo celeste de Catania, que es segunda ciudad más poblada de Sicilia, el Etna cubre siempre el horizonte hacia el norte. Pero es en lugares como este donde vuelves a recordar que no existen los llamados “desastres naturales”, sino más bien es el hombre el que debe vivir consciente del suelo que pisa. A 1 de mayo de 2005, el Etna echa un hilo de humo blanco, que no anuncia papas, pero recuerda que él es un habitante más de la preciosa Sicilia oriental.


Vista del Etna desde Catania

martes, abril 19, 2005

Una misión de cine

El primer gran espectáculo celestial de este verano de 2005 viene de manos de la NASA. La misión tiene nombre de película: Deep Impact (Impacto profundo). El filme en cuestión al que hace alusión este proyecto de la agencia espacial americana es una superproducción de Hollywood de 1998. Un grupo de héroes estadounidenses dan su vida por salvar a la Tierra del impacto de un meteorito que habría acabado con todas las formas de vida, tal y como ocurrió con los dinosaurios en su momento. Salvando los espectaculares efectos especiales, la película tiene un guión bastante simplón y unos argumentos científicos más que discutibles.
En cambio la misión Deep Impact de la NASA es rica tanto en espectáculo como para la investigación. El pasado 12 de enero la lanzaban desde Cabo Cañaveral al espacio. Se trata de un módulo de 1 metro de diámetro y 372 kilogramos de peso que tiene como destino el cometa Tempel I. El módulo se compone de dos partes. Por un lado está el cuerpo central que dispone de dos telescopios de alta precisión, un panel solar, y un propulsor para el periodo inicial. Por otro tenemos una sonda, de la que hablaremos en los siguientes párrafos.
El primer mes en el espacio se dedicó a ajustar la trayectoria y calibrar los elementos de observación. Para ello utilizaron la Luna y Júpiter, que en ese momento se encontraban alineados con la Deep Impact. Los siguientes 4 meses, que incluyen el momento presente, pertenecen a la llamada fase de crucero, en la que la Deep Impact toma rumbo hacia el cometa Tempel I. Este cometa completa una órbita elíptica alrededor del Sol cada 5 años y medio. La penúltima fase de la misión tendrá lugar cuando el cometa se encuentre más cerca del Sol y visible desde la tierra. En este periodo la Deep Impact se dedicará a observar con todo lujo de detalle al Tempel I. Esta fase comenzará a principios de mayo, y terminará el 30 de junio. Sin embargo, los últimos cinco días de la misión (desde el 30 de junio hasta el 4 de julio) serán los más interesantes. La Deep Impact estará en ruta de colisión con el cometa. Esto quiere decir que si no hiciera nada, acabaría chocando con él. Durante estos 5 días se dedicará a ajustar bien la trayectoria para lanzar contra el cometa la sonda antes mencionada. El objetivo de la sonda es hacer un buen cráter en el cometa. Se espera que el cráter tenga desde 10 hasta 200 metros de diámetro, y desde 4, hasta 30 metros de profundidad.
En el mismo instante en que la sonda sea lanzada, el módulo comenzará a modificar su trayectoria para no acabar chocando con el cometa, tal y como se pretende que haga la sonda. Durante el mes de julio, se dedicará a observar el estropicio que haya provocado la sonda. Según sea el tamaño del cráter, y la forma de la nube de partículas que salgan despedidas, se podrá conocer la composición, densidad, porosidad y resistencia de los materiales del cráter. Así mismo se espera que el núcleo del cometa quede en parte al descubierto para su estudio. Todo esto será observado por el módulo, que estará a unos 700 kilómetros de distancia. Los telescopios Hubble y Chandra, que orbitan la tierra, también participarán en la observación.
El patriótico 4 de julio será el día en el que la sonda impacte con el cometa. Ese día el Tempel I será visible desde la Tierra, y si los destrozos son suficientes tal vez sea visible el propio impacto. En un día tradicionalmente de fuegos artificiales en todas las ciudades de Estados Unidos, asistiremos también a los primeros fuegos artificiales fuera de la Tierra. La NASA nos trae un espectáculo que seguro merece la pena no perderse.


Deep Impact

martes, abril 12, 2005

Si hay que ir, se va

Los habitantes del planeta Malacandra (Marte) se sorprendían cuando el británico Ramson les explicaba la importancia que tienen los medios de transporte en la Tierra. Claro que el planeta marciano que nos relata C.S. Lewis en su novela “Lejos del planeta silencioso” tiene todo tipo de recursos a disposición de sus habitantes, y por tanto acaba con la necesidad de transportar nada. Los humanos somos siempre un poco más complicados que cualquier cosa.
No hace falta decir que la historia del transporte es tan antigua como la invención de la rueda. El objetivo desde entonces ha sido encontrar formas de llegar a cualquier lugar lo antes posible y de una forma económica y segura. No estaremos tranquilos hasta que llevemos al límite las posibilidades del transporte. El caso extremo es lo que la ciencia-ficción bautizó como teletransporte, es decir, una especie de artilugio que te haría desaparecer de un lugar e instantáneamente aparecer en cualquier otro. Esta idea es bien antigua en la literatura, pero se hizo muy conocida a partir de la serie de televisión “Star Trek” de finales de los 60.
En 1993, el teletransporte abandonó el ámbito de la ficción para pasar a ser ciencia teórica, de manos del físico Charles Bennett y un grupo de investigación de la IBM, que confirmaron la posibilidad del llamado teletransporte cuántico. La noticia se publicó primero en la reunión anual de la American Physical Society celebrada en marzo de dicho año, y llevada poco después a los cánones de la ciencia por su publicación en el Physical Review Letters.
Finalmente en 1998, físicos de California Institute of Technology (Caltech) en colaboración con dos grupos de investigación europeos, consiguieron llevar a la práctica lo publicado en 1993, y teletransportaron un fotón. Sí, es poca cosa, pero por algo había que empezar. Tal y como Bennett publicaba, existe una condición indispensable para poder efectuar este teletransporte: Para obtener el fotón que queremos en el lugar de llegada, es imprescindible destruir aquel que teníamos en el lugar de partida. Y efectivamente esto se consiguió así. Un fotón llega al puerto de salida y es destruido para generar un impulso electromagnético (otro fotón) que conserva las características propias del primer fotón. Este impulso se propaga por un cable coaxial, y cuando alcanza el puerto de llegada, genera un fotón idéntico al original. Todo esto se consigue haciendo verdaderas piruetas que “sortean” en cierto modo el Principio de Indeterminación de Heisemberg. Pero eso es largo de contar.
Más tarde físicos de la National Australian University consiguieron teletransportar un haz de luz coherente (un láser). Ya se complica un poco más la cosa. Aunque dicho mal y pronto, es algo así como poner en fila los fotones para repetir el mismo proceso de antes.
Lo que de verdad sería de extrema complejidad es teletransportar por ejemplo algún ser vivo. Usemos, como en otras ocasiones, un pobre ratoncito. Sería necesario teletransportar uno a uno sus 10^26 átomos, y colocarlos de forma ordenada, tal y como estaban en el ratón original. Olvidémonos de la poca gracia que le hará al ratón el ser destruido en un sitio para después ser creado en otro. El problema más importante es tratar con suficiente rapidez esos 10^26 átomos. Estamos hablando de trillones de trillones de átomos. No sólo necesitamos un sistema de procesado superpotente, que teletransporte átomos (que ya es mucho más que fotones), sino también un medio de destruir el ratón inicial de una forma rápida, coherente, y que no afecte a su estructura conforme se realiza el proceso. Vamos, que de momento sólo cabe pensar en una carnicería. No hemos hecho más que empezar con este tipo de temas tan espectaculares.