Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

septiembre 06, 2014

25 años de la World Wide Web

Sí, hubo un mundo antes de la web, cuando los archivos se compartían llevando papeles de un lugar a otro y donde la información era mucho menos libre que hoy en día.

Esta poco impresionante estación de trabajo NeXT fue el
primer servidor web, instalado por Tim Berners-Lee en
el CERN. A la izquierda, sobre el teclado, hay un ejemplar
del documento "Gestión de la información: una propuesta",
 la semilla de la telaraña mundial.
(Foto CC Coolcaesar, vía Wikimedia Commons)
La fecha no es muy precisa, depende de qué criterio se utilice para determinar en qué momento podemos decir que ya existía la World Wide Web, el servicio de Internet que revolucionó la red y la convirtió en lo que es hoy. Pero estrictamente, la idea se presentó hace un cuarto de siglo, en marzo de 1989, en un documento sobriamente titulado “Gestión de la información: una propuesta” que envió el físico e ingeniero informático británico Tim Berners-Lee a sus jefes del Centro Europeo de Investigaciones Nucleares, CERN.

Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.

Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.

Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.

Era lento. Era torpe. Y había que saber lenguaje Unix.

Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.

Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.

El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.

La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.

Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.

Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.

La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.

Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.

Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.

Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.

La web profunda

La “web profunda” o “invisible”está formada por todas las páginas que no son indexadas por los buscadores: las accesibles mediante suscripción, redes privadas de empresas y gobiernos; páginas que se generan en respuesta a solicitudes y luego se borran (como nuestros movimientos bancarios al consultarlos) y otras. Se calcula que es miles de veces mayor que la web abierta e incluye, aunque no como lo pintan algunos mitos que rayan en la leyenda urbana, páginas donde se desarrollan actividades ilegales y que son objeto del interés de las corporaciones policiacas de todo el mundo.

septiembre 05, 2014

Los océanos de Cousteau

Antes de "Cosmos" y su viaje por los planetas y la vida, un tenaz aventurero francés nos mostró un universo desconocido y muy, muy cercano: el de los mares que ocupan la mayor parte de la Tierra.

El capitán con su clásica
indumentaria. Fotografía de la
Sociedad Cousteau
Jacques-Yves Cousteau era difícil de definir. Oceanógrafo que no estudió oceanografía. Biólogo sin título. Capitán de barco que había estudiado para piloto. Y un gran comunicador que nunca estudió comunicación.

El capitán Cousteau, reconocible todavía por su gorro de lana roja y sus gafas, fue conocido gracias principalmente a un programa de televisión, “El mundo submarino de Jacques Cousteau”, una asombrosa serie de documentales sobre los más diversos aspectos del mar y sus habitantes animales y vegetales, emitida de 1968 a 1975. Sin embargo, para ese momento, el inquieto francés ya había vivido varias vidas distintas.

Jacques-Yves Cousteau nació el 11 de junio de 1910 en Saint-André-de-Cubzac, Gironde, Francia. Quizás el más importante acontecimiento de su temprana infancia fue cuando, con apenas 4 años de edad, su frágil estado de salud hizo que su médico le recomendara evitar los deportes bruscos y, en vez de ellos, aprender a nadar. Ése sería el comienzo de la fascinación por el agua que le acompañó toda la vida. El otro aspecto destacado de la personalidad del joven era su interés por los dispositivos mecánicos. Apenas tenía 13 años cuando adquirió una cámara de cine de aficionados, pero antes de registrar cinematográficamente el mundo a su alrededor, decidió desarmarla para ver cómo funcionaba. Océano, mecánica y cine serían, en definitiva, los aspectos definitorios de la vida de Cousteau.

Pero no lo sabría sino hasta pasados unos años.

El niño Jacques no era buen estudiante. De hecho, sus malas notas llevaron a que sus padres lo enviaran a un internado y después a un colegio preparatorio del que salió para entrar, en 1930, a la Escuela Naval de Brest, de donde se graduó como técnico de artillería tres años después. Inmediatamente se enrolo en el ejército con la idea de convertirse en piloto. El rumbo de su vida quedaría decidido, sin embargo, en 1936, cuando a punto de terminar sus estudios de aviación sufrió un fuerte accidente de automóvil del que salió gravemente herido, entre otras cosas con ambos brazos rotos.

Se dice que quizá ese accidente resalvo indirectamente la vida para permitirle convertirse en el gran defensor de los mares, sobre todo porque todos menos uno de los compañeros con los que estudió y que sí se convirtieron en pilotos habrían de morir en combate durante la Segunda Guerra Mundial. Mientras se recuperaba, un amigo le regaló unas gafas de buceo que le abrieron las puertas que cuanto ocurría debajo de la superficie del mar.

La guerra puso en espera cualquier otro proyecto. primero fue instructor de artillería en la base de Toulon, pero una vez consumada la invasión nazi de Francia, se refugió con su familia en un pueblo de la frontera con Suiza, donde se integró a la resistencia francesa y se dedicó a espiar los movimientos del ejército italiano, acción que le valdría numerosos reconocimientos como héroe de guerra.

Pero todavía durante el conflicto armado, Cousteau y el ingeniero Émile Gagnan desarrollaron el primer sistema de buceo o submarinismo totalmente autocontenido, el llamado “SCUBA”, formado por una botella de aire comprimido y un regulador que permitía respirar ese aire sin que saliera despedido por la presión. De un golpe habían inventado el buceo autónomo, y su patente sería una de las primeras fuentes de financiamiento de las exploraciones oceanográficas de Cousteau, que por entonces realizó sus primeros documentales sobre el mundo submarino utilizando también una cámara diseñada por él mismo para soportar la presión bajo el mar.

En principio, el nuevo sistema se utilizó para eliminar de los mares franceses las minas que habían quedado después de la guerra. Pero ya en 1948 Cousteau organizó una expedición en el Mediterráneo para encontrar los restos de un naufragio romano del siglo I antes de la era común, una acción que sería la iniciadora de la arqueología submarina. Dos años después, Cousteau consiguió comprar un dragaminas británico al que convirtió en el primer barco dedicado a la investigación oceanográfica, el Calypso, llamado así en honor a la ninfa de los océanos.

Para financiar sus investigaciones, Cousteau escribió el libro “El mundo silencioso”, que tuvo un éxito instantáneo y que en 1956 convirtió en película. Ya había hecho una docena de documentales, pero éste fue el que lo puso bajo los reflectores, al ganar un Óscar al mejor documental y una palma en el festival de Cannes.

El éxito le permitió abandonar el ejército después de 27 años de servicio. Había logrado el beneplácito del príncipe Rainiero de Mónaco, quien lo nombró director del Museo Oceanográfico de Mónaco y le ofreció apoyo financiero. Ese mismo año fundó un grupo de investigación y un programa experimental para explorar la posibilidad de vivir largos períodos bajo el agua.

Se dedicaría entonces a la investigación y la promoción del estudio marítimo, trabajando estrechamente con organizaciones como National Geographic y diversas instituciones, hasta que en 1968 comenzó la memorable serie de televisión que enseñó al mundo cómo eran realmente los océanos debajo de la superficie.

Pero su trabajo no era únicamente científico. Al paso del tiempo se convirtió en activista en favor del medio ambiente y uno de los iniciadores de la preocupación por los efectos de la actividad humana en distintos ecosistemas. Fue el primero que mostró los problemas ocasionados por la contaminación de los mares, no sólo del aire, impulsando la naciente conciencia ambiental y dedicándole sus mayores esfuerzos a partir de la década de 1980.

Gracias a su actividad, fue distinguido por numerosas organizaciones y academias científicas como la francesa y la estadounidense, que lo hicieron miembro pese a no tener estudios universitarios, además de seguir cosechando premios cinematográficos por sus documentales. Al final de su vida, había producido más de 115 películas y 50 libros, cosechando tres Óscares, un premio Emmy y un Bafta.

En 1996, su embarcación insignia, el Calypso, fue embestida por una barcaza en Singapur. Cousteau murió el 25 de junio de 1997 mientras trataba de conseguir dinero para construir una nueva nave de investigación.

El legado

La herencia de Cousteu, por desgracia, fue objeto de litigio por parte de los hijos de sus dos matrimonios. El resultado son dos organizaciones independientes, la Sociedad Cousteau y la Ocean Futures Society, donde hoy sus nietos son una tercera generación de oceanógrafos, ambientalistas y aventureros. Su más reciente logro fue romper en un día el récord del experimento de vida submarina de Cousteau. En junio de 2014, su nieto Fabien Cousteau vivió 31 días bajo el mar.

Urano, el gigante de hielo

El primer planeta descubierto con telescopio es uno de los más desconocidos por el hombre. El sueño es que alguna de nuestras naves pueda visitarlo en un futuro relativamente cercano.

Urano, con su eje de rotación inclinado 90º y sus
anillos girando alrededor de su ecuador.
(Foto D.P. NASA/JPL vía Wikimedia Commons)
Los planetas que podemos ver con sólo nuestros ojos son cinco: Mercurio, Venus, Marte, Júpiter y Saturno. O seis, si bajamos la mirada al suelo, a nuestro propio planeta, la Tierra.

El telescopio, inventado por Hans Lippershey o por Zacharias Jansen (la historia no es clara), amplió de manera asombrosa el universo cuando Galileo Galilei lo apuntó al firmamento. El ser humano empezó a descubrir que vivía en un espacio asombroso, que las quizá 10 mil estrellas que era capaz de ver en una noche sin luna eran apenas una mínima fracción de los cuerpos que habitan el espacio y, eventualmente, que el sistema solar que Copérnico y Galileo habían descrito estaba ocupado por otros que sólo podíamos detectar con nuestros nuevos aparatos.

El honor de descubrir el primer planeta nuevo desde el inicio de la historia humana correspondió a William Herschel.

Por supuesto, descubrir un planeta no es tan sencillo si no sabemos cómo deben comportarse los planetas. De hecho, Urano había sido observado anteriormente en multitud de ocasiones registradas, y un número indeterminado de otras ocasiones que no fueron documentadas para la historia. El propio Herschel, la primera vez que vio en marzo de 1781, lo reportó como cometa. Tuvieron que pasar varias semanas de cuidadosa observación para que se diera cuenta de que su “cometa” tenía ciertas características singulares que lo hacían similar a un planeta. En palabras del propio astrónomo: ”No sé cómo llamarlo; es posible que sea un planeta en una órbita casi circular alrededor del sol o un cometa moviéndose en una elipse extremadamente excéntrica”.

Pero, para 1783, la comunidad astronómica internacional estaba de acuerdo en que se trataba de un nuevo planeta. Este hecho por cierto, convirtió a Herschel en el primer astrónomo profesional al recibir de manos del rey Jorge III un estipendio anual de 200 libras para que se dedicara única y exclusivamente a la astronomía, en el Castillo de Windsor, y además entretener con sus observaciones a la familia real.

A Urano le seguirían otros planetas, hasta completar nuestra imagen del sistema solar en el cual habitamos.

Urano es el tercer planeta más grande de nuestro sistema solar después del gigantesco Júpiter y de Saturno, y se distingue por un profundo color azul que es resultado del metano en su atmósfera, que absorbe el extremo rojo del espectro de la luz solar. Aunque solemos llamar a estos planetas gigantes gaseosos, en realidad están formados de un líquido caliente y denso de materiales en forma de hielo, que flotan alrededor de un pequeño núcleo rocoso: agua, metano y amoníaco forman esa capa helada sobre la cual hay una densa atmósfera compuesta principalmente por hidrógeno, helio y una pequeña cantidad de metano.

La característica más notable del planeta descubierto por Herschel es que es el único cuyo eje de rotación es perpendicular al plano de su órbita alrededor del sol. Es como si el eje de la tierra se inclinara 90° hasta ocupar el lugar del Ecuador. De hecho, el polo sur de Urano apunta directamente al sol y el Polo Norte mira hacia el borde del sistema solar.

Urano tiene anillos también, como los otros gigantes del sistema solar, en un sistema menos complejo que el de Saturno pero más que el de Júpiter y Neptuno. Aunque Herschel reportó haberlos visto, es poco probable que lo hiciera, de modo que se considera que el descubrimiento de los anillos lo hicieron los astrónomos James L. Eliot, Edward W. Dunham y Douglas J. Mink el 10 de marzo de 1977.

El propio Herschel descubrió las primeras dos lunas conocidas de Urano, Titania y Óberon, en 1787. Pasaron siete décadas antes del que William Lassell descubriera otras dos en 1851, Ariel y Umbriel, y casi un siglo para que Gerard Kuiper descubriera la quinta: Miranda. Las lunas, por cierto, han recibido nombres de entidades mágicas de la literatura inglesa en lugar de partir de la mitología griega.

Sólo una nave espacial creada por el hombre, la sonda Voyager 2, ha pasado cerca de la superficie de este planeta. El 24 de enero de 1986, la mítica sonda pasó A 81.500 km de las nubes superiores de Urano. Nueve años habían pasado desde el lanzamiento de este robot para que finalmente pasara brevemente junto a este planeta. En unos pocos días, el Voyager 2 envío a la Tierra miles de imágenes y grandes cantidades de datos sobre el planeta sus lunas (de las que descubrió once más), sus anillos, su atmósfera, y otras características. El Voyager también detalló el sistema de anillos alrededor de Urano, descubrió que posee un campo magnético desusadamente potente y que la temperatura en la región ecuatorial parece ser más elevada que en los polos... pese a que recibe menos luz solar que el polo Sur por la inclinación del eje.

La exploración astronómica de Urano ha determinado que tiene un día de 17 horas y 14 minutos terrestres, además de aumentar el número de lunas del planeta hasta 27. Está 19 veces más lejos del Sol que nuestro planeta y su año, su órbita alrededor del sol, es de 84 años terrestres. Es decir, desde que Herschel lo descubrió, sólo ha dado tres vueltas alrededor del sol.

Pero Urano presenta hoy más interrogantes que respuestas. Entre ellas: ¿por qué está inclinado su eje?, ¿acaso sufrió una colisión con otro cuerpo celeste? Y ¿por qué Urano, al igual que Neptuno, tiene muchísimo menos hidrógeno y helio que Júpiter y Saturno, cuando su origen nos sugiere que debería ser similar? ¿El interior del planeta es frío o produce su propio calor?

La solución a estas preguntas estaría en una misión que visite el planeta y se establezca en órbita a su alrededor para observarlo con atención. Idealmente, tal misión debería lanzarse en la década de 2020, cuando se requeriría menos combustible y tiempo para llegar a Urano.

Varios científicos han propuesto misiones así. Su máximo obstáculo es el coste que tendría, de entre 1.000 y 2.000 millones de euros.

De no conseguirse financiamiento oportuno para la misión, Urano seguirá siendo un misterio azul en la familia del sistema solar.

Los nombres de los planetas

Agradecido por la generosidad del rey, William Herschel propuso ponerle al nuevo planeta el nombre del monarca, “Planeta Georgiano”. La idea, sin embargo, no fue popular fuera de Inglaterra. Otros astrónomos preferían continuar la nomenclatura ya establecida en Europa y América, basada en la mitología griega. El alemán Johann Bode fue quien propuso el nombre de Urano, el dios padre de Saturno y de los Titanes, los ancestros de los dioses griegos. El nombre, sin embargo, no se generalizó sino hasta mediados del siglo XIX, cuando se descubrió y dio nombre también a Neptuno.

agosto 31, 2014

La duración de nuestras vidas

Vivir para siempre, sueño de los alquimistas, y frecuente promesa de estafadores. Sigue pareciendo un sueño lejano, pero al menos hoy disfrutamos dos veces más años de vida que nuestros no muy lejanos ancestros.

"Estudio de un viejo", del maestro holandés
Jan Livens, siglo XVII (Imagen D.P. vía
Wikimedia Commons
El récord mundial de longevidad certificada y contrastada lo ostenta Jeanne Calment, francesa que vivió la asombrosa cantidad de 122 años y 164 días, entre el 21 de febrero de 1875 y el 4 de agosto de 1997. La prueba de su edad procede de consecutivos censos franceses desde el de 1876, donde aparece con un año de edad.

Es notable que vivió sola hasta los 110 años, que a los 85 empezó a hacer esgrima, que andaba en bicicleta hasta los 100, y que fumó hasta los 120.

Su personalidad es fascinante porque una vida larga es un viejo sueño humano. Por eso los relatos míticos suelen incluir a personajes enormemente longevos y que, además, conservan el vigor de la juventud. A los antiguos reyes sumerios se les atribuían reinados de entre 30.00 y 72.000 años, mientras que es conocido que la Biblia asegura que Abraham murió a los 175 años y su hijo, Isaac, el que se salvó de ser sacrificado en el último momento, llegó a los 180 años de edad.

Es probable que los “años” del viejo testamento sean resultado de traducciones incorrectas de meses lunares o de otras medidas de tiempo. Pero no importa: la gente ha optado por creer que fueron verdaderas esas vidas larguísimas, como la de Matusalén, poseedor del récord bíblico con 969 años, por improbable que resulte.

Queremos ser longevos, aunque pasar de los 100 años de edad sea una hazaña poco común. En 2010, sólo el 0,0173% de los estadounidenses alcanzaban los 100 años de edad. España es más longeva, con 11.156 centenarios en 2013, el 0,024% de la población. Aún así, es una cifra muy pequeña.

Y sin embargo, en promedio y en general, la vida humana tiene cada vez una mayor duración gracias a diversos factores. Pese a tener pocos centenarios, vivimos cada vez más.

La revolución de los abuelos

Rachel Caspari, paleoantropóloga de la Universidad de Central Michigan ha estudiado el desgaste de los dientes de nuestros antepasados como una medida razonablemente fiable (cotejada con otros métodos) de la longevidad de distintos individuos y poblaciones. Como resultado de sus trabajos, cree que una de las ventajas del Homo sapiens sobre los neandertales y que permitió a la primera especie sobrevivir mientras la otra desaparecía fue, precisamente, la longevidad.

Hasta hace unos 30.000 años, ni nuestros ancestros ni sus primos los neandertales solían vivir más allá de los 30 años, salvo excepciones. Fue por entonces cuando, por causas desconocidas, nuestra especie empezó a tener una mayor longevidad. Los humanos primitivos vivieron, por primera vez, con sus abuelos, lo que permitió conservar y transmitir mejor la información acumulada, afianzando la cultura. Según Caspari, esa revolución del paleolítico superior fue nuestra ventaja. Más personas, dice, permiten que haya más innovación, más ideas originales.

Tener viejos permitió que ellos cuidaran a los jóvenes, liberando a los adultos jóvenes para dedicar más tiempo a conseguir comida, lo cual fomentaba el incremento de la población, lo que también hacía a los Homo sapiens más fuertes como comunidad que los neandertales.

Pero una vida más larga, súbitamente, hizo también más evidentes los defectos acumulados en la historia de nuestra especie, lo que Caspari llama "las cicatrices de la evolución". Pagamos esa vida más larga con los achaques de la ancianidad.

La medida más común de la duración de la vida es la expectativa de vida al nacer. Pero al valorarla es importante recordar que se trata de un promedio. Una expectativa de vida de 40 años no indica que la mayoría de la población muriera a los 40, bien podía ser que la mitad de la población muriera en su primer año de vida y la otra mitad viviera hasta los 80. Entendido eso, la expectativa de vida han crecido de modo asombroso.

Hasta los inicios del siglo XIX, la expectativa de vida al nacer se movía entre los 30 y los 40 años de edad. A partir de ese momento empezó a aumentar, más acusadamente en los países cuya población tiende a disfrutar de un mejor acceso a innovaciones vitales como la medicina, el agua corriente, el alcantarillado y las normativas sobre higiene de los alimentos y otros productos. Actualmente, la expectativa de vida en muchos países se ha duplicado hasta los 80 años. España, de hecho, es uno de los países con el más notable cambio. Desde el inicio del siglo XX, la esperanza de vida al nacer ha pasado desde los 33,9 hasta los 75,8 años en el caso de los hombres y de los 35,7 hasta los 82,7 años en el de las mujeres.

¿Cuánto podemos vivir en realidad? Algunos investigadores han intentado calcular la máxima tolerancia del cuerpo humano al desgaste de la edad, las inevitables enfermedades degenerativas y los achaques que se van acumulando. Los coreanos Byung Mook Weon y Jung Ho Je han estimado que la edad máxima que puede alcanzar un ser humano es de 126 años. Otros, más optimistas aunque claramente con menos información, buscan sin embargo hacer realidad el sueño de la inmortalidad.

Pero lo esencial para muchos no es solamente vivir más años, sino que se puedan disfrutar con calidad de vida. En ese esfuerzo también la medicina ha hecho avances con procedimientos que hace no muchos años habría sido impensable practicarle a ancianos de 80 o 90 años, por ejemplo para dotarlos de nuevas caderas. Vivir más, y vivir mejor, es uno de nuestros logros más notables como especie.

¿Por qué envejecemos?

Hay diversas teorías que pretenden explicar, al menos parcialmente, por qué envejecemos y morimos. Se sugiere que el envejecimiento está programado en nuestras células, que sólo pueden reproducirse un número determinado de veces. También es posible que envejecer sea el inevitable resultado de la acumulación de daños celulares a lo largo la vida, fallos en la replicación del genoma, estrés oxidativo, acumulación de telómeros en los extremos de nuestros cromosomas y otros factores.

agosto 30, 2014

Linus Pauling, señor de los extremos

Uno de los más grandes químicos desde Lavoisier y un luchador digno por la paz fue, al mismo tiempo, un entusiasta de fantasiosas propuestas de salud que resultaron falsas.

Linus Pauling en 1962, cuando ganó
su segundo Premio Nobel, el de la Paz.
(Foto D.P. del Comité Nobel, vía
Wikimedia Commons)
Pocas personas merecen el nombre de “genios” tanto como Linus Carl Pauling. Y pocos han sido al mismo tiempo tan proclives a realizar excursiones intelectuales en los terrenos de la pseudociencia. Quizás el único ejemplo parecido en el siglo XX sea Nikola Tesla, genio de la ingeniería eléctrica que en sus años últimos se destacó por hacer afirmaciones implausibles sobre rayos de la muerte y energía gratuita.

Del genio y pasión humanista de Pauling dan fe los reconocimientos que obtuvo, como la única persona que ha recibido dos Premios Nobel no compartidos: el de química en 1954 y el de la paz en 1962. De sus tropezones queda un sistema pseudomédico y una serie de afirmaciones que se han apoderado del imaginario popular, cuyos proponentes jamás han conseguido demostrar en condiciones experimentales debidamente controladas y que se han vuelto parte importante del negocio de las terapias alternativas y los suplementos alimenticios inútiles.

Linus Carl Pauling nació en Portland, Oregon, el 28 de febrero de 1901, hijo de una familia con raíces alemanas, escocesas e inglesas. Buen estudiante, aprovechó el sistema de educación pública de los Estados Unidos, se enamoró de la química a los 14 años y sólo dos después ingresaba a lo que hoy es la Universidad Estatal de Oregon deseando convertirse en ingeniero químico.

Se cuenta que, para entonces, sabía tanto de química como algunos de sus profesores, de modo que muy pronto empezó a ocuparse de tareas de enseñanza. No había cumplido aún 21 años y ya estaba contratado como profesor, aunque no fue sino hasta los 22 que se recibió como ingeniero químico. Pero para entonces estaba más interesado en descubrir los principios de la química, que era aún en gran medida territorio virgen, que en aplicarlos. Pasó al Caltech donde obtuvo su doctorado en 1924 trabajando en un tema fundamental de la química: la forma en que los átomos se unen para formar moléculas, los llamados “enlaces químicos”.

Para estudiarlos, Pauling se especializó en el uso de la cristalografía de rayos X, una técnica que mide la difracción de los rayos X al pasar por una sustancia y permite determinar el tamaño y disposición de los átomos en las moléculas. La misma técnica que permitiría a Rosalind Franklin hacer las fotografías que permitieron a Crick y Watson determinar la forma de doble hélice del ADN.

A continuación, pasó una temporada en Europa donde se familiarizó con la emergente física cuántica, que le permitió desentrañar lo que sería el título del libro que le daría un lugar en la historia de la química: “La naturaleza del enlace químico y la estructura de las moléculas y los cristales”.

Apenas tenía 38 años y ya era catedrático, jefe de la división de química de Caltech y era el científico más joven electo a la Academia Nacional de Ciencias. Y además se había dado tiempo para ser padre de cuatro hijos.

Pero Pauling deseaba saber más sobre cómo se comportaban los átomos y las moléculas. Empezó a trabajar con moléculas orgánicas, pero también con metales, buscando respuestas a la teoría del ferromagnetismo o por qué existe la atracción magnética, la forma de las moléculas de los gases, la estructura de las proteínas, la de los anticuerpos, las propiedades de la hemoglobina, la teoría molecular de la anestesia y otros muchos temas que plasmó en más de mil publicaciones, entre artículos y libros.

Pauling pasaría por un proceso que afectó a muchos científicos de su generación. Después de participar en el esfuerzo de guerra contra el nazismo (no fue parte del Proyecto Manhattan para evitar trasladar a su familia a una nueva residencia), las bombas atómicas de Hiroshima y Nagasaki lo llevaron a asumir una posición pacifista y, especialmente, contraria al armamento nuclear, labor en la que militaría el resto de su vida.

Incluso se cuenta que en alguna ocasión, invitado a cenar con el Presidente Kennedy, pasó la tarde manifestándose ante la Casa Blanca con una pancarta en contra de la proliferación nuclear, para luego cambiarse a una indumentaria más formal y cenar en la propia Casa Blanca.

Así, si en 1954 había recibido el Nobel de Química por su aportación a la comprensión de los enlaces químicos, en 1962 recibió el de la Paz por su lucha contra las pruebas nucleares atmosféricas. Era la primera persona que ganaba un segundo Nobel después de Marie Curie.

Su éxito en la comprensión de las bases moleculares de la anemia falciforme le llevó a tratar de encontrar respuestas sencillas a problemas complejos de salud, hasta que llegó a convencerse, sin una base sólida, de que las enfermedades psiquiátricas se debían a deficiencias de vitaminas y otros micronutrientes, y que podrían prevenirse e incluso curarse si se consumían esas moléculas en las cantidades correctas. Dio a su hipótesis el nombre de “medicina ortomolecular” (del griego “orthos”, correcto, es decir, las moléculas en la cantidad correcta).

El concepto se ampliaría después a todas las enfermedades, fundando la que se convertiría en una lucrativa pseudomedicina, cuya expresión más conocida es la convicción de Pauling de que las dosis masivas de vitamina C podían prevenir e incluso curar la gripe y otras afecciones. Pese a numerosos estudios que han demostrado que su especulación carecía de bases, la percepción popular sigue siendo que el consumo de vitamina C, como suplemento o en frutas como los cítricos, tiene algún valor antigripal.

Poco después, amplió su afirmación indicando que la vitamina C podía aumentar la supervivencia de pacientes de cáncer. De nuevo, numerosos estudios han sido incapaces de demostrar que esta idea tuviera alguna base en la realidad. En un giro final hacia la pseudociencia, Pauling se negó a aceptar los resultados de un colaborador de su propio instituto que indicaban que las dietas ortomoleculares no tenían efecto en ratones con cáncer.

Cuando Linus Pauling murió en 1994, dejó una imagen dividida. Su brillantez como químico, su compromiso con la paz y sus creencias irracionales respecto de la salud obligan a verlo en toda la complejidad y contradicciones de quien, siendo un genio más allá de toda duda, era también presa fácil de sus creencias.

Un legado peligroso

Un antiguo asociado de Pauling, Matthias Rath, se ha dedicado a utilizar el nombre e ideas del químico para asegurar que el SIDA y el cáncer pueden curarse con complementos vitamínicos que comercializa su propia empresa. Numerosos estudios han señalado que estas afirmaciones carecen de validea, y para muchos sus campañas contra los antirretrovirales, principalmente en África, han sido un obstáculo para el control de la pandemia.

agosto 29, 2014

Procesadores vivientes de alimentos

Quizás no suene muy atractivo a primera vista, pero algunos de nuestros más apreciados alimentos son como son gracias a que en su procesamiento han sido ya digeridos por otros seres vivos.

"Los comedores de ricotta", de Vincenzo Campi,
siglo XVI (Imagen DP vía Wikimedia Commons)
Algunos alimentos fundamentales no habrían existido a no ser porque algunos cultivos son sometidos a la acción de seres vivos que los alteran y los convierten en alimentos más sabrosos, más nutritivos, más duraderos o incluso más sanos.

Un ejemplo que gustan de citar los historiadores es el de la cerveza.

Esta popular bebida apareció en los inicios de la agricultura de cereales, hace alrededor de 10.000 años. Aunque es imposible conocer cómo se dieron los acontecimientos, es razonable imaginar algo de cereal, o quizá un poco de pan, que por algún descuido o accidente hubieran quedado algunos días en agua, sufrieron fermentación, y algún agricultor neolítico tuvo la osadía, el descuido o la urgencia de beberla. Su sabor era distinto, agradable, y tenía algo diferente que lo achispaba a uno un poco. Era cerveza.

La palabra clave es “fermentación”. Los antiguos babilonios no sabían cómo funcionaba o qué era lo que la provocaba, pero lograron controlarla a voluntad: molían cereales, los calentaban en agua, los horneaban y los volvían a meter en agua, y mágicamente tenían cerveza. Por fortuna. En muchas de las civilizaciones subsiguientes, incluyendo el prolongado imperio egipcio y hasta hace muy poco tiempo, tuvieron cerveza. El agua solía estar contaminada y causar graves malestares, de modo que era preferible beber cerveza, cosa que hacían todos, de niños a ancianos, hombres y mujeres. Salvo en las culturas donde dominaba el vino, mosto igualmente fermentado.

Pasteur descubrió, a partir de la década de 1850, que esa transformación que parecía mágica no ocurría, como se creía hasta entonces, espontáneamente, sino que era producto de la actividad de seres vivos: bacterias y hongos. Ello le permitió, en una de las acciones que más fama le dio en Francia, explicar la degradación de los vinos franceses a causa de bacterias ácidas y proponer formas de evitarlo, salvando a la industria vinícola de su país.

Un ser viviente benéfico, la levadura, un hongo, evitaba así que otros seres vivientes dañinos atacaran a los seres humanos.

La fermentación es un proceso metabólico, es decir, digestivo, mediante el cual un organismo convierte un carbohidrato, por ejemplo almidones o azúcares, en un alcohol o en un ácido. Las levaduras, al fermentar o digerir los carbohidratos de la uva, la manzana, los cereales y otros alimentos los convierten en alcohol y en el proceso obtienen la energía que necesitan para vivir. Después, incluso, podemos utilizar bacterias ácidas para que fermenten nuevamente el alcohol, convirtiéndolo en ácido acético o vinagre y, también, alimentándose en el proceso.

El queso añejado o madurado es otro producto de la acción de distintos seres vivos. Mientras que el queso fresco se obtiene simplemente separando los sólidos de la leche (grasas y parte de la proteína) de sus componentes líquidos (el suero, formado de proteína y agua), muchos quesos son procesados con cepas específicas de bacterias para conseguir una asombrosa variedad de sabores.

El queso Emmental, por ejemplo, utiliza a lo largo de su añejamiento tres tipos distintos de bacterias. Las dos primeras convierten el azúcar propia de la leche, la lactosa, en ácido láctico, y la tercera consume ese ácido láctico y libera dióxido de carbono, un gas que forma las burbujas que le dan su característico aspecto con agujeros u “ojos” a éste y otros quesos.

Los quesos azules y otros como el brie o el camembert utilizan distintas variedades de bacterias y de hongos penicillium, los mismos que dieron origen a la penicilina, el primer antibiótico eficaz. El penicillium es el responsable tanto de las vetas azul verdosas de algunos quesos como de la costra blanca aterciopelada del brie y el camembert.

La conversión de la lactosa en ácido láctico en los quesos añejos permite además que sean consumidos por personas que sufren de intolerancia a la lactosa. De hecho, hay estudiosos que han sugerido que el queso se difundió precisamente porque permitía que más personas pudieran consumir lácteos sin problemas. Es, por supuesto, sólo una hipótesis.

Uno de los alimentos más apreciados en décadas recientes es el yogur en distintas formas. Sin embargo, hasta la década de 1940-50, la gente que quería yogur tenía que producirlo ella misma, consiguiendo que otro entusiasta le diera parte de un cultivo de lactobacilos entonces conocidos como “búlgaros” por haber sido descubiertos por un doctor búlgaro, Stamen Grigorov. Hoy, su producción industrial ha eliminado prácticamente la necesidad de hacerlo en casa.

El yogur se hace sometiendo la leche a fermentación por dos bacterias, una de ellas degrada las proteínas de la leche para convertirlas en aminoácidos y la otra usa esos aminoácidos. Ambas convierten la lactosa de la leche en ácido láctico, dándole al yogur su acidez y textura habituales.

Hemos dejado para el final el alimento por excelencia, el pan, que en muy distintas formas y a partir de muy diversos granos, se hornea en todo el mundo. El pan y sus primos lujosos, toda la repostería, dependen de la levadura para ser el símbolo de la alimentación que son. La levadura hace que el pan “suba” por el mismo procedimiento por el que produce los “ojos” en quesos como el emmental, emitiendo dióxido de carbono al consumir parte de los carbohidratos del pan y fermentarlos. Esas burbujas son las que forman lo que los expertos en pan llaman “alvéolos”, que hacen que el resultado sea esponjoso y atractivo a nuestro tacto, además de fácil de masticar y sabroso. La fermentación, además, colabora a darle al pan su sabor característico y fortalece el gluten, esa proteína que le da consistencia al pan y que es un excelente alimento salvo para quienes sufren de intolerancia al gluten o de celiaquía, una enfermedad autoinmune.

Sin estos procesadores de alimentos, quizá, sólo quizá, la civilización humana no se habría desarrollado o, muy probablemente, habría tomado otros derroteros, que nos pueden parecer poco atractivos si dieran como resultado un mundo sin cerveza, queso y pan.

El café más caro del mundo

Levaduras y bacterias son microorganismos unicelulares y por tanto comer alimentos que ya digirieron estos seres puede no provocarnos rechazo. Muy distinto es el caso del “kopi luwak” o café de civeta. Se trata de un café que se hace con bayas de café que han sido comidas y defecadas por civetas de las palmeras, un mamífero común en Asia. Aunque los expertos en café no lo consideran especialmente bueno, es el café más caro del mundo, y las bayas recolectadas de los excrementos de las civetas pueden llegar a costar 550€ el kilo.

La familia de los elementos desusados

De los 92 elementos naturales que existen, algunos nos resultan tremendamente familiares, como el hierro, el carbono o el hidrógeno. Pero hay una familia casi desconocida que vive con nosotros sin que sepamos apenas su nombre.

Los colores fluorescentes bajo luz ultravioleta de los billetes
de la moneda europea se deben a la presencia de los
lantanoides europio e itrio. (Imagen D.P. Banco
Europeo vía Wikimedia Commons)
Si queremos pensar en un elemento que sea líquido a temperatura ambiente, prácticamente todos nosotros vamos a pensar en el mercurio.

Pero hay otro elemento líquido a temperatura ambiente, el bromo, y cuatro metales que, si la temperatura ambiente es superior a los 25 ºC, también son líquidos: el galio, el cesio, el francio y el rubidio. Y todos ellos, salvo el francio, que tiene pocas aplicaciones prácticas, son esenciales para el mundo tecnológico e industrial.

Más allá hay otro grupo de elementos aún más desconocidos. Si vemos una tabla periódica de los elementos, que los ordena según su número atómico (el número de protones que tiene en su núcleo) y según sus propiedades químicas, uno de los aspectos más peculiares es que muestra, debajo del cuerpo de la tabla, dos filas desprendidas, como si se hubieran caído de la tabla.

La primera incluye a los elementos que tienen los números atómicos del 57 al 70 y se les conoce colectivamente, en ocasiones junto con los de los números 21, 39 y 71, como “lantánidos”, antiguamente “tierras raras” aunque los organismos internacionales recomiendan lantanoides. La segunda fila, también de 14 elementos, está formada por los que tienen los números atómicos del 89 al 102, son todos radiactivos y se les conoce como “actínidos”. A partir del elemento número 93, son todos artificiales, es decir, no existen en la naturaleza, sino que han sido creados por el ser humano. Hasta hoy, el ser humano ha creado hasta el elemento número 118.

¿Lantanoides?

¿Por qué están separados los lantánidos de los demás elementos? Desde el punto de vista químico son elementos que comparten ciertas características. Son metales de aspecto plateado que se oxidan al verse expuestos al aire y son relativamente suaves, con los de mayor peso atómico un poco más duros. requieren de altas temperaturas para fundirse y para entrar en ebullición y son altamente reactivos, sobre todo con elementos no metálicos, lo que quiere decir que requieren poca o ninguna energía para formar compuestos. Se disuelven rápidamente al contacto con ácidos y se queman fácilmente a temperaturas de entre 150 y 200 ºC, además de otras propiedades químicas comunes. Varios de ellos son potentemente fluorescentes, es decir, al recibir energía emiten luz en un color determinado.

Hasta fines del siglo XVIII, los seres humanos no tenían noticia de la existencia de esta serie de elementos. Fue en 1787 cuando el oficial del ejército sueco Carl Axel Arrhenius descubrió un peculiar mineral en una cantera cercana al pueblo de Ytterby, cerca de Estocolmo. A partir de ese mineral, en 1794, el químico finlandés Johan Gadolin describió el itrio. Durante algo más de un siglo se irían identificando los demás miembros de esta familia presentes en la naturaleza, siendo el último el lutecio en 1907. Aislarlos y describirlos fue difícil precisamente por la similitud química que los caracteriza... a lo largo de los años, ocurrió varias veces que un investigador creyera que había encontrado un nuevo elemento cuando estaba ante una combinación de dos o tres lantanoides.

Estos elementos fueron llamados “tierras raras” porque es muy difícil encontrarlos en forma pura, pero los minerales que los contienen están presentes por todo el planeta. Y ciertamente no son “tierras”, una denominación antigua para cualquier cosa que se pueda disolver en ácido.

Podemos encontrar a estos elementos en lámparas y láseres, magnetos, proyectores de cine y pantallas intensificadoras de rayos X (que permiten hacer radiografías con menos exposición a la radiación que en el pasado), en aleaciones de acero y en muchas otras aplicaciones que están, con frecuencia, en nuestras propias casas.

Como ejemplo, las propiedades de fluorescencia de algunos lantanoides se han utilizado para efectos de seguridad. Ponga usted un billete de 50 euros bajo luz ultravioleta, como el de un detector de billetes falsos, y verá aparecer líneas azules y verdes, y las estrellas europeas en verde y anaranjado... estas últimas contienen europio. Si su billete no tiene estas marcas fluorescentes, es falso.

La fluorescencia verde del terbio está en la pantalla de su ordenador o televisor, es el elemento responsable de los puntos verdes, mientras que el rojo es resultado de la combinación de europio e itrio (los colores de las pantallas se obtienen dándole distintas luminosidades a grupos de tres puntos: rojo, azul y verde; el blanco son los tres funcionando a plena luminosidad).

El erbio, por su parte, emite luz con una potencia por debajo de la que es visible para nosotros, en el infrarrojo, pero puede enviar señales reconocibles a largas distancias, de modo que los tendidos de fibra óptica en todo el mundo utilizan amplificadores de señal de erbio situados cada tantos kilómetros para asegurar una transmisión sin errores.

Y, si uno está consciente de la necesidad de reducir la contaminación que arrojamos al medio, los lantanoides son fundamentales, ya que sin ellos no existirían los convertidores catalíticos que limpian el escape de nuestros vehículos de motor.

Descubrimientos relativamente recientes sobre las propiedades de los lantanoides han dado como resultado, desde 1982, el desarrollo de imanes potentísimos hechos con los elementos escandio y, sobre todo, en compuestos neodimio que forman los imanes más potentes y, por tanto, han permitido que se produzcan motores eléctricos potentes en tamaños reducidos (como los de las herramientas eléctricas de mano o los de las unidades de disco duro de almacenamiento informático) o generadores mucho más eficientes como los de las turbinas eólicas que están colaborando al establecimiento de una base creciente de fuentes de energía renovables y más limpias.

Ni tierras, ni raras, pero los lantanoides siguen siendo unos desconocidos de nombres aparentemente caprichosos aunque sin ellos probablemente usted no podría haber leído estas páginas.

La guerra de las tierras raras

China tiene algunos de los más importantes depósitos de tierras raras en Mongolia Interior, y los explota muchas veces sin las medidas adecuadas de seguridad, ya que los minerales lantanoides suelen estar acompañados de otros elementos radiactivos y purificarlos puede también ser un proceso altamente contaminante. China ha amenazado con cortar el suministro de tierras raras como forma de obligar a las empresas tecnológicas a mudarse a su país, con sus empleos. Sin embargo, recientes descubrimientos de lodos ricos en tierras raras en Japón podrían alterar la economía de estos elementos.

agosto 27, 2014

La cambiante temperatura de la Tierra

La temperatura en un lugar determinado de nuestro planeta, o en todo él, depende de una enorme diversidad de factores, e incluso podría ser que aún no los conozcamos todos.

Mapa de temperaturas medias anuales entre 1961 y 1990 en
todo el mundo. (Imagen GFDL de Robert A. Rhode,
via Wikimedia Commons) 
El tiempo es el gran iniciador de conversaciones. Quejarse de él permite iniciar una relación con un desconocido en el ascensor, en el bar, en el taxi, en la disco...

El tiempo nos preocupa porque nuestra vida depende de él. Nuestras cosechas pueden perderse si hay variaciones inesperadas e incluso nosotros mismos sólo podemos sobrevivir en un rango de temperaturas muy estrecho, y al estar fuera de él requerimos protección o morimos. Ello explica también por qué somos especialmente sensibles a los cambios de temperatura: es una alarma de peligro de vida o muerte. De hecho ni siquiera habríamos podido sobrevivir con las temperaturas que dominaron la mayor parte de la larga historia de nuestro planeta.

El factor que nos parece más determinante para la temperatura en cualquier lugar de nuestro planeta es la luz del sol: mientras más perpendicular es respecto de un punto determinado, más energía le aporta y más caluroso será el tiempo, como ocurre en verano y, a la inversa, mientras mayor es el ángulo al que la luz solar entra en la atmósfera y llega a la tierra, menos energía recibe ese punto y su temperatura baja.

La irradiación solar es en realidad sólo uno de muchos factores que se interrelacionan en el complejo sistema que es nuestro planeta. La composición de nuestra atmósfera, así como su presión, por poner un ejemplo, es también un elemento clave, ya que determina cuánta energía es capturada por el aire a nuestro alrededor, cuánto se refleja y cuánto calor se puede dispersar.
La historia de nuestro planeta comienza como una enorme masa de lava ardiente que se formó de polvo estelar hace unos 4.500 millones de años y pasó los siguientes 700 millones enfriándose y formando una corteza y una atmósfera. Hace 2.500 millones de años, los primeros seres vivos, las cianobacterias, empezaron a emitir oxígeno a la atmósfera como subproducto de su metabolismo... un elemento que antes estaba sólo presente en forma de compuestos diversos.

El oxígeno ayudó a reducir la temperatura de nuestro planeta hasta que, hace unos 500 millones de años, alcanzó una temperatura media de unos 22 grados centígrados. Esto, que parece cómodo, es tremendamente cálido, una temperatura 8 grados superior a la que los geólogos y climatólogos suelen usar como punto de referencia: el promedio de temperaturas en todo el planeta entre 1961 y 1990, alrededor de 14 oC. Esta media, claro, incluye desde los extremos por encima de los 40 grados en lugares como Etiopía hasta los que están por debajo de los -46 grados centígrados en los asentamientos más al norte de Rusia o Canadá.

Estas temperaturas, que conocemos sólo mediante mediciones indirectas y cálculos razonablemente fiables pero no absolutamente certeros, aumentaron hace entre 250 y 55 millones de años hasta un máximo de 6 grados por encima del punto de referencia. Este aumento se vio interrumpido por un súbito enfriamiento que coincidió con la extinción de los dinosaurios hace 66 millones de años.

A partir de ese momento, las temperaturas disminuyeron hasta llegar a una “era de hielo” que comenzó hace 35 millones de años, hasta que hace unos 3 millones de años alcanzaron un valor cercano al de la media de 14 oC y la tendencia continuó durante los siguientes dos y medio millones de años.

De las glaciaciones al calentamiento global

En el último tercio de su historia, la Tierra ha pasado por varios períodos glaciales, en los cuales las temperaturas de los polos son muy bajas, y tienen una gran diferencia respecto de las que se experimentan en las zonas ecuatoriales. Grandes glaciares avanzan desde los polos cubriendo enormes extensiones de tierra y mar.

Este fenómeno ha ocurrido aproximadamente cada 200 millones de años, y cada una de las eras glaciales o eras del hielo ha tenido una duración de millones de años. Dado que técnicamente una era de hielo es cualquiera donde haya glaciares en los polos, estamos en la más reciente de ellas. Pero dentro de ella hay glaciaciones y períodos más cálidos regidos, hasta donde tenemos información, aunque hay ciertas discrepancias, por los ciclos que descubrió el geofísico serbio Milutin Milankovitch y que relacionan las variaciones de la temperatura con la posición de la Tierra: la precesión de su órbita y la excentricidad e inclinación de su eje. La más reciente era glacial ocurrió hace entre 110.000 y 12.000 años, es decir, la experimentaron y vivieron los seres humanos modernos. A lo largo de ella, hubo distintos períodos de avance y retroceso de los glaciares en distintos puntos del planeta

La temperatura del planeta sólo empezó a registrarse de modo preciso y directo a partir de 1850, gracias a termómetros precisos y fiables, y a la aparición de oficinas meteorológicas nacionales por todo el mundo, usando como modelo la británica, establecida en 1854.

Gracias a este registro, además de los estudios indirectos como el análisis de la atmósfera del pasado conservada en glaciares muy antiguos, y que se pueden estudiar tomando muestras profundas del hielo, hemos podido determinar que uno de los factores determinantes de la temperatura es la concentración de bióxico de carbono (CO2) en la atmósfera. Mientras más CO2 hay, mayor es la temperatura.

Ésta es una de las bases más sólidas para que la mayoría de los especialistas concluyan que el aumento de un grado centígrado en la temperatura media del planeta registrado desde 1900 se debe en gran medida a la emisión de CO2 producto de actividades humanas, principalmente la quema de combustibles fósiles.

El futuro de la temperatura de nuestro planeta es, sin embargo, difícil de prever aún si los seres humanos controlamos nuestra emisión de gases como el bióxido de carbono a la atmósfera. Nada garantiza que consigamos tener una temperatura ideal para el futuro, porque nuestro planeta es un sistema dinámico, siempre cambiante, en el que juegan muchos elementos conocidos y otros que aún no hemos podido identificar.

Lo único seguro es que seguiremos teniendo la oportunidad de hablar del tiempo y quejarnos de él para conocer nuevas personas.

El tiempo y el clima

Solemos escuchar que el calentamiento global se ve confirmado o denegado por una ola desusada de frío o de calor. Pero el tiempo, que es nuestra experiencia inmediata, es sólo lo que pasa en la atmósfera en un momento dado donde estamos, nada más. El clima es la media de todos los aspectos en todo el mundo y durante mucho tiempo. Por eso, la temperatura media del planeta puede aumentar medio grado en un año aunque en nuestra ciudad hayamos tenido más frío que nunca. Ese frío es sólo nuestra aportación a la media.

agosto 24, 2014

El ébola y otras amenazas latentes

Hay virus que apenas empezamos a conocer y cuyos efectos cuando infectan seres humanos parecen a veces producto de la imaginación de un escritor de terror.

Fotografía comunitaria de la aldea de Yambuku, Zaire, en
1976, cuando los equipos internacionales llegaron a combatir
el primer brote de ébola registrado. (Foto D.P. CDC, vía
Wikimedia Commons)
El 1º de septiembre de 1976, un hombre se presentó en el hospital de la misión de Yambuku, una pequeña aldea de la República Democrática del Congo situada junto al río Ébola. Los síntomas que presentaba sugerían que padecía malaria, una enfermedad común en el país centroafricano, con más de 100 mil casos cada año.

El personal del hospital, encabezado por monjas belgas, le puso una inyección de cloroquina, tratamiento habitual en estos casos. La fiebre cedió sólo para volver acompañada de fiebre y sangrado gastrointestinal, y el hombre murió el 8 de septiembre. Seguirían semanas de terror en Yambuku con una epidemia desconocida para la medicina.

Debido a las limitaciones económicas del hospital, relata un informe de la OMS, se daban a las enfermeras cada día cinco jeringuillas y cinco agujas que ni siquiera se podían esterilizar entre pacientes, sino que simplemente se enjuagaban después de un paciente para inyectar a otro. Varias personas que recibieron inyecciones desarrollaron síntomas similares en los días siguientes... y también fallecieron.

La enfermedad era un misterio. Sus primeros síntomas eran fiebre, debilidad extrema, dolores musculares, de cabeza y de garganta. Después se presentaban insuficiencias de los riñones y del corazón y, en algunos casos, sangrado interno y externo

Cuatro semanas después, el hospital cerró. Además de la muerte de numerosos pacientes, 11 de los 17 miembros del personal del hospital también habían fallecido de la misteriosa enfermedad. El 3 de octubre, el Ministerio de Salud de la República Democrática del Congo puso en cuarentena toda la zona de Bumba alrededor del hospital. Al detenerse las inyecciones, que habían sido la principal fuente de transmisión de la enfermedad, y aislando a las víctimas en los pueblos cercanos, la epidemia terminó el 24 de octubre. En menos de dos meses, 318 personas habían sido infectadas y sólo 38 habían sobrevivido, una alarmante tasa de muerte del 88% de los pacientes.

Al mismo tiempo, en Nzra, Sudán, otra epidemia similar venía desarrollándose más lentamente desde el 27 de junio, cuando un trabajador de una fábrica de ropa enfermó y murió nueve días después. A partir de entonces, y hasta noviembre, en la zona hubo 284 casos de la enfermedad, de los que fallecieron 156.

Los virus emergentes

Poco después se identificó a los responsables de la enfermedad, dos virus estrechamente emparentados a los que se les dio el nombre de “ebolavirus” virus del ébola, por el río que corre junto a Yambuku. El del Congo se llamó “ebolavirus Zaire” (Zaire era el nombre que entonces tenía la RDC) y el otro “ebolavirus Sudán”, o EBZ y EBS. Se trata de organismos pertenecientes a la familia “Filoviridae”, que significa “virus similares a hebras de hilo”.

El virus del ébola está estrechamente emparentado con el virus de Marburgo, que también es capaz de ocasionar estas enfermedades de fiebre hemorrágica, y que se identificó en 1967 por epidemias que se desarrollaron en Marburgo y Frankfurt, Alemania y en Belgrado, en la antigua Yugoslavia, que partieron de monos infectados que se habían importado de Uganda. 31 personas enfermaron y 7 de ellas murieron.

El depósito natural de estos virus son diversos animales, principalmente murciélagos, de los que puede pasar a los seres humanos. Entonces, la infección se extiende por contacto con los fluidos corporales de las personas infectadas: sangre, saliva, semen, etc.

Otra familia, los arenavirus, son responsables también de afecciones similares de fiebre hemorrágica, más comunes y menos mortales, como el virus de Lassa y el recientemente identificado virus de Lujo, además del LCMV, que causa meningitis. Estos tres virus infectan a roedores, de los que pasan al ser humano.

Y hay muchos otros virus poco frecuentes que pueden ocasionar fiebres hemorrágicas y afecciones igual de aterradoras con altas tasas de víctimas. Según los Centers for Disease Control, (Centros para el Control de Enfermedades, CDC) del gobierno estadounidense, el número de virus causantes de enfermedades está en aumento y esperan que la tendencia continúe conforme se describen nuevos virus procedentes principalmente de África, Asia y el continente americano.

Un problema adicional de estas enfermedades, inquietantes si bien poco frecuentes en general, es que los virus no se comportan siempre del mismo modo. Aparecen de modo impredecible en zonas nuevas, en muchas ocasiones como resultado del incremento de movilidad humana. Como ejemplos están los brotes del virus de fiebre hemorrágica de Crimea y el Congo, transmitido por garrapatas, en Oriente Medio, o la aparición del ebolavirus Reston, una mutación del virus del ébola que no se contagia a humanos, en monos usados para la investigación en Texas.

El que la descripción de estos virus sea reciente no debe confundirse con que se trate de enfermedades que no existían antes. En muchos casos son afecciones de las que hay vagos registros históricos, pero que sólo ahora han sido estudiadas científicamente.

Muchas de estas infecciones de las que ahora estamos muy conscientes son “zoonóticas”, es decir, que han pasado de distintos animales al ser humano. Según explica la Organización Mundial de la Salud, la aparición de estas infecciones zoonóticas pueden tener muchas causas: cambios en el medio ambiente, cambios en las poblaciones humanas y animales, cambios en las prácticas agrícolas y factores como los hábitos alimenticios y las creencias religiosas.

Lo más aterrador de éstas y otras infecciones virales es sin duda que no existen tratamientos contra ellas. La lucha contra los virus no tiene un arma como los antibióticos utilizados para infecciones bacterianas y su estudio se complica cuando son enormemente contagiosos y mortales. Es apenas en 2014 cuando hay noticias de los primeros medicamentos antivirales que han demostrado tener efectividad contra el ébola y que podrían ser el punto de partida para la esperanza de enfrentar también otras infecciones temibles.

Los niveles de la OMS

La Organización Mundial de la Salud tiene 4 grupos de riesgo para clasificar agentes infecciosos. 1: microorganismos que raramente o nunca pueden enfermar al ser humano. 2: los que pueden causar enfermedades y son poco contagiosos. 3: patógenos que pueden causar enfermedades graves y tampoco se contagian fácilmente. 4: agentes virales que causan enfermedades graves, son altamente contagiosos y para ellos, a diferencia de los de los grupos 2 y 3, no hay apenas medidas preventivas ni tratamientos efectivos. Las familias de virus causantes de fiebres hemorrágicas se clasifican en el grupo 4.

agosto 23, 2014

Caroline Herschel y sus cometas

La mujer que se puede considerar la primera científica profesional podía haber pasado sus días como una simple sirvienta en Hanover.

Caroline Herschel con su cometa.
(Imagen D.P. vía Wikimedia Commons) 
El destino de la mujer alemana en el siglo XVIII (y, para el caso, en prácticamente todo el mundo) era el matrimonio, con apenas el atenuante de que, a diferencia de lo ocurrido en el siglo anterior, podía opinar acerca de su futuro marido y no era siempre objeto de matrimonios convenidos por sus padres sin más.

Las mujeres empezaban a tener la posibilidad de ganarse la vida no sólo como criadas o prostitutas. El arte, la literatura, la costura, la enfermería y la industria textil eran espacios donde podían gozar de cierta independencia. Y las convulsiones de la ilustración que marcaría la segunda mitad del siglo traerían cambios irreversibles.

Caroline Lucrecia Herschel, nacida al mediar el siglo, el 16 de marzo de 1750 en Hanover, no tenía perspectivas demasiado halagüeñas. Como parte de la clase trabajadora, hija de un jardinero y músico y su tradicionalista mujer, había sufrido una infancia de enfermedades. La viruela le había dejado cicatrices en las mejillas y una leve deformación en un ojo, y también había padecido de tifus a los 10 años, por lo que su estatura nunca superó 1,30 metros. Sus posibilidades de casarse eran, pues, escasas. Su suerte tomó primero la forma de su padre, empeñado en darle a sus hijos una educación amplia. Eran cuatro varones y seis mujeres, y la educación de estas últimas enfrentó la oposición de su madre, tradicionalista y adusta, y que en el caso de Caroline, consideró más práctico convertirla en su criada, mientras Isaac, el padre, la educaba casi a escondidas.

El destino que parecía esperarle cambió cuando su hermano William decidió llevarla consigo a Bath, Inglaterra, donde tenía una buena posición como organista y director de orquesta. La llevó, sí, como sirvienta, pero además le enseñó inglés, matemáticas y música. Caroline pronto se reveló como una soprano de gran calidad que realizó un buen número de presentaciones ante el público, con su hermano como director de orquesta.

William Herschel era mucho más que músico, siguiendo los variados intereses de su padre que había experimentado una gran fascinación por el cielo. Cada vez fue interesándose más en la astronomía y Caroline empezó el camino de la ciencia con él, como su asistente, puliendo los espejos con los que su hermano construiría su primer telescopio. William descubrió el planeta Urano en 1871 y pronto fue nombrado caballero del reino y astrónomo real por el rey Jorge III.

Dedicado totalmente a la astronomía, William empezó una serie de observaciones de todo el cielo a través de su telescopio, que registraba cuidadosamente Caroline para después llevar a cabo los cálculos matemáticos que convertían las observaciones en datos precisos. Esas observaciones dieron como fruto el descubrimiento de más de 2.500 nebulosas (que hoy sabemos que son otras galaxias) y grupos de estrellas.

Caroline también empezó a hacer sus propias observaciones astronómicas con un telescopio que le regaló su hermano y el 26 de febrero de 1783 hizo su primer descubrimiento astronómico: un grupo de estrellas que hoy se conoce como NGC 2360. A ese acontecimiento seguiría el descubrimiento de 14 nuevas nebulosas.

El cometa de la primera dama

Sólo tres años después, ya como astrónoma por derecho propio identificó un objeto que se movía lentamente por el cielo. Era el 1º de agosto de 1786 y Caroline informó a otros astrónomos para que observaran el objeto que ella había hallado, un cometa... el primero descubierto por una mujer, denominado C/1786 P1 o, más poéticamente, “el cometa de la primera dama”. Poco después también descubriría otra nebulosa, NGC 205, galaxia compañera de nuestra más cercana vecina cósmica, la galaxia de Andrómeda.

Sus logros no pasaron desapercibidos y al año siguiente, 1787, el rey Jorge III empleó formalmente a Caroline como asistente de su hermano, un hecho que la convirtió en la primera mujer que recibió un pago por prestar servicios de carácter científico. Su asignación anual, sin embargo, era de 50 libras, la cuarta parte de las 200 que recibía su hermano.

Dependiente de William pese a todo, Caroline encontró su libertad científica finalmente cuando su hermano se casó en 1788 y su esposa se hizo cargo de las obligaciones de la casa, permitiéndole a la astrónoma dedicar más tiempo a sus observaciones y cálculos. En los siguientes años, Caroline Herschel descubriría otros siete cometas, el último en 1797. No sería sino hasta 1980 cuando otra mujer lograría romper su récord de descubrimientos: Carolyn Shoemaker, que ha descubierto la impresionante cantidad de 32 cometas, además de unos 800 asteroides, más que ningún otro ser humano, hombre o mujer.

Entre 1786 y 1797 se ocupó de hacer un nuevo catálogo de estrellas revisando, corrigiendo y adicionando con sus observaciones y las de su hermano, el que había desarrollado John Flamsteed, revisando las posiciones de las estrellas conocidas y agregando la de otros 650 astros. El catálogo sería publicado por la Royal Society en 1798.

Además de su trabajo personal, Caroline Herschel jugó un papel fundamental en la educación de su sobrino John, el hijo de William Herschel. Impulsó su curiosidad, influyó para que estudiara en Cambridge y trabajó con él al final de su vida como asociada en investigación.

Al morir su hermano en 1822. Caroline volvió a Hanover a vivir con su hermano menor y continuar su trabajo en el catálogo de todos los hallazgos que habían realizado ella y William, la abrumadora cantidad de 2500 nebulosas, que finalmente envió en 1828 a la Royal Astronomical Society. Esta sociedad científica, que había tenido una relación estrecha con Caroline durante años, tomó entonces la decisión sin precedentes de concederle su medalla de oro y hacerla miembro honorario de la organización. En 1838 también fue elegida miembro de la Real Academia Irlandesa y en 1846 el entonces rey de Prusia, Federico Guillermo IV, le otorgó la Medalla de Oro de la Ciencia.

Caroline Herschel murió el 9 de enero de 1848, poco antes de cumplir 98 años. Su epitafio, escrito por ella misma, dice “Los ojos de ella quien es glorificada aquí abajo se dirigieron a los cielos pletóricos de estrellas”. Y al dirigirlos a las alturas se convirtió en la científica más importante desde Hipatia de Alejandría, abriendo el camino a muchas otras astrónomas, astrofísicas y cosmólogas.

La fama y el baile

En los últimos años de su vida, Caroline Herschel fue una celebridad cuya compañía buscaban científicos y personajes de la élite europea, y disfrutaba la fama. Su sobrino, John, recordaba que a los 83 años recorría alegremente con él la ciudad y, por las noches, cantaba rimas antiguas y bailaba, una mujer feliz.

junio 21, 2014

Pensar que el otro piensa

Para prosperar como especie, es necesario que podamos comprender lo que los demás piensan y sienten, saber que son como nosotros y formar con ellos una comunidad.

"El pensador", bronce de Auguste Rodin.
(Foto GDL de Nicolás Pérez, vía Wikimedia Commons)
Uno de los más grandes misterios del universo se encuentra en nosotros mismos, en el propio órgano que nos permite saber que existen el universo y los misterios, y buscar resolverlos: nuestro cerebro. Con él percibimos, procesamos, sentimos y actuamos, pero estamos lejos de comprenderlo en su colosal complejidad. Unos cien mil millones de neuronas, conectadas cada una con otras miles, en billones de conexiones. Neuronas que a su vez viven inmersas en un tejido de células estructurales diez veces más numerosas y que tampoco hemos comprendido aún.

Además del estudio de las conexiones y las zonas funcionales de nuestro encéfalo, podemos estudiarlo a través de nuestras emociones, sensaciones, memoria, idioma, cálculo, razonamiento, resolución de problemas, toma de decisiones y otras funciones. Lo que llamamos mente, palabra que apenas está vagamente definida.

Podemos saber con razonable certeza que, efectivamente, la mente es producto del funcionamiento del encéfalo, de la transmisión de impulsos entre las conexiones de nuestras neuronas. Cuando por un accidente, lesión o enfermedad se pierde el uso de ciertas zonas del encéfalo, perdemos las capacidades relacionadas con esas zonas. Así hemos podido saber qué zonas se ocupan de la vista, del habla, de la audición, de ciertas emociones y de ciertos procesos de razonamiento.

Conocemos esos procesos porque los convertimos en expresiones observables, en comportamientos, palabras, acciones o expresiones que otras personas pueden medir. Pero si no los expresáramos, como ocurre en ocasiones, voluntariamente o forzados, ocurren sólo en lo que llamamos nuestra vida interior, sabemos que el sentimiento de alegría está allí aunque reprimamos la risa; sabemos que el deseo de comer está allí aunque no extendamos el brazo para llevarnos un trozo de comida a la boca; entendemos lo que nos dicen aunque no respondamos.

El problema de esa vida interior es que cada uno de nosotros sabe que la tiene, pero no existe un modo objetivo, medible, físico y certero para saber que otras personas a nuestro alrededor sienten, perciben, piensan, recuerdan o deciden del mismo modo que nosotros.

Pese a ello, nuestra vida en sociedad depende precisamente de que todos nosotros tenemos la “teoría” (en sentido informal, no científico) de que los demás son como nosotros, que su mente, su vida interior son semejantes a las nuestras, que cuando lloran sienten una tristeza parecida a la que sentimos nosotros cuando lloramos, y que cuando vemos un paisaje estamos percibiendo lo mismo.

A esto se le llama “teoría de la mente”, no es una teoría que explique la mente, sino la teoría que tenemos nosotros de que la mente de los otros es como la nuestra. Esto también explica nuestra sorpresa y, a veces, rechazo, cuando vemos que otros sienten o piensan de modo muy distinto al nuestro.

Rizando el rizo, surge la pregunta de si todos tenemos una teoría de la mente. ¿A qué edad la desarrollamos?

Dos psicólogos diseñaron un experimento a principios de la década de 1980 para determinarlo, conocido como la tarea de la “falsa creencia”. Se cuenta o escenifica una historia en la cual un personaje llamado Maxi guarda una barra de chocolate en un cajón y se va de paseo. Mientras está fuera de la casa, su mamá toma un trozo de chocolate para cocinar y guarda la barra en un armario. Maxi vuelve a casa. La pregunta es: “¿Dónde va a buscar el chocolate Maxi?”

Los niños menores de 3 años suelen responder que Maxi va a buscar el chocolate en el armario, suponiendo que Maxi sabe lo mismo que ellos saben. No pueden imaginar que otras personas tengan un conocimiento distinto del de ellos. Pero entre los 3 y los 4 años, los niños desarrollan la capacidad de atribuirle a Maxi un estado mental acorde con la experiencia de Maxi, una falsa creencia. Es decir, los niños “se ponen en los zapatos de Maxi” y piensan según la experiencia de Maxi. Saben que buscará el chocolate en el cajón porque allí es donde cree que está. Le han “leído la mente” a Maxi, de cierto modo.

A partir de ese momento, los niños pueden ver más allá de sí mismos para vivir y comprender los deseos, necesidades y estados mentales y emocionales de los demás. Es psicología práctica para leer la mente de otros. No, ciertamente, como pretenden hacerlo los mentalistas o los videntes que engañan mediante técnicas como la lectura en frío, sino de un modo más directo. Si sabemos que alguien ha ganado un premio podemos “saber lo que piensa y siente”, una gran alegría. Ver la actitud de otras personas puede bastarnos para suponer que están tristes, y evocar la pregunta “¿qué te pasa?”... y además permitirnos saber que mienten cuando dicen “nada”.

Es cuando menos plausible pensar que una habilidad tan singular como la teoría de la mente es producto, como otros comportamientos, sensaciones y formas de pensar, producto de nuestra evolución como especie. Es una capacidad que ofrece claras ventajas para los individuos en una sociedad como la humana, que depende tan estrechamente de la cooperación y el altruismo, dos aspectos que exigen que los miembros de la comunidad tengan esa teoría.

No sabemos cómo evolucionó esta capacidad, pero hay hipótesis como la de la “inteligencia maquiavélica”, según la cual además de sus ventajas sociales favoreciendo la cooperación, la teoría de la mente nos permite también hacer manipulaciones sociales, mentir y engañar. De hecho, el concepto de “teoría de la mente” surgió hacia 1978 de estudios sobre la capacidad de primates como los chimpancés de comprender las motivaciones de otros miembros de su especie.

Los primeros estudios lo ponían en duda, pero investigaciones posteriores han determinado que otros animales parecen tener una teoría de la mente, entre ellos los chimpancés y orangutanes, los elefantes, cetáceos como los delfines y algunas aves como los córvidos (la familia de los cuervos). La evidencia no es, sin embargo, concluyente.

Ceguera a la mente

Algunas personas no pueden asumir la perspectiva de otros, no tienen una teoría de la mente o la tienen incompleta o defectuosa. Se ha propuesto que ésa es una de las características del autismo y, por tanto, una forma de diagnosticarlo, pues los autistas no pueden determinar fácilmente las intenciones de otras personas y tienen problemas en sus interacciones sociales. Quienes padecen esquizofrenia o están bajo la influencia de sustancias que alteran la química cerebral, como las drogas, son también ciegos a la mente de los demás. Y, por supuesto, los psicópatas son incapaces de asumir que el dolor que sufren otros es igual al dolor que ellos mismos pueden llegar a sufrir.

junio 20, 2014

La Luna, su origen y su futuro

Es la presencia nocturna más llamativa, que ha inspirado por igual a filósofos, artistas y científicos. Pero, estando tan cerca, aún no hemos podido resolver el acertijo de su origen.

La Luna distorsionada por una hoguera
de la noche de San Juan.
(Foto © Mauricio-José Schwarz)
Al ver la luna llena en la noche resulta todavía difícil apreciar, aunque lo sepamos, que estamos viendo un cuerpo celeste sólido, esencialmente una gran roca semiesférica, suspendida en el espacio, girando alrededor de nuestro planeta y debe su singular color plateado y sus fases a la luz que refleja del sol.

Incluso más que el Sol, la Luna ha sido además el gran puente entre el conocimiento y el arte, entre la astronomía y los poemas y canciones que desde los inicios de la cultura el hombre ha dedicado a ese peculiar cuerpo que le permitió, antes de que dominara el fuego y otras fuentes de iluminación, moverse y actuar durante al menos algunas noches en cada ciclo lunar.

Hoy sabemos mucho acerca de la Luna, su composición, su movimiento, su posición... A lo largo de 6 visitas que sumaron un total de más de 330 horas en la superficie lunar, 12 astronautas estadounidenses del programa Apolo, además de diversas sondas robóticas tanto estadounidenses como soviéticas recogieron muestras de distintas zonas del satélite, lo fotografiaron, lo midieron e incluso dejaron en su superficie reflectores, el llamado experimento LLR (siglas en inglés de Medición Lunar por Láser) que hasta hoy utilizan varios laboratorios para determinar la distancia exacta a la que se encuentra nuestro satélite lanzando desde la Tierra un láser, recibiendo su reflejo y calculando la distancia a partir del tiempo que pasa entre que la luz sale hasta que vuelve, una media de 1,282 segundos.

Resulta extraño pensar, sin embargo, que hubo una época, una larga época de la historia de nuestro planeta, en que la luna simplemente no estuvo allí.

Y mucho más extraño resulta pensar que, en un futuro, la luna dejará de estar iluminando la noche.

La órbita de la Luna, que nos parece constante y uniforme a lo largo de toda la historia, es sin embargo tremendamente dinámica y cambiante.

A lo largo de miles de millones de años, las fuerzas de marea debidas a la atracción gravitacional mutua entre la Luna y la Tierra han provocado que se ralentice la rotación de la Luna hasta que su período de rotación es igual a órbita alrededor de nuestro planeta, de modo que nosotros sólo podemos ver un lado de la Luna, y para conocer el otro hemos tenido que lanzar observatorios y sondas robóticas. La Luna también afecta la rotación de la Tierra, ralentizándola. Hace 900 millones de años el día duraba sólo 18 horas y el año tenía 468 de ellos. Durante la época de los dinosaurios, el año contaba con 398 dias de 22 horas.

El propio experimento LLR nos ha permitido determinar, a través de una serie de mediciones realizadas desde 1969 hasta la fecha, que la Luna se está alejando paulatinamente nuestro planeta... alrededor de 3,8 cm cada año. Lo cual también nos dice que en el pasado la Luna estuvo mucho más cerca que ahora, ofreciendo un espectáculo aún más asombroso que, por desgracia, no había nadie que disfrutara.

Esto presenta un problema adicional. Si hacemos el cálculo inverso, y suponemos que la Luna estaba 3,8 cm más cerca cada año en el pasado, la luna no podría tener más de 1500 millones de años de antigüedad. Sin embargo, calculando la posibilidad de que la órbita de la luna hubiera cambiado al paso de los años, se ha calculado que su antigüedad es de aproximadamente 4 mil millones de años... 500 millones de años más joven que el planeta, cuya edad se calcula en 4.540 millones de años.

¿De dónde vino la Luna y a dónde va?

Fue el nieto de Charles Darwin, George Howard, quien propuso en 1878 la que sería la primera teoría del origen de la Luna. Imaginó que, en los años juveniles de la Tierra, el planeta giraba tan rápido que se le desprendió un enorme fragmento, que sería la Luna. Esta teoría, recibida con entusiasmo, se aderezó pronto con la idea de que la cuenca del océano Pacífico era el lugar del que se había desprendido la Luna.

La seductora teoría se mantuvo como explicación plausible hasta principios del siglo XX. En 1909, el astrónomo Thomas Jefferson Jackson propuso que la luna era un cuerpo que vagaba por el espacio y había sido atrapado por la gravedad de la tierra, quedando en órbita a su alrededor. Poco después, el astrónomo Eduard Roche propuso una tercera hipótesis: la tierra y la luna se habían formado independientemente al mismo tiempo, dos cuerpos unidos por la gravedad desde los inicios del sistema solar.

Sólo el conocimiento de la composición de la Luna y los detalles de su historia han permitido ir desechando estas hipótesis. La primera, por ejemplo, exigiría que la composición de la Luna y la Tierra fueran mucho más parecidas de lo que son según demuestran, sobre todo, el estudio de las muestras de suelo y rocas lunares traídos por los astronautas del programa Apolo y tres robots del programa Luna de la Unión Soviética.

La hipótesis que actualmente se considera más plausible se conoce como la del Gran Impacto. En resumen, propone que durante la formación de nuestro sistema solar, un planeta pequeño, más o menos del tamaño de Marte, chocó con la Tierra, lanzando al espacio una nube de materiales mezclados de ambos cuerpos que, eventualmente, se acumularon hasta formar nuestro satélite. Sin embargo, es una hipótesis con varios problemas y no está en modo alguno confirmada.

Hoy no sabemos todavía exactamente por qué tenemos ese espectáculo nocturno maravilloso.

Sabemos sin embargo algo más acerca de su futuro. De continuar las tendencias observadas actualmente, la Luna se alejará de nuestro planeta hasta que su rotación a su alrededor alcance los 47 días. Para entonces, ambos cuerpos habrían quedado enlazados gravitacionalmente, dando los dos la misma cara hacia el otro, de modo que el día en la Tierra duraría también 47 días. Es decir, sólo la mitad de la Tierra miraría hacia la Luna, y la mitad de nuestro planeta se quedaría para siempre sin Luna.

Este sería el escenario dentro de 50 mil millones de años. Pero es sólo una especulación, pues muchísimo antes, dentro de aproximadamente 5 mil millones de años, el desarrollo del Sol lo convertirá en una estrella gigante roja que previsiblemente engullirá a ambos cuerpos.

Mucho antes de entonces, esperamos, habremos podido resolver el misterio del origen de nuestra Luna y, quizá, tener en ella las bases habitadas que ha soñado la ciencia ficción.

Datos vitales de la Luna

Diámetro: 3.475 kilómetros, aproximadamente el 27% del de la Tierra. Distancia de nuestro planeta: un promedio de 384.400 km. Gravedad: 17% de la de la Tierra. Período orbital: 29,5 días para dar una vuelta alrededor de la Tierra. Duración del día: 708 horas. Temperatura: entre -233 y 123 ºC.