Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Ir y venir de la estación espacial

Europa da los toques finales a la nave espacial que tendrá la misión de abastecer a la Estación Espacial Internacional, como la nave espacial automática más potente jamás construida.

Quizá la presencia majestuosa de la Estación Espacial Internacional (ISS) nos haga pensar que los seres humanos estamos colonizando el espacio. Pero no es verdad. Aunque desde la superficie de nuestro planeta nos asombremos del portento no sólo tecnológico, sino también diplomático y político que conforma esa estación espacial nuestra, de todos, a diferencia de las anteriores que fueron estadounidenses, rusas o soviéticas, sigue siendo un apéndice de la superficie, dependiendo de ella para casi todas sus necesidades.

El espacio se colonizará realmente cuando en nuestras estaciones y naves espaciales podamos producir alimentos, obtener oxígeno y agua, reciclar nuestros desechos y estabilizar lo que se conoce como un ecosistema cerrado y, por tanto, autosuficiente, un sistema que sólo necesita la energía del sol, como nuestro planeta o los más cuidados acuarios donde las plantas utilizan la energía solar para separar el bióxido de carbono en oxígeno respirable y en carbono como materia prima para alimentos. Mientras ello no ocurra, nuestro planeta sigue siendo único, y de él dependen los alimentos, el oxígeno, el agua y todos los bienes (desde ropa y jabón hasta medicamentos e instrumentos científicos) de la Estación Espacial.

El desafío es llevar, de la forma más eficaz y económica, lo necesario a nuestro emplazamiento en el espacio: la posición orbital que ocupa la ISS. Y es que ya cuando las superpotencias estaban empeñadas en la carrera por llegar a la Luna, muchos estudiosos y visionarios advirtieron que el recurso más valioso que nos ofrecía el espacio era, precisamente, el espacio, con su casi vacío y su libertad de la atracción gravitatoria (esto no es exacto, pero la descripción es útil). Estos elementos abren posibilidades amplísimas para la investigación científica y el desarrollo tecnológico e industrial. Ir a la Luna era un logro impresionante, pero el costo y el riesgo (que en la misión del Apolo 13 estuvo a punto de terminar en tragedia) dejaron muy pronto de hacer razonable continuar con los viajes lunares, sobre todo cuando el espacio estaba tan cerca, apenas a unos cientos de kilómetros sobre la superficie terrestre. Para ir y volver a esa altura se diseñaron los transbordadores espaciales, de accidentada historia, y la Estación Espacial Internacional, la más reciente nave continuamente habitada que viaja a una altura media de 400 kilómetros sobre la superficie terrestre a una velocidad media de 27.800 kilómetros por hora, con lo cual da la vuelta a la tierra casi 16 veces al día. Esta estación sería el resultado, en cierto modo forzado, de la fusión de proyectos que no eran viables hacer de modo independiente por parte de los países que los emprendieron: la estación Freedom de Estados Unidos, el módulo experimental japonés Kibo, la estación Mir 2 de Rusia y la estación Colón de la Agencia Espacial Europea.

Al cumplirse (sin casi atención mediática) siete años de habitación continua de la ISS el pasado 2 de noviembre, la ISS ha recibido servicio de transporte de personas y bienes fundamentalmente por parte de las naves Soyuz y Progreso rusas, y los transbordadores orbitales espaciales estadounidenses. A partir de 2008, parte de esa tarea será asumida por el ATV, siglas en inglés de “vehículo automatizado de transferencia", nave capaz de llevar hasta 9 toneladas de carga a la ISS guiada únicamente por un sistema automatizado de extraordinaria precisión. El ATV se mantendrá integrado como almacén presurizado de la estación durante seis meses, al cabo de los cuales volverá a la tierra con 6,5 toneladas de desperdicios generados por la habitación humana de la estación y se autodestruirá en una flamígera reentrada a la atmósfera sobre el Océano Pacífico. Los planes actuales contemplan la construcción y puesta en funcionamiento de hasta 7 ATV, lo que resolvería gran parte de las necesidades materiales de la estación espacial durante otros tantos años.

El ATV puede llevar de 1.500 a 5.000 kilogramos de carga seca (bienes de reabastecimiento, alimentos, materiales científicos, etc.), hasta 840 kilogramos de agua, hasta 100 kilogramos de gases (nitrógeno, oxígeno y aire), y hasta 4.700 kilogramos de combustible para reabastecer a la estación y para sus propias maniobras de acoplamiento, desacoplamiento y reentrada. Aunque la estación cuenta con avanzados sistemas de reciclaje de agua y gases (de otro modo las necesidades de los habitantes de la estación serían imposibles de abastecer desde la Tierra), el agua y los gases que llevará el ATV sustituyen las partes perdidas por la ineficiencia que aún sufren tales sistemas.

El primer vuelo operativo del ATV se llevará a cabo a principios de 2008, tentativamente en el mismo mes de enero, a cargo de la nave bautizada "Jules Verne” en homenaje al escritor y visionario francés. Este ATV ya está siendo puesto a punto en Noordwijk, en el sur de Holanda, en el cuartel general del centro europeo de investigación y tecnología espacial de la ESA. Una de las últimas interrogantes expetimentales se disipó en octubre, cuando un cohete Ariane 5 en órbita probó la secuencia de encendido del ATV, simulando el reencendido que deberá realizar el ATV una vez que esté en órbita a bordo del cohete Ariane para ajustar su órbita y dirigirse a la estación.

El proyecto ATV costará alrededor de 1.300 millones de euros, con los que, además de superar uno de los mayores desafíos de la Agencia Espacial Europea, será la bisagra fundamental para cubrir el hueco que dejará la retirada de los transbordadores espaciales, dado que un reemplazo para ellos aún está lejano en el tiempo para la siempre asediada NASA. El ATV y las naves rusas serán así las líneas vitales de materiales y personal de reemplazo para garantizar que la estación espacial europea cumpla con sus objetivos.

Los datos del camión espacial europeo

Comparado frecuentemente con un autobús londinense de dos pisos por tener dimensiones similares, el ATV es un cilindro de 10,3 metros de largo con un diámetro de 4,5 metros, lo que le da un volumen de 48 metros cúbicos que estarán presurizados al estar unido a la estación espacial, casi tres veces la capacidad de las naves rusas de carga Progreso-M. El ATV está formado de dos módulos, el primero, de servicio, es el encargado de la propulsión, con cuatro motores principales y 28 pequeños motores auxiliares para realizar con exactitud la delicada tarea de acoplarse con la estación, tarea que está a cargo del segundo módulo. Todo el conjunto será lanzado desde el puerto espacial europeo de la Guayana Francesa por un cohete Ariane 5.

Nueva vacuna contra un antiguo virus

El herpes zóster, una dolorosa afección que aumenta entre los mayores de 65 años de edad, tiene hoy una nueva arma para su control.

Varicella zoster, el virus de la varicela y también
causante del herpes zoster
(Foto D.P. de CDC/Dr. Erskine Palmer/B.G. Partin,
vía Wikimedia Commons)
Un ataque de herpes zóster, también conocido como “culebrilla”, dura de dos a cuatro semanas y comienza habitualmente con sensibilidad a la luz, dolor de cabeza, fiebre y malestar general. Estos síntomas pueden anunciar también una migraña o varios tipos de infecciones, y por ello el paciente puede verse sujeto a diversos diagnósticos equivocados que retrasan el tratamiento correcto de la afección. En un plazo de aproximadamente una semana se presenta un dolor extremo en los nervios afectados, donde se presenta, en la mayoría de los casos, una erupción que formará dolorosas vesículas llenas de un líquido seroso, y que luego se llenan de sangre para formar costra en un plazo de 10 días más mientras el dolor cede lentamente. Además, puede haber síntomas tan preocupantes como la pérdida de la audición, ceguera, encefalitis, neumonía y, en muy pocos casos, llevar a la muerte del paciente.

Una vez que ha desaparecido la erupción, aproximadamente uno de cada cinco pacientes desarrolla una neuralgia postherpética (NPH), un atroz dolor constante y debilitante que no siempre responde al tratamiento y que puede alterar radicalmente la vida ordinaria del paciente durante meses o, incluso, años.

El responsable de este cuadro sin duda preocupante es el virus Varicella zoster, o virus del herpes humano, muy conocido por ser el responsable de la varicela, esa común enfermedad que adquieren, padecen y superan prácticamente todos los niños. La varicela es más benigna en los pacientes de menor edad, y casi nunca tiene secuelas graves, comenzando con síntomas gripales que evolucionan hacia dos o tres oleadas de erupciones con picor que forman pequeñas llagas abiertas que, habitualmente, sanan sin dejar cicatriz. El principal peligro de la varicela es el contagio a mujeres embarazadas, ya que el virus puede dañar gravemente a los fetos de menos de 20 semanas de desarrollo, provocando una variedad de malformaciones y desórdenes que pueden ser sumamente severos. El tratamiento de los síntomas de la varicela implica, según decisión del médico, el uso de un poco de bicarbonato de sodio en la bañera y el uso de antihistamínicos para paliar el prurito, parecetamol e ibuprofeno (pero nunca, nunca, aspirina ni medicamentos que la contengan), una buena higiene de la piel para evitar infecciones secundarias y la varicela desaparece al cabo de unos veinta días, pero su agente causante, el virus del herpes humano, no lo hace.

Así como la ciencia ha descubierto diversos antibióticos para luchar contra infecciones causadas por bacterias y otros organismos unicelulares, la lucha contra los virus es una historia totalmente distinta. Los antibióticos son absolutamente inútiles contra los virus (razón por la que no se recomienda el uso de antibióticos en episodios de gripe, que es ocasionada por un virus). Para evitar las infecciones virales hemos acudido, principalmente, a las vacunas, que al darle al cuerpo una forma debilitada del virus le estimula a producir defensas contra dicho virus, de modo que al producirse una infección sea el propio cuerpo el que enfrenta a los virus. En el caso de la varicela, la vacuna apenas se puso a disposición de la práctica médica en 1995, pero la protección que ofrece no es permanente, y la vacuna debe volver a administrarse cada diez años.

El virus del herpes humano es eliminado de nuestro cuerpo por las defensas excepto en los ganglios adyacentes a la columna vertebral, y de la base del cráneo, donde permanece en estado latente. Si estos virus se reactivan, por motivos que aún no conocemos, recorren los nervios en una migración hacia la piel donde comienzan a presentar los síntomas del herpes zóster. Curiosamente, las personas que por alguna causa no hayan padecido jamás la varicela son inmune a esta forma más agresiva de la infección viral. El herpes zóster puede ser padecido por personas jóvenes, pero principalmente afecta a personas mayores de 65 años de edad, aunque puede ser padecido por personas jóvenes. Las armas del médico en ese caso están muy limitadas: algunos antivirales que inhiben la replicación del ADN del virus son el principal tratamiento, junto con diversos medicamentos que disminuyen la severidad de los episodios. El tratamiento temprano con aciclovir reduce la duración del ataque y, sobre todo, evita los más graves síntomas y la gravedad de la neuralgia postherpética, si ésta llega a presentarse. El tratamiento puede incluir además reposo en cama, lociones tópicas para calmar la erupción, aplicación de compresas frías en las zonas cutáneas afectadas, esteroides e incluso antidepresivos, si los efectos del ataque se reflejan muy notablemente en el estado de ánimo del paciente.

En 2006, finalmente, se aprobó para su utilización una vacuna derivada de la que se utiliza contra la varicela. En un estudio en el que se administró la vacuna a 38.000 pacientes se demostró que evitaba la mitad de los casos y, principalmente, se reducían los casos de neuralgia postherpética en dos tercios. Así, aunque la vacuna no es tan efectiva como lo son otras que utilizamos, su utilidad puede ser grande en cuanto a la cantidad de sufrimiento que puede evitar. Sin embargo, y pese a que ya se está administrando en lugares como el Reino Unido, se trata de una vacuna costosa (entre 100 y 200 euros) de la que aún no se conocen sus posibles efectos secundarios indeseables retardados, y tampoco se sabe durante cuánto tiempo estarán protegidos quienes se vacunan. En términos generales se recomienda sólo para personas de más de 60 años que no tengan alergia a ningún componente de la vacuna, que no tengan debilitado el sistema inmune por alguna otra afección, que no tengan un historial de cáncer de médula ósea o sistema linfático y que no tengan tuberculosis activa y sin tratar. Pese a todas las advertencias y conocimiento aún escaso de la vacuna, algunas personas, especialmente quienes ya han sido víctimas de un ataque de herpes zóster, consideran que conviene vacunarse, sin duda alguna.

La exposición como factor de protección

Una importante observación realizada en el estado de Massachusets, en los EE.UU., fue que la incidencia de herpes zóster aumentó hasta casi duplicarse desde que se empezó a incrementar la vacunación infantil contra la varicela, de 1999 a 2003, confirmando que los adultos mejoraban su protección inmune contra el herpes zóster si estaban expuestos a niños con varicela. Quizá una de las mejores formas de mejorar la efectividad de la vacuna contra el herpes zóster sea disminuir el uso de la vacuna contra la varicela, una paradoja que presenta difíciles aristas éticas y una elección compleja que tarde o temprano deberán tomar las autoridades sanitarias.

Un mundo sin petróleo

Más lentamente de lo deseable, nos empezamos a preparar para un mundo sin petróleo, en el que la energía deberá provenir de otras fuentes, con sus ventajas y sus desventajas.

Los problemas de una economía basada en el petróleo se exhiben con gran frecuencia, en las cifras de contaminación, en los accidentes que involucran a buques petroleros, en el poder excesivo de las empresas petroleras. Sin embargo siguen siendo grandes las ventajas del petróleo: es abundante, es barato y produce muchísimos componentes de gran utilidad. Un barril de petróleo (159 litros) contiene entre 5% y 30% de componentes que se convierten en gasolina, y en casos extremos hasta el 50% del barril se puede transformar en gasolina con distintos métodos. El resto del petróleo rinde aceites lubricantes, querosenos, combustible de aviones, diesel, aceite para quemar y una gran variedad de sustancias que se utilizan en la creación de plásticos: etileno, propileno, benceno, tolueno y diversos xilenos. Estas palabras solas no significan mucho para la mayoría de nosotros, pero adquieren sentido cuando hablamos de polietileno, cloruro de polivinilo (PVC), acrílico, poliestireno, resinas epóxicas, nylon, poliuretano o poliéster. Son todos materiales que en distintas formas definen la vida contemporánea.

Sin embargo, promovamos mucho o poco la sustitución del petróleo por otras fuentes de energía, el hecho es que el petróleo es un recurso que se agotará tarde o temprano, casi ciertamente en este mismo siglo, de modo que la búsqueda de fuentes alternativas de energía es cada vez más una prioridad. Idealmente, estas fuentes alternativas serán más limpias, más baratas y más accesibles, pero de momento cada una tiene desventajas que deben superarse. La energía solar, siendo gratuita, exige todavía un costo muy elevado en equipo de instalación, por lo que el coste de utilizarla sigue siendo más alto que el de otras alternativas cuando se utiliza para la generación de energía eléctrica, aunque es cada vez más competitiva, pero aplicada en automóviles ofrece poca velocidad y potencia.

Una de las más interesantes opciones actuales para los automóviles es el hidrógeno. Este elemento es un portador de energía de gran capacidad, lo que quiere decir que podemos tomar energía producida por presas hidroeléctricas, carbón, mareas o paneles solares y almacenarla en hidrógeno para llevarlo a donde se necesite. El hidrógeno no existe en nuestro planeta en forma de gas libre, de modo que para poder utilizarlo debemos aislarlo a partir de otros compuestos que lo contienen, por ejemplo el agua, la biomasa o las moléculas de aire. Actualmente se estudia a diversas bacterias y algas que emiten hidrógeno como producto de su metabolismo.

La celdilla de combustible
Del mismo modo en que la electricidad es un portador de energía (que se toma de la combustión, del movimiento del agua en una presa hidroeléctrica, del calor de la tierra, etc.) y para poder aprovecharla debemos convertirla en calor, movimiento u otras formas de trabajo mediante resistencias y motores, la energía que se puede almacenar en el hidrógeno se utiliza mediante las celdillas de combustible. Actualmente, varios países, instituciones educativas y empresas privadas investigan la forma de tener celdillas de combustible eficientes y que resulten prácticas y económicamente viables en un plazo de una década o poco más.

Por estos días, un importante fabricante de automóviles de los Estados Unidos, General Motors, está haciendo la primera prueba importante de automóviles impulsados por celdillas eléctricas distribuyendo un centenar de autos de hidrógeno en los Estados Unidos, Alemania, Corea del Sur, China y Japón. El motivo por el que se han elegido estos países es, principalmente, que cuentan con instalaciones donde las personas que los utilizarán pueden reabastecerse de hidrógeno. Dado que es la primera prueba a gran escala, se ha buscado sobre todo que los vehículos, cuyo exterior es el de un conocido monovolumen, queden en manos de personalidades famosas, políticos, mandos militares y otras personas con influencia, pero también incluirá a personas comunes.

La celdilla de combustible es un dispositivo de conversión de energía electroquímica que toma el hidrógeno, lo combina con oxígeno y produce una reacción química que genera electricidad en forma de voltaje de corriendte directa y, como único subproducto, agua pura, la unión de dos moléculas de hidrógeno y una de oxígeno. El problema en el que trabajan numerosos investigadores es lograr una forma de celdilla que sea práctica y económicamente viable. Hay al menos media docena de tipos de celdilla de combustible en los laboratorios hoy en día.

La celdilla de combustible de membrana de intercambio de polímeros es la más prometedora para los automóviles. Está formada, de un ánodo o extremo negativo y un cátodo o extremo positivo, una membrana de intercambio de protones que tiene el aspecto del film de cocina y un catalizador que facilita la reacción del hidrógeno y el oxígeno, y aunque puede estar formado de partículas de materiales tan costosos como el platino, utiliza poca cantidad de este material y no se desgasta, ya que sólo facilita la reacción sin aportar materiales a ella. Se introduce hidrógeno a presión del lado del ánodo, que al pasar por el catalizador se separa en dos iones de hidrógeno (que no son sino dos protones libres) y dos electrones. Los electrones pasan al circuito externo, en forma de corriente eléctrica. El oxígeno a presión, que entra por el lado del cátodo, se separa y cada uno de sus átomos atrae a dos moléculas de hidrógeno y a dos electrones del circuito para crear una molécula de agua. Una sola celdilla de éstas produce poca corriente, pero apiladas en grandes cantidades se pueden generar importantes voltajes, con una eficiencia energética de hasta un 64% comparada con la eficiencia de 20% de la gasolina, es decir, un auto de hidrógeno puede utilizar para moverse el 64% de la energía contenida en el hidrógeno, mientras que uno de gasolina sólo usa el 20% en esa tarea, y el resto se disipa como calor. Esta eficiencia podría crecer en el futuro, con nuevas investigaciones y mayor voluntad social y política de frente al agotamiento del petróleo.

Una innovación… del siglo XIX

Contrariamente a lo que podríamos pensar, la celdilla de combustible no es un invento moderno. Sus bases teóricas fueron descubiertas por el científico alemán Christian Friedrich Schönbein in 1838, base sobre la cual fueron creadas en la práctica por Sir William Grove y anunciadas en la Academia Francesa en 1839. 50 años después, Ludwig Mond y Charles Langer intentaron utilizarla para producir electricidad, y en la década de 1960 sus principios fueron empleados en las baterías de las cápsulas espaciales Géminis.

María Sklodowska Curie: Dar la vida por el conocimiento

Dos premios Nobel, una pasión ardiente por saber y un compromiso llevado a sus últimas consecuencias son las señas de identidad de la mayor científica del siglo XX.

Marie Curie en su laboratorio
(Foto D.P. vía Wikimedia Commons)
Para una chica de fines del siglo XIX no era lo más común decir soñar con ser una investigadora científica. No era común, tampoco, declararse agnóstica en la adolescencia renunciando al catolicismo que era definitorio de su cultura, la polaca, ni que dejara de dormir o comer concentrada en sus estudios, y menos aún que se implicara políticamente en los proyectos revolucionarios estudiantiles contra la Rusia zarista. Parecería, por momentos, que tal retrato correspondería a una feminista innovadora de la segunda mitad del siglo veinte. Pero nada de lo que conformó la vida de María Sklodowska era común desde que nació el 7 de noviembre de 1867 como hija menor de dos profesores de escuela militantes de la educación como motor del cambio, que la impulsaron a romper los moldes, a ser independiente en la ciencia y la política, a cambiarse para cambiar el mundo.

Habiendo sido rechazada en la universidad por ser mujer, a pesar de sus excepcionales resultados académicos, María y su hermana Bronya acordaron apoyarse para sus estudios, tocando primero a Bronya partir a París. María trabajó como institutriz de los hijos del dueño de una plantación de remolacha, ocupándose en su tiempo libre de enseñar a leer a los hijos de los campesinos, aún a riesgo de ser castigada por los ocupantes rusos en caso de ser descubierta. Finalmente, en 1891, pudo ir a París y matricularse en la Sorbona, consiguiendo en sólo tres años sus títulos en matemáticas y ciencias físicas, y conociendo al profesor Pierre Curie, con quien se casó en 1895.

La época en que vivían los Curie era la más emocionante en el mundo de la física. Día a día se iba conformando y modificando una comprensión sobre la composición fundamental de la materia que superaba ampliamente todo lo conseguido en la historia humana anterior: formas de radiación recién descubiertas exigían explicación para ser parte de una visión integral y ordenada de la materia: los rayos X, la radioactividad, los nuevos modelos del átomo, conocimientos originales, elementos antes desconocidos, nuevas dudas y nuevas preguntas electrizaban el ambiente en el que María, ahora Marie, y Pierre Curie emprendieron sus investigaciones. No contaban con laboratorios, financiamiento, ni apoyo moral para estimularlos. Daban clases en abundancia para financiar sus experimentos, desarrollando como requisito previo novedosas técnicas químicas como las que ideó Marie para separar el elemento radio de los minerales radiactivos y tener cantidades suficientes para estudiarlo, caracterizarlo y darle un sitio en la tabla periódica de los elementos introducida apenas en 1869 por Dmitri Mendeleev.

Marie empezó a trabajar en la radioactividad como su proyecto para alcanzar el doctorado en física, y en julio de 1898 los Curie publicaron un artículo dando cuenta del descubrimiento del polonio, el altamente radiactivo elemento 84 de la tabla periódica. En diciembre de ese año publicaban el descubrimiento de otro elemento también radiactivo, el radio, número 88. Cabe notar que, dado que Polonia no existía como país, dividida entre Rusia, Prusia y Austria, la activista política que vivía dentro de Marie Curie pensó que al darle a su descubrimiento el nombre de su tierra, llamaría la atención sobre la falta de independencia que sufrían los polacos. Sería el primer elemento que recibiera nombre por motivos puramente políticos.

Para llegar a estos descubrimientos, Marie había observado que el mineral radiactivo presentaba un comportamiento curioso: de él se extraían el uranio y el torio, dos sustancias radiactivas, pero el material restante, sin esos dos elementos, era más radiactivo que antes, lo que indicaba claramente que contenía otro u otros elementos, aún desconocidos, responsable de esa radiactividad. Sin embargo, los resultados de 1898 necesitaban sustentarse en muestras más abundantes de ambos elementos, y para tenerlas, los Curie tuvieron que procesar toneladas y toneladas de mineral de pechblenda del que extrajeron los elementos que buscaban. Ahora, al menos, tenían el apoyo de algunos empresarios e instituciones científicas para la ingente tarea que, por ejemplo, implicaba procesar una tonelada métrica de mineral como la pechblenda para obtener apenas 100 millonésimas de gramo de polonio. Pero confirmaron sus descubrimientos y Marie Curie alcanzó el doctorado en 1903, como primera mujer en conseguirlo en Francia. Ese mismo año, fue también la primera mujer en obtener el Premio Nobel, cuando la pareja fue nombrada ganadora del premio de física. Gracias a ello, Pierre fue nombrado profesor en la Sorbona y María fue contratada como jefe de laboratorio.

La alegría compartida duró poco, pues en 1906 Pierre murió en un accidente callejero. María pronto se convirtió en la primera mujer profesora de la Sorbona, además de continuar con su trabajo de laboratorio y de fundar el Instituto del Radio en memoria de su esposo. Lo que no consiguió, sin embargo, fue ser la primera mujer admitida como miembro en la Academia Francesa, pues fue rechazada por un voto. Como respuesta, la Academia Sueca le concedió en 1911 el Premio Nobel de Química, convirtiéndola, hasta hoy, en la única persona que ha obtenido dos premios Nobel en dos ramas distintas de la ciencia.

Durante la Primera Guerra Mundial, María Curie usó su influencia para crear una flotilla de 20 estaciones móviles de rayos X y 200 estacionarias, salvando numerosas vidas, apoyada por su hija, la también física Irene Curie, y creó las primeras formas de radioterapia para destruir tejidos enfermos. De vuelta a la paz, continuó promoviendo el Instituto del Radio, obteniendo financiamiento y apoyo para seguir el trabajo científico con su familia. Sin embargo ya no vio cómo se concedía en 1935 el premio Nobel de física a su hija Irene y al marido de ésta, Frédéric Joliot, por el descubrimiento de la radiactividad artificial. Enferma desde 1920 de anemia aplástica, con toda seguridad debida a su continuada exposición a la radiación, falleció en 1934.

La profesora militante

María Curie escribió sobre el grupo de jóvenes de Varsovia que buscaban autoeducarse a pesar de la represión de los ocupantes: "El propósito inmediato era trabajar en la educación de uno mismo y darle los medios para educarse a los trabajadores y los campesinos. De acuerdo con este programa, acordamos entre nosotros dar cursos por las noches, cada uno enseñando lo que mejor conocía. No es necesario decir que ésta era una organización sercreta, lo que lo hacía todo extremadamente difícil."

Del telescopio al conjunto de un kilómetro cuadrado

Hasta el siglo XVII no pudimos ver el universo más que con nuestros limitados ojos. Hoy, podemos escudriñar incluso los límites del universo con nuestros telescopios.

Contra lo que se cree, Galileo inventó el telescopio, aunque ciertamente, basado en lo que escuchó en Venecia en 1609 sobre un telescopio creado por algún belga, construyó varios telescopios sucesivamente mejores en un esfuerzo sin paralelo que, para el año siguiente, le permitieron ver los primeros satélites de Júpiter, las manchas del sol, las fases de Venus y las montañas y valles de la Luna, alterando para siempre la percepción humana sobre el cosmos y el lugar de nuestro planeta en el orden mayor de las cosas, demostrando que la concepción de Copérnico era una descripción más acertada que la de Ptolomeo y ocasionando la furia de la iglesia.

El "belga" del que oyó hablar Galileo fue quizá uno de los tres holandeses que pueden haber inventado el telescopio: Hans Lippershey y Zacharias Janssen de Middelburg o Jacob Metius (también llamado Adriaanszoon) de Alkmaar. Una vez que las lentes de vidrio se popularizaron en Europa hacia el siglo XIV, el concepto de telescopio no estaba muy lejos, sólo era necesario combinar una lente cóncava y una convexa para hacer la magia de que las cosas lejanas se vieran cercanas. Si se conocían los telescopios antes de principios del siglo XVII, resulta irrelevante: Galileo fue el primero en usarlos para ver el universo. Al telescopio de lentes de Galileo siguió otro sugerido por Kepler, con mayor ángulo de visión y que permitió a Christiaan Huygens descubrir Titán, el satélite de Saturno.

Estos telescopios tenían dos lentes que refractaban la luz para obtener la visión aumentada de su nombre (del griego tele, lejos y skopein, mirar o ver), es decir, son telescopios refractantes. Pronto apareció otro telescopio que empleaba espejos para ver, perfeccionada teóricamente por Sir Isaac Newton, por lo su tipo se conoce como "telescopio newtoniano". Unos y otros amplificaban la luz visible, aunque en cuanto hubo materiales fotográficos adecuados, también se pudieron utilizar para estudiar las frecuencias infrarrojas y ultravioletas, lo que permitió profundizar más en el aspecto y composición de los cuerpos celestes. Los telescopios ópticos sufren, todos, de una serie de aberraciones e imprecisiones debidas a la composición de la luz y a su comportamiento al difractarse o reflejarse, y gran parte de los esfuerzos tecnológicos han estado orientados a reducir estos defectos para tener observaciones más fiables.

Los telescopios ópticos científicos, como el Gran Telescopio de Canarias, el William Herschel o el Isaac Newton, pertenecientes al Observatorio Roque de los Muchachos, o el IAC-80 del observatorio del Teide y los telescopios de 0,9 m y de 1,5 m del Observ atorio de Sierra Nevada, suelen ser reflejantes, que son más precisos y eficientes, y técnicamente más fáciles de fabricar y manipular, y los mayores tienen espejos primarios de entre 6 y 11 metros de diámetro. Las observaciones no son realizadas con el ojo humano, sino que se registran ya sea en placas fotográficas sensibles a diversas partes del espectro electromagnético, espectrógrafos y detectores electrónicos como los CCD, cuyos principios son utilizados igualmente en los sensores electrónicos de las cámaras digitales fotográficas y de vídeo. Desafortunadamentem la atmósfera terrestre altera, difracta y distorsiona en alguna medida todos los rayos de luz que pasan por ella, ocasionando un grave problema para los observatorios, que deben utilizar distintos sistemas para tratar de eliminar los efectos de la atmósfera.

Además de los telescopios ópticos, el ser humano escudriña el cosmos con los llamados radiotelescopios desde 1930, cuando accidentalmente se descubrió una fuente de señales de radio procedentes de la constelación de Sagitario que interferían con la radio de onda corta en transmisiones transatlánticas. Los radiotelescopios no son sino antenas de radio direccionales que se utilizan para "escuchar" distintas frecuencias del espectro electromagnético. Los más conocidos de esta variedad son los grandes telescopios parabólicos cuyo receptor se ubica en el foco de la parábola. Los radiotelescopios nos permiten conocer otra visión del universo, detectando grandes fuentes de energía como los pulsares o cuásares y, en cierta forma, mirando al interior de las galaxias para informarnos de su composición.

Como ejemplos de radiotelescopios tenemos, en España, el radiotelescopio de 30 metros que se encuentra en el Pico Veleta de la Sierra Nevada, el imponente radiotelescopio de 40 metros recientemente inaugurado en el Centro Astronómico de Yebes. El más conocido radiotelescopio del mundo es, probablemente, el de Arecibo, en Puerto Rico, que aprovechó un cráter natural para tender una enorme antena de 305 metros, y que ha aparecido en al menos dos películas, una de 007 y la otra Contacto, basada en la novela del astrónomo Carl Sagan.

Una de las ventajas de los radiotelescopios es que se pueden formar en grandes grupos o matrices para detectar señales de radio de una amplitud mayor que la del plato del radiotelescopio, del mismo modo en que podemos usar muchos espejos pequeños para formar la imagen de un objeto muy grande. A principios de octubre se informó de planes para crear un conjunto de radiotelescopios que cubrirá un kilómetro cuadrado, el Square Kilometer Array o SKA, que será capaz de estudiar el componente gaseoso de nuestro universo cuando era joven y detectar las ondas de radio que quedan de esas primeras etapas, permitiéndonos aprender más sobre el origen y evolución de nuestro universo. Un radiotelescopio más grnde es más sensible, lo que le permite percibir señales más débiles emitidas por objetos más lejanos o más tenues. Está aún por decidirse qué tipo de radiotelescopios individuales conformarán el SKA, e incluso aún no se sabe si se situará finalmente en Australia o en Sudáfrica. Con una fecha de inicio de la construcción prevista para 2012, el proyecto de 1.500 millones de euros incorpora actualmente a astrónomos e ingenieros de 17 países que esperan que el SKA empiece a realizar observaciones en el año 2020.

Hubble: el ojo en órbita

Los telescopios ópticos son muy sensibles a las fuentes de luz situadas en sus cercanías, de modo que un telescopio ubicado muy cerca de una gran ciudad sufrirá una importante disminución en sus capacidades debido a la contaminación lumínica provocada por el resplandor de las luces de la ciudad en el cielo. El más famoso telescopio óptico de los últimos años, el Hubble, consigue evitar estos dos problemas al encontrarse en órbita, y gracias a ello nos ha permitido una vista espectacular del universo gracias a su espejo de sólo 2,4 metros de diámetro.

Plástico y nanotecnología: materiales para el futuro

El desarrollo de los plásticos cambió todo lo que el ser humano puede hacer. Y pese a sus problemas, estos materiales siguen ofreciéndonos sorpresas al unirse a la tecnología punta.



Era 1855 cuando el británico Alexander Parkes desarrolló el primer material que puede considerarse un plástico: la parkesina, un celuloide de origen natural que presentó en público en la Exposición Internacional de Londres en 1862. No deja de ser ligeramente irónico que el plástico se considere la encarnación de la artificialidad cuando sus orígenes fueron tales, pero los plásticos artificiales son los que efectivamente revolucionaron la vida humana. En 1907, Leo Hendrik Baekeland, químico belga trasplantado a los Estados Unidos, desarrolló el primer plástico artificial al que bautizó con su nombre: bakelita, resultado de la mezcla de fenol y formaldehído. La bakelita pronto se popularizó en muchas aplicaciones diversas gracias a su maleabilidad, su plasticidad, especialmente en la forma de ese aislante marrón oscuro que se usó en los adminículos eléctricos hasta la década de 1960 y sus parientes químicos, otras resinas fenólicas, incluso han ido al espacio recientemente.

Los plásticos son polímeros, es decir, sus moléculas están formadas por largas cadenas repetitivas de unidades estructural llamadas monómeros y conectadas entre sí por enlaces químicos covalentes. Entre los polímeros naturales tenemos la goma obtenida del árbol del hule, el caucho, y el propio ADN de nuestro material genético. Los plásticos, como el celuloide inventado en 1870 que se volvió la materia prima fundamental del cine y la fotografía hasta la llegada del acetato en 1952 y ahora del poliéster, hasta el nylon de las medias femeninas, desde envases hasta piezas de recambio para el cuerpo humano, desde componentes de automóviles hasta partes de robots lanzados al espacio para explorar otros planetas, el mundo de hoy sería totalmente imposible sin los plásticos y su desarrollo incesante en la industria. Pero aunque la ciencia de los polímeros y la industria de los plásticos nos han dado numerosos materiales con capacidades asombrosas, es natural siempre esperar más, o soñar con materiales de asombrosas capacidades.

Mientras más sabemos sobre los plásticos, más posibilidades ofrecen y se hace claro que hay más por saber de lo que imaginábamos. Una de las áreas donde se ha esperado que nuestros conocimientos sobre polímeros resulten muy útiles es la nanotecnología, la rama que se ocupa de la comprensión de las cosas a nivel atómico y molecular ("nano" significa una milmillonésima de metro) y la fabricación de materiales o dispositivos manipulando estos elementos. Se han creado así pequeños elementos constructivos: nanoalambres, nanohojas, nanotubos y diversas nanopartículas que tienen propiedades mecánicas singulares e impresionantes a esas escalas diminutas, pero los científicos se han debido enfrentar al obstáculo que representa el conseguir que tales características se mantengan al crear objetos macroscópicos con tales elementos. Por ejemplo, según el sitio en línea Nanowerk, si se consigue transferir al mundo práctico las extraordinarias propiedades mecánicas de ciertos nanocomponentes como la resistencia a la fractura, podríamos crear materiales mucho más resistentes, ligeros y flexibles, lo que puede revolucionar todos los aspectos de nuestra vida. En palabras del doctor Nicholas A. Kotov, investigador de la Universidad de Michigan, Estados Unidos, "los elementos constructivos a nanoescala son excepcionalmente fuertes en lo individual porque están cerca de ser los materiales ideales libres de defectos".

Lo que ha hecho el doctor Kotov junto con los grupos de investigación de Ellern Arruda y Toni Waas en la misma universidad ha sido conseguir un nuevo plástico fuerte como el acero y a la vez transparente. Lo que han conseguido es transferir "casi de modo ideal", dice Kotov, la tensión entre nanohojas y una matriz de polímeros. Para ello, los investigadores crearon primero una máquina que desarrollaron desde cero y que "construye" materiales colocando una capa a nanoescala tras otra. La inspiración para su idea fue la madreperla, esa cubierta iridiscente de las conchas de muchos moluscos, y el material de que están hechas las perlas, que se forma capa a capa con las secreciones de la ostra o el mejillón, y que es uno de los materiales naturales más resistentes basados en minerales.

La máquina de los investigadores de Michigan es un brazo robótico que se mueve sobre una rueda de recipientes sosteniendo una pieza de cristal más o menos del tamaño de un portaobjetos de microscopio. El brazo introduce el vidrio en una solución de polímeros con propiedades adhesivas, alcohol polivinílico,y después en un líquido con una dispersión de nanohojas de cerámica. Una vez secas esas dos capas, el proceso se repite permitiendo que las capas de nanoadhesivo y nanohojas formaran capas unidas mediante enlaces de hidrógeno de gran resistencia, lo que los científicos han llamado "el efecto velcro". Al cabo de unas 300 veces, la capa es apenas tan espesa como la película plástica en la que se envasan los alimentos.Sin embargo, es extremadamente resistenet debido tanto al efecto velcro como al hecho de que las nanohojas se disponen en capas apiladas, en un patrón alterno que los científicos dicen es como el de los ladrillos y el cemento, donde cada hilera sirve para volver irrelevante cualquier imperfección de la anterior.

El plástico resultante podría ser utilizado por igual en dispositivos microelectromecánicos, sensores biomédicos, válvulas de recambio para trasplantes, aviones robóticos y protección antibalas para policías y soldados. Un supermaterial fuerte, como el acero pero más ligero y transparente que promete ser el primero de una larga serie de nuevos materiales.

La indeseable permanencia

Una notable característica de muchos plásticos es su durabilidad y estabilidad al paso del tiempo y ante diversas sustancias, que los hace ideales, por ejemplo, para sustituir huesos de la pierna sin temor a que se degraden. Pero eso se convierte en un grave problema cuando enviamos los plásticos a los vertederos. La lenta descomposición de los plásticos ha sido objeto de afirmaciones no debidamente demostradas, y así se afirma que las bolsas de plástico tardan desde 20 hasta 1.000 años en degradarse, cifra que varía sin motivo aparente. Al paso del tiempo, las soluciones han ido desde la creación de bacterias capaces de digerir el plástico hasta el diseño de nuevos plásticos que se descomponen ante elementos como la luz solar, ideales para tirar la basura. Lo que difícilmente ocurrirá es que dejemos de hacer y usar los plásticos, una gran oportunidad para quien descubra qué hacer con ellos cuando van a la basura.

El "big bang" de la vida en la Tierra

La historia de la evolución de la vida está todavía escribiéndose, pero uno de sus capítulos sigue siendo especialmente apasionante: el del surgimiento súbito de la vida como la conocemos hoy.

Los tiempos geológicos son difíciles de comprender para seres como nosotros, que vivimos, salvo excepciones, menos de cien años. Una persona de 79 años habrá vivido unos dos mil quinientos millones de segundos, mientras que la Tierra, nuestro planeta, tiene una edad de unos 5 mil millones de años. Cada año de nuestro planeta equivale a medio segundo de la vida de una persona de 79 años.

La vida aparece en nuestro planeta hace aproximadamente 3.800 millones de años, y los primeros microfósiles de bacterias que datan de 300 millones de años después. A partir de allí, la vida siguió un lento proceso y las bacterias dominaron durante más de mil millones de años, hasta que aparecieron formas más complejas. Pero hace entre 543 y 490 millones de años, en un tiempo relativamente breve, el período cámbrico, la vida experimenta una serie de saltos asombrosos. En menos de 50 millones de años, equivalentes a nueve meses y medio de la vida de una persona de 79 años, y especialmente en un período de sólo 10 millones de años, apareció en el planeta una enorme diversidad de seres vivos de complejidad sin precedentes, comparados con los que durante tanto tiempo habían ocupado al joven planeta Tierra. El cambio más notable fue la aparición de seres ya no formados por una única célula o por colonias de células que seguían siendo individuos, sino seres formados por muchas células. Los fósiles de estos primeros seres multicelulares invitan a dejar volar la imaginación: frondas con aspecto de plumas, bolsas y discos que no tienen aún ni cabeza, ni sistemas nerviosos, o aparatos circulatorios o digestivos. Como si la vida estuviera lentamente aprendiendo a organizarse, probando nuevas formas de sobrevivir con éxito y competir en un medio que cambiaba rápidamente, también. Esta aparente intencionalidad de la vida es una de las características sin duda más llamativas de la evolución, aunque en realidad se trata de una serie de cambios no intencionales, donde las variaciones aleatorias son seleccionadas por el medio.

No hay modo de saber qué elementos dispararon la llamada "explosión cámbrica", la súbita (en términos geológicos) aparición de gran variedad de formas de vida animal. Toda la tierra se concentraba en el megacontinente Gondwana, que se empezaba a separar en continentes más pequeños, y la vida se desarrollaba en un gigantesco océano en el cual empezaba a haber oxígeno en cantidades importantes, aspecto que los científicos consideran al menos uno de los disparadores de la multiplicación de las formas de vida en este tiempo, cuando surgieron prácticamente todos los fila (plural de filum) modernos de animales multicelulares con caparazones o partes duras y simetría bilateral, es decir, un lado izquierdo que es, al menos exteriormente, una imagen en espejo del derecho. El ejemplo más conocido de estos animales fueron, los trilobites, esos artrópodos marinos que aparecen en todas las representaciones de la vida primitiva en nuestro mundo y de los que hubo decenas de familias por todo el planeta y que sobrevivieron mucho más allá del cámbrico.

Los animales vertebrados somos un solo filum que incluye peces, reptiles, aves y mamíferos, diseñados sobre el mismo patrón: una columna vertebral como base de un esqueleto con músculos, una cabeza en un extremo y cuatro extremidades o apéndices principales. Todos los demás 37 fila animales (como los artrópodos, moluscos, gusanos planos, redondos y segmentados, etc.) con los que convivimos, salvo uno, aparecieron en el período cámbrico. Pero si bien ésos sobrevivieron, fue a partir de docenas y docenas de fila que aparecieron en lo que los biólogos evolutivos llaman una radiación, es decir, que las nuevas formas cambiaban en distintos sentidos, apartándose rápidamente de sus antecesores. La diversidad cámbrica fue mucho mayor que la que vemos hoy en día en nuestro planeta. Hubo criaturas con cinco ojos, con bocas circulares, etc. La vida experimentó con simetrías distintas a la bilateral, como la radial (de la cual sobreviven seres como las estrellas y los erizos de mar), con números pares o impares de extremidades, o sin ellas, animales con aspectos tan singulares que llevan nombres como "anomalocaris" (que hace referencia a su anormalidad) o "hallucigenia", el alucinante animal que camina sobre más de una docena de tentáculos, así como el pez más viejo conocido, el "millokunmingia" y las primeras "expediciones" de la vida animal a tierra firme.

Pero si la vida parecía explorar sus posibles avenidas de desarrollo, también en el período cámbrico ocurrieron al menos cuatro extinciones masivas, si se permite la metáfora, como si se borrara la pizarra para empezar de nuevo con otro grupo de ideas o experimentos para la vida, haciendo desaparecer grupos completos de animales. Entre las explicaciones que pueden darse a esta desaparición están la glaciación que siguió al cámbrico y la disminución del oxígeno en las aguas marinas. En la más importante de las extinciones cámbricas desapareció la mitad de todas las familias animales que existían, quedando sólo los elementos esenciales con los que la evolución habría de construir la vida en los millones de años siguientes.

La enorme diversidad de la vida en la explosión cámbrica nos permite imaginar que la vida podría ser radicalmente distinta en la Tierra si hubiera variado alguno de los elementos fortuitos que decidieron qué tipos de animales sobrevivirían y cuáles no. Ciertamente, la selección natural es la herramienta principal que impulsa la evolución, pero hay también un elemento azaroso, aleatorio, que nos recuerda que somos, ante todo, un accidente afortunado.

¿La extinción es necesaria?

Aunque ciertos grupos de personas preocupadas por el medio ambiente parecen creer que hubo alguna época pasada en la que no se extinguían especies y el equilibrio ecológico era total, esto no es así. El equilibrio ecológico es dinámico, adaptable y flexible, si no lo fuera, cualquier perturbación implicaría su derrumbamiento total. En realidad, y sin que esto sea un argumento para defender el abuso de nuestro medio ambiente, el 99,9% de todas las especies que han existido se han extinguido, muchas veces en extinciones masivas y aterradoras, como la pérmica, hace 230 millones de años, que acabó con el 95% de todas las especies marinas y la mitad de las familias animales, o la de los dinosaurios. Y en realidad aún no sabemos si tales fenómenos son, o deben considerarse, parte normal del desarrollo de la vida en nuestro mundo, los puntos críticos de un ciclo que aún es un misterio.

Darwin, el genio apacible


Cambió el modo de pensar que tenemos sobre nosotros mismos y todo el mundo vivo, y desafió creencias milenarias armado sólo de datos, hechos y pruebas.

El mundo en el que nación Charles Robert Darwin en 1809 en Shrewsbury, Inglaterra, quinto hijo del médico Robert Waring Darwin y su esposa Susannah Wedgwood apenas se preparaba para el esplendor inglés bajo la férrea mano de la reina Victoria. Retratado en 1816 abrazando una maceta de flores amarillas, no mostraba ser el genio que celebran la ciencia y el conocimiento, ni el adversario odioso de algunas tendencias religiosas. Después de abandonar la carrera de medicina con el disgusto de su padre, cuando en 1828 empezó a estudiar para ser ministro de la iglesia anglicana, se hizo claro que su vocación sacerdotal tampoco era abundante y tomó otros caminos, como amigo y alumno de John Stevens Henlow, profesor de biología, y luego con Adam Sedgwick, profesor de geología. No deja de ser curioso que, con Henlow, estudiara entusiasta los escritos de William Paley, defensor del argumento del diseño divino en la naturaleza, y que el propio Henlow fuera quien le consiguiera el puesto de "naturalista de a bordo sin salario" en el bergantín de diez cañones HMS Beagle, cuya misión era levantar los planos hidrográficos de la parte sur de la costa sudamericana para luego realizar una circunnavegación planeada para dos años que, al final, se prolongarían hasta cinco.

Aunque ya Anaximandro, en el siglo VI antes de nuestra era, habló de la transmutación de las especies y de ancestros comunes, las ideas religiosas predominaron y sólo a fines del siglo XVIII hubo suficientes evidencias, en el registro fósil, en la geología y en la clasificación de los animales, como para plantearse de nuevo que las especies no permanecían, sino evolucionaban, que en el pasado hubo seres que hoy no existen y no se encontraban rastros de los que hoy sí conviven con nosotros. La idea de la evolución requirió, por supuesto, una explicación, y la más conocida anets de Darwin fue la de Lamarck, que consideraba que las experiencias vitales se reflejaban en la herencia, y así un animal que estire mucho el cuello para comer hojas de los árboles tendrá hijos de cuello cada vez más largo, hasta que sean jirafas.

Darwin fue al viaje del Beagle como geólogo, botánico, zoólogo y científico en general, algo que no era muy común en los barcos de la época, y realmente había sido invitado para acompañar al capitán, que temía que la soledad y la compañía de los marineros lo llevaran al suicidio como a un colega suyo. En el largo viaje, Darwin encontró, describió y recopiló fósiles, distintas especies de animales y plantas, anotando sus variaciones y, sobre todo, haciéndose preguntas sobre el "misterio de misterios", el origen de las distintas especies. El material que llevó consigo al volver a casa en 1836 fue estudiado por Darwin paciente y cuidadosamente hasta que en 1842 se "atrevió" a especular sobre los mecanismos de la evolución, hizo el primer boceto de sus conclusiones en 1844, consciente de las implicaciones que tenía el rumbo de sus estudios, y siguió confirmándolas y sometiéndolas a prueba con los datos de la realidad hasta que en 1859 finalmente publicó El origen de las especies por medio de la selección natural. Darwin no era el único que trabajaba sobre el tema. Como en otros casos, el conocimiento de la biología estaba maduro para llegar a una explicación científica y comprobable de la evolución de las especies, y Alfred Russell Wallace llegó a la misma idea de modo independiente y se lo escribió a Darwin a principios de la década de 1840. Pero aunque Wallace tuvo la inspiración genial, no tenía lo fundamental, las pruebas de las que disponía Darwin. La teoría que planteaba era muy sencilla: en cada generación nacen más individuos de los que sobreviven, y tales individuos son ligeramente distintos unos de otros, de modo que hay una competencia para sobrevivir, en la que los mejor adaptados a su entorno serán seleccionados naturalmente para tener más probabilidades de prevalecer y reproducirse, y al paso del tiempo los cambios se pueden acumular para dar origen a nuevas especies más aptas para sobrevivir en su entorno.

La publicación de El origen de las especies fue una descarga eléctrica en el mundo de mediados del siglo XIX, y especialmente en la Inglaterra natal de Darwin pese a que éste prácticamente no usa la palabra "evolución" en toda la obra y menops aún a los orígenes del hombre. No importaba, los datos del libro implicaban la evolución de todos los seres vivos, incluido el hombre, y los ataques vinieron incluso de sus antiguos profesores Henlow y Sedgwick. La personalidad tranquila y conciliadora de Darwin no le permitía entrar en la liza. Pero su libro había reclutado para la causa del conocimiento científico de los procesos biológicos del cambio a un defensor que se alimentaba del enfrentamiento dialéctico, Thomas Henry Huxley, biólogo que se ganó el título de "el bulldog de Darwin" después de su debate con el obispo de Oxford, Samuel Wilberforce, al que dejó en ridículo al decirle que prefería descender de un mono que de un hombre que no supiera usar su inteligencia.

Abierta la "caja de Pandora" de la evolución, y con el respaldo de Huxley en la arena pública y personal, Darwin siguió ampliando sus conclusiones en libros como El descenso del hombre, La expresión de la emoción en el hombre y en los animales y otros libros, artículos y obras breves que dieron forma a una teoría sólida, cuyos detalles han sido afinados desde 1859 por sucesivas generaciones de biólogos evolutivos sin que aparezca ningún hecho que haga dudar que se trata de una explicación esencialmente correcta de los mecanismos del devenir de la vida en la Tierra.

Charles Darwin se casó con su prima Emma Wedgwood y tuvo diez hijos, de los cuales sobrevivieron ocho, y murió en Kent, el 19 de abril de 1882 y está paradójicamente enterrado en la abadía de Westminster, cerca del astrónomo John Herschel y de Isaac Newton. Entre ingenios de su nivel, sin duda.

Lo que es una teoría

Al hablar de la "teoría de la evolución" de Darwin, vale recordar que "teoría" no significa lo mismo en el habla popular y en la ciencia. A nivel cotidiano, una "teoría" es una especulación, una conjetura más o menos imaginativa. En ciencia, "teoría" denota a una serie de leyes que relacionan determinado orden de fenómenos. Así, la "teoría de la gravitación universal" no es una ocurrencia de Newton, sino las leyes que relacionan la masa, la distancia y la velocidad con la gravedad. La "teoría de la evolución" de Darwin relaciona la presión de selección, la mutación y la variabilidad de los seres vivos con la evolución, y está debidamente demostrada y validada. No es, por tanto, "sólo una teoría".

¿La sensación más poderosa?

En ocasiones irresistible y omnipotente, el miedo nos recuerda que en lo profundo de nuestro cerebro, pese a todo, seguimos dominados por los instintos más esenciales.

Los músculos responsables del movimiento se tensan y los vasos sanguíneos se dilatan para mejorar su irrigación, los ojos se abren, las pupilas se dilatan, se frunce el ceño, los labios se estiran, hay sudoración, nos concentramos en el objeto de nuestra reacción, aumenta el ritmo respiratorio y cardiaco... es el miedo. Ante una situación de miedo, primero tratamos de protegernos o escapar, pero si nos vemos totalmente acorralados o arrinconados, lo más probable es que reaccionemos atacando con desesperada violencia. Y, en términos generales, no podemos controlar ninguna de las reacciones que hemos mencionado.

"La emoción más antigua y más poderosa de la humanidad es el miedo, y el miedo más antiguo y más poderoso es el miedo a lo desconocido." Así iniciaba Howard Philips Lovecraft su ensayo Supernatural Horror in Literature. Y de miedo sabía mucho el autor, creador del relato materialista de terror, de una mitología original y de numerosas obras que hoy siguen siendo motivo de gozosa angustia por parte de los lectores y de inspiración para escritores y cineastas en todo el mundo. Claro, en 1927, cuando Lovecraft publicó este ensayo, aún no se sabía cómo funcionaba realmente el miedo, pero no deja de llamar la atención que la neurología, la biología evolutiva y la fisiología hayan confirmado que, efectivamente, el miedo vive en la zona más antigua de nuestro cerebro, el llamado "cerebro reptil" o sistema límbico, concretamente en las llamadas amígdalas cerebrales. Se trata de dos grupos de neuronas con la forma y el tamaño de una almendra ("amígdala" en latín significa, precisamente, almendra) que se encuentran en lo profundo de los lóbulos temporales mediales, más o menos detrás de nuestros pómulos, a la altura de los oídos, y que en diversas investigaciones se ha demostrado que están a cargo de la memoria emocional y de respuestas emocionales, principalmente el miedo. Las amígdalas reciben información de las zonas del cerebro que obtienen y procesan la información visual, auditiva y somatosensorial, y a su vez tienen conexión con los centros autonómicos del tallo cerebral y, especialmente el hipotálamo, que responde disparando las reacciones del miedo, entre ellas la liberación de adrenalina que nos prepara para huir o pelear, la reacción esencial de supervivencia ante el peligro. Un experimento muy revelador muestra cómo las ratas con las amígdalas dañadas experimentalmente pueden caminar hasta un depredador, como un gato, sin exhibir ninguna inquietud.

La evolución de los sistemas nerviosos, desde el más simple que exhiben gusanos como las planarias hasta los más complejos de los mamíferos y primates más desarrollados, y en particular el humano, muestra lo que podría considerarse, sólo a modo explicativo, como una sucesión de capas en la que las más internas son las más antiguas desde el punto de vista evolutivo, y las más externas son las que han aparecido más recientemente en el desarrollo de la vida en nuestro planeta. Así, la corteza cerebral de los mamíferos es la estructura evolutivamente más reciente, mientras que algunas zonas que están en lo profundo de nuestro cerebro, como las amígdalas o los bulbos olfatorios, son estructuras que ya estaban presentes en los reptiles, motivo por el cual se conoce a estas zonas como el "cerebro reptil". Esto no quiere decir que esas estructuras en nuestros cerebros sean iguales a las de los reptiles, por supuesto, sino que han evolucionado a partir de ese tipo de estructuras a lo largo de millones de años y a través de las especies, manteniendo al menos algunas de sus funciones originales (como la recepción e interpretación de los olores) al tiempo que literalmente encima de ellas han evolucionado nuevas estructuras como la corteza cerebral, capaces de funciones que antes no eran posibles, como el pensamiento abstracto.

El miedo, como el dolor, es una sensación desagradable, pero sin él difícilmente sobreviviríamos como individuos y como especie. Hay algunos miedos que son completamente instintivos, es decir, que los tenemos en cuanto nacemos, como el miedo a caer y el miedo a los ruidos fuertes, mientras que otros los vamos aprendiendo. En su conjunto, son una serie de mecanismos destinados a evitar que nos pongamos en peligro sin necesidad, aunque podemos superarlos en una situación de emergencia. Así, hemos aprendido a tenerle miedo a las llamas y nunca nos internaríamos en un incendio a menos que, por ejemplo, en él se encontrara atrapada en él alguna persona a la que le tuviéramos gran cariño, como un hijo o una pareja. En ese sentido, el miedo no es absoluto, sino relativo, y en ocasiones parece un cálculo cuidadoso de la relación entre el riesgo que comporta algo y los beneficios que nos puede aportar.

Si bien el miedo tiene un valor de supervivencia, favoreciendo la reproducción de los individuos que temen a las cosas genuinamente temibles, uno de los fenómenos más curiosos es que derivamos cierto placer del miedo, y lo buscamos activamente en atracciones de feria, en libros y películas de terror, en videojuegos desafiantes. Se han propuesto dos explicaciones: una según la cual lo que sentimos en tales casos no es miedo, sino sólo excitación, y otra que dice que aceptamos soportar el miedo por la sensación eufórica de alivio que obtenemos cuando termina. Un reciente estudio de Eduardo Andrade de la Universidad de California en Berkeley y Joel B. Cohen de la Universidad de Florida han propuesto por primera vez que en realidad experimentamos al mismo tiempo emociones negativas y positivas, según un estudio publicado apenas en agosto, algo que antes se consideraba imposible. Pero, después de todo, como suelen decir los profesionales de trabajos en los que el miedo siempre está presente, como el toreo, el paracaidismo o las carreras, la valentía no es la ausencia de miedo, sino la capacidad de dominarlo sin que nos domine a nosotros.

Cuando domina lo irracional

Las fobias son miedos irracionales y paralizantes que, aunque el que las sufre sabe que son irracionales, no puede controlar su reacción. Médicos y psicólogos han dedicado grandes esfuerzos para el combate de las fobias, ya que hasta un 8% de los adultos en los países desarrollados padecen alguna fobia (y muchos afirman tener fobias cuando sólo tienen un miedo leve). Hasta ahora, uno de los mejores tratamientos es la exposición sucesiva al estímulo de la fobia, por ejemplo exponiendo a una persona con aracnofobia a fotografías de arañas, luego a arañas de juguete y así sucesivamente hasta conseguir que puedan tener una tarántula en la mano sin ser víctimas de su fobia.

Los mayas

Durante casi cuatro mil años, en el Sureste de México y parte de los países centroamericanos, los mayas crearon imponentes ciudades con monumentos que han perdurado y desarrollaron las más avanzadas prácticas astronómicas y lingüísticas del continente americano antes de la llegada de los europeos. Hoy, la cultura maya es objeto de tanta atención como lo fue la egipcia a principios del siglo XX, porque aunque ignoramos tanto sobre ella, lo que sabemos permite vislumbrar una enorme riqueza artística y cultural desde que los conquistadores encontraron en la zona maya gran cantidad de restos arqueológicos que hablaban de una sociedad y una cultura avanzada y compleja. Sin embargo, la destrucción por motivos religiosos de casi la totalidad de los documentos escritos indígenas hizo aún más profundo el misterio, y éste no empezó a desvelarse sino hasta principios del siglo XX. La escritura maya es logosilábica, lo que significa que combina símbolos fonéticos y logogramas o palabras completas, a diferencia de los ideogramas de otras lenguas originarias como el náhuatl, lo que complicó aún más su comprensión, pues no fue sino hasta la década de 1970 cuando el desciframiento se aceleró, permitiéndonos empezar a comprender los textos sobrevivientes mayas, grabados en piedra, unos 10.000 en monumentos, dinteles y estelas.

Los mayas aparecieron hacia el 1800 antes de nuestra era, comenzando su período preclásico o de consolidación, que duró más o menos hasta el 250 de nuestra era. A partir de entonces, con la desaparición de Teotihuacán, que dominó incluso a los mayas pese a su lejanía geográfica, la civilización maya floreció en su etapa "clásica", sus ciudades-estado crecieron en tamaño y población, y se enfrentaron por la dominación, especialmente las de Tikal y Calakmul, que forjaron alianzas a su alrededor para prevalecer, de un modo que recuerda la dominación alternada de Atenas y Esparta en la grecia clásica. Uno de los puntos culminantes de esta etapa es el reinado, muerte y enterramiento del rey Pacal entre el 615 y el 683 de nuestra era. El descubrimiento de la tumba de Pacal en la pirámide conocida como Templo de las Inscripciones, realizado por el arqueólogo mexicano Alberto Ruz Lhuillier, cambió radicalmente la idea de que las pirámides mesoamericanas eran únicamente túmulos que cumplían funciones de templo. En el siglo X comienza un período de decadencia en el cual se abandonan primero las ciudades de las zonas bajas centroamericanas y después las del norte de Yucatán.

Este período de decadencia aún no se ha explicado de modo claro. Los más recientes descubrimientos incluyen como explicaciones posibles, al menos en parte, una serie de sequías recurrentes ocasionadas por variaciones de la intensidad solar, provocando escasez de los alimentos principales de los mayas, las judías, el maíz y, según se ha descubierto apenas este año, la mandioca, plantada en campos dedicados sólo a este cultivo, mientras la población crecía en exceso; el enfrentamiento bélico por nuevas tierras de cultivo, el desequilibrio de los sistemas ecológicos, la profundización de la brecha entre la élite del poder y el pueblo, y las presiones de sociedades no mayas. Pero el desarrollo de la cultura maya había creado un importante legado en cuanto al conocimiento, y especialmente en la astronomía y las matemáticas.

La astronomía, la pasión por conocer con exactitud los movimientos de los cielos, es la base de un calendario maya asombrosamente preciso, el Haab, puesto que los mayas utilizaban tres calendarios distintos. El Tzolkin era un calendario de trece meses de veinte días, de carácter esencialmente religioso y ritual, empleado entre otras cosas para intentar predecir el futuro por medios astrológicos. Por su parte, el calendario Katún o "cuenta larga", que usaba series de veinte años, llamadas katunes, y series de veinte katunes, llamadas baktunes, de 144.000 días. Las "eras" o ciclos completos estaban formadas por trece baktunes, un total de 5.200 años, al final de los cuales se iniciaba un nuevo siglo. En la cuenta larga, la era actual comenzó el 13 de agosto de 3114 antes de nuestra era y teminará el 21 de diciembre de 2012 para comenzar una nueva cuenta larga o era al día siguiente. Esto ha llevado a la creencia de una especie de "profecía maya del fin del mundo" para esa fecha, que no sólo carece de bases, sino que se ha utilizado para la venta de una serie de productos. Del mismo modo en que no pasó nada relevante en el 3114 antes de nuestra era, nada indica que los mayas creyeran que ocurriría en el 2012.

Por su parte, el calendario Haab, que es el que asombra por su precisión, producto de largas y pacientes observaciones del cielo, era originalmente de dieciocho meses de veinte días, más 5 días "nefastos", los últimos del año, para un año solar de 365 días. Vale la pena señalar que la diferencia entre esta cuenta y el año solar real obligó a los sacerdotes-sabios mayas a reunirse para decretar que cada cuatro años se tendría un día adicional, inventando así el año bisiesto en el 249 antes de nuestra era. El desajuste de este nuevo calendario se hizo evidente también al paso del tiempo, y en el año 775 de nuestra era, una nueva reunión fijó el año solar en 365,242 días. Este desarrollo astronómico no hubiera sido posible sin las matemáticas necesarias para computarlo, especialmente el concepto del cero, concebido hacia el año 36 antes de nuestra. El cero era necesario porque los maya utilizaban un sistema posicional para los números, en el que el símbolo tiene un valor distinto según su lugar, como en nuestro sistema arábigo, donde el símbolo "5" denota cinco unidades, cinco decenas, cinco centenas, etc., dependiendo de su posición.

El misterio de la decadencia maya a finales del período preclásico permanece, pero aún hay demasiadas áreas por explorar, excavar y estudiar. Los descubrimientos de 2006 en San Bartolo, Guatemala, datados 100 años antes de nuestra era, de murales policromados y muestras tempranas de escritura, son sólo otra indicación de que los mayas tienen aún mucho por revelarnos.

Los mayas no desaparecieron

A la llegada de los europeos en el siglo XVI de nuestra era, los mayas seguían ocupando gran parte de lo que hoy son la península de Yucatán y Chiapas, en México, y gran parte de Guatemala, Belice, Honduras, y allí están hoy. Hoy en día, cientos de miles de indígenas que hablan las lenguas mayenses, como los tzeltales, tzotziles, cakchiqueles, tojolabales, chontales, quichés, lacandones y otros, y los mayas de Yucatán son todos descendientes directos, étnica y culturalmente, de los mayas de la antigüedad. Contra lo que muchos creen, los mayas no han desaparecido, ni mucho menos, y algunos de ellos son, de hecho, los zapatistas que el mundo conoció en 1994.

Terraformación: ingeniería a nivel planetario

No podremos ocupar otros planetas usando trajes espaciales, por lo que si el ser humano quiere salir de su planeta cuna, tendrá que adaptar los otros planetas a sus necesidades.

La imaginación popular consideró durante un tiempo a los planetas de nuestro sistema solar como versiones más o menos desarrolladas del nuestro, con vida, probablemente vida inteligente, incluso civilizaciones, y la ciencia ficción primigenia y más ingenua utilizaba para sus fabulaciones a marcianos, venusinos o plutonianos. Pero la ciencia pronto descubrió que estos planetas eran poco hospitalarios: Marte no tenía ciudades, Venus no tenía selva y su capa de nubes, en lugar de agua, estaba formada por ácido sulfúrico; y Júpiter probablemente ni siquiera tenía tierra firme, pues se trata de un planeta formado casi enteramente de hidrógeno con un poco de helio.

Sin embargo, el sueño humano de expandir nuestra presencia como lo han soñado escritores y cineastas requiere de planetas viables donde se pueda desarrollar una vida humana en condiciones adecuadas. La respuesta a este problema también la tenía la ciencia ficción. En 1930, el escritor británico Olaf Stapledon, en su clásico Last and first men planteó la posibilidad de utilizar la ingeniería para alterar totalmente Venus, modificando su atmósfera para hacerla como la de la Tierra. Una década después, el estadounidense Jack Williamson creó la palabra: terraformación, "un proceso de ingeniería planetaria orientado a mejorar la capacidad de un entorno planetario extraterrestre de mantener vida", segun Martyn J. Fogg, del Grupo de Investigación en Probabilidades del Reino Unido.

¿Qué características debe tener un planeta para sustentar la vida? En su versión simple, requiere de una fuente de energía (una estrella, volcanes), amplias zonas con agua líquida y condiciones favorables para la formación de moléculas orgánicas complejas. La vida en nuestro planeta es altamente diversa y adaptable a condiciones muy extremas, y es muy probable que sea capaz de adaptaciones aún más asombrosas. El problema se presenta cuando lo que buscamos es sustentar la vida humana, porque para ella los requisitos se vuelven muchísimo más estrictos.

Para nosotros, la fuente de energía debe ser de luz, no nos basta el calor de la actividad volcánica, pero su composición debe ser tal que no contenga demasiados rayos UV ni rayos X que puedan ocasionarnos quemaduras o cáncer. Necesitamos, además, una atmósfera con una composición bastante precisa de hidrógeno y oxígeno, que nos permita respirar y que también sirva de escudo contra radiaciones peligrosas, y que no tenga ciertos elementos y sustancias que son venenosos para el humano. Aunque el agua líquida puede existir a entre 0 y 100 grados Celsius, el ser humano está hecho para vivir en un rango de temperaturas que no supere los 50 grados Celsius. El planeta en sí no puede tener una masa de mucho más del doble de la de la Tierra, puesto que en caso contrario su gravedad nos ocasionaría incomodidades y problemas de salud. El agua y la tierra, además, deben contener una serie de nutrientes en proporciones bastante definidas, y en ellos deben estar ausentes elementos y sustancias que resultan dañinos para nosotros. Éstos son solo algunos de los aspectos esenciales que debe reunir un planeta para que podamos vivir en él sin sustento externo o artificial.

La idea de la terraformación no sólo es propia de la ciencia ficción, aunque exigiría enormes capacidades para llevar elementos a un planeta, y unas capacidades técnicas y económicas de las cuales no disponemos todavía. Pero ello no ha impedido a muchos científicos y entusiastas plantearse en realidad la posibilidad de terraformar algún planeta, y el mejor candidato a mano es Marte.

La terraformación de Marte

Aunque para Carl Sagan el primer planeta candidato a la terraformación era Venus, la mayoría de los soñadores científicos y no científicos han puesto sus ojos en nuestro más cercano vecino, Marte, como el planeta más indicado para este esfuerzo que quizás algún día el ser humano pueda emprender. La posibilidad de la terraformación de Marte ha sido explorada con seriedad desde muy diversos puntos de vista, desde el químico y biológico hasta el legal y ético, por parte de diversos científicos, filósofos, estudiosos y simples entusiastas de la investigación espacial que creen sinceramente que el futuro del hombre se halla expandiéndose por otros planetas.

Así, el experto en astronáutica Robert M. Zubrin y el investigador del centro Ames de la NASA Christopher P. McKay han resumido los principales requisitos tecnológicos para terraformar al planeta rojo. Parten de la idea de que Marte tiene suficiente CO2 en sus rocas para crear una atmósfera, y proponen diversos sistemas para iniciar un ciclo de realimentación positiva en que el calentamiento de Marte libere CO2 y este gas, a su vez, ayude al calentamiento del planeta por medio del efecto invernadero para crear una atmósfera lo bastante densa. Un sistema es el uso de grandes espejos, de unos 200 kilómetros de diámetro, en órbita para calentar el polo sur marciano y liberar el CO2 atrapado en él. Otra opción es llevar a Marte asteroides con grandes cantidades de amoniaco y otros gases de invernadero. La tercera que se plantean es la producción de gases de invernadero en la superficie marciana por medio de fábricas construidas allí mismo. El segundo paso sería la oxigenación del planeta, urilizando medios industriales para crear bastante oxígeno para luego introducir plantas que puedan realizar la tarea propagándose sobre el suelo marciano hasta tener una atmósfera adecuada para los seres humanos.

Evidentemente, las propuestas serias de terraformación no son instantáneas y casi mágicas, como era la "bomba" llamada "Génesis" en una de las películas de Star Trek, sino asunto de décadas o siglos a lo largo de los cuales se cree una atmósfera adecuada, se siembre una variedad de vida vegetal y animal adecuada para los futuros colonizadores y se limpien las sustancias potencialmente dañinas. En el caso del ejercicio de Zubrin y McKay, sus cálculos indican que se podrían introducir animales avanzados unos 900 años después del inicio del trabajo de terraformación.

Y tratándose de la superviviencia de la especie y de la oportunidad de ocupar todo el universo, no parece tanto tiempo.

A pequeña escala

La "paraterraformación" es la posibilidad de crear ambientes similares a los de la Tierra únicamente en pequeñas zonas aisladas de otros planetas, como ciudades encerradas en domos o en sistemas de cavernas, posibilidades ampliamente exploradas por la ciencia ficción y en las que, sin embargo, la fragilidad de todo el sistema y su vulnerabilidad a cualquier perforación las convierten en una idea poco viable, pero visualmente poderosa.

La peste negra

Asoló Europa y cambió para siempre las relaciones económicas, la visión de la vida y la forma de ordenar la sociedad, además de convertirse en referente inevitable de la cultura occidental.

Durante buena parte de la Edad Media, Europa se vio asolada por disintas epidemias que hoy podemos identificar con cierta certeza, como el cólera, el tifus o la disentería, producto de las malas condiciones sanitarias en ciudades cada vez más superpobladas. Pero ninguna fue tan aterradora como la llamada "peste negra" o "muerte negra" una epidemia que se originó en China a principios de la década de 1330 y que llegó a Europa entrando por Italia en 1347. Se trataba de una enfermedad feroz, aterradora, sin explicación aparente, sin curación posible y con una tasa de mortalidad de prácticamente el 100%.

Durante los siguientes tres años, recorrió europa matando a entre 1/3 y 3/4 de la población europea, dependiendo del país y las condiciones de vida. En donde había concentrados grandes núcleos de población, la mortalidad fue mucho mayor, como en Inglaterra, que perdió al 70% de su población pasando de 7 millones de habitantes a sólo 2, mientras que los países del centro de Europa, menos superpoblados y con menos ciudades, tuvieron cifras mucho más bajas. A esta terrible pandemia siguieron otros brotes menores durante los tres siglos subsiguientes en distintos países, matando en total a más de 25 millones de personas.

La búsqueda de una solución a la mortalidad llevó primero que nada a la búsqueda de la causa. En la mentalidad de la época, un acontecimiento de este tipo sólo podía ocurrir si lo causaban Dios o el Diablo, de modo que las reacciones fueron desde los grupos de flagelantes que se desollaban las espaldas a latigazos para, con su dolor, lavar los pecados de la humanidad y apacigur a la deidad, hasta quienes identificaron como "agentes del demonio" a los chivos expiatorios habituales: los judíos, los extranjeros en general, los leprosos (entre los que se incluían no sólo quienes tienen la enfermedad que hoy llamamos lepra, sino personas con acné grave, psoriasis y otras afecciones de la piel) y los gitanos, entre otros. Persecuciones, destierros y muerte se reservaron a estos grupos en un intento desesperado por detener el avance mortal de la peste. Por su parte, en el mundo musulmán, que no fue imnune a la pandemia, con grandes mortandades en Siria y Palestina, se culpabilizó a los infieles. En algunas zonas de los Balcanes, se echó mano de la cultura popular y la peste se atribuyó a los vampiros, y para defenderse de ella se abrieron numerosas tumbas para rematar a sospechosos de vampirismo. También para controlar la epidemia se dictaron las más diversas disposiciones, desde echar de la población a los anfermos hasta poner en cuarentena los bienes y personas que llegaban por mar, como se hizo en Venecia, prohibir actos que pudieran enfadar a Dios (las apuestas, los burdeles y las maldiciones en Speyer, Alemania)

Los síntomas de la enfermedad en sí incluían fuertes fiebres, dolor de cabeza y articulaciones, náusea, vómitos y las terribles bubas que muestran los grabados. Se trata de una inflamación intensa de los nódulos linfáticos del cuello, las axilas y las ingles, que secretan pus y sangre. En las etapas finales, el sangrado subcutáneo provoca un ennegrecimiento de la piel que podría colaborar a dar su nombre a la enferemedad. La víctima muere generalmente entre 4 y 7 días después de la aparición de la infección. Los síntomas han hecho a los estudiosos modernos concluir que lo más probable es que la muerte negra fuera lo que hoy llamamos peste bubónica, una afección provocada por la bacteria Yersinia pestis que es transmitida por las pulgas que viven en las ratas. Aunque ésta sigue siendo la explicación más convincente, resulta insuficiente para algunos estudiosos, que identifican las características del contagio, y en especial su velocidad, con un virus antes que con una bacteria, además de observar hechos como el que la epidemia atacara Islandia cuando en esa época no había poblaciones de ratas en esa isla

El horror que provocaban estos terribles síntomas, y el hecho de que predecían la muerte segura, está documentado en los manuscritos y pinturas de la época, cuyo epítome es El triunfo de la muerte de Francesco Traini, pintado hacia 1350 y que puede verse hoy en Campo Santo, Pisa, y en la presencia continua que tiene en la cultura popular desde el Decamerón de Bocaccio hasta nuestros días con obras como La peste de Albert Camus, el relato "La máscara de la muerte roja" de Edgar Allan Poe o la película El séptimo sello de Ingmar Bergman.

Pero quizá la consecuencia más inesperada y menos conocida de la muerte negra fue el cambio que representó en la sociedad europea. La súbita despoblación representó un desequilibrio profundo para el sistema feudal, que de pronto se encontró con que no tenía mano de obra sobreabundante, y por tanto el costo de ésta se elevaba, la disponibilidad de más alimentos también representó el final de una larga época de hambre, o al menos desnutrición, permanente en una Europa superpoblada. El hecho de que fracasaran todas las plegarias de la iglesia, para detener la pandemia, todas las persecuciones de los señalados como culpables y que los clérigos cayeran víctimas de la enfermedad en la misma proporción que el resto de la población contribuyeron a que se debilitara el férreo control de la iglesia sobre la población europea. Según algunos estudiosos, también contribuyó el hecho de que fue necesario sustituir en poco tiempo a grandes cantidades de eclesiásticos por otros menos preparados y, con frecuencia, menos devotos. Incluso en un próximo libro, Adiós a las limosnas, el Dr. Gregory Clark, experto en historia de la economía de la Universidad de California, propone que la revolución industrial en sí fue ocasionada por un cambio en el comportamiento humano tal vez originado por la peste negra, como la exaltación de la no-violencia, el acceso a la lectura y el hábito del ahorro. Así, en más de un sentido, la peste negra dio forma al mundo tal como lo conocemos hoy.

La conexión con el SIDA

Un 10% de la población europea es resistente al virus de la inmunodeficiencia humana (VIH) debido a una mutación genética llamada "CCR5-delta 32". Esta mutación está mucho más presente entre la población escandinava y tiene niveles relativamente bajos en las costas del Mediterráneo. Una posible explicación a por qué tal mutación está tan extendida si el VIH no pudo haber jugado un papel en la selección de personas resistentes fue propuesta por un grupo de biólogos de la Universidad de Liverpool, que hallaron indicaciones de que las plagas medievales, especialmente la Peste Negra de 1347, habrían ayudado a elevar la frecuencia de la mutación, si resultara que la muerte negra fue una afección viral y no peste bubónica.