Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

María Sklodowska Curie: Dar la vida por el conocimiento

Dos premios Nobel, una pasión ardiente por saber y un compromiso llevado a sus últimas consecuencias son las señas de identidad de la mayor científica del siglo XX.

Marie Curie en su laboratorio
(Foto D.P. vía Wikimedia Commons)
Para una chica de fines del siglo XIX no era lo más común decir soñar con ser una investigadora científica. No era común, tampoco, declararse agnóstica en la adolescencia renunciando al catolicismo que era definitorio de su cultura, la polaca, ni que dejara de dormir o comer concentrada en sus estudios, y menos aún que se implicara políticamente en los proyectos revolucionarios estudiantiles contra la Rusia zarista. Parecería, por momentos, que tal retrato correspondería a una feminista innovadora de la segunda mitad del siglo veinte. Pero nada de lo que conformó la vida de María Sklodowska era común desde que nació el 7 de noviembre de 1867 como hija menor de dos profesores de escuela militantes de la educación como motor del cambio, que la impulsaron a romper los moldes, a ser independiente en la ciencia y la política, a cambiarse para cambiar el mundo.

Habiendo sido rechazada en la universidad por ser mujer, a pesar de sus excepcionales resultados académicos, María y su hermana Bronya acordaron apoyarse para sus estudios, tocando primero a Bronya partir a París. María trabajó como institutriz de los hijos del dueño de una plantación de remolacha, ocupándose en su tiempo libre de enseñar a leer a los hijos de los campesinos, aún a riesgo de ser castigada por los ocupantes rusos en caso de ser descubierta. Finalmente, en 1891, pudo ir a París y matricularse en la Sorbona, consiguiendo en sólo tres años sus títulos en matemáticas y ciencias físicas, y conociendo al profesor Pierre Curie, con quien se casó en 1895.

La época en que vivían los Curie era la más emocionante en el mundo de la física. Día a día se iba conformando y modificando una comprensión sobre la composición fundamental de la materia que superaba ampliamente todo lo conseguido en la historia humana anterior: formas de radiación recién descubiertas exigían explicación para ser parte de una visión integral y ordenada de la materia: los rayos X, la radioactividad, los nuevos modelos del átomo, conocimientos originales, elementos antes desconocidos, nuevas dudas y nuevas preguntas electrizaban el ambiente en el que María, ahora Marie, y Pierre Curie emprendieron sus investigaciones. No contaban con laboratorios, financiamiento, ni apoyo moral para estimularlos. Daban clases en abundancia para financiar sus experimentos, desarrollando como requisito previo novedosas técnicas químicas como las que ideó Marie para separar el elemento radio de los minerales radiactivos y tener cantidades suficientes para estudiarlo, caracterizarlo y darle un sitio en la tabla periódica de los elementos introducida apenas en 1869 por Dmitri Mendeleev.

Marie empezó a trabajar en la radioactividad como su proyecto para alcanzar el doctorado en física, y en julio de 1898 los Curie publicaron un artículo dando cuenta del descubrimiento del polonio, el altamente radiactivo elemento 84 de la tabla periódica. En diciembre de ese año publicaban el descubrimiento de otro elemento también radiactivo, el radio, número 88. Cabe notar que, dado que Polonia no existía como país, dividida entre Rusia, Prusia y Austria, la activista política que vivía dentro de Marie Curie pensó que al darle a su descubrimiento el nombre de su tierra, llamaría la atención sobre la falta de independencia que sufrían los polacos. Sería el primer elemento que recibiera nombre por motivos puramente políticos.

Para llegar a estos descubrimientos, Marie había observado que el mineral radiactivo presentaba un comportamiento curioso: de él se extraían el uranio y el torio, dos sustancias radiactivas, pero el material restante, sin esos dos elementos, era más radiactivo que antes, lo que indicaba claramente que contenía otro u otros elementos, aún desconocidos, responsable de esa radiactividad. Sin embargo, los resultados de 1898 necesitaban sustentarse en muestras más abundantes de ambos elementos, y para tenerlas, los Curie tuvieron que procesar toneladas y toneladas de mineral de pechblenda del que extrajeron los elementos que buscaban. Ahora, al menos, tenían el apoyo de algunos empresarios e instituciones científicas para la ingente tarea que, por ejemplo, implicaba procesar una tonelada métrica de mineral como la pechblenda para obtener apenas 100 millonésimas de gramo de polonio. Pero confirmaron sus descubrimientos y Marie Curie alcanzó el doctorado en 1903, como primera mujer en conseguirlo en Francia. Ese mismo año, fue también la primera mujer en obtener el Premio Nobel, cuando la pareja fue nombrada ganadora del premio de física. Gracias a ello, Pierre fue nombrado profesor en la Sorbona y María fue contratada como jefe de laboratorio.

La alegría compartida duró poco, pues en 1906 Pierre murió en un accidente callejero. María pronto se convirtió en la primera mujer profesora de la Sorbona, además de continuar con su trabajo de laboratorio y de fundar el Instituto del Radio en memoria de su esposo. Lo que no consiguió, sin embargo, fue ser la primera mujer admitida como miembro en la Academia Francesa, pues fue rechazada por un voto. Como respuesta, la Academia Sueca le concedió en 1911 el Premio Nobel de Química, convirtiéndola, hasta hoy, en la única persona que ha obtenido dos premios Nobel en dos ramas distintas de la ciencia.

Durante la Primera Guerra Mundial, María Curie usó su influencia para crear una flotilla de 20 estaciones móviles de rayos X y 200 estacionarias, salvando numerosas vidas, apoyada por su hija, la también física Irene Curie, y creó las primeras formas de radioterapia para destruir tejidos enfermos. De vuelta a la paz, continuó promoviendo el Instituto del Radio, obteniendo financiamiento y apoyo para seguir el trabajo científico con su familia. Sin embargo ya no vio cómo se concedía en 1935 el premio Nobel de física a su hija Irene y al marido de ésta, Frédéric Joliot, por el descubrimiento de la radiactividad artificial. Enferma desde 1920 de anemia aplástica, con toda seguridad debida a su continuada exposición a la radiación, falleció en 1934.

La profesora militante

María Curie escribió sobre el grupo de jóvenes de Varsovia que buscaban autoeducarse a pesar de la represión de los ocupantes: "El propósito inmediato era trabajar en la educación de uno mismo y darle los medios para educarse a los trabajadores y los campesinos. De acuerdo con este programa, acordamos entre nosotros dar cursos por las noches, cada uno enseñando lo que mejor conocía. No es necesario decir que ésta era una organización sercreta, lo que lo hacía todo extremadamente difícil."

Del telescopio al conjunto de un kilómetro cuadrado

Hasta el siglo XVII no pudimos ver el universo más que con nuestros limitados ojos. Hoy, podemos escudriñar incluso los límites del universo con nuestros telescopios.

Contra lo que se cree, Galileo inventó el telescopio, aunque ciertamente, basado en lo que escuchó en Venecia en 1609 sobre un telescopio creado por algún belga, construyó varios telescopios sucesivamente mejores en un esfuerzo sin paralelo que, para el año siguiente, le permitieron ver los primeros satélites de Júpiter, las manchas del sol, las fases de Venus y las montañas y valles de la Luna, alterando para siempre la percepción humana sobre el cosmos y el lugar de nuestro planeta en el orden mayor de las cosas, demostrando que la concepción de Copérnico era una descripción más acertada que la de Ptolomeo y ocasionando la furia de la iglesia.

El "belga" del que oyó hablar Galileo fue quizá uno de los tres holandeses que pueden haber inventado el telescopio: Hans Lippershey y Zacharias Janssen de Middelburg o Jacob Metius (también llamado Adriaanszoon) de Alkmaar. Una vez que las lentes de vidrio se popularizaron en Europa hacia el siglo XIV, el concepto de telescopio no estaba muy lejos, sólo era necesario combinar una lente cóncava y una convexa para hacer la magia de que las cosas lejanas se vieran cercanas. Si se conocían los telescopios antes de principios del siglo XVII, resulta irrelevante: Galileo fue el primero en usarlos para ver el universo. Al telescopio de lentes de Galileo siguió otro sugerido por Kepler, con mayor ángulo de visión y que permitió a Christiaan Huygens descubrir Titán, el satélite de Saturno.

Estos telescopios tenían dos lentes que refractaban la luz para obtener la visión aumentada de su nombre (del griego tele, lejos y skopein, mirar o ver), es decir, son telescopios refractantes. Pronto apareció otro telescopio que empleaba espejos para ver, perfeccionada teóricamente por Sir Isaac Newton, por lo su tipo se conoce como "telescopio newtoniano". Unos y otros amplificaban la luz visible, aunque en cuanto hubo materiales fotográficos adecuados, también se pudieron utilizar para estudiar las frecuencias infrarrojas y ultravioletas, lo que permitió profundizar más en el aspecto y composición de los cuerpos celestes. Los telescopios ópticos sufren, todos, de una serie de aberraciones e imprecisiones debidas a la composición de la luz y a su comportamiento al difractarse o reflejarse, y gran parte de los esfuerzos tecnológicos han estado orientados a reducir estos defectos para tener observaciones más fiables.

Los telescopios ópticos científicos, como el Gran Telescopio de Canarias, el William Herschel o el Isaac Newton, pertenecientes al Observatorio Roque de los Muchachos, o el IAC-80 del observatorio del Teide y los telescopios de 0,9 m y de 1,5 m del Observ atorio de Sierra Nevada, suelen ser reflejantes, que son más precisos y eficientes, y técnicamente más fáciles de fabricar y manipular, y los mayores tienen espejos primarios de entre 6 y 11 metros de diámetro. Las observaciones no son realizadas con el ojo humano, sino que se registran ya sea en placas fotográficas sensibles a diversas partes del espectro electromagnético, espectrógrafos y detectores electrónicos como los CCD, cuyos principios son utilizados igualmente en los sensores electrónicos de las cámaras digitales fotográficas y de vídeo. Desafortunadamentem la atmósfera terrestre altera, difracta y distorsiona en alguna medida todos los rayos de luz que pasan por ella, ocasionando un grave problema para los observatorios, que deben utilizar distintos sistemas para tratar de eliminar los efectos de la atmósfera.

Además de los telescopios ópticos, el ser humano escudriña el cosmos con los llamados radiotelescopios desde 1930, cuando accidentalmente se descubrió una fuente de señales de radio procedentes de la constelación de Sagitario que interferían con la radio de onda corta en transmisiones transatlánticas. Los radiotelescopios no son sino antenas de radio direccionales que se utilizan para "escuchar" distintas frecuencias del espectro electromagnético. Los más conocidos de esta variedad son los grandes telescopios parabólicos cuyo receptor se ubica en el foco de la parábola. Los radiotelescopios nos permiten conocer otra visión del universo, detectando grandes fuentes de energía como los pulsares o cuásares y, en cierta forma, mirando al interior de las galaxias para informarnos de su composición.

Como ejemplos de radiotelescopios tenemos, en España, el radiotelescopio de 30 metros que se encuentra en el Pico Veleta de la Sierra Nevada, el imponente radiotelescopio de 40 metros recientemente inaugurado en el Centro Astronómico de Yebes. El más conocido radiotelescopio del mundo es, probablemente, el de Arecibo, en Puerto Rico, que aprovechó un cráter natural para tender una enorme antena de 305 metros, y que ha aparecido en al menos dos películas, una de 007 y la otra Contacto, basada en la novela del astrónomo Carl Sagan.

Una de las ventajas de los radiotelescopios es que se pueden formar en grandes grupos o matrices para detectar señales de radio de una amplitud mayor que la del plato del radiotelescopio, del mismo modo en que podemos usar muchos espejos pequeños para formar la imagen de un objeto muy grande. A principios de octubre se informó de planes para crear un conjunto de radiotelescopios que cubrirá un kilómetro cuadrado, el Square Kilometer Array o SKA, que será capaz de estudiar el componente gaseoso de nuestro universo cuando era joven y detectar las ondas de radio que quedan de esas primeras etapas, permitiéndonos aprender más sobre el origen y evolución de nuestro universo. Un radiotelescopio más grnde es más sensible, lo que le permite percibir señales más débiles emitidas por objetos más lejanos o más tenues. Está aún por decidirse qué tipo de radiotelescopios individuales conformarán el SKA, e incluso aún no se sabe si se situará finalmente en Australia o en Sudáfrica. Con una fecha de inicio de la construcción prevista para 2012, el proyecto de 1.500 millones de euros incorpora actualmente a astrónomos e ingenieros de 17 países que esperan que el SKA empiece a realizar observaciones en el año 2020.

Hubble: el ojo en órbita

Los telescopios ópticos son muy sensibles a las fuentes de luz situadas en sus cercanías, de modo que un telescopio ubicado muy cerca de una gran ciudad sufrirá una importante disminución en sus capacidades debido a la contaminación lumínica provocada por el resplandor de las luces de la ciudad en el cielo. El más famoso telescopio óptico de los últimos años, el Hubble, consigue evitar estos dos problemas al encontrarse en órbita, y gracias a ello nos ha permitido una vista espectacular del universo gracias a su espejo de sólo 2,4 metros de diámetro.

Plástico y nanotecnología: materiales para el futuro

El desarrollo de los plásticos cambió todo lo que el ser humano puede hacer. Y pese a sus problemas, estos materiales siguen ofreciéndonos sorpresas al unirse a la tecnología punta.



Era 1855 cuando el británico Alexander Parkes desarrolló el primer material que puede considerarse un plástico: la parkesina, un celuloide de origen natural que presentó en público en la Exposición Internacional de Londres en 1862. No deja de ser ligeramente irónico que el plástico se considere la encarnación de la artificialidad cuando sus orígenes fueron tales, pero los plásticos artificiales son los que efectivamente revolucionaron la vida humana. En 1907, Leo Hendrik Baekeland, químico belga trasplantado a los Estados Unidos, desarrolló el primer plástico artificial al que bautizó con su nombre: bakelita, resultado de la mezcla de fenol y formaldehído. La bakelita pronto se popularizó en muchas aplicaciones diversas gracias a su maleabilidad, su plasticidad, especialmente en la forma de ese aislante marrón oscuro que se usó en los adminículos eléctricos hasta la década de 1960 y sus parientes químicos, otras resinas fenólicas, incluso han ido al espacio recientemente.

Los plásticos son polímeros, es decir, sus moléculas están formadas por largas cadenas repetitivas de unidades estructural llamadas monómeros y conectadas entre sí por enlaces químicos covalentes. Entre los polímeros naturales tenemos la goma obtenida del árbol del hule, el caucho, y el propio ADN de nuestro material genético. Los plásticos, como el celuloide inventado en 1870 que se volvió la materia prima fundamental del cine y la fotografía hasta la llegada del acetato en 1952 y ahora del poliéster, hasta el nylon de las medias femeninas, desde envases hasta piezas de recambio para el cuerpo humano, desde componentes de automóviles hasta partes de robots lanzados al espacio para explorar otros planetas, el mundo de hoy sería totalmente imposible sin los plásticos y su desarrollo incesante en la industria. Pero aunque la ciencia de los polímeros y la industria de los plásticos nos han dado numerosos materiales con capacidades asombrosas, es natural siempre esperar más, o soñar con materiales de asombrosas capacidades.

Mientras más sabemos sobre los plásticos, más posibilidades ofrecen y se hace claro que hay más por saber de lo que imaginábamos. Una de las áreas donde se ha esperado que nuestros conocimientos sobre polímeros resulten muy útiles es la nanotecnología, la rama que se ocupa de la comprensión de las cosas a nivel atómico y molecular ("nano" significa una milmillonésima de metro) y la fabricación de materiales o dispositivos manipulando estos elementos. Se han creado así pequeños elementos constructivos: nanoalambres, nanohojas, nanotubos y diversas nanopartículas que tienen propiedades mecánicas singulares e impresionantes a esas escalas diminutas, pero los científicos se han debido enfrentar al obstáculo que representa el conseguir que tales características se mantengan al crear objetos macroscópicos con tales elementos. Por ejemplo, según el sitio en línea Nanowerk, si se consigue transferir al mundo práctico las extraordinarias propiedades mecánicas de ciertos nanocomponentes como la resistencia a la fractura, podríamos crear materiales mucho más resistentes, ligeros y flexibles, lo que puede revolucionar todos los aspectos de nuestra vida. En palabras del doctor Nicholas A. Kotov, investigador de la Universidad de Michigan, Estados Unidos, "los elementos constructivos a nanoescala son excepcionalmente fuertes en lo individual porque están cerca de ser los materiales ideales libres de defectos".

Lo que ha hecho el doctor Kotov junto con los grupos de investigación de Ellern Arruda y Toni Waas en la misma universidad ha sido conseguir un nuevo plástico fuerte como el acero y a la vez transparente. Lo que han conseguido es transferir "casi de modo ideal", dice Kotov, la tensión entre nanohojas y una matriz de polímeros. Para ello, los investigadores crearon primero una máquina que desarrollaron desde cero y que "construye" materiales colocando una capa a nanoescala tras otra. La inspiración para su idea fue la madreperla, esa cubierta iridiscente de las conchas de muchos moluscos, y el material de que están hechas las perlas, que se forma capa a capa con las secreciones de la ostra o el mejillón, y que es uno de los materiales naturales más resistentes basados en minerales.

La máquina de los investigadores de Michigan es un brazo robótico que se mueve sobre una rueda de recipientes sosteniendo una pieza de cristal más o menos del tamaño de un portaobjetos de microscopio. El brazo introduce el vidrio en una solución de polímeros con propiedades adhesivas, alcohol polivinílico,y después en un líquido con una dispersión de nanohojas de cerámica. Una vez secas esas dos capas, el proceso se repite permitiendo que las capas de nanoadhesivo y nanohojas formaran capas unidas mediante enlaces de hidrógeno de gran resistencia, lo que los científicos han llamado "el efecto velcro". Al cabo de unas 300 veces, la capa es apenas tan espesa como la película plástica en la que se envasan los alimentos.Sin embargo, es extremadamente resistenet debido tanto al efecto velcro como al hecho de que las nanohojas se disponen en capas apiladas, en un patrón alterno que los científicos dicen es como el de los ladrillos y el cemento, donde cada hilera sirve para volver irrelevante cualquier imperfección de la anterior.

El plástico resultante podría ser utilizado por igual en dispositivos microelectromecánicos, sensores biomédicos, válvulas de recambio para trasplantes, aviones robóticos y protección antibalas para policías y soldados. Un supermaterial fuerte, como el acero pero más ligero y transparente que promete ser el primero de una larga serie de nuevos materiales.

La indeseable permanencia

Una notable característica de muchos plásticos es su durabilidad y estabilidad al paso del tiempo y ante diversas sustancias, que los hace ideales, por ejemplo, para sustituir huesos de la pierna sin temor a que se degraden. Pero eso se convierte en un grave problema cuando enviamos los plásticos a los vertederos. La lenta descomposición de los plásticos ha sido objeto de afirmaciones no debidamente demostradas, y así se afirma que las bolsas de plástico tardan desde 20 hasta 1.000 años en degradarse, cifra que varía sin motivo aparente. Al paso del tiempo, las soluciones han ido desde la creación de bacterias capaces de digerir el plástico hasta el diseño de nuevos plásticos que se descomponen ante elementos como la luz solar, ideales para tirar la basura. Lo que difícilmente ocurrirá es que dejemos de hacer y usar los plásticos, una gran oportunidad para quien descubra qué hacer con ellos cuando van a la basura.

El "big bang" de la vida en la Tierra

La historia de la evolución de la vida está todavía escribiéndose, pero uno de sus capítulos sigue siendo especialmente apasionante: el del surgimiento súbito de la vida como la conocemos hoy.

Los tiempos geológicos son difíciles de comprender para seres como nosotros, que vivimos, salvo excepciones, menos de cien años. Una persona de 79 años habrá vivido unos dos mil quinientos millones de segundos, mientras que la Tierra, nuestro planeta, tiene una edad de unos 5 mil millones de años. Cada año de nuestro planeta equivale a medio segundo de la vida de una persona de 79 años.

La vida aparece en nuestro planeta hace aproximadamente 3.800 millones de años, y los primeros microfósiles de bacterias que datan de 300 millones de años después. A partir de allí, la vida siguió un lento proceso y las bacterias dominaron durante más de mil millones de años, hasta que aparecieron formas más complejas. Pero hace entre 543 y 490 millones de años, en un tiempo relativamente breve, el período cámbrico, la vida experimenta una serie de saltos asombrosos. En menos de 50 millones de años, equivalentes a nueve meses y medio de la vida de una persona de 79 años, y especialmente en un período de sólo 10 millones de años, apareció en el planeta una enorme diversidad de seres vivos de complejidad sin precedentes, comparados con los que durante tanto tiempo habían ocupado al joven planeta Tierra. El cambio más notable fue la aparición de seres ya no formados por una única célula o por colonias de células que seguían siendo individuos, sino seres formados por muchas células. Los fósiles de estos primeros seres multicelulares invitan a dejar volar la imaginación: frondas con aspecto de plumas, bolsas y discos que no tienen aún ni cabeza, ni sistemas nerviosos, o aparatos circulatorios o digestivos. Como si la vida estuviera lentamente aprendiendo a organizarse, probando nuevas formas de sobrevivir con éxito y competir en un medio que cambiaba rápidamente, también. Esta aparente intencionalidad de la vida es una de las características sin duda más llamativas de la evolución, aunque en realidad se trata de una serie de cambios no intencionales, donde las variaciones aleatorias son seleccionadas por el medio.

No hay modo de saber qué elementos dispararon la llamada "explosión cámbrica", la súbita (en términos geológicos) aparición de gran variedad de formas de vida animal. Toda la tierra se concentraba en el megacontinente Gondwana, que se empezaba a separar en continentes más pequeños, y la vida se desarrollaba en un gigantesco océano en el cual empezaba a haber oxígeno en cantidades importantes, aspecto que los científicos consideran al menos uno de los disparadores de la multiplicación de las formas de vida en este tiempo, cuando surgieron prácticamente todos los fila (plural de filum) modernos de animales multicelulares con caparazones o partes duras y simetría bilateral, es decir, un lado izquierdo que es, al menos exteriormente, una imagen en espejo del derecho. El ejemplo más conocido de estos animales fueron, los trilobites, esos artrópodos marinos que aparecen en todas las representaciones de la vida primitiva en nuestro mundo y de los que hubo decenas de familias por todo el planeta y que sobrevivieron mucho más allá del cámbrico.

Los animales vertebrados somos un solo filum que incluye peces, reptiles, aves y mamíferos, diseñados sobre el mismo patrón: una columna vertebral como base de un esqueleto con músculos, una cabeza en un extremo y cuatro extremidades o apéndices principales. Todos los demás 37 fila animales (como los artrópodos, moluscos, gusanos planos, redondos y segmentados, etc.) con los que convivimos, salvo uno, aparecieron en el período cámbrico. Pero si bien ésos sobrevivieron, fue a partir de docenas y docenas de fila que aparecieron en lo que los biólogos evolutivos llaman una radiación, es decir, que las nuevas formas cambiaban en distintos sentidos, apartándose rápidamente de sus antecesores. La diversidad cámbrica fue mucho mayor que la que vemos hoy en día en nuestro planeta. Hubo criaturas con cinco ojos, con bocas circulares, etc. La vida experimentó con simetrías distintas a la bilateral, como la radial (de la cual sobreviven seres como las estrellas y los erizos de mar), con números pares o impares de extremidades, o sin ellas, animales con aspectos tan singulares que llevan nombres como "anomalocaris" (que hace referencia a su anormalidad) o "hallucigenia", el alucinante animal que camina sobre más de una docena de tentáculos, así como el pez más viejo conocido, el "millokunmingia" y las primeras "expediciones" de la vida animal a tierra firme.

Pero si la vida parecía explorar sus posibles avenidas de desarrollo, también en el período cámbrico ocurrieron al menos cuatro extinciones masivas, si se permite la metáfora, como si se borrara la pizarra para empezar de nuevo con otro grupo de ideas o experimentos para la vida, haciendo desaparecer grupos completos de animales. Entre las explicaciones que pueden darse a esta desaparición están la glaciación que siguió al cámbrico y la disminución del oxígeno en las aguas marinas. En la más importante de las extinciones cámbricas desapareció la mitad de todas las familias animales que existían, quedando sólo los elementos esenciales con los que la evolución habría de construir la vida en los millones de años siguientes.

La enorme diversidad de la vida en la explosión cámbrica nos permite imaginar que la vida podría ser radicalmente distinta en la Tierra si hubiera variado alguno de los elementos fortuitos que decidieron qué tipos de animales sobrevivirían y cuáles no. Ciertamente, la selección natural es la herramienta principal que impulsa la evolución, pero hay también un elemento azaroso, aleatorio, que nos recuerda que somos, ante todo, un accidente afortunado.

¿La extinción es necesaria?

Aunque ciertos grupos de personas preocupadas por el medio ambiente parecen creer que hubo alguna época pasada en la que no se extinguían especies y el equilibrio ecológico era total, esto no es así. El equilibrio ecológico es dinámico, adaptable y flexible, si no lo fuera, cualquier perturbación implicaría su derrumbamiento total. En realidad, y sin que esto sea un argumento para defender el abuso de nuestro medio ambiente, el 99,9% de todas las especies que han existido se han extinguido, muchas veces en extinciones masivas y aterradoras, como la pérmica, hace 230 millones de años, que acabó con el 95% de todas las especies marinas y la mitad de las familias animales, o la de los dinosaurios. Y en realidad aún no sabemos si tales fenómenos son, o deben considerarse, parte normal del desarrollo de la vida en nuestro mundo, los puntos críticos de un ciclo que aún es un misterio.

Darwin, el genio apacible


Cambió el modo de pensar que tenemos sobre nosotros mismos y todo el mundo vivo, y desafió creencias milenarias armado sólo de datos, hechos y pruebas.

El mundo en el que nación Charles Robert Darwin en 1809 en Shrewsbury, Inglaterra, quinto hijo del médico Robert Waring Darwin y su esposa Susannah Wedgwood apenas se preparaba para el esplendor inglés bajo la férrea mano de la reina Victoria. Retratado en 1816 abrazando una maceta de flores amarillas, no mostraba ser el genio que celebran la ciencia y el conocimiento, ni el adversario odioso de algunas tendencias religiosas. Después de abandonar la carrera de medicina con el disgusto de su padre, cuando en 1828 empezó a estudiar para ser ministro de la iglesia anglicana, se hizo claro que su vocación sacerdotal tampoco era abundante y tomó otros caminos, como amigo y alumno de John Stevens Henlow, profesor de biología, y luego con Adam Sedgwick, profesor de geología. No deja de ser curioso que, con Henlow, estudiara entusiasta los escritos de William Paley, defensor del argumento del diseño divino en la naturaleza, y que el propio Henlow fuera quien le consiguiera el puesto de "naturalista de a bordo sin salario" en el bergantín de diez cañones HMS Beagle, cuya misión era levantar los planos hidrográficos de la parte sur de la costa sudamericana para luego realizar una circunnavegación planeada para dos años que, al final, se prolongarían hasta cinco.

Aunque ya Anaximandro, en el siglo VI antes de nuestra era, habló de la transmutación de las especies y de ancestros comunes, las ideas religiosas predominaron y sólo a fines del siglo XVIII hubo suficientes evidencias, en el registro fósil, en la geología y en la clasificación de los animales, como para plantearse de nuevo que las especies no permanecían, sino evolucionaban, que en el pasado hubo seres que hoy no existen y no se encontraban rastros de los que hoy sí conviven con nosotros. La idea de la evolución requirió, por supuesto, una explicación, y la más conocida anets de Darwin fue la de Lamarck, que consideraba que las experiencias vitales se reflejaban en la herencia, y así un animal que estire mucho el cuello para comer hojas de los árboles tendrá hijos de cuello cada vez más largo, hasta que sean jirafas.

Darwin fue al viaje del Beagle como geólogo, botánico, zoólogo y científico en general, algo que no era muy común en los barcos de la época, y realmente había sido invitado para acompañar al capitán, que temía que la soledad y la compañía de los marineros lo llevaran al suicidio como a un colega suyo. En el largo viaje, Darwin encontró, describió y recopiló fósiles, distintas especies de animales y plantas, anotando sus variaciones y, sobre todo, haciéndose preguntas sobre el "misterio de misterios", el origen de las distintas especies. El material que llevó consigo al volver a casa en 1836 fue estudiado por Darwin paciente y cuidadosamente hasta que en 1842 se "atrevió" a especular sobre los mecanismos de la evolución, hizo el primer boceto de sus conclusiones en 1844, consciente de las implicaciones que tenía el rumbo de sus estudios, y siguió confirmándolas y sometiéndolas a prueba con los datos de la realidad hasta que en 1859 finalmente publicó El origen de las especies por medio de la selección natural. Darwin no era el único que trabajaba sobre el tema. Como en otros casos, el conocimiento de la biología estaba maduro para llegar a una explicación científica y comprobable de la evolución de las especies, y Alfred Russell Wallace llegó a la misma idea de modo independiente y se lo escribió a Darwin a principios de la década de 1840. Pero aunque Wallace tuvo la inspiración genial, no tenía lo fundamental, las pruebas de las que disponía Darwin. La teoría que planteaba era muy sencilla: en cada generación nacen más individuos de los que sobreviven, y tales individuos son ligeramente distintos unos de otros, de modo que hay una competencia para sobrevivir, en la que los mejor adaptados a su entorno serán seleccionados naturalmente para tener más probabilidades de prevalecer y reproducirse, y al paso del tiempo los cambios se pueden acumular para dar origen a nuevas especies más aptas para sobrevivir en su entorno.

La publicación de El origen de las especies fue una descarga eléctrica en el mundo de mediados del siglo XIX, y especialmente en la Inglaterra natal de Darwin pese a que éste prácticamente no usa la palabra "evolución" en toda la obra y menops aún a los orígenes del hombre. No importaba, los datos del libro implicaban la evolución de todos los seres vivos, incluido el hombre, y los ataques vinieron incluso de sus antiguos profesores Henlow y Sedgwick. La personalidad tranquila y conciliadora de Darwin no le permitía entrar en la liza. Pero su libro había reclutado para la causa del conocimiento científico de los procesos biológicos del cambio a un defensor que se alimentaba del enfrentamiento dialéctico, Thomas Henry Huxley, biólogo que se ganó el título de "el bulldog de Darwin" después de su debate con el obispo de Oxford, Samuel Wilberforce, al que dejó en ridículo al decirle que prefería descender de un mono que de un hombre que no supiera usar su inteligencia.

Abierta la "caja de Pandora" de la evolución, y con el respaldo de Huxley en la arena pública y personal, Darwin siguió ampliando sus conclusiones en libros como El descenso del hombre, La expresión de la emoción en el hombre y en los animales y otros libros, artículos y obras breves que dieron forma a una teoría sólida, cuyos detalles han sido afinados desde 1859 por sucesivas generaciones de biólogos evolutivos sin que aparezca ningún hecho que haga dudar que se trata de una explicación esencialmente correcta de los mecanismos del devenir de la vida en la Tierra.

Charles Darwin se casó con su prima Emma Wedgwood y tuvo diez hijos, de los cuales sobrevivieron ocho, y murió en Kent, el 19 de abril de 1882 y está paradójicamente enterrado en la abadía de Westminster, cerca del astrónomo John Herschel y de Isaac Newton. Entre ingenios de su nivel, sin duda.

Lo que es una teoría

Al hablar de la "teoría de la evolución" de Darwin, vale recordar que "teoría" no significa lo mismo en el habla popular y en la ciencia. A nivel cotidiano, una "teoría" es una especulación, una conjetura más o menos imaginativa. En ciencia, "teoría" denota a una serie de leyes que relacionan determinado orden de fenómenos. Así, la "teoría de la gravitación universal" no es una ocurrencia de Newton, sino las leyes que relacionan la masa, la distancia y la velocidad con la gravedad. La "teoría de la evolución" de Darwin relaciona la presión de selección, la mutación y la variabilidad de los seres vivos con la evolución, y está debidamente demostrada y validada. No es, por tanto, "sólo una teoría".

¿La sensación más poderosa?

En ocasiones irresistible y omnipotente, el miedo nos recuerda que en lo profundo de nuestro cerebro, pese a todo, seguimos dominados por los instintos más esenciales.

Los músculos responsables del movimiento se tensan y los vasos sanguíneos se dilatan para mejorar su irrigación, los ojos se abren, las pupilas se dilatan, se frunce el ceño, los labios se estiran, hay sudoración, nos concentramos en el objeto de nuestra reacción, aumenta el ritmo respiratorio y cardiaco... es el miedo. Ante una situación de miedo, primero tratamos de protegernos o escapar, pero si nos vemos totalmente acorralados o arrinconados, lo más probable es que reaccionemos atacando con desesperada violencia. Y, en términos generales, no podemos controlar ninguna de las reacciones que hemos mencionado.

"La emoción más antigua y más poderosa de la humanidad es el miedo, y el miedo más antiguo y más poderoso es el miedo a lo desconocido." Así iniciaba Howard Philips Lovecraft su ensayo Supernatural Horror in Literature. Y de miedo sabía mucho el autor, creador del relato materialista de terror, de una mitología original y de numerosas obras que hoy siguen siendo motivo de gozosa angustia por parte de los lectores y de inspiración para escritores y cineastas en todo el mundo. Claro, en 1927, cuando Lovecraft publicó este ensayo, aún no se sabía cómo funcionaba realmente el miedo, pero no deja de llamar la atención que la neurología, la biología evolutiva y la fisiología hayan confirmado que, efectivamente, el miedo vive en la zona más antigua de nuestro cerebro, el llamado "cerebro reptil" o sistema límbico, concretamente en las llamadas amígdalas cerebrales. Se trata de dos grupos de neuronas con la forma y el tamaño de una almendra ("amígdala" en latín significa, precisamente, almendra) que se encuentran en lo profundo de los lóbulos temporales mediales, más o menos detrás de nuestros pómulos, a la altura de los oídos, y que en diversas investigaciones se ha demostrado que están a cargo de la memoria emocional y de respuestas emocionales, principalmente el miedo. Las amígdalas reciben información de las zonas del cerebro que obtienen y procesan la información visual, auditiva y somatosensorial, y a su vez tienen conexión con los centros autonómicos del tallo cerebral y, especialmente el hipotálamo, que responde disparando las reacciones del miedo, entre ellas la liberación de adrenalina que nos prepara para huir o pelear, la reacción esencial de supervivencia ante el peligro. Un experimento muy revelador muestra cómo las ratas con las amígdalas dañadas experimentalmente pueden caminar hasta un depredador, como un gato, sin exhibir ninguna inquietud.

La evolución de los sistemas nerviosos, desde el más simple que exhiben gusanos como las planarias hasta los más complejos de los mamíferos y primates más desarrollados, y en particular el humano, muestra lo que podría considerarse, sólo a modo explicativo, como una sucesión de capas en la que las más internas son las más antiguas desde el punto de vista evolutivo, y las más externas son las que han aparecido más recientemente en el desarrollo de la vida en nuestro planeta. Así, la corteza cerebral de los mamíferos es la estructura evolutivamente más reciente, mientras que algunas zonas que están en lo profundo de nuestro cerebro, como las amígdalas o los bulbos olfatorios, son estructuras que ya estaban presentes en los reptiles, motivo por el cual se conoce a estas zonas como el "cerebro reptil". Esto no quiere decir que esas estructuras en nuestros cerebros sean iguales a las de los reptiles, por supuesto, sino que han evolucionado a partir de ese tipo de estructuras a lo largo de millones de años y a través de las especies, manteniendo al menos algunas de sus funciones originales (como la recepción e interpretación de los olores) al tiempo que literalmente encima de ellas han evolucionado nuevas estructuras como la corteza cerebral, capaces de funciones que antes no eran posibles, como el pensamiento abstracto.

El miedo, como el dolor, es una sensación desagradable, pero sin él difícilmente sobreviviríamos como individuos y como especie. Hay algunos miedos que son completamente instintivos, es decir, que los tenemos en cuanto nacemos, como el miedo a caer y el miedo a los ruidos fuertes, mientras que otros los vamos aprendiendo. En su conjunto, son una serie de mecanismos destinados a evitar que nos pongamos en peligro sin necesidad, aunque podemos superarlos en una situación de emergencia. Así, hemos aprendido a tenerle miedo a las llamas y nunca nos internaríamos en un incendio a menos que, por ejemplo, en él se encontrara atrapada en él alguna persona a la que le tuviéramos gran cariño, como un hijo o una pareja. En ese sentido, el miedo no es absoluto, sino relativo, y en ocasiones parece un cálculo cuidadoso de la relación entre el riesgo que comporta algo y los beneficios que nos puede aportar.

Si bien el miedo tiene un valor de supervivencia, favoreciendo la reproducción de los individuos que temen a las cosas genuinamente temibles, uno de los fenómenos más curiosos es que derivamos cierto placer del miedo, y lo buscamos activamente en atracciones de feria, en libros y películas de terror, en videojuegos desafiantes. Se han propuesto dos explicaciones: una según la cual lo que sentimos en tales casos no es miedo, sino sólo excitación, y otra que dice que aceptamos soportar el miedo por la sensación eufórica de alivio que obtenemos cuando termina. Un reciente estudio de Eduardo Andrade de la Universidad de California en Berkeley y Joel B. Cohen de la Universidad de Florida han propuesto por primera vez que en realidad experimentamos al mismo tiempo emociones negativas y positivas, según un estudio publicado apenas en agosto, algo que antes se consideraba imposible. Pero, después de todo, como suelen decir los profesionales de trabajos en los que el miedo siempre está presente, como el toreo, el paracaidismo o las carreras, la valentía no es la ausencia de miedo, sino la capacidad de dominarlo sin que nos domine a nosotros.

Cuando domina lo irracional

Las fobias son miedos irracionales y paralizantes que, aunque el que las sufre sabe que son irracionales, no puede controlar su reacción. Médicos y psicólogos han dedicado grandes esfuerzos para el combate de las fobias, ya que hasta un 8% de los adultos en los países desarrollados padecen alguna fobia (y muchos afirman tener fobias cuando sólo tienen un miedo leve). Hasta ahora, uno de los mejores tratamientos es la exposición sucesiva al estímulo de la fobia, por ejemplo exponiendo a una persona con aracnofobia a fotografías de arañas, luego a arañas de juguete y así sucesivamente hasta conseguir que puedan tener una tarántula en la mano sin ser víctimas de su fobia.

Los mayas

Durante casi cuatro mil años, en el Sureste de México y parte de los países centroamericanos, los mayas crearon imponentes ciudades con monumentos que han perdurado y desarrollaron las más avanzadas prácticas astronómicas y lingüísticas del continente americano antes de la llegada de los europeos. Hoy, la cultura maya es objeto de tanta atención como lo fue la egipcia a principios del siglo XX, porque aunque ignoramos tanto sobre ella, lo que sabemos permite vislumbrar una enorme riqueza artística y cultural desde que los conquistadores encontraron en la zona maya gran cantidad de restos arqueológicos que hablaban de una sociedad y una cultura avanzada y compleja. Sin embargo, la destrucción por motivos religiosos de casi la totalidad de los documentos escritos indígenas hizo aún más profundo el misterio, y éste no empezó a desvelarse sino hasta principios del siglo XX. La escritura maya es logosilábica, lo que significa que combina símbolos fonéticos y logogramas o palabras completas, a diferencia de los ideogramas de otras lenguas originarias como el náhuatl, lo que complicó aún más su comprensión, pues no fue sino hasta la década de 1970 cuando el desciframiento se aceleró, permitiéndonos empezar a comprender los textos sobrevivientes mayas, grabados en piedra, unos 10.000 en monumentos, dinteles y estelas.

Los mayas aparecieron hacia el 1800 antes de nuestra era, comenzando su período preclásico o de consolidación, que duró más o menos hasta el 250 de nuestra era. A partir de entonces, con la desaparición de Teotihuacán, que dominó incluso a los mayas pese a su lejanía geográfica, la civilización maya floreció en su etapa "clásica", sus ciudades-estado crecieron en tamaño y población, y se enfrentaron por la dominación, especialmente las de Tikal y Calakmul, que forjaron alianzas a su alrededor para prevalecer, de un modo que recuerda la dominación alternada de Atenas y Esparta en la grecia clásica. Uno de los puntos culminantes de esta etapa es el reinado, muerte y enterramiento del rey Pacal entre el 615 y el 683 de nuestra era. El descubrimiento de la tumba de Pacal en la pirámide conocida como Templo de las Inscripciones, realizado por el arqueólogo mexicano Alberto Ruz Lhuillier, cambió radicalmente la idea de que las pirámides mesoamericanas eran únicamente túmulos que cumplían funciones de templo. En el siglo X comienza un período de decadencia en el cual se abandonan primero las ciudades de las zonas bajas centroamericanas y después las del norte de Yucatán.

Este período de decadencia aún no se ha explicado de modo claro. Los más recientes descubrimientos incluyen como explicaciones posibles, al menos en parte, una serie de sequías recurrentes ocasionadas por variaciones de la intensidad solar, provocando escasez de los alimentos principales de los mayas, las judías, el maíz y, según se ha descubierto apenas este año, la mandioca, plantada en campos dedicados sólo a este cultivo, mientras la población crecía en exceso; el enfrentamiento bélico por nuevas tierras de cultivo, el desequilibrio de los sistemas ecológicos, la profundización de la brecha entre la élite del poder y el pueblo, y las presiones de sociedades no mayas. Pero el desarrollo de la cultura maya había creado un importante legado en cuanto al conocimiento, y especialmente en la astronomía y las matemáticas.

La astronomía, la pasión por conocer con exactitud los movimientos de los cielos, es la base de un calendario maya asombrosamente preciso, el Haab, puesto que los mayas utilizaban tres calendarios distintos. El Tzolkin era un calendario de trece meses de veinte días, de carácter esencialmente religioso y ritual, empleado entre otras cosas para intentar predecir el futuro por medios astrológicos. Por su parte, el calendario Katún o "cuenta larga", que usaba series de veinte años, llamadas katunes, y series de veinte katunes, llamadas baktunes, de 144.000 días. Las "eras" o ciclos completos estaban formadas por trece baktunes, un total de 5.200 años, al final de los cuales se iniciaba un nuevo siglo. En la cuenta larga, la era actual comenzó el 13 de agosto de 3114 antes de nuestra era y teminará el 21 de diciembre de 2012 para comenzar una nueva cuenta larga o era al día siguiente. Esto ha llevado a la creencia de una especie de "profecía maya del fin del mundo" para esa fecha, que no sólo carece de bases, sino que se ha utilizado para la venta de una serie de productos. Del mismo modo en que no pasó nada relevante en el 3114 antes de nuestra era, nada indica que los mayas creyeran que ocurriría en el 2012.

Por su parte, el calendario Haab, que es el que asombra por su precisión, producto de largas y pacientes observaciones del cielo, era originalmente de dieciocho meses de veinte días, más 5 días "nefastos", los últimos del año, para un año solar de 365 días. Vale la pena señalar que la diferencia entre esta cuenta y el año solar real obligó a los sacerdotes-sabios mayas a reunirse para decretar que cada cuatro años se tendría un día adicional, inventando así el año bisiesto en el 249 antes de nuestra era. El desajuste de este nuevo calendario se hizo evidente también al paso del tiempo, y en el año 775 de nuestra era, una nueva reunión fijó el año solar en 365,242 días. Este desarrollo astronómico no hubiera sido posible sin las matemáticas necesarias para computarlo, especialmente el concepto del cero, concebido hacia el año 36 antes de nuestra. El cero era necesario porque los maya utilizaban un sistema posicional para los números, en el que el símbolo tiene un valor distinto según su lugar, como en nuestro sistema arábigo, donde el símbolo "5" denota cinco unidades, cinco decenas, cinco centenas, etc., dependiendo de su posición.

El misterio de la decadencia maya a finales del período preclásico permanece, pero aún hay demasiadas áreas por explorar, excavar y estudiar. Los descubrimientos de 2006 en San Bartolo, Guatemala, datados 100 años antes de nuestra era, de murales policromados y muestras tempranas de escritura, son sólo otra indicación de que los mayas tienen aún mucho por revelarnos.

Los mayas no desaparecieron

A la llegada de los europeos en el siglo XVI de nuestra era, los mayas seguían ocupando gran parte de lo que hoy son la península de Yucatán y Chiapas, en México, y gran parte de Guatemala, Belice, Honduras, y allí están hoy. Hoy en día, cientos de miles de indígenas que hablan las lenguas mayenses, como los tzeltales, tzotziles, cakchiqueles, tojolabales, chontales, quichés, lacandones y otros, y los mayas de Yucatán son todos descendientes directos, étnica y culturalmente, de los mayas de la antigüedad. Contra lo que muchos creen, los mayas no han desaparecido, ni mucho menos, y algunos de ellos son, de hecho, los zapatistas que el mundo conoció en 1994.

Terraformación: ingeniería a nivel planetario

No podremos ocupar otros planetas usando trajes espaciales, por lo que si el ser humano quiere salir de su planeta cuna, tendrá que adaptar los otros planetas a sus necesidades.

La imaginación popular consideró durante un tiempo a los planetas de nuestro sistema solar como versiones más o menos desarrolladas del nuestro, con vida, probablemente vida inteligente, incluso civilizaciones, y la ciencia ficción primigenia y más ingenua utilizaba para sus fabulaciones a marcianos, venusinos o plutonianos. Pero la ciencia pronto descubrió que estos planetas eran poco hospitalarios: Marte no tenía ciudades, Venus no tenía selva y su capa de nubes, en lugar de agua, estaba formada por ácido sulfúrico; y Júpiter probablemente ni siquiera tenía tierra firme, pues se trata de un planeta formado casi enteramente de hidrógeno con un poco de helio.

Sin embargo, el sueño humano de expandir nuestra presencia como lo han soñado escritores y cineastas requiere de planetas viables donde se pueda desarrollar una vida humana en condiciones adecuadas. La respuesta a este problema también la tenía la ciencia ficción. En 1930, el escritor británico Olaf Stapledon, en su clásico Last and first men planteó la posibilidad de utilizar la ingeniería para alterar totalmente Venus, modificando su atmósfera para hacerla como la de la Tierra. Una década después, el estadounidense Jack Williamson creó la palabra: terraformación, "un proceso de ingeniería planetaria orientado a mejorar la capacidad de un entorno planetario extraterrestre de mantener vida", segun Martyn J. Fogg, del Grupo de Investigación en Probabilidades del Reino Unido.

¿Qué características debe tener un planeta para sustentar la vida? En su versión simple, requiere de una fuente de energía (una estrella, volcanes), amplias zonas con agua líquida y condiciones favorables para la formación de moléculas orgánicas complejas. La vida en nuestro planeta es altamente diversa y adaptable a condiciones muy extremas, y es muy probable que sea capaz de adaptaciones aún más asombrosas. El problema se presenta cuando lo que buscamos es sustentar la vida humana, porque para ella los requisitos se vuelven muchísimo más estrictos.

Para nosotros, la fuente de energía debe ser de luz, no nos basta el calor de la actividad volcánica, pero su composición debe ser tal que no contenga demasiados rayos UV ni rayos X que puedan ocasionarnos quemaduras o cáncer. Necesitamos, además, una atmósfera con una composición bastante precisa de hidrógeno y oxígeno, que nos permita respirar y que también sirva de escudo contra radiaciones peligrosas, y que no tenga ciertos elementos y sustancias que son venenosos para el humano. Aunque el agua líquida puede existir a entre 0 y 100 grados Celsius, el ser humano está hecho para vivir en un rango de temperaturas que no supere los 50 grados Celsius. El planeta en sí no puede tener una masa de mucho más del doble de la de la Tierra, puesto que en caso contrario su gravedad nos ocasionaría incomodidades y problemas de salud. El agua y la tierra, además, deben contener una serie de nutrientes en proporciones bastante definidas, y en ellos deben estar ausentes elementos y sustancias que resultan dañinos para nosotros. Éstos son solo algunos de los aspectos esenciales que debe reunir un planeta para que podamos vivir en él sin sustento externo o artificial.

La idea de la terraformación no sólo es propia de la ciencia ficción, aunque exigiría enormes capacidades para llevar elementos a un planeta, y unas capacidades técnicas y económicas de las cuales no disponemos todavía. Pero ello no ha impedido a muchos científicos y entusiastas plantearse en realidad la posibilidad de terraformar algún planeta, y el mejor candidato a mano es Marte.

La terraformación de Marte

Aunque para Carl Sagan el primer planeta candidato a la terraformación era Venus, la mayoría de los soñadores científicos y no científicos han puesto sus ojos en nuestro más cercano vecino, Marte, como el planeta más indicado para este esfuerzo que quizás algún día el ser humano pueda emprender. La posibilidad de la terraformación de Marte ha sido explorada con seriedad desde muy diversos puntos de vista, desde el químico y biológico hasta el legal y ético, por parte de diversos científicos, filósofos, estudiosos y simples entusiastas de la investigación espacial que creen sinceramente que el futuro del hombre se halla expandiéndose por otros planetas.

Así, el experto en astronáutica Robert M. Zubrin y el investigador del centro Ames de la NASA Christopher P. McKay han resumido los principales requisitos tecnológicos para terraformar al planeta rojo. Parten de la idea de que Marte tiene suficiente CO2 en sus rocas para crear una atmósfera, y proponen diversos sistemas para iniciar un ciclo de realimentación positiva en que el calentamiento de Marte libere CO2 y este gas, a su vez, ayude al calentamiento del planeta por medio del efecto invernadero para crear una atmósfera lo bastante densa. Un sistema es el uso de grandes espejos, de unos 200 kilómetros de diámetro, en órbita para calentar el polo sur marciano y liberar el CO2 atrapado en él. Otra opción es llevar a Marte asteroides con grandes cantidades de amoniaco y otros gases de invernadero. La tercera que se plantean es la producción de gases de invernadero en la superficie marciana por medio de fábricas construidas allí mismo. El segundo paso sería la oxigenación del planeta, urilizando medios industriales para crear bastante oxígeno para luego introducir plantas que puedan realizar la tarea propagándose sobre el suelo marciano hasta tener una atmósfera adecuada para los seres humanos.

Evidentemente, las propuestas serias de terraformación no son instantáneas y casi mágicas, como era la "bomba" llamada "Génesis" en una de las películas de Star Trek, sino asunto de décadas o siglos a lo largo de los cuales se cree una atmósfera adecuada, se siembre una variedad de vida vegetal y animal adecuada para los futuros colonizadores y se limpien las sustancias potencialmente dañinas. En el caso del ejercicio de Zubrin y McKay, sus cálculos indican que se podrían introducir animales avanzados unos 900 años después del inicio del trabajo de terraformación.

Y tratándose de la superviviencia de la especie y de la oportunidad de ocupar todo el universo, no parece tanto tiempo.

A pequeña escala

La "paraterraformación" es la posibilidad de crear ambientes similares a los de la Tierra únicamente en pequeñas zonas aisladas de otros planetas, como ciudades encerradas en domos o en sistemas de cavernas, posibilidades ampliamente exploradas por la ciencia ficción y en las que, sin embargo, la fragilidad de todo el sistema y su vulnerabilidad a cualquier perforación las convierten en una idea poco viable, pero visualmente poderosa.

La peste negra

Asoló Europa y cambió para siempre las relaciones económicas, la visión de la vida y la forma de ordenar la sociedad, además de convertirse en referente inevitable de la cultura occidental.

Durante buena parte de la Edad Media, Europa se vio asolada por disintas epidemias que hoy podemos identificar con cierta certeza, como el cólera, el tifus o la disentería, producto de las malas condiciones sanitarias en ciudades cada vez más superpobladas. Pero ninguna fue tan aterradora como la llamada "peste negra" o "muerte negra" una epidemia que se originó en China a principios de la década de 1330 y que llegó a Europa entrando por Italia en 1347. Se trataba de una enfermedad feroz, aterradora, sin explicación aparente, sin curación posible y con una tasa de mortalidad de prácticamente el 100%.

Durante los siguientes tres años, recorrió europa matando a entre 1/3 y 3/4 de la población europea, dependiendo del país y las condiciones de vida. En donde había concentrados grandes núcleos de población, la mortalidad fue mucho mayor, como en Inglaterra, que perdió al 70% de su población pasando de 7 millones de habitantes a sólo 2, mientras que los países del centro de Europa, menos superpoblados y con menos ciudades, tuvieron cifras mucho más bajas. A esta terrible pandemia siguieron otros brotes menores durante los tres siglos subsiguientes en distintos países, matando en total a más de 25 millones de personas.

La búsqueda de una solución a la mortalidad llevó primero que nada a la búsqueda de la causa. En la mentalidad de la época, un acontecimiento de este tipo sólo podía ocurrir si lo causaban Dios o el Diablo, de modo que las reacciones fueron desde los grupos de flagelantes que se desollaban las espaldas a latigazos para, con su dolor, lavar los pecados de la humanidad y apacigur a la deidad, hasta quienes identificaron como "agentes del demonio" a los chivos expiatorios habituales: los judíos, los extranjeros en general, los leprosos (entre los que se incluían no sólo quienes tienen la enfermedad que hoy llamamos lepra, sino personas con acné grave, psoriasis y otras afecciones de la piel) y los gitanos, entre otros. Persecuciones, destierros y muerte se reservaron a estos grupos en un intento desesperado por detener el avance mortal de la peste. Por su parte, en el mundo musulmán, que no fue imnune a la pandemia, con grandes mortandades en Siria y Palestina, se culpabilizó a los infieles. En algunas zonas de los Balcanes, se echó mano de la cultura popular y la peste se atribuyó a los vampiros, y para defenderse de ella se abrieron numerosas tumbas para rematar a sospechosos de vampirismo. También para controlar la epidemia se dictaron las más diversas disposiciones, desde echar de la población a los anfermos hasta poner en cuarentena los bienes y personas que llegaban por mar, como se hizo en Venecia, prohibir actos que pudieran enfadar a Dios (las apuestas, los burdeles y las maldiciones en Speyer, Alemania)

Los síntomas de la enfermedad en sí incluían fuertes fiebres, dolor de cabeza y articulaciones, náusea, vómitos y las terribles bubas que muestran los grabados. Se trata de una inflamación intensa de los nódulos linfáticos del cuello, las axilas y las ingles, que secretan pus y sangre. En las etapas finales, el sangrado subcutáneo provoca un ennegrecimiento de la piel que podría colaborar a dar su nombre a la enferemedad. La víctima muere generalmente entre 4 y 7 días después de la aparición de la infección. Los síntomas han hecho a los estudiosos modernos concluir que lo más probable es que la muerte negra fuera lo que hoy llamamos peste bubónica, una afección provocada por la bacteria Yersinia pestis que es transmitida por las pulgas que viven en las ratas. Aunque ésta sigue siendo la explicación más convincente, resulta insuficiente para algunos estudiosos, que identifican las características del contagio, y en especial su velocidad, con un virus antes que con una bacteria, además de observar hechos como el que la epidemia atacara Islandia cuando en esa época no había poblaciones de ratas en esa isla

El horror que provocaban estos terribles síntomas, y el hecho de que predecían la muerte segura, está documentado en los manuscritos y pinturas de la época, cuyo epítome es El triunfo de la muerte de Francesco Traini, pintado hacia 1350 y que puede verse hoy en Campo Santo, Pisa, y en la presencia continua que tiene en la cultura popular desde el Decamerón de Bocaccio hasta nuestros días con obras como La peste de Albert Camus, el relato "La máscara de la muerte roja" de Edgar Allan Poe o la película El séptimo sello de Ingmar Bergman.

Pero quizá la consecuencia más inesperada y menos conocida de la muerte negra fue el cambio que representó en la sociedad europea. La súbita despoblación representó un desequilibrio profundo para el sistema feudal, que de pronto se encontró con que no tenía mano de obra sobreabundante, y por tanto el costo de ésta se elevaba, la disponibilidad de más alimentos también representó el final de una larga época de hambre, o al menos desnutrición, permanente en una Europa superpoblada. El hecho de que fracasaran todas las plegarias de la iglesia, para detener la pandemia, todas las persecuciones de los señalados como culpables y que los clérigos cayeran víctimas de la enfermedad en la misma proporción que el resto de la población contribuyeron a que se debilitara el férreo control de la iglesia sobre la población europea. Según algunos estudiosos, también contribuyó el hecho de que fue necesario sustituir en poco tiempo a grandes cantidades de eclesiásticos por otros menos preparados y, con frecuencia, menos devotos. Incluso en un próximo libro, Adiós a las limosnas, el Dr. Gregory Clark, experto en historia de la economía de la Universidad de California, propone que la revolución industrial en sí fue ocasionada por un cambio en el comportamiento humano tal vez originado por la peste negra, como la exaltación de la no-violencia, el acceso a la lectura y el hábito del ahorro. Así, en más de un sentido, la peste negra dio forma al mundo tal como lo conocemos hoy.

La conexión con el SIDA

Un 10% de la población europea es resistente al virus de la inmunodeficiencia humana (VIH) debido a una mutación genética llamada "CCR5-delta 32". Esta mutación está mucho más presente entre la población escandinava y tiene niveles relativamente bajos en las costas del Mediterráneo. Una posible explicación a por qué tal mutación está tan extendida si el VIH no pudo haber jugado un papel en la selección de personas resistentes fue propuesta por un grupo de biólogos de la Universidad de Liverpool, que hallaron indicaciones de que las plagas medievales, especialmente la Peste Negra de 1347, habrían ayudado a elevar la frecuencia de la mutación, si resultara que la muerte negra fue una afección viral y no peste bubónica.

Copérnico, el fundador

La historia de la investigación sobre el mundo en el que vivimos, su forma y su lugar en el universo, está plagada de ideas inexactas y concepciones extraídas de una visión general poco informada. Así, es conocida la idea de que la esfericidad de nuestro planeta era rechazada por los académicos europeos hasta Cristóbal Colón o, cuando menos, hasta el viaje de circunnavegación de Fernando de Magallanes. En realidad, la disputa de los académicos con Colón no era sobre la esfericidad de la Tierra, que todos aceptaban, sino que, según los cálculos de Eratóstenes, la Tierra tenía unos 40 mil kilómetros de circunferencia y ello hacía inviable un viaje de Europa a Asia por mar. Colón, por su parte, sostenía la convicción de que la Tierra era mucho más pequeña. Así, los críticos de su proyecto tenían razón, y Colón estaba equivocado, pero este detalle pocas veces se menciona en las escuelas y prácticamente nunca en el cine o la televisión.

Del mismo modo, existe la idea de que el libro que consolídó la idea de un sistema solar heliocéntrico, De revolutionibus orbium coelestium (Sobre las revoluciones de los orbes celestes) ocasionó un tsunami académico cuando se publicó en 1543, el año de la muerte de su autor, Nicolás Copérnico. Pero no fue así, el libro (presentado en su prólogo como una "mera hipótesis" y astutamente dedicado al Papa Paulo III) pasó prácticamente inadvertido durante casi sesenta años antes de participar en el terremoto del conocimiento que disparó la revolución que consagró a la ciencia como método para conocer, entender, explicar e incluso manipular el universo que nos rodea.

Quizá el silencio que rodeó a su libro habría sido del agrado del propio Copérnico, amante de pasar inadvertido, introvertido y reacio a debates como el que hasta hoy provocan sus ideas, pues al momento de escribir estas líneas, el artículo sobre Copérnico en la versión en inglés enciclopedia de Internet Wikipedia está bloqueado para impedir que grupos astrológicos, creacionistas, literalistas bíblicos y otros lo usen como campo de batalla para una guerra de promoción de sus propias ideas, prejuicios y creencias alrededor de uno de los grandes genios: el fundador de la astronomía moderna

Nicolás Copérnico nació en 1473 en Torun, Polonia, y aunque en general se le considera un astrónomo polaco, no faltan quienes lo quieren considerar alemán dados los conflictos fronterizos de la época. Estudió latín, matemáticas, astronomía, filosofía y óptica en la Academia de Cracovia y después, en Padua y Bolonia, en Italia, derecho canónico y medicina, lo que le permitió, a la vuelta a su tierra natal, el acceso a diversos puestos eclesiásticos, administrativos y políticos, además de su pasatiempo de traducir poesía griega al latín. Como canónigo en Frauemburg (Frombork) realizó una serie de observaciones astronómicas a ojo desnudo (el telescopio no estaría a disposición de los astrónomos sino hasta medio siglo después de la muerte de Copérnico) y en 1514 escribió y distribuyó entre sus amigos, en forma manuscrita, un pequeño libro, Commentariolus (Pequeño comentario) en el cual establecía algunas de sus ideas esenciales, principalmente que el centro de la Tierra no era el centro del universo, que el centro del universo estaba cerca del sol, que la distancia de la Tierra al sol era imperceptible comparada con la distancia a las estrellas, que el ciclo anual aparente de los movimientos del sol está causado por el movimiento de la Tierra a su alrededor y que el movimiento retrógrado que parecen tener los planetas es resultado del movimiento de la Tierra desde donde uno los observa.

No era Copérnico, ni con mucho, el primero en considerar la idea, que parecer ir contra la observación simple de los hechos, de que la Tierra giraba alrededor del sol. Algunos de los libros védicos hindús ya se plantean que el universo es heliocéntrico (tiene su centro en el sol). En la antigua Grecia, Heráclides de Ponto, Aristarco de Samos y el propio Eratóstenes, el hombre que midió la circunferencia de la Tierra en el siglo III antes de nuestra era, consideraban correcta la visión heliocéntrica. Lo mismo ocurrió en la Babilonia de los Seléucidas, en la que el astrónomo Seleucio de Seleucia retomó, e incluso se dice que probó, los planteamientos de Aristarco. Y en la Europa Medieval ya había ideas heliocéntricas antes de Copérnico.

Así, las ideas desarrolladas por Copérnico a partir de su "pequeño comentario" y que derivaron en el libro Sobre las revoluciones de los orbes celestes eran especiales no por su originalidad, sino por algo mucho más importante: porque más que ideas eran una cosmovisión formada por una sólida base matemática, la base que haría que Galileo, con una personalidad distinta, quizá más combativa, afirmara que la propuesta heliocéntrica no era "sólo una hipótesis", sino la única explicación posible a la realidad tal como la vemos.

Copérnico quizá nunca habría publicado su libro a no ser por la insistencia de Georg Joachim Rheticus, matemático alemán y tardío discípulo de Copérnico que lo impulsó a publicar, incluso resumiendo él en un libro las principales ideas de su maestro para mostrarle la buena acogida que tenían sus novedosas ideas. El libro fue enviado para su impresión a Nüremberg, y se publicó el año de la muerte de Copérnico. La leyenda dice que el genio polaco alcanzó a ver un ejemplar antes de morir.

El libro, pues, no fue retirado por la iglesia al triste Índice de Libros Prohibidos sino hasta 1616, en medio del escándalo de Galileo. Una serie de pasajes que hablaban del sistema heliocéntrico como una certeza fueron cambiados por una serie de autores aprobados por la iglesia, después de lo cual se permitió su vuelta a la circulación en 1620, aunque nunca se reimprimió y su lectura estuvo sujeta a restricciones hasta 1758.

Renovar el calendario

Para 1513, el calendario juliano ya tenía un importante desfase respecto de la realidad de las estaciones, de modo que el Quinto Concilio Laterano se propuso mejorar el calendario y el Papa reinante buscó la ayuda de varios expertos, entre ellos Copérnico, que ya era reconocido como un brillante astrónomo. A diferencia de otros, que se pusieron de inmediato en camino a Roma para hablar ante el concilio, Copérnico respondió por carta con una propuesta para la reforma del calendario indicando que no tenía más qué aportar a las discusiones porque consideraba que el movimiento de los cuerpos celestes aún no se entendía con bastante precisión. Cuando en 1582 Gregorio XIII promulgó finalmente las reformas al calendario, éstas se hicieron con ayuda de las tablas astronómicas realizadas por Erasmus Reinhold con base en los parámetros matemáticos descubiertos por Copérnico.

Dormir o enfermar

La falta de sueño, voluntaria e involuntaria, tiene efectos más profundos y duraderos de los que se suponía, como una de las necesidades esenciales del cuerpo humano.

"La siesta", de Vincent Van Gogh, 1890.
(Dominio Público, vía Wikimedia Commons)
Una de las imágenes más poderosas para entender la importancia del sueño es la de un soldado durmiendo en medio de una batalla, con su vida en peligro, como se puede ver en los conflictos bélicos, o simplemente quedarse dormido al volante, cuando uno sabe que su atención es fundamental para no sufrir un accidente que le puede costar la vida.

El sueño es una necesidad esencial, e incluso antes de que el método científico se utilizara para conocer los efectos de la privación de sueño, se consideraba que la falta de sueño era perjudicial para el carácter y la salud. Sin embargo, inventos como la luz eléctrica han alterado irreversiblemente nuestros patrones de sueño y nuestro reloj biológico, que ya no está regulado por el ciclo luz-oscuridad del día y la noche. Nuestro reloj biológico se llama "circadiano" porque tiene una duración cercana a la del día de 24 horas, pero no es exacto. Para "ponerse en hora", nuestro cuerpo requiere de elemento llamados "sincronizadores", el más importante de los cuales es el ciclo día-noche, siendo otros mecánicos como los relojes o sociales como la hora de comer o de entrar al trabajo o a la escuela. Diversos experimentos realizados en personas a las que se aísla de los sincronizadores, por ejemplo en cavernas donde no tienen ningún indicio de qué hora es en la superficie, han demostrado que más tarde o más temprano se presenta una desincronización en la cual el cuerpo abandona el ciclo de 24 horas y asume otros, que pueden ser desde 12 hasta 72 horas, aunque en general el ciclo entre dos períodos de sueño tiende a hacerse mayor a las 24 horas originales.

Así, en general podría decirse que los seres humanos del mundo moderno tenemos ciclos de sueño artificiales, en los que dormimos menos de lo necesario aunque no padezcamos insomnio, donde para despertarnos necesitamos de máquinas que hagan ruido (en ocasiones estridente e insistente), a lo que se debe sumar a todas las personas que tienen problemas de falta de sueño. Esta falta de sueño puede tener dos formas. La más conocida es la de no poder conciliar el sueño o no poder dormir el tiempo suficiente, es decir, el insomnio. Pero también puede ser el sueño de mala calidad, es decir, un sueño en el que no haya suficientes períodos de ensoñación (los sueños en sí) o en el que falten o estén alteradas algunas de sus etapas o el ciclo en el que se suceden a lo largo de una noche.

El sueño normal tiene al menos cinco etapas, 1, la de somnolencia, 2 la de sueño ligero, 3 y 4 las dos de sueño profundo en las que el cerebro muestra ondas lentas y la etapa 5 o de sueño REM (siglas en inglés de "movimiento rápido de los ojos", asociado a las ensoñaciones). Un ciclo de sueño está formado siguiendo el patrón de etapas 1, 2, 3, 4, 3, 2, 5. Las etapas no REM pueden durar entre 90n y 120 minutos, mientras que la etapa 5 dura cada vez más conforme se repiten los ciclos, empezando con una duración de unos 10 minutos que puede llegar a una hora en el último ciclo. Habitualmente, en una noche de sueño podemos recorrer este ciclo en cinco ocasiones.

Y los efectos de un sueño insuficiente en calidad o en cantidad pueden ser graves. Así, los estudiosos hablan de efectos graves en el juicio que pueden afectar nuestro proceso de toma de decisiones (y una tendencia mayor a asumir riesgos injustificados), un rendimiento inadecuado en la escuela, el trabajo y los deportes; mala coordinación, tiempo de reacción aumentado y disminución de las capacidades psicomotoras; problemas de memoria, concentración, capacidad de aprendizaje, ansiedad, depresión y otros problemas emocionales. Un panorama verdaderamente preocupante que, con frecuencia, atribuímos a otras causas sin darnos cuenta de que todo puede tener su origen en esas dos horas de sueño que le hemos robado a las últimas noches.

Y la información sigue apareciendo a gran velocidad. Hace unos años, un grupo de investigadores de Australia y Nueva Zelanda realizaron una serie de estudios según los cuales las personas que conducían después de estar despiertos durante entre 17 y 19 horas mostraban un peor desempeño al volante que las personas que tenían un nivel de alcohol de 0,05%, que es el límite legal para conducir en la mayoría de los países europeos (en Estados Unidos es el doble en la mayoría de los estados). Según ese estudio, entre el 16 y el 60% de los accidentes analizados implicaban la privación de sueño en alguno de los conductores. Hace pocas semanas se publicó un estudio de un grupo de investigadores noruegos que confirma que el insomnio crónico puede llevar a la ansiedad y la depresión. Hace unos meses, un equipo de la Universidad Estatal de Florida advirtió que los problemas de sueño están relacionados con un mayor riesgo de suicidio entre personas mayores, como resultado de un estudio con más de 14.000 personas a lo largo de 10 años. En este caso, sin establecer una relación causal (es decir, sin sugerir que los problemas de sueño sean el motivo de la mayor tasa de suicidios), han recomendado que los médicos tomen la falta de sueño de sus pacientes mayores como una advertencia de un riesgo aumentado que debe tenerse en cuenta. En junio, otro estudio de laboratorio en la Universidad de Pennsylvania indicaba que la falta de sueño crónica aumenta el riesgo de enfermedades cardiovasculares.

Quienes padecen formas patológicas del insomnio deben, por supuesto, acudir a un médico. Pero las personas comunes que tengan una "deuda de sueño" pueden acudir a algunas de las recomendaciones de los expertos, entre ellas: tener horas regulares para ir a la cama y para levantarse, incluso en fines de semana; desarrollar rituales relajantes para la hora de ir a la cama, disminuir el consumo de alcohol, cafeína y nicotina; no comer menos de dos o tres horas antes de ir a la cama, reservar el dormitorio para el sueño y el sexo (eliminando de él, por ejemplo, el televisor), darse un baño caliente para inducir una disminución en la temperatura corporal (que, a su vez, provoca somnolencia) y no hacer ejercicio en la noche, sino por la mañana.

¿Cuánto tiempo dormir?

La respuesta a esta pregunta depende, como muchas cosas, de cada persona, y la variación entre individuos es muy grande. De modo que, si usted se siente bien durmiendo mucho menos o mucho más de lo que indican las tablas de promedios, no tiene por qué preocuparse. Igualmente, aunque suele decirse que las personas mayores necesitan dormir menos que cuando eran adultos más jóvenes, esto no es forzosamente cierto, y necesitar tanto sueño (o más) que los adultos de mediana edad no debe ser motivo de preocupación.

Hatshepsut y las mujeres del antiguo Egipto

El anuncio de la identificación de la momia de la poderosa reina Hatshepsut pone de nuevo de relieve el singular papel de las mujeres en la historia egipcia.

Hace 3.500 años reinó en Egipto Ma'at-ka-Ra Hatshepsut, hija de Tutmoses I y esposa de su propio medio hermano, Tutmoses II. Durante veinte años, fue estrictamente "faraón" de Egipto, a la par de cualquier hombre que hubiera ocupado el trono antes y después de ella. Habiendo asumido la regencia a nombre de Tutmoses III, hijo de Tutmoses II y otra de sus esposas, siete años después se proclamó faraón, y mantuvo su reinado varios años más, en cierto modo usurpando al hijo de su fallecido esposo, hasta su muerte, cuando Tutmoses III se convirtió en un importante soberano egipcio. Sin embargo, si hubo amargura en Tutmoses III no se hizo evidente sino hasta cuatro décadas después, cuando mandó destruir o mutilar todas las representaciones de su madrastra, así como el nombre de Hatshepsut de todas las inscripciones que la mencionaban. El rastro de la singular mujer se perdió entonces del todo hasta que, en junio de 2007, el Secretario General del Consejo Supremo de Antigüedades, el arqueólogo Zahi Hawass, anunció que se había podido identificar con certeza la momia de la reina.

Los restos de la mujer más poderosa del antiguo Egipto son una momia hallada en 1903 por Howard Carter, que más adelante sería el descubridor de la tumba de Tutankhamón, pero que no había sido identificada con certeza. La reina había sido hallada en la tumba de su nodriza, la KV60, mientras que la tumba oficial de Hatshepsut había sido hallada vacía. La nodriza fue llevada a El Cairo y la tumba con la que hoy sabemos que era la más famosa reina egipcia antes de Cleopatra se volvió a cerrar hasta 1989, cuando la reabrió el arqueólogo Donald Ryan, a quien le llamó la atención que la momia estuviera en una pose reservada a la realeza, con un brazo cruzado sobre el pecho, y que hubiera los restos de un sarcófago con muestras de haber estado cubierto de oro, entre otras pistas.

Pero no fue sino hasta ahora que se pudo establecer sin género de dudas la identidad de la mítica reina. Las pruebas que ha ofrecido el equipo de Hawass son fundamentalmente dos. La primera, la momia tiene un molar roto conservando una de las raíces, y coincidía perfectamente con un molar hallado en una caja con el nombre de la soberana y que también contenía un hígado embalsamado, según se pudo determinar con una serie de tomografías axiales computerizadas o escáneres de la momia. Finalmente, se tomaron muestras de ADN de la momia bien identificada de la abuela de Hatshepsut y se compararon con el ADN de un total de cuatro momias que, según Hawass, tenían características que podrían identificarlas como Hatshepsut. Las pistas llevaron a la momia de esta mujer, que falleció alrededor de los 50 años de edad, tremendamente obesa, con los dientes muy deteriorados y víctima de cáncer en los huesos, no de un complot de asesinato por parte de su sucesor, como durante mucho tiempo creyeron algunos estudiosos.

Si bien antes y después de Hatshepsut hubo soberanas en Egipto, lo que distinguió a esta reina fue el que asumiera totalmente el papel de faraón como hombre, usando ropa masculina y la larga barba ceremonial de madera, y haciendo que se hablara de ella alternativamente como hombre y como mujer, y que se le representara como un faraón más.

La mujer en Egipto, al menos en las clases dirigentes, tenía en general una posición muy superior a la que estaba destinada a ellas en otras culturas, pues aunque se consideraba indudablemente que la cabeza del hogar era el hombre, la mujer era totalmente igual a él ante la ley, en cuanto a derechos así como en cuanto a responsabilidades. Mientras otras mujeres en las grandes civilizaciones originarias vivían bajo distintos grados de opresión, en el antiguo Egipto las mujeres podían poseer tierras, obtener préstamos, firmar contratos, iniciar un proceso de divorcio, recibir herencia de sus familiares e incluso defenderse ante los tribunales. Todo ello además de ser la responsable del gobierno de la casa y de ocuparse de la descendencia de la familia.

En el mundo de la religión, esencial para la vida social, política y económica del antiguo Egipto, la mujer jugaba un papel de gran importancia, como sacerdotisas u oficiantes en diversas ceremonias, interpretando música y ostentando títulos relacionados con los dioses, de modo cambiante a lo largo de la historia. Pero la esencia de lo femenino estaba también incorporada, de modo importante, en la enorme cantidad de diosas de su panteón, como la enigmática Hathor, diosa del cielo nocturno; Neith, diosa del principio, el más allá y el final, e Isis la escribana de los dioses.

Pero lo que denominamos el "antiguo Egipto" es una sucesión histórica de 3.500 años, desde las primeras dinastías hasta la muerte de Cleopatra e incluso la dominación romana, y en un lapso de tiempo tan prolongado hubo constantes cambios y una evolución a la que no hace justicia nuestra visión estática de un Egipto igual a lo largo de toda su historia. Pero las peculiaridades de Egipto las destacan los informes que recibimos de otras culturas. Para Herodoto, por ejemplo, es notable que las mujeres vayan al mercado y comercien mientras que los hombres se quedan en casa y tejen, y en general los atenienses veían con desconfianza la libertad de las mujeres egipcias, especialmente si habían llegado a regir el reino, cosa inimaginable en la Grecia clásica.

En ese entorno singular para las mujeres, Hatshepsut reinó, levantó obeliscos como su padre, reparó templos, construyó un singular templo mortuorio en Deir el-Bahri, que aún hoy puede visitarse, condujo a sus ejércitos en algunas campañas en Nubia y envió una expedición comercial a la legendaria Tierra de Punt (probablemente en lo que hoy es Somalia) antes de morir y dejar que finalmente ascendiera al trono su hijastro, quedando como una momia anónima hasta ahora.

Las otras soberanas

Como reinas o regentes, o como equivalentes a faraones, aunque sólo Hatshepsut asumió el título, puede haber gobernado Egipto una docena de mujeres: Merytneith, de la primera dinastía, alrededor del 3.000 antes de nuestra era, enterrada con los honores de los reyes; Nimaethap, reina madre de Djoser en la tercera dinastía; Khentkaus, madre de dos reyes en la cuarta dinastía y posible regente; la anónima esposa de Djedkare-Izezi, de la quinta dinastía; Ankhnesmeryre, probable regente de su hijo Pepi II en la sexta dinastía; Nitocris, al final también de la sexta dinastía; Sobeknefru, soberana en la décimosegunda dinastía; Ashotep, de la décimooctava dinastía; Nefertiti, posible reina a la muerte de su esposo Akhenaton; Tausret, regente de su hijo en la décimonovena dinastía, y Cleopatra VII, la última de los Ptolomeos.