Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Cuando todo es un mal sueño

Seguimos sin saber por qué necesitamos dormir y por qué soñamos, pero cada vez sabemos más sobre los efectos de los desarreglos del sueño y cómo han sido malinterpretados a través de la historia, a veces con consecuencias atroces.

"Pesadilla", cuadro del pintor danés Nicolai Abraham
Abildgaard (D.P. vía Wikimedia Commons)
Imagine que despierta y descubre que está absolutamente inmóvil, paralizado. Intenta mover cada uno de sus miembros, manos, piernas, brazos, pero los siente como si estuvieran profundamente anestesiados, o como si tuviera un enorme peso que los inmovilizara. De pronto se da cuenta de que hay voces y percibe unas “presencias” a su alrededor. Quizá hablan, pero usted no les entiende con claridad. Escucha zumbidos y ve luces brillantes. La sensación prevaleciente es que la presencia es malévola o malintencionada, que desea hacerle daño a usted o a los suyos. En algunos casos, la “presencia” puede atacarle sexualmente, estrangularle, sentarse en su pecho y pincharle en distintas partes del cuerpo. Usted trata de gritar, pero tampoco puede hacerlo, aumentando su sensación de impotencia, desesperación y angustia. Es posible que sienta que abandona su cuerpo, o que flota, elevándose o levitando. Cuando la “presencia” desaparece, usted recupera lentamente la capacidad de moverse, a veces con grandes dolores en las articulaciones.

Esta experiencia se podría interpretar de muchas maneras, generalmente en función de la cultura en la que se desarrollen. Evidentemente se trata de una situación en extremo angustiosa y, siendo profundamente vívida, puede dejar una profunda marca en sus víctimas. Lo que hoy sabemos es que usted ha experimentado una de las distintas formas de parálisis de sueño que se conocen. Dicha parálisis suele estar acompañada, como en este caso, de vívidas alucinaciones visuales, auditivas, incluso olfativas. Cuando esto le ocurre en el lapso entre el sueño y la vigilia, es decir, cuando se está despertando, las alucinaciones se llaman “hipnopómpicas”, pero también pueden ocurrir cuando usted está quedándose dormido, en cuyo caso se llaman “hipnagógicas” o, colectivamente, experiencias hipnagógicas e hipnopómpicas, EHH.

No es algo poco frecuente. Los estudios realizados indican que entre el 25% y el 30% de las personas han tenido al menos un episodio de parálisis del sueño con EHH en su vida, y un 25% de estas personas (aproximadamente el 6% de la población) experimentan el fenómeno con cierta frecuencia. En la mayoría de los casos los episodios se presentan por primera vez en la adolescencia, sobre todo alrededor de los 17 años. El fenómeno en sí parece tener relación con el hecho de despertar durante la fase de sueño que los neurocientíficos conocen como REM, por la frase en inglés rapid eye movement o movimiento rápido de los ojos.

Esta fase del sueño está relacionada con las ensoñaciones o sueños que experimentamos, y durante ella nuestros músculos voluntarios se desconectan, presumiblemente con objeto de evitar que nuestro cuerpo lleve a cabo las acciones que estamos soñando, paralizándonos efectivamente. Si recuperamos parcialmente la conciencia durante esta etapa del sueño, la incapacidad de movernos (los músculos están desconectados por los procesos de sueño) y la ensoñación misma del sueño REM se confunden con la realidad generando una experiencia que puede ser aterradora.

Hoy, los investigadores consideran altamente probable que los episodios de parálisis de sueño con EHH sean responsables de algunas de las más persistentes leyendas de muy distintas culturas. Después de todo, durante una gran parte de la historia humana los sueños simples llegaron a considerarse “visiones” religiosas o “revelaciones” divinas cuando no “comunicación con el mundo de los espíritus” si se desarrollaban de formas distintas a las habituales o incluían en su guión a personas fallecidas recientemente, a dioses o a fenómenos que pudieran interpretarse como premoniciones.

Más aún, hoy sabemos que lo que recordamos de nuestros sueños cambia muy rápidamente con las experiencias vividas después de despertar, de modo que con frecuencia las personas reportan haber soñado ciertas cosas al despertarse, y tiempo después ofrecen informes radicalmente distintos, en los que han “reescrito” el sueño para incorporar elementos que no estaban en las memorias originales.

En particular, los estudiosos han identificado a la parálisis de sueño con EHH como una muy probable explicación de la experiencia que llamamos, precisamente “pesadilla”, la pesadez que el diccionario define como “Opresión del corazón y dificultad de respirar durante el sueño”. Se le ha relacionado con demonios como la Ardat Lili de la antigua Sumeria, la vieja demoniaca que podía volar para atacar a los hombres durante el sueño, igual que los efialtes griegos saltaban sobre los durmientes, los íncubos y súcubos romanos, los “mare” alemanes, el kikimora ruso, el cauchmar francés, el ag-rog de Terranova y muchos otros demonios que oprimían el pecho de quien dormía.

De hecho, la prevalencia del mito, la enorme similitud entre las experiencias de las que informan personas de distintas culturas y tiempos y el fenómeno estudiado por los neurocientíficos y psicólogos permite una razonable certeza de que son la misma cosa. Por desgracia, los informes de estas experiencias fueron, con gran frecuencia, tomados como narraciones de hechos reales que se utilizaron como pruebas contra herejes, brujas o brujos que distintas sociedades persiguieron y asesinaron.

Del mismo modo, los científicos han notado la similitud entre la experiencia de la parálisis del sueño con EHH y los informes de “abducciones de extraterrestres” que han dado personas que no son sospechosas de buscar la notoriedad o el dinero que mueven a muchos testimonios en los medios de comunicación. La parálisis, las luces, los zumbidos, la sensación de ser atacado por una presencia, la frecuente componente sexual de las supuestas abducciones y otros elementos que tiene la nueva mitología sobre seres de otros mundos son demasiado parecidos a los relatos de ataques por parte de íncubos, ogros, hags y otros seres como para desecharse como coincidencias sin un estudio profundo.

¿Se puede hacer algo?


La enorme mayoría de los casos de parálisis de sueño con EHH ocurren en gente que duerme principalmente boca arriba, mucho menos en otras posiciones, y estos episodios se intensifican claramente cuando sus víctimas experimentan un aumento del estrés y las preocupaciones. Muchas veces, el sólo saber que lo que se padece es un problema que comparten otras personas y no un misterio individual sirve para hacerlo menos aterrador. Algo de ejercicio, un horario fijo para ir a dormir, tratar de dormir en una posición que no sea boca arriba y evitar la privación del sueño son otras recomendaciones que disminuyen la incidencia de esta experiencia.

Ramanujan, pasión por los números


Sólo el trabajo matemático realizado por Srinivasa Ramanujan en su último año de vida bastaría para colocarlo en los libros de historia. Pero el genial matemático hizo mucho, mucho más.

Cuando el 6 de abril de 1920 moría en Madrás, India, el joven de 32 años Srinivasa Ramanujan, se apagaba una de las mentes más lúcidas y asombrosas de la historia de las matemáticas, admirado por sus contemporáneos y considerado uno de los mayores genios naturales de la historia. Y sin embargo, por haber viajado a Inglaterra y haber cruzado un mar, los líderes religiosos de su entorno dictaminaron que había perdido su casta de brahmin (convirtiéndose en un intocable), y se negaron a darle servicios funerarios.

Ramanujan nació el 22 de diciembre de 1887, hijo de un dependiente de una tienda de saris (la indumentaria femenina tradicional indostana) y un ama de casa que cantaba en el templo local. Al entrar a la escuela secundaria en 1898, encontró las matemáticas y se entregó a ellas con una absoluta pasión. Dos estudiantes universitarios que se alojaban en su casa le permitieron avanzar rápidamente en sus conocimientos, y para cuando cumplió 13 años no sólo dominaba la trigonometría, sino que había descubierto complejos teoremas, con lo que a los 14 años empezó a reunir reconocimientos al mérito, y a los 17 años ya había desarrollado independientemente los llamados “números de Bernoulli”, una secuencia específica de números racionales, y había conseguido otros logros matemáticos que empezó a reunir en 1903 en unas libretas de notas que serían, sin que lo imaginara entonces, su testimonio y legado.

Su asombrosa capacidad para las matemáticas, que le ganaba premios e incluso una beca para la mejor universidad de la India, le impedía sin embargo interesarse siquiera en otros temas, que suspendía invariablemente, lo que al final le costó la beca y la estancia en la escuela. Cuando terminó su educación universitaria en 1906, no consiguió aprobar la mayoría de las asignaturas, de modo que se quedó sin título, en la más extrema pobreza e interesado únicamente en la investigación matemática, con una furia interna que apenas se puede comparar a la que impulsaba a Van Gogh o a Picasso a pintar, o a Mozart a componer. Como ellos, padeció hambre e incomprensión, y buscó ganarse la vida en cualquier empleo, incluso como profesor particular de matemáticas. En esta búsqueda, quiso trabajar en el departamento de cobranzas de impuestos, y llegó así a Ramaswami Iyer, cobrador de impuestos y fundador de la Sociedad Matemática Indostana, mostrándole su trabajo matemático para probar que era competente. Iyer comprendió de inmediato que estaba ante un talento que no merecía un escritorio burocrático donde se ahogaría su genio. Lo presentó a los matemáticos de Madrás, que al principio dudaron que el trabajo fuera realmente de Ramanujan, pero poco a poco se convencieron de su capacidad.

En 1913, en una carta pletórica de humildad, Ramanujan se presentó ante el matemático del Trinity College de Cambridge, Godfrey Harold Hardy, como “un oficinista del departamento de cuentas del Port Trust Office de Madrás con un salario de 20 libras anuales solamente” y le pidió que repasara unos trabajos matemáticos para ver si tenían valor y sus teoremos podían publicarse. Como otros antes que él, Hardy se asombró ante el brillante genio que tenía ante sí, aún careciendo de las herramientas académicas producto de una formación estructurada. Hardy diría después sobre las fórmulas de Rmanujan: “Nunca había visto antes nada, ni siquiera parecido a ellas. Una hojeada es suficiente para comprender que solamente podían ser escritas por un matemático de la más alta categoría. Tenían que ser ciertas, porque, si no lo fueran, nadie habría tenido suficiente imaginación para inventarlas”. Hardy se ocupó de que Ramanujan fuera a Inglaterra con una beca muy superior a sus tristes 20 libras anuales de oficinista.

Trabajando estrechamente con Hardy, que se ocupó del difícil equilibrio de enseñarle matemáticas estructuradas a Ramanujan sin ahogar su genio natural, Ramanujan desarrolló su más avanzado trabajo matemático. Tres años después de su llegada a Inglaterra, en marzo de 1916, por uno de sus trabajos sobre números altamente compuestos, el humilde indostano recibía el grado de doctor en Cambridge, en 1917 era admitido a la Sociedad Matemática de Londres y en 1918 fue el primer indostano electo como fellow del Colegio Trinity de Cambridge.

En Inglaterra, Ramanujan fue fiel a sus tradiciones religiosas y de casta aunque, en privado, reconocía que todas las religiones le parecían más o menos igualmente verdaderas, y mantuvo una dieta estrictamente vegetariana que al parecer colaboró a la mala salud que caracterizó al matemático toda su vida. Era ferozmente pacifista y apasionado de la política, y pudo expresarlo en su estancia inglesa que coincidió con la primera guerra mundial. Diagnosticado con tuberculosis y una grave avitaminosis, además del estrés y la angustia por la lejanía de su país y su familia, fue hospitalizado y volvió finalmente a Kumbakonam en 1919, donde murió un año después, a una edad de apenas 32. Las libretas de notas que dejó como su legado contienen alrededor de 4000 teoremas que han dado material de trabajo, reflexión e investigación a los matemáticos de todo el mundo. Adicionalmente, en 1976 se encontró un cuaderno con las 600 fórmulas escritas durante su último año de vida.

Hardy, quien merece reconocimiento independiente por su trabajo, pero cuya figura ha quedado unida a la de su amigo de la India, hizo alguna vez una valoración de los matemáticos en base puramente a su talento en una escala de 0 a 100. Hardy consideraba que en tal escala él mismo tenía una puntuación de 25, mientras que Ramanujan alcanzaba los 100 puntos. El asombro que provocó y sigue provocando Srinivasa Ramanujan queda igualmente patente por el nombre que dio su biógrafo, Robert Kanigel: “El hombre que conoció el infinito”. Si alguien realmente ha podido entender el abrumador concepto de infinito fue sin duda este que es al mismo tiempo uno de los máximos genios de la humanidad y uno de los nombres menos conocidos por el público en general.

El misterio del 1729


Visitando a Ramanujan en un hospital de Londres, Hardy le comentó que lo había llevado allí el taxi número 1729, y que ese número le parecía bastante aburrido. Ramanujan, sin pensarlo siquiera, dijo: “Claro que no, Hardy, es un número muy interesante. Es el número más pequeño que se puede expresar de dos maneras distintas como la suma de dos cubos positivos”. Es decir, Ramanujan vio de inmediato que 1729 es la suma de 1 al cubo más 12 al cubo (13 + 123), y también es la suma de 9 al cubo más 10 al cubo (93 + 103).

El 1729 es hoy conocido como “número de Hardy-Ramanujan”.

Los diversos caminos del ojo

El ojo es una maravilla de la ingeniería evolutiva. Y más maravilloso y aleccionador es ver que dicha maravilla ha surgido en el planeta varias veces de modo independiente.

Uno argumento comúnmente usado para intentar negar la evolución es el de la “complejidad irreductible”. Los proponentes del creacionismo creen que algunos sistemas biológicos son “demasiado complejos” (en su opinión, aunque esto no suelen aclararlo) para haber evolucionado a partir de elementos menos completos. El motivo de que uno de sus ejemplos sea el ojo es que el propio Darwin hallaba difícil comprender cómo se había podido desarrollar este órgano.

Pero en los últimos 150 años el desarrollo de los planteamientos de Darwin nos ha permitido conocer en detalle el desarrollo del ojo, o, más específicamente, los desarrollos de los distintos ojos que han aparecido a lo largo de la historia. Y así, la misma diversidad de orígenes de los ojos de los cefalópodos, los artrópodos y los vertebrados es una prueba de que su origen es la evolución por medio de la selección natural.

En el mundo actual podemos ver ejemplos de las diversas etapas de evolución de los ojos. Se originaron como pequeños grupos de células sensibles a la luz, que le permitían a los animales distinguir la luz de la oscuridad, una información valiosa. Los mejillones actuales tienen grupos así. El siguiente paso es que estas células queden dentro de pequeñas depresiones, cosa que la presión evolutiva favorecería ya que la diferencia en la percepción de las distintas células permite al animal saber de dónde viene la luz, ya no sólo si existe o no. Esto lo podemos ver hoy en día en los caracoles, que tienen “ojos” (o protoojos, si preferimos) de esta forma. Si esta depresión se profundiza y sus bordes se unen, tenemos el principio de la cámara oscura, es decir, un pequeñísimo orificio por el que entra la luz y se obtiene una imagen invertida de las imágenes del mundo, que es la mejor forma de describir el ojo del molusco llamado nautilus. El siguiente paso es la evolución de una lente, que tiene valor evolutivo aún cuando sea muy primitiva, pues permite enfocar las imágenes, y evidentemente habrá presión para que sea cada vez más precisa. Una lente primitiva podemos observarla hoy en día en los caracoles marinos. Al afinarse al paso de millones de años, podemnos obtener ojos enormemente eficaces.

El pulpo y los humanos, por ejemplo, tuvimos un ancestro común hace 550 millones de años, y dicho ancestro tenía apenas el primer grupo de células fotosensibles (detectoras de luz) mencionado en el párrafo anterior. A partir de ese modesto principio, y sin intercambiar información genética o evolutiva, los vertebrados (como nosotros) y los cefalópodos (pulpos, calamares, etc.) construimos ojos bastante similares, con una retina, una córnea, una lente y un iris, pero al mismo tiempo hay diferencias notables, una de ellas es que en lugar de estirar y acortar el lente o cristalino para enfocar, los cefalópodos acercan o alejan el cristalino completo de la retina. Además, el ojo del cefalópodo conserva una orientación constante respecto de la gravedad. Finalmente, el ojo del pulpo percibe la luz polarizada, mientras que nuestros ojos no lo consiguen. Estas características responden al medio en el que se mueve el pulpo, indicando que el órgano ha evolucionado de acuerdo a las presiones del medio. Así, por ejemplo, detectar la polarización de la luz permite al pulpo ver presas transparentes, como algunas medusas o crustáceos, algo que no tiene valor para los vertebrados.

Una tercera aproximación al desafío evolutivo de detectar la luz visible son los ojos de los artrópodos (insectos y crustáceos), los ojos compuestos cuyo ejemplo clásico es el ojo de la mosca. Cada ojo compuesto está formado por unos cuantos o varios miles de ommatidios, unidades visuales que constan de una lente, un cono cristalino transparente, un grupo de células visuales sensibles a la luz organizadas en un patrón radial, como los gajos de una naranja y células pigmentadas que separan al ommatidio de sus vecinos. A diferencia de la imagen continua de los ojos de cefalópodos y vertebrados, la imagen que producen estos ojos es un mosaico compuesto de las señales de todos los ommatidios, como los puntos de medio tono de los periódicos o revistas. Obviamente, mientras más ommatidios haya, mejor será la imagen que perciba el artrópodo, lo cual nos permite suponer que ojos con más de 3.500 ommatidios como los de algunas libélulas son los de mayor agudeza. Este diseño de ojos es excelente para detectar el movimiento, además de que pueden ver la luz ultravioleta, que utilizan muchas flores, plantas e insectos para transmitir información que nosotros no podemos ver. Las famosas mariposas monarca, en su asombrosa migración de Canadá al centro de México, utilizan la luz ultravioleta del cielo para apoyarse en su navegación.

De nuevo, los ojos, tanto los que han evolucionado de modo convergente como los de un mismo origen, están determinados por el medio, el uso y las necesidades de los distintos animales. Así, el ser humano no tiene, en modo alguno, los ojos más perfectos de la naturaleza. Ya hemos visto que otros seres ven partes del espectro (como la ultravioleta) o características de la luz (como la polarización), que para nuestra vista no existen. Pero además hay animales vertebrados como los depredadores nocturnos (felinos, aves y otros) que pueden ver en la noche de un modo tal que los seres humanos apenas los podemos imitar en los últimos años gracias a los aparatos de visión nocturna y visión infrarroja. La agudeza visual del águila es 3,6 veces superior a la nuestra, un halcón puede ver un objeto de 10 cm. de diámetro a una distancia 1,5 kilómetros con sólo 2,6 veces más agudeza visual que la nuestra; los ojos del camaleón se pueden mover independientemente uno de otro; el pinguino tiene una córnea plana para poder ver bajo el agua... la presión de selección distinta crea ojos distintos, desde los mismos puntos de partida.

La convergencia en la evolución


Además del ojo, diversos elementos en el mundo viviente han evolucionado de modo convergente, demostrando que ante el mismo medio ambiente, la evolución genera muchas veces respuestas similares. Los canguros, por ejemplo, que ocupan el nicho ecológico que fuera de Aaustralia ocupan animales como los ciervos, carneros o bovinos, tienen una dentadura similar a la de los herbívoros placentarios, mientras que los depredadores como el lobo de Tasmania desarrollaron un aspecto físico similar al de otros depredadores como los lobos, coyotes o chacales. Esto nos sirve además para entender lo que nos dicen los restos de animales del pasado evolutivo, los fósiles de los que debemos desprender nuestra historia.

Un planeta en movimiento

Alfred Wegener nos legó una de las más revolucionarias teorías del siglo XX... y también una de las menos conocidas a nivel popular.

Las placas tectónicas de la corteza terrestre.
(Imagen D.P. vía Wikimedia Commons)
La Tierra, el planeta y su superficie, las rocas y suelo, parecen tremendamente sólidos, tanto que los seres humanos hasta hace muy poco consideraron que toda su morfología era esencialmente la misma desde su formación en la nube de polvo de la que surgió el sol y todo nuestro sistema solar. Cierto, algunas tensiones y fricciones acá y allá provocaron la aparición de cordilleras, y ocasionalmente hay terremotos y erupciones de volcanes o de agua caliente y gases, recordándonos que bajo nuestros pies sigue habiendo un núcleo candente.

Pero nada más.

Había algunas cuestiones cuando menos curiosas, pero que bien podían ser simples coincidencias, como la observada ya en el siglo XVI, que las siluetas del continente suramericano y del africano se correspondían como dos piezas de un puzle, pero ello no bastaba, lógicamente, para cambiar la idea que teníamos del mundo, y que la ciencia consideraba razonablemente aceptable en el momento, la llamada teoría geosinclinal, establecida desde mediados del siglo XIX, según la cual la corteza terrestre era un todo constante, y sólo algunos movimientos verticales de la misma provocaban la aparición de características geológicas como las cordilleras o fallas. La teoría era coherente con la edad que se calculaba entonces que tenía la Tierra, entre 18 y 400 millones de años.

Alfred Wegener, científico y meteorólogo alemán, observó en 1911 que aparecían fósiles idénticos en ciertos estratos geológicos que ahora están separados por océanos enteros y no le convenció la idea de que habían surgido y desaparecido “puentes de tierra” que permitieron la migración de animales y plantas. Por el contrario, le pareció posible que fueran los continentes mismos los que se hubieran movido con el paso del tiempo, lenta pero inexorablemente. Planteó así, en 1912, la teoría de la “deriva continental”, proponiendo que los continentes podían haber estado unidos originalmente y con el tiempo habrían “derivado” a sus actuales posiciones. Llamó a ese supercontinente originario “Pangea”, que significa “toda la tierra”.

La idea era tan singular que no sería aceptada fácilmente por la ciencia, que demandaba, lo que por otra parte es lógico, evidencia muy sólida de que los hechos apoyaban a la teoría. Wegener reunió una buena cantidad de evidencia circunstancial, pero no suficiente, y a su muerte sus ideas quedaron en suspenso.

Los cálculos del siglo XIX no tenían modo de suponer que existía la radioactividad, y que la Tierra tenía elementos radiactivos que generaban calor, de modo que el planeta no se había venido enfriando de modo constante desde su origen, y era dable que fuera mucho más antiguo y aún así mantuviera un núcleo lo bastante caliente como para ser líquido. Esta idea, y las evidencias de que la dirección del campo magnético variaba en rocas de distintas edades que se recopilaron en las décadas de 1950 y 1960, llevaron a la reconsideración de a hipótesis de la deriva continental de Wegener y a lo que hoy conocemos como tectónica de placas, considerada uno de los grandes avances del siglo XX junto con la teoría de la relatividad, la mecánica cuántica y las neurociencias.

Según la tectónica de placas, la Tierra consta de diversas capas. La más interior, que se hundió por su propio peso, es principalmente de hierro fundido y forma el núcleo interno del planeta. Sobre él está el núcleo exterior, de una mezcla menos densa de níquel y hierro e igualmente líquido, y el manto sobre el cual se extiende la corteza terrestre. Pero no es una corteza uniforme e inmóvil. Se trata de una delgada capa rocosa quebrada en numerosos trozos o placas (de ahí el nombre) que “flotan” sobre el núcleo y se mueven debido a las corrientes de convección que crea el propio calor del núcleo terrestre.

Las placas tectónicas son trozos de corteza con un espesor de unos 100 kilómetros. Para comparar, la mina más profunda excavada por el ser humano, la Tau Tona, mina de oro en Sudáfrica, es de 3,6 kilómetros, profundidad a la cual la temperatura es de 55 grados centígrados. Se mueven de modo sumamente lento, entre 10 y 160 milímetros por año, pero esos pocos milímetros se suman a lo largo de millones de años. Conocemos la existencia de nueve grandes placas y algunas más pequeñas: la del Pacífico (la mayor), Norteamericana, Suramericana, Eurasiática, Africana, Australiana y Antártica. Entre las pequeñas tenemos la India, la Caribeña, la de Nazca, la de Cocos y la Filipina

El lento, pero inexorable movimiento de estas placas explica algunas de las principales características geológicas de nuestro planeta. Por ejemplo, el choque de la placa Indoaustraliana con la Euroasiática, al norte de la India, es el responsable del surgimiento de la impresionante cordillera de Los Himalayas, con las montañas más altas del mundo. Por supuesto, algunas placas se están separando de otras, mientras que algunas están chocando con otras, en colosales pulsos en los que la menos sólida acaba debajo de la más firme, en un proceso llamado “subducción”. Los movimientos de estas subducciones son los causantes de buena parte de los terremotos, siempre según la tectónica de placas.

Un caso singular es cuando las placas no chocan ni se alejan entre sí, sino que se deslizan horizontalmente una respecto de la otra. Es lo que ocurre en el punto donde se encuentran la placa Pacífica (en movimiento hacia el norte) y la Norteamericana (en movimiento hacia el sur), la llamada Falla de San Andrés. Por otro lado, el movimiento de la placa Pacífica explica la existencia del “cinturón de fuego” en sus bordes.

Así, hoy sabemos que nuestro planeta está en continuo movimiento. Los continentes se mueven, y al menos en dos ocasiones en nuestro pasado distante estuvieron reunidos en un solo supercontinente. Y como en tantos otros aspectos del conocimiento, el cambio es lo único cierto incluso en la aparentemente confiable “tierra firme” que pisamos.

La tectónica de placas extraterrestre


Las condiciones de la corteza de nuestro planeta son tan singulares que los científicos apenas se atreven a especular sobre la posibilidad de que este mecanismo exista en otros planetas. Venus, por ejemplo, no muestra ninguna actividad tectónica, pero hay datos que indican que pudo haberla tenido en un pasado distante. Por su lado, Marte, con volcanes dispuestos en arcos como los que podemos ver en nuestro planeta, y la existencia de variaciones en la dirección del campo magnético en su suelo hacen pensar que tiene o tuvo actividad tectónica. Hay especulaciones también sobre los más grandes satélites de Júpiter y Titán, la mayor luna de Saturno.

Phoenix: la aventura marciana

Un capítulo más de la búsqueda real, científica y cuidadosa de vida originada fuera de nuestro planeta.

Phoenix, la más reciente sonda robótica de la NASA para explorar Marte, se posó en el ártico marciano el domingo 25 de mayo habiendo sido lanzada el 4 de agosto de 2007. Su viaje constó fundamentalmente de una intensa aceleración seguida de un recorrido silencioso y plácido que hacia el final del recorrido se precipitó a lo que los creadores de la sonda llamaron, sin más, “siete minutos de terror” antes de que la nave llegara a posarse en suelo del planeta rojo.

Estos momentos de angustia se debían al procedimiento que la nave debía seguir para aterrizar. Primero, usó su escudo de calor para frenar aprovechando la fricción de la atmósfera marciana. Después, debía abrir un enorme paracaídas para seguir frenando durante cuatro minutos y, finalmente, iniciaría el disparo secuencial de 12 retrocohetes cuya misión sería frenar la nave hasta una velocidad de unos ocho kilómetros por minuto, lo cual le permitiría aterrizar sin destrozarse. El riesgo y la incertidumbre se debían a que muchas cosas podían fallar, y podían presentarse imprevistos que no se pudieron imaginar en la Tierra, pero los controladores de nuestro planeta poco podrían hacer, ya que el tiempo que tardan en llegarnos las señales de nuestras naves en Marte es de 20 minutos en promedio, de modo que para cuando el control de tierra supiera que había un problema, sería demasiado tarde para reaccionar, sin contar con que la orden de reacción que se pudiera enviar tardaría otro tanto en llegar a Marte.

Las últimas sondas que habían utilizado con éxito un sistema de retrocohetes para posarse en suelo marciano fueron las Viking 1 y 2, enviadas en 1975 y que aterrizaron en Marte en 1976. El fracaso de misiones como la del Mars Polar Lander hizo que se privilegiara el uso de bolsas de aire como amortiguadores de las caídas en lugar de retrocohetes en misiones como las de la sonda Pathfinder y los vehículos de exploración Spirit y Opportunity. Pero el uso de bolsas de aire presenta una limitación en cuanto al peso que puede tener razonablemente la sonda que protegen. Cuando es muy grande, el peso que deben tener las bolsas de aire limita la cantidad de equipo científico que pueden llevar, y dado que la sonda Phoenix tiene por objeto la búsqueda de entornos adecuados para la presencia de vida microscópica o microbiana, el uso de bolsas de aire no era razonable. De allí los siete minutos de terror que, ahora lo sabemos, superó con éxito el robot.

No es un logro nada despreciable, es la sexta nave que se posa exitosamente en Marte de un total de 12 que se han enviado con ese objetivo, y la primera que lo hace empleando retrocohetes (un sistema llamado “estático”) desde la Viking 2.

Dado este historial, no es extraño que algunas personas se pregunten qué hace que estos esfuerzos merezcan la pena. Cierto, para otras personas, las imágenes enviadas por las sondas robóticas son más que suficiente para justificar todo el gasto y el empeño: ver a un aparato construido por frágiles seres humanos estudiando en nuestro nombre y representación un planeta completamente distinto es una buena lección sobre lo que puede hacer el ser humano cuando se concentra en esfuerzos positivos y creadores.

Pero hay más. Marte podría albergar, y cada vez es más probable, importantes claves para entender el origen de la vida.

Marte ha fascinado a la humanidad desde que sabemos, por su singular color rojo que lo distingue en el cielo nocturno. Las primeras observaciones telescópicas del planeta mostraron cambios de color que se atribuyeron a vegetación estacional, y una ilusión óptica debida a la baja resolución de los telescopios hizo parecer que tenía líneas en su superficie que se interpretaron como canales de agua o caminos, lo que animó la creencia de que había vida en Marte, tema que retomó prontamente la ciencia ficción, primero en forma de literatura y después en el cine.

Pero si no había plantas estacionales ni canales, el estudio de Marte desde 1962, cuando fue visitado por el Marte 1, estación interplanetaria automática de la extinta Unión Soviética, nos ha ido revelando hechos que permiten suponer que nuestro planeta vecino es un excelente candidato para albergar vida, aunque ésta sea probablemente microscópica y no conforme la poética civilización a la que diera vida Ray Bradbury en su libro de cuentos Crónicas marcianas.

Marte tiene aproximadamente la mitad del radio de la Tierra y una décima parte de su masa. Su superficie está cubierta de fino polvo de óxido de hierro que le da su característico color rojo. Aunque debido a la baja presión atmosférica de Marte (en promedio de menos de 1% de la media terrestre) en su superficie no puede existir agua en estado líquido salvo durante breves períodos en las zonas más bajas del planeta, está presente en grandes cantidades en los glaciares que existen en ambos polos, además de que hay datos según los cuales bajo la superficie marciana hay grandes cantidades de agua congelada que se funde cuando hay actividad volcánica. Existen diversos escenarios hipotéticos que afirman, o rechazan, la presencia de gran cantidad de agua en Marte, e investigaciones como las que realizará la Phoenix tienen por objeto aclarar el panorama y, quizá, incluso descubrir la primera evidencia incontrovertible de vida extraterrestre.

La sonda Phoenix tiene dos objetivos, el primero es precisamente estudiar la historia geológica del agua en el planeta y la segunda es buscar una zona habitable que puede existir en el punto donde se encuentran el suelo y el hielo. La nave tiene previsto realizar su misión principal en los 92 días (90 días marcianos) posteriores a su aterrizaje. Después, comenzará el invierno marciano y aunque los encargados de la misión desean que la misión dure más de lo previsto, como ha ocurrido con otras misiones a Marte, saben que es difícil que ello ocurra por las bajas temperaturas que enfrentará su aparato. Así que en tres meses podríamos saber si hay agua – y vida – en Marte.

La misión tripulada a Marte


Para los entusiastas de la exploración espacial, es el siguiente paso lógico, pero el elevado coste que tendría (simplemente pensemos en la cantidad de alimentos y aire que debería llevar la nave para mantener vivos a los astronautas durante 18 meses de viaje más el tiempo que pasen en Marte) es un serio obstáculo a lo que podría ser una nueva carrera de gran interés científico y tecnológico. El programa Visions de los Estados Unidos piensa en el envío de una misión a Marte para el año 2037, mientras que el programa Aurora de la Agencia Espacial Europea tiene la idea de poner en marcha su misión tripulada a Marte en 2030, y algunos conceptos rusos hablan de misiones entre 2016 y 2020.

Pávlov y la psicología científica

La última frontera de la ciencia sigue siendo la comprensión de nuestro propio comportamiento. A partir de Iván Pávlov, la psicología comienza su divorcio de la filosofía.

Comparar lo que sabemos de física o química con lo que sabemos acerca de nuestro sistema nervioso y nuestro comportamiento es una forma rápida y sencilla de constatar que estamos muy lejos de conocer los más elementales principios de la conducta, sus cómos y sus por qués. Y es que desde los inicios de la historia, el estudio de las emociones, ideas y comportamientos se ha visto limitado por la convicción de que entre esos elementos se encuentra un “alma” o “espíritu” singular que no puede ser “reducido” a lo material, que incluye aspectos sobrenaturales, divinos o incluso relacionados con las deidades. Así, la psicología o estudio de la “psiqué” (que significa al mismo tiempo “alma”, “uno mismo” y “mente”) fue considerada parte de la filosofía más tiempo que otras ciencias que fueron adquiriendo personalidad propia.

De hecho, la psicología como campo de estudio sujeto a experimentación se independiza apenas en 1879, cuando Wilhelm Wundt funda el primer laboratorio de investigación psicológica en la Universidad de Leipzig, Alemania, y tras él otros estudiosos emprenderían investigaciones independientes. Entre ellos, el primero que mostró resultados relevantes y que indicaron que los aspectos más recónditos de la conducta podrían estar sujetos a procesos y leyes naturales fue el fisiólogo y naturalista ruso Iván Petrovich Pávlov, nacido en 1849 e hijo del sacerdote del pueblo. Como era lógico, se le destinó a la carrera eclesiástica en el seminario de su natal ciudad de Ryazan, pero pronto abandonó ese camino y en 1870 pasó a estudiar a la facultad de física y matemáticas de la universidad de San Petersburgo para estudiar ciencias naturales, donde descubrió su amor por la fisiología, obteniendo su doctorado precisamente en 1879, con medalla de oro por su brillantez.

En 1890, Pávlov fue llamado a dirigir el Departamento de Fisiología del Instituto de Medicina Experimental, donde pudo ocuparse de sus investigaciones sobre la fisiología de la digestión, para lo cual trabajaba con perros. Para estudiar la reacción de la saliva ante el alimento bajo distintas condiciones, realizó cirugías creando fístulas o aperturas en el cuerpo de sus sujetos para poder observar continuadamente distintos órganos en funcionamiento relativamente normal, una absoluta novedad en el mundo de la experimentación médica. Como parte de sus experimentos, demostró que el sistema nervioso juega el papel dominante en la regulación del proceso digestivo, que sigue siendo la base de la fisiología de la digestión.

Fue durante experimentos con fístulas en las glándulas salivales de sus perros, que le permitían recoger la saliva, medir su producción y analizar su composición, que Pávlov encontró un hecho inesperado. En algunos experimentos utilizaba alimentos cubiertos con polvo de guindilla o chile y fue entonces cuando observó que los perros secretaban saliva antes de que dicho alimento picante se les introdujera efectivamente en el hocico. En lugar de anotar este hecho como una observación curiosa colateral a sus análisis de la composición química de la saliva canina, nació en Pávlov una poderosa curiosidad por esto que llamó "secreción psíquica", y en una acción altamente audaz desde el punto de vista académico reorientó la totalidad de su investigación hacia este fenómeno, modificando los estímulos a los que estaba expuesto el sujeto para determinar a cuáles respondía, y cómo.

Con sus conocimientos de los reflejos nerviosos, Pávlov pronto pudo determinar que la reacción de salivación de los perros ante estímulos asociados en el tiempo a la administración de alimentos no dependía de elementos subjetivos, sino que tenía las mismas características que los reflejos nerviosos, aunque en este caso se trataba de reflejos condicionados y temporales. En el ejemplo clásico, se hace sonar una campana poco antes de administrar alimentos a los perros. Pasado un tiempo, el sonido de la campana basta para evocar la secreción salival sin la presencia física del alimento. Sin embargo, los experimentos de Pávlov se realizaron con muchos otros estímulos adicionales, tanto auditivos como visuales, asociados al alimento para generar el reflejo condicionado. Este comportamiento provocado es también conocido como "reflejo pavloviano", y se ha consolidado en el imaginario de la cultura popular en la expresión "como perro de Pávlov", que se refiere a la reacción condicionada y acrítica de una persona ante un hecho o estímulo.

El descubrimiento de Pávlov tenía importantes connotacione filosóficas, más allá de las evidentes desde el punto de vista de la fisiología. Lo que había demostrado, desde el punto de vista de la epistemología o filosofía del conocimiento, era que la actividad psíquica, psicológica o mental podía estudiarse con herramientas objetivas, y no mediante la subjetividad y la interpretación a veces fantasiosa y sin demostraciones científicas de otras aproximaciones a la psicología, muy destacadamente el psicoanálisis de Freud y sus seguidores.

Fue en 1903, en el 14º Congreso Médico Internacional de Madrid, donde Pávlov leyó su artículo o paper “La psicología y psicopatología experimentales de los animales”, donde definió los distintos reflejos, incluido el condicionado, e inició efectivamente la era de una psicología científica que sigue en desarrollo. En 1904, recibió el Premio Nobel de Medicina y Fisiología, y en los años siguientes, Pávlov conseguiría desarrollar una teoría de los reflejos condicionados debidamente probada mediante experimentos y llegaría incluso a descubrir que los reflejos condicionados se originan en la corteza cerebral, como principal distribuidor y organizador de la actividad del organismo. Pávlov sería, además, un gran promotor de la ciencia, de la investigación y del conocimiento, dejando un importante legado en la forma de instituciones y discípulos de gran calidad antes de morir en 1936.

El camino a la ciencia


La psicología no es aún una ciencia en forma. Aunque las neurociencias y algunos caminos de la psicología como el análisis de la conducta operante (el “conductismo”) y la etología o estudio del comportamiento natural y sus bases genéticas cumplen los requisitos esenciales de la ciencia (incluida la demostración de sus teorías utilizando esquemas experimentales objetivos y repetibles), lo que más nos importaría, el conocimiento de cómo funcionamos y por qué, sigue estando fuera de nuestro alcance. Filósofos como Kuhn y Mario Bunge sitúan a la psicología como una protociencia, pero precisamente por eso es uno de los más prometedores campos para la investigación original.

La vida en el universo

MarsSunset
Atardecer en Marte, el mejor candidato a planeta con vida fuera
de la Tierra,  tomado por la sonda Mars Exploration Rover.
(Foto D.P. NASA, vía Wikimedia Commons
Más allá de las afirmaciones dudosas, engaños y buenos deseos, la ciencia sigue buscando resolver la cuestión de la vida fuera de nuestro planeta.

Cuando se enviaron a Inglaterra los primeros ornitorrincos disecados, los naturalistas no aceptaron ciegamente que hubiera un mamífero con pico y patas de pato, que pusiera huevos y tuviera espolones venenosos en las patas traseras. En vez de ello imaginaron un fraude con un cuerpo de castor con trozos de pato cosidas o pegadas. Es decir, propusieron hipótesis razonables según los datos.

Hasta que tuvieron en sus manos un ejemplar vivo lo consideraron evidencia suficiente de la existencia de este animal, importante en la historia de cómo los mamíferos nos separamos de la línea de los reptiles. Esto no fue, cerrazón o torpeza de los científicos, sino por el contrario un buen ejemplo de la “evidencia suficiente” que requiere el método científico para aceptar un hecho o una explicación. En el mundo de la ciencia, no basta que alguien diga “yo lo vi” para aceptar algo, ni una prueba que pudiera ser falsificada, se debe contar con una evidencia contundente y reproducible,.

Lo mismo ocurre en el caso de la posibilidad de que fuera de nuestro planeta haya vida como la entendemos nosotros o, aún más, vida desarrollada hasta tener una inteligencia o conocimientos superiores a los de la especie humana. La idea de que existe tal vida inteligente, y los argumentos a favor y en contra, han estado presentes en las culturas humanas desde que existen registros, y el debate ha sido tanto filosófico como religioso. En el mundo occidental, para una cristiandad que consideraba a la Tierra el centro del universo, la vida fuera del planeta era impensable, salvo la del reino sobrenatural. Pero la revolución copernicana, que degradó a la Tierra a sólo un cuerpo celestial más, abrió el debate de la posibilidad de vida extraterrestre, y en el siglo XVI, el filósofo, sacerdote y cosmólogo Giordano Bruno argumentó en favor de un universo infinito y eterno donde cada estrella estaba rodeada de planetas, en su propio sistema solar, idea que colaboró para que fuera quemado en la hoguera por la Inquisición en 1600, error que finalmente fue lamentado por el Vaticano en el año 2000.

Galileo y Copérnico habían sentado las bases del estudio científico del universo, lo que hoy llamamos cosmología, y siglos de debates filosóficos desembocaron en el siglo XIX y XX en dos fenómenos relacionados entre sí. De una parte, la velocidad del cambio científico y tecnológico empezó a incidir en la sociedad como nunca antes, abriendo las puertas a una nueva forma de creación que se ocupaba de la ciencia y de sus posibilidades, incluida la del viaje a otros mundos habitados y las visitas extraterrestres, la ciencia ficción. De otra parte, grupos de científicos se han ocupado de enviar al espacio señales físicas o de radio sobre nuestra existencia y tratar de recibir señales emitidas por otros seres inteligentes, considerando que las emisiones de radio y televisión de los extraterrestres nos llegarán, muy probablemente, mucho antes de que ellos puedan trasladarse físicamente hasta la Tierra. Tal ha sido el principio de los diversos programas SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre), que buscan señales regulares “inteligentes” en las emisiones que reciben los radiotelescopios.

Conforme conocemos mejor los demás planetas de nuestro sistema solar, es casi evidente que encontraremos algún tipo de vida primigenia, por ejemplo bacterias, en cuerpos celestes como Marte o las lunas Europa y Ganimedes, de Júpiter, y Titán, de Saturno. Pero por emocionante que fuera científicamente hallar seres unicelulares extraterrestres, serán una decepción para quienes tienen esperanzas más del tipo E.T., Flash Gordon o Supermán. Por ello, la pregunta de “¿cuántas civilizaciones podría haber en el universo?” ha sido también abordada. El astrofísico Frank Drake tomó en cuenta los datos que se tenían en 1961 en cuanto a estrellas adecuadas para la vida que contengan planetas similares a la Tierra, y desarrolló una ecuación según la cual podía haber vida inteligente capaz de comunicarse con nosotros en unos 10.000 planetas de nuestra galaxia, la Vía Láctea. Aunque la “ecuación de Drake” se cita con frecuencia por los entusiastas, desarrollándola con los datos que tenemos en la actualidad, el número de planetas de nuestra galaxia con vida inteligente que se pueden comunicar con nosotros es de sólo 2,3. En todo caso, no deja de ser una conjetura.

Como un elemento colateral, y precisamente por el deseo de entrar en comunicación con elementos trascendentes o superiores, que en el pasado pudieron ser brujas, ángeles o espíritus, consciente o inconscientemente algunas personas retomaron diversos elementos de la ciencia ficción y empezaron a asegurar que cualquier luz en el cielo, cualquier objeto volador que no pudieran identificar de inmediato, cualquier punto en un radar, eran “naves extraterrestres”, y otros empezaron a asegurar que estaban en “contacto” con extraterrestres de lo más variados, o que eran “secuestrados” por extraterrestres con mayor o menor asiduidad. Y es aquí donde debe venir a nuestra memoria el caso del ornitorrinco. Distintas personas suponen que la ciencia debería aceptar que seres inteligentes de otros planetas nos visitan asiduamente, pero para ello nunca han podido ofrecer ninguna prueba, ninguna evidencia tan sólida como un ornitorrinco vivo. Anécdotas, afirmaciones, relatos, efectos físicos que se podrían obtener de otro modo (como trozos de metal que son indistinguibles de otros trozos terrestres, o huellas en la tierra que podrían ser formada por cualquier medio no alienígena) no pueden ser considerados como evidencia suficiente, por mucho que esto ilusionara a los más entusiastas de lo extraterreno.

Quizás algún día entraremos en comunicación con otros seres vivos de otras partes del universo, que muy probablemente existan. Pero hasta ahora no parece haber ocurrido, y sin duda son los científicos los más interesados en hacer ése que sería, sin duda, uno de los mayores descubrimientos de la historia humana.

Los cálculos más recientes

El profesor Andrew Watson de la Universidad de East Anglia, astrobiólogo, ha publicado recientemente un modelo matemático que se basa en el hecho de que nuestro planeta tuvo vida durante cuatro mil cuatrocientos millones de años antes de que apareciera en él lo que llamamos inteligencia, lo cual indica, según Watson, que la probabilidad de la aparición de inteligencia es bastante más baja de lo considerado antes. Este profesor de la Escuela de Ciencias Medioambientales ha llegado a la poco entusiasta cifra de que sólo hay una probabilidad de 0,01% de que aparezca la vida en cuatro mil millones de años.

La depresión: una enfermedad fantasma

Estar deprimido, bajo de energía, triste o de mal humor no tiene que ver con la depresión clínica, un desorden psiquiátrico que puede ser incapacitante y altamente riesgoso.

Entre las afecciones emocionales, la depresión es probablemente una de las menos comprendidas para quienes no la padecen. La palabra “depresión” se utiliza igualmente para describir una sensación normal o natural de tristeza, nostalgia o frustración, a la que todos estamos expuestos y que dura uno o dos días, y para indicar un importante desorden psiquiátrico que puede llegar a interferir gravemente con su vida cotidiana, y son cosas no relacionadas entre sí. Por ello, es frecuente que la gente pregunte al depresivo “por qué” está de mal humor y ofrezca recomendaciones de positividad, de buen rollo y de fuerza de voluntad por parte del depresivo, como lo haría con cualquiera que tuviera un motivo para estar triste o de mal humor.

Pero el depresivo puede no tener un motivo externo para su condición emocional, y ésta es mucho más profunda que una bajada de ánimo pasajera. El depresivo no necesita sólo buenos consejos, sino que requiere apoyo de medicamentos, al menos en la primera etapa de su tratamiento, y una psicoterapia adecuada para aprender a manejar la enfermedad. La depresión, desde el punto de vista médico, es un síndrome o conjunto de síntomas que incluyen tristeza patológica, decaimiento, irritabilidad, reducción en el rendimiento del trabajo e incluso dolores diversos, es una condición emocional perdurable (al menos dos semanas) y en alguna medida incapacitante. Hay varias formas distintas de la depresión identificadas por la psiquiatría.

Trastorno depresivo mayor - Es una combinación de síntomas que interfieren con la capacidad de una personas para trabajar, dormir, estuciar, comer y disfrutar de actividades que en otro momento le resultaban placenteras. La depresión mayor impide que la gente funcione normalmente y puede ocurrir una sola vez en la vida (episodio único) o, más frecuentementemente, ser recurrente a lo largo de la vida de la persona (recidivante).

Trastorno distímico – Llamado también “distimia”, lo caracterizan síntomas menos graves, que no son incapacitantes pero que duran mucho tiempo, dos años o más, y que puede estar marcada por algunos episodios de trastorno depresivo mayor.

Trastorno adaptativo o depresión reactiva – Depresión que ocurre en respuesta a un acontecimiento vital estresante y no sólo por causas internas.

La investigación sobre la depresión sigue adelante, y aún hay mucho por descubrir, de modo que las siguientes formas de la depresión no cuentan con un acuerdo pleno de los científicos en cuanto a su caracterización y definición.

Depresión psicótica – Ocurre cuando una afección depresiva grave se combina con alguna forma de psicosis, como la disociación de la realidad, alucinaciones e ilusiones.

Depresión postparto – Se diagnostica cuando una madre primeriza desarrolla un episodio depresivo mayor en el mes siguiente al parto. Se calcula que entre 10 y 15% de las mujeres sufren depresión postparto, y su tratamiento es fundamental debido a que en casos extremos puede llevar a graves alteraciones del comportamiento.

La depresión y la muerte

Uno de los más graves peligros de la depresión es que con frecuencia implica pensamientos recurrentes de suicidio, y facilita el que sus víctimas realicen efectivamente intentos de acabar con sus vidas, de modo que el tratamiento oportuno y adecuado puede ser, en sentido literal, una forma de salvarle la vida a quienes padecen depresión.

La depresión, en general, tiende a ocurrir en las mujeres con una frecuencia de casi el doble que en los hombres. Durante un tiempo, esto se atribuyó principalmente a factores de carácter cultural, pero estudios recientes del Instituto Nacional de la Salud Mental de Estados Unidos sugieren que los cambios en los niveles de estrógeno juegan un papel en la depresión. Sin embargo, es más frecuente que la depresión no se diagnostique correcta y oportunamente entre los hombres, en parte por cuestiones culturales que esperan mayor “resistencia” y “capacidad de sobreponerse” en los hombres que en las mujeres. Por tanto, la tasa de suicidios consumados en situación de depresión es cuatro veces mayor entre los hombres que entre las mujeres, pese a que los intentos de suicidio son mayores entre las mujeres, lo que sugiere que ellas acuden a él con más frecuencia como modo de llamar la atención a sus problemas, y ellos como genuinos intentos de terminar con su vida. Pero la depresión no sólo afecta psicológicamente, sino que aumenta el riesgo de sufrir enfermedad coronaria, y en el varón, los estudios indican que aumenta la tasa de mortalidad producida por la enfermedad coronaria sumada a un trastorno depresivo. Igualmente, la incidencia de la depresión aumenta en la tercera edad, y con ella los suicidios consumados. La depresión, resaltan los expertos no es una parte normal de la vejez, y debe ser tratada con la misma atención que si ocurre en otro momento de la vida.

No se sabe exactamente qué elementos causan la depresión, aunque se presume que es resultado de una combinación de factores genéticos, bioquímicos, medioambientales y psicológicos. En todo caso, las investigaciones realizadas hasta hoy señalan que las enfermedades o trastornos depresivos son desórdenes del cerebro. Sistemas como la resonancia magnética han permitido observar que el cerebro de los depresivos muestra un aspecto muy distinto del cerebro no depresivo”, mostrando un funcionamiento anormal en las áreas responsables de regular el humor, el pensamiento, el sueño, el apetito y el comportamiento. Además, sabemos que la depresión provoca un desequilibrio en los tres neurotransmisores primarios: serotonina, norepinefrina y dopamina. Esto sirve para entender por qué la “fuerza de voluntad”, la invitación a “pensamientos positivos” y los consejos amistosos pueden ser totalmente ineficaces para mejorar la situación emocional de un depresivo.

La depresión y la ansiedad


Con gran frecuencia, la depresión y la ansiedad ocurren juntos. El sentimiento de soledad, desesperanza y tristeza de la depresión pueden ocasionar temores y ansiedad en el paciente, ansiedad que a su vez fortalece la depresión, creando un círculo vicioso. El paciente con depresión y ansiedad puede sufrir ataques de pánico, que son episodios de miedo irracional extremo, pulso acelerado y falta de aire, o ver fortalecidas fobias como el miedo a los lugares cerrados o a algún animal. Es por ello que diversos tratamientos incluyen medicamentos que son antidepresivos y ansiolíticos, es decir, que combaten la ansiedad, ya sea en una sola formulación o mezclando dos o más medicinas que ataquen todos los síntomas del paciente.

La gravedad que no falla

El satélite “GOCE” de la Agencia Espacial Europea inaugurará la observación terrestre desde órbita, ayudando a conocer nuestro planeta, su gravedad y la circulación de las aguas oceánicas.

Imagen artística del satélite GOCE
(Imagen de la ESA)
En su canción “Just like Tom Thumb’s blues”, Bob Dylan cantaba: “Cuando estás perdido en Ciudad Juárez / y es Pascua también / y tu gravedad falla / y la negatividad no te saca adelante”. La pérdida de la gravedad era, claramente, un desastre de especiales consecuencias en la melodía, y lo sería en la realidad, pero parece infalible, y le da al universo cohesión y orden. Lo extraño es que seguimos sabiendo poco acerca de esta fuerza fundamental.

Aristóteles ya trataba de explicar los efectos de la gravedad (palabra que no usaban los antiguos griegos, por supuesto), diciendo que todos los objetos “trataban” de moverse a su lugar correcto en las esferas cristalinas de los cielos, y que los objetos se movían hacia el centro de la Tierra (suponemos que debido a que el centro de la Tierra es su lugar correcto, aunque ignoramos cómo concluyó esto Aristóteles) en proporción con su peso. Para los antiguos hindús, también, el peso era el elemento esencial, de modo que la caída dependía del peso del cuerpo que caía. De aquí se derivaba la idea aristotélica de que, siguiendo esa lógica, un objeto diez veces más pesado que otro caía diez veces más rápido, cosa que se aceptó durante un par de miles de años sin poner a prueba la idea. Cuando Galileo la puso a prueba, demostró que el peso era independiente de la velocidad de caída, por lo que, se pudo suponer después, es la masa del objeto hacia el cual se cae (la Tierra, en este caso) la que determina la velocidad de caída. Con esta idea, Isaac Newton desarrolló la Ley de la Gravitación Universal, que puso de cabeza todos los conceptos de la física y la consagró como ciencia.

Pero la descripción precisa de Newton sobre cómo ejercía sus efectos esta fuerza de atracción tampoco describía a tal fuerza con precisión. Era simplemente una atracción ejercida por la masa, nada más. Fue Albert Einstein quien, al desarrollar una teoría más amplia e incluyente que la de Newton, conocida como la teoría de la relatividad, propuso por primera vez un mecanismo de acción. La gravedad, en el universo según Einstein, es resultado de la curvatura del espacio provocada por la masa de los objetos, como si éstos estuvieran colocados sobre una membrana elástica, de modo que los que tienen más masa provocan una mayor curvatura y provocan que otros objetos caigan hacia él. El espacio de Einstein se curva en una dimensión adicional del universo que no podemos percibir, pero el ejemplo es claro en nuestras tres dimensiones. Si ponemos una bola de bolos en un colchón, curvará la superficie de éste de modo que si colocamos cerca de ella una bola menos masiva, como una de golf, la segunda “caerá” hacia la primera debido a la curvatura del espacio.

La explicación de Einstein parece correcta, aunque a nivel subatómico, en el mundo donde las leyes de la física se alteran y entra en acción la mecánica cuántica, la gravedad se describe de modo distinto, y los físicos de las últimas décadas se han dedicado a resolver el difícil problema de unificar las distintas teorías y las explicaciones de las fuerzas fundamentales (electromagnetismo, gravedad, fuerza nuclear fuerte y fuerza nuclear débil) en un solo marco conceptual, que sería la Gran Teoría Unificada, o la Teoría de Todo.

Mientras se resuelven los temas teóricos, sin embargo, sigue siendo necesario conocer a fondo el principal campo gravitatorio que nos afecta, el de nuestro propio planeta, investigarlo, estudiarlo con la más avanzada tecnología. Y allí entra el satélite GOCE.

Un logro singular para la ESA
El GOCE (siglas en inglés de Explorador de la Circulación Oceánica y de Gravedad) está diseñado para proporcionar modelos únicos del campo gravitatorio terrestre y del geoide, es decir, de la forma de la Tierra. GOCE es el primer satélite de las misiones Earth Explorer, diseñadas para proporcionar a un coste moderado una respuesta rápida a temas científicos importantes, usando tecnologías de vanguardia. Programado para lanzarse en mayo o junio, será una herramienta que medirá la gravedad de nuestro planeta. Ya que la atracción gravitacional disminuye con la distancia, era indispensable que el satélite viajara lo más bajo posible para hacer las mejores y más fiables mediciones, para lo cual se situará en principio en órbita a una altura de 270 kilómetros. Esto presentó a los diseñadores un segundo problema: a esa altura, el satélite encontrará restos de atmósfera que frenarán su viaje orbital que será sincrónico con la posición del sol sobre nuestro planeta. Para no caer, el GOCE requiere contar con motores, algo desusado en los satélites hechos por el hombre, y los mejores motores posibles para esta misión son los impulsores iónicos de reciente desarrollo.

El diseño exterior (que incluye alerones para dirigir la nave en la escasa atmósfera, paneles solares y una forma aerodinámica habitualmente innecesaria por la falta de aire), la precisión de sus instrumentos, los motores y la visión de eficiencia que ha dominado el concepto de GOCE ha hecho que sea conocido ya como “el Ferrari espacial”. Las joyas tecnológicas del GOCE incluyen los aparatos diseñados para medir la atracción gravitacional de la Tierra con una precisión sin precedentes, tomando en cuenta el movimiento del satélite, de los instrumentos y de toda interferencia posible. Así, cada uno de los tres pares de acelerómetros que conforman el principal instrumento del satélite puede medir variaciones de una parte en 10.000.000.000.000 (una billonésima) de la gravedad que percibimos en la Tierra, una sensibilidad 100 veces superior a los acelerómetros utilizados en el pasado. Con sus datos, meteorólogos, geodésicos y geógrafos tendrán una idea más clara de cómo es nuestro planeta.

Los impulsores iónicos

Los impulsores iónicos, que la ESA utilizó por primera vez en la misión a la Luna Smart-1 en 2006 funcionan con una corriente eléctrica que fluye a través de un campo magnético con la que se acelera un haz de iones (átomos con carga eléctrica, de xenón en el caso del GOCE) expulsándolos de la nave espacial. El impulso que imparten es muy pequeño, apenas suficiente como para sostener una tarjeta postal en el aire, pero como puede ser un impulso continuado durante larguísimos períodos con muy poco combustible, los impulsores iónicos se consideran la mejor opción para misiones muy largas (como fuera del sistema solar) o que, como en el caso del GOCE, requieren relativamente poco impulso para funcionar. EL GOCE, que sólo pesa 1.100 kg., lleva únicamente 40 kg. de xenón como combustible que funcionará con la corriente eléctrica de los paneles solares.

Fundó la informática, ganó una guerra, murió perseguido

Los ordenadores que hoy son herramienta fundamental de la ciencia, la economía, el arte y la comunicación son, en gran medida, resultado del sueño de un matemático inglés poco conocido.

Estatua de Alan Turing en Bletchley Park.
(Foto Ian Petticrew [CC-BY-SA-2.0],
vía Wikimedia Commons)
Uno de los frentes secretos de la Segunda Guerra Mundial es Bletchley Park, que era un edificio militar (hoy museo) en Buckinghamshire, Inglaterra. Allí, un grupo de matemáticos, ajedrecistas, jugadores de bridge, aficionados a los crucigramas, criptógrafos y pioneros de la informática se ocuparon de derrotar al nazismo quebrando los códigos secretos con los que se cifraban las comunicaciones militares y políticas alemanas.

Desde 1919, los servicios secretos, criptógrafos y matemáticos habían estado trabajando sobre la máquina llamada “Enigma”, inventada originalmente por el holandés Alexander Koch y mejorada por técnicos alemanes para las comunicaciones comerciales, aunque pronto se volvió asunto de las fuerzas armadas alemanas. La máquina Enigma era esencialmente una máquina electromecánica que usaba una serie de interruptores eléctricos, un engranaje mecánico y una serie de rotores para codificar lo que se escribía en un teclado, y en una versión mejorada y ampliada se convirtió en la forma de codificar y decodificar mensajes militares alemanes de modo enormemente eficaz.

Al iniciarse la Segunda Guerra Mundial, aprovechando los esfuerzos criptográficos previos de quienes habían abordado los misterios de la máquina Enigma, el joven de 26 años Alan Mathison Turing desarrolló mejoras al sistema polaco anterior para romper el código Enigma y diseñó la llamada "bomba de Turing", una máquina que buscaba contradicciones en los mensajes para hacer deducciones lógicas que permitían descifrar los mensajes más rápida y eficazmente. Pero, por supuesto, ningún ejército depende de una sola arma, de una sola estrategia ni de un solo sistema de cifrado para sus mensajes secretos. Así, Turing después se vio implicado en el desciframiento del sistema indicador naval alemán, un desarrollo ampliado de Enigma. Más adelante, en 1942 fue parte del equipo encargado de romper el código FISH de la armada nazi y puso algunas de las bases del ordenador Colossus, desarrollado por otro departamento militar inglés durante la guerra.

El que sería, sin proponérselo, soldado clave, en la Batalla de Inglaterra en 1940 y en el triunfo aliado final de 1945 había nacido en 1912. Desde su niñez se habían hecho evidentes sus aptitudes para la ciencia y las matemáticas, lo que sin embargo no deslumbró a sus profesores, más interesados en el estudio de los clásicos. Turing, sin embargo, siguió estudiando y trabajando matemáticas por su cuenta y llegó a entender y desarrollar planteamientos de Einstein cuando sólo tenía 16 años, concluyendo, algo que Einstein aún no había declarado abiertamente, que su trabajo en la relatividad desafiaba la universalidad de las leyes de Newton. Más adelante, como estudiante en el King’s College de Cambridge (fue rechazado en el Trinity College por sus malas notas en humanidades), reformuló algunos planteamientos del matemático Kurt Gödel y en 1936 planteó una máquina hipotética (la “máquina de Turing”), un dispositivo manipulador de símbolos que, pese a su simplicidad, puede adaptarse para simular la lógica de cualquier ordenador o máquina de cómputo que pudiera construirse o imaginarse, de modo que podría resolver todos los problemas que se le plantearan. La máquina de Turing abre la posibilidad de crear máquinas capaces de realizar computaciones complejas, idea que desarrolló más ampliamente en Princeton. Esta máquina imaginaria permitió responder a algunos problemas matemáticos y lógicos de su tiempo, pero sigue siendo hoy en día uno de los elementos de estudio fundamentales de la teoría informática, pues mucha de la informática de hoy surge de la nueva forma de algoritmos (procedimientos matemáticos de solución de problemas) derivados de la máquina de Turing.

Turing trabajó en proyectos criptográficos del gobierno británico y fue llamado a Bletchley apenas Alemania invadió Polonia en 1938. Durante la guerra, además de su trabajo criptográfico, Turing se ocupó de aprender electrónica. Terminada la guerra, en 1946 en el Laboratorio Nacional de Física de Gran Bretaña, presentó el primer diseño completo de un ordenador con programas almacenados, algo trivial hoy en día. Después de años de construcción, retrasos y sinsabores, el ordenador ACE de Turing fue construido y ejecutó su primer programa el 10 de mayo de 1950. A partir de entonces, Turing se ocupó de la matemática en la biología, interesándose sobre todo por los patrones naturales (como la concha del nautilus o las semillas de un girasol) que siguen los números de Fibonacci.

El brillante matemático, sin embargo, era homosexual en una época en que no había ninguna tolerancia a su condición sexual y en un momento y un país donde los actos homosexuales se perseguían como delitos y como una enfermedad mental. Después de que su casa fue robada por uno de sus compañeros sexuales en 1952, Turing admitió públicamente su homosexualidad y fue declarado culpable. Se le dio la opción, tratándose de un personaje de cierta relevancia, de ir a la cárcel o de someterse a un tratamiento de estrógenos para disminuir sus impulsos sexuales, opción ésta que eligió el genio. Debido a su homosexualidad, que se consideraba un riesgo, perdió además sus autorizaciones de seguridad y se le impidió seguir trabajando en la criptografía al servicio de Su Majestad.

Turing apareció muerto el 8 de junio de 1954, según todos los indicios a causa de su propia mano, aunque quedan algunas dudas sobre la posibilidad de un accidente o un menos probable asesinato. Aunque había sido condecorado con la Orden el Imperio Británico por su trabajo en la guerra, éste permaneció en secreto hasta la década de 1970, cuando empezó la reivindicación de su nombre. En 2001, en el parque Sackville de Manchester, se develó la primera estatua conmemorativa que lo resume: "Padre de la ciencia informática, matemático, lógico, quebrador de códigos en tiempos de guerra, víctima del prejuicio”.

La prueba de Turing

Habiéndose ocupado desde 1941 de la posibilidad de la inteligencia de las máquinas, lo que en 1956 pasaría a llamarse "inteligencia artificial", Turing consideró que no había ninguna prueba objetiva para determinar la inteligencia de una máquina, y diseñó la llamada “Prueba de Turing”. En ella, un evaluador mantiene conversaciones simultáneas mediante una pantalla de ordenador con una persona y con una máquina, sin saber cuál es cuál. Tanto la persona como la máquina intentan parecer humanos. Si el evaluador no puede distinguir de modo fiable cuál es la persona y cuál la máquina, ésta habrá pasado la prueba y se debe considerar "inteligente".

La medicina en la guerra de independencia

Conociendo los elementos a disposición de los médicos hace 200 años, podemos apreciar mejor la medicina que tenemos, pese a sus muchas limitaciones.

Quienes en 1808 decidieron levantarse contra los franceses en Madrid tenían poco qué esperar de los médicos de su entorno, no por la falta de patriotismo o de rechazo al ocupante por parte de la profesión médica, sino porque los avances que se estaban viviendo en las ciencias físicas y naturales no se reflejaban en la medicina, que seguía siendo un arte con poca efectividad pese a la innegable buena voluntad de los practicantes. Incluso el sueño de los enciclopedistas de integrar al ser humano al estudio de las ciencias naturales no llevaba todavía a cuestionar y reevaluar profundamente las teorías médicas. Aunque la descripción del cuerpo humano, su anatomía, había recibido un fuerte impulso desde el Renacimiento, el funcionamiento del mismo estaba aún en la oscuridad, y los medicamentos eficaces eran todavía un sueño.

Un médico de principios del siglo XIX atendía a sus pacientes sin lavarse las manos, ni siquiera después de manipular una herida en un paciente y pasar a otro, pues lo ignoraba todo acerca de los gérmenes patógenos. Aunque Anton van Leeuwenhoek ya había observado los “animalillos” o seres vivientes microscópicos a fines del siglo XVII, la conexión de éstos con las enfermedades infecciosas no se establecería sino hasta mediados del siglo XIX.

Según la teoría de los médicos de principios del siglo XIX, las enfermedades se transmitían por algún medio misterioso, como aires malévolos (que se prevenían colocando productos aromáticos en las ventanas y habitaciones, como el ajo), o eran de generación espontánea, afectando a alguno de los cuatro humores que se creía que componían al cuerpo. La medicina todavía sostenía que el cuerpo humano estaba lleno de cuatro “humores” o líquidos, la bilis negra, la bilis amarilla, la flema y la sangre. En un cuerpo sano, los cuatro humores estaban equilibrados, pero creían que alguno de ellos podía aumentar por contagio o de modo espontáneo, y que ese desequilibrio provocaba la enfermedad. La forma de tratar dicha enfermedad era, entonces, devolver el equilibrio humoral al cuerpo. Las sangrías (mediante cortes o con sanguijuelas) comunes en la medicina del siglo XVIII y hasta principios del XIX eran resultado de esta teoría.

Como los cuatro humores se relacionaban con los cuatro elementos que se creía que eran los esenciales del universo (cosa que, increíblemente, aún sostienen algunas personas que hablan de los “cuatro elementos” en lugar de los más de 115 que conocemos hoy (de los que 94 ocurren naturalmente y los demás son sintéticos), se desarrollaron alambicadas correlaciones, asegurando que las personas en las que predominaba un humor u otro se caracterizaban por rasgos físicos y emocionales claros. Esas creencias, carentes totalmente de bases en la realidad, se mantienen con la descripción que podemos hacer de los ingleses como “flemáticos”, que quiere decir persona con exceso de flema, que es por tanto tranquilo y poco dado a expresar emociones, mientras que las personas que se enfadan con facilidad son “coléricas” o “biliosas” por tener un exceso de bilis amarilla.

Esta visión tenía un referente social, como hoy lo tienen otras visiones médicas, como las infecciones graves, el cáncer o el Alzheimer, es decir, no se limitaba a la salud y la enfermedad. Los monarcas y los siervos se calificaban y valoraban según estos principios, y se actuaba en consecuencia, en todos los niveles, desde el jurídico hasta el económico.

Una habilidad caracterizaba a todo buen médico de la época, y era la capacidad quirúrgica, en particular la capacidad de realizar amputaciones con gran precisión y velocidad. Y el motivo era la falta de anestésicos y analgésicos. Recibir un disparo o un corte profundo durante una batalla podía conllevar tal destrucción de los huesos que no se podía esperar que soldaran naturalmente, y se amputaba el miembro, igual que cuando se presentaba una infección y gangrena que, sin antibióticos, sólo podía detenerse con la sierra y el cuchillo, por supuesto que sin desinfectar ni lavar desde la anterior amputación. Si el paciente era rico y poderoso, podía quizás contar con opio suficiente para calmar el dolor de la herida y paliar el de la amputación, pero que de no serlo apenas tenía como opción beber algo de alcohol, morder algo como una rama de árbol y someterse a que lo contuvieran los ayudantes del cirujano mientras éste trabajaba, mientras más rápido mejor. Y si la amputación se decidía poco después de la herida y se realizaba de inmediato, se contaba con ventajas como la insensibilidad relativa del miembro afectado y la constricción de los vasos sanguíneos, sabemos ahora que a causa del shock de la herida. Los cirujanos también podían atender los dientes, como en el caso de abscesos o extracciones, pero la habilidad y conocimientos anatómicos de los cirujanos no se podía aplicar en muchas formas sin los anestésicos y su utilización generalizada que vinieron a mediados del siglo XIX.

Finalmente, el médico de principios del siglo XIX no contaba tampoco con un estetoscopio, aunque ya podía aplicar las vacunas desarrolladas por Edward Jenner, que funcionaban sin que se supiera exactamente cómo. Entre su arsenal tenía dentaduras y varios miembros postizos, así como anteojos e incluso bifocales que le permitían ayudar a sus pacientes a recuperar una visión adecuada y útil. Pero por lo demás estaban solos ante la enfermedad, como los últimos médicos cuya vocación se veía frustrada por la falta de herramientas, conocimientos y teorías adecuados para cumplir su objetivo de conseguir “el bien de sus pacientes”, como reza el juramento hipocrático desde el siglo IV antes de nuestra era.

Pocos años en el futuro, los médicos, quizá incluso los que participaron muy jóvenes tratando de salvar vidas en el levantamiento de 1808, tendrían en sus manos la práctica antiséptica, la anestesia, la teoría de gérmenes, la jeringa hipodérmica, el estetoscopio y todo un arsenal nuevo, inimaginable en los hospitales de campaña de Madrid hace 200 años.

Las heridas de guerra

Más allá de la amputación, los médicos de 1808 disponían de otras armas para tratar las heridas sufridas en combate. Empleaban vendas con yeso para unir fuertemente los dos extremos de una herida rasgada, y las heridas más grandes se cosían con hilo de algodón o hecho de tendones. Las heridas muy profundas causadas por armas punzocortantes no podían tratarse directamente, de modo que la opción era dejarlas sangrar para que salieran la suciedad y otros cuerpos extraños, para lo cual a veces incluso se abrían más. Las balas de mosquete, cuando no producían heridas mortales, eran extraídas por el cirujano con los dedos, y cuando eran demasiado profundas para alcanzarlas, se les dejaba dentro del paciente.

Momias: mensajes del pasado

El hecho de que los seres humanos estemos conscientes de nuestra propia mortalidad, unido al natural, instintivo deseo de sobrevivir, ha convertido a las momias en una fuente continua de asombro, supersticiones, ideas religiosas y, apenas en los últimos 200 años, fuente de información obtenida científicamente sobre el pasado no sólo del individuo momificado, sino de su entorno, su sociedad y su cultura.

Una momia es todo cadáver humano que al paso del tiempo desde su fallecimiento no sufre, el proceso de descomposición habitual, sino que conserva, total o parcialmente, la piel y carne. Esto puede ocurrir debido a las condiciones naturales de la ubicación del cuerpo (lugares en extremo fríos, con muy bajos niveles de humedad o ausencia de oxígeno) o bien puede ser resultado de un proceso intencional mediante el cual se conserva el cuerpo. El proceso de momificación más conocido es, sin duda, el egipcio, que se desarrolló a lo largo de unos tres mil años generando una enorme cantidad de ejemplos de diversos niveles de complejidad (y eficiencia) en el proceso de conservación del cuerpo.

Pero las momias más antiguas no son las egipcias. Hay indicios de que los antiguos persas momificaban a sus príncipes, pero no pruebas. Sin embargo, las momias de mayor antigüedad son las de la cultura chinchorro del norte de Chile, que momificó a sus muertos durante dos mil años empezando al menos en el año 5.000 antes de nuestra era. La antigüedad de sus momias, según explica el Dr. Bernardo Arriaza, uno de los principales estudiosos de las momias chinchorro, ha hecho que se revaloren las ideas preconcebidas sobre el “simplismo” de la vida de las sociedades de cazadores-recolectores, que puede haber sido mucho más elaborada de lo que creíamos. Si tenemos en cuenta que, en la actualidad, en muchas culturas se utilizan técnicas de embalsamamiento de modo habitual, podemos decir que las prácticas de momificación que iniciaron los chinchorro hace 7 mil años siguen en vigor como parte de nuestra cultura.

Las momias chinchorro, al igual que las egipcias y algunas momias chinas, son ejemplos de momificación intencional, es decir, que sus sociedades realizaron un esfuerzo por conseguir que el cuerpo no se descompusiera, o al menos no del todo. Es razonable suponer que las prácticas de momificación artificial se dieran después de que en sus culturas se hubieran observado los efectos de la momificación natural producida por la extrema sequedad de los desiertos de Atacama en Chile o del Sahara en Egipto. La preservación de los cuerpos, fuente de asombro y de creencias religiosas en todas las culturas (pensemos en los “cuerpos incorruptos” que se adoran en el catolicismo moderno como expresiones de cercanía con la divinidad), impulsó el desarrollo de técnicas que consiguieran el mismo resultado. El uso de la sal llamada “natrón” por los egipcios, que desecaba rápida y eficientemente el cuerpo, así como la extracción de las vísceras (excepto el corazón, que se dejaba en su sitio por ser considerado el asiento del alma), fueron los elementos que definieron la técnica egipcia, iniciada alrededor del 3.300 a.n.e. y que se utilizó hasta el siglo VII de nuestra era, cuando Egipto pasó de manos del imperio bizantino a las de los árabes, iniciándose su período islámico.

Las momias, que antes se estudiaban abriéndolas con métodos altamente destructivos, hoy son estudiadas mediante radiografías, escáneres CAT y MRT, estudios de ADN obtenido de la médula de sus huesos o de la pulpa de sus dientes, y otros sistemas que, casi sin dañar a la momia, nos pueden dar más información sobre la persona, su entorno y su cultura. Uno de los mejores ejemplos de esta cosecha de datos lo aporta la momia conocida como Ötzi, la momia natural de un cazador de la era del cobre, alrededor del 3.300 a.n.e. encontrado en un glaciar de los Alpes en la frontera entre Austria e Italia. El estudio de su cuerpo, del polen que se encontraba en su ropa y utensilios, del esmalte de sus dientes, de sus muchos tatuajes y del contenido de su estómago han permitido a los paleoantropólogos dibujar un retrato muy preciso del hombre, de los lugares en los que vivió, de lo que comía, de sus creencias y cultura, e incluso de su muerte, provocada por una flecha que le fue disparada por la espalda y un fuerte golpe en la cabeza.

Otras momias naturales relevantes son las producidas por el enterramiento en suelos altamente alcalinos, en las estepas, o en turberas, donde los cuerpos se conservan de modo espectacular debido a la acidez del agua, el frío y la falta de oxígeno, que en conjunto “curten” la piel y tejidos suaves del cuerpo. Estos ejemplares, lanzados a las turberas como sacrificios o asesinados, según se ha determinado, se han encontrado sobre todo en el norte europeo y en Inglaterra. Quedan por mencionar los casos, algunos dudosos, de momificación espontánea de algunos monjes budistas chinos y japoneses, así como los cuerpos de personajes relevantes del catolicismo y al menos un yogui indostano. Desafortunadamente, las consideraciones religiosas y de los sentimientos de los fieles y los líderes religiosos hacen muy difícil el estudio de estos restos, máxime cuando ya ha habido casos en que la ciencia ha concluido que ciertos “cuerpos incorruptos” habían sido en realidad embalsamados o, incluso, eran figuras de cera que podían albergar en su interior los verdaderos restos, descompuestos, del individuo en cuestión.

En cierto sentido, el punto culminante de la momificación ha sido alcanzado con la plastinación, un proceso desarrollado por el médico alemán Gunther von Hagens mediante el cual el agua y los tejidos grasos del cuerpo son sustituidos por polímeros como la silicona y las resinas epóxicas. Von Hagens crea especímenes para ayudar en las clases de medicina, pero también ha entrado en controversia con sus exposiciones Body Worlds, que muestran cuerpos plastinados en actitudes de la vida cotidiana. Para Von Hagens, “la plastinación transforma el cuerpo, un objeto de duelo individual, en un objeto de reverencia, aprendizaje, iluminación y apreciación”. Sus cuerpos plastinados son toda una lección sobre nuestro cuerpo, ya no un intento de permanecer en otra vida.


La palabra “momia”

El vocablo “momia” nos fue legado del latín, que a su vez lo obtuvo de “mumiya”, vocablo de origen árabe o persa que significa “betún” o “bitumen” y que originalmente designaba a una sustancia negra, parecida al asfalto, de composición orgánica, que se obtenía en Persia y se creía que poseía poderes curativos. Debido al color negro que asume la piel de las momias egipcias, durante siglos se tuvo la creencia de que en su proceso de momificación se utilizaba precisamente betún. La creencia era incorrecta, pero la palabra permaneció.