Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Terraformación: ingeniería a nivel planetario

No podremos ocupar otros planetas usando trajes espaciales, por lo que si el ser humano quiere salir de su planeta cuna, tendrá que adaptar los otros planetas a sus necesidades.

La imaginación popular consideró durante un tiempo a los planetas de nuestro sistema solar como versiones más o menos desarrolladas del nuestro, con vida, probablemente vida inteligente, incluso civilizaciones, y la ciencia ficción primigenia y más ingenua utilizaba para sus fabulaciones a marcianos, venusinos o plutonianos. Pero la ciencia pronto descubrió que estos planetas eran poco hospitalarios: Marte no tenía ciudades, Venus no tenía selva y su capa de nubes, en lugar de agua, estaba formada por ácido sulfúrico; y Júpiter probablemente ni siquiera tenía tierra firme, pues se trata de un planeta formado casi enteramente de hidrógeno con un poco de helio.

Sin embargo, el sueño humano de expandir nuestra presencia como lo han soñado escritores y cineastas requiere de planetas viables donde se pueda desarrollar una vida humana en condiciones adecuadas. La respuesta a este problema también la tenía la ciencia ficción. En 1930, el escritor británico Olaf Stapledon, en su clásico Last and first men planteó la posibilidad de utilizar la ingeniería para alterar totalmente Venus, modificando su atmósfera para hacerla como la de la Tierra. Una década después, el estadounidense Jack Williamson creó la palabra: terraformación, "un proceso de ingeniería planetaria orientado a mejorar la capacidad de un entorno planetario extraterrestre de mantener vida", segun Martyn J. Fogg, del Grupo de Investigación en Probabilidades del Reino Unido.

¿Qué características debe tener un planeta para sustentar la vida? En su versión simple, requiere de una fuente de energía (una estrella, volcanes), amplias zonas con agua líquida y condiciones favorables para la formación de moléculas orgánicas complejas. La vida en nuestro planeta es altamente diversa y adaptable a condiciones muy extremas, y es muy probable que sea capaz de adaptaciones aún más asombrosas. El problema se presenta cuando lo que buscamos es sustentar la vida humana, porque para ella los requisitos se vuelven muchísimo más estrictos.

Para nosotros, la fuente de energía debe ser de luz, no nos basta el calor de la actividad volcánica, pero su composición debe ser tal que no contenga demasiados rayos UV ni rayos X que puedan ocasionarnos quemaduras o cáncer. Necesitamos, además, una atmósfera con una composición bastante precisa de hidrógeno y oxígeno, que nos permita respirar y que también sirva de escudo contra radiaciones peligrosas, y que no tenga ciertos elementos y sustancias que son venenosos para el humano. Aunque el agua líquida puede existir a entre 0 y 100 grados Celsius, el ser humano está hecho para vivir en un rango de temperaturas que no supere los 50 grados Celsius. El planeta en sí no puede tener una masa de mucho más del doble de la de la Tierra, puesto que en caso contrario su gravedad nos ocasionaría incomodidades y problemas de salud. El agua y la tierra, además, deben contener una serie de nutrientes en proporciones bastante definidas, y en ellos deben estar ausentes elementos y sustancias que resultan dañinos para nosotros. Éstos son solo algunos de los aspectos esenciales que debe reunir un planeta para que podamos vivir en él sin sustento externo o artificial.

La idea de la terraformación no sólo es propia de la ciencia ficción, aunque exigiría enormes capacidades para llevar elementos a un planeta, y unas capacidades técnicas y económicas de las cuales no disponemos todavía. Pero ello no ha impedido a muchos científicos y entusiastas plantearse en realidad la posibilidad de terraformar algún planeta, y el mejor candidato a mano es Marte.

La terraformación de Marte

Aunque para Carl Sagan el primer planeta candidato a la terraformación era Venus, la mayoría de los soñadores científicos y no científicos han puesto sus ojos en nuestro más cercano vecino, Marte, como el planeta más indicado para este esfuerzo que quizás algún día el ser humano pueda emprender. La posibilidad de la terraformación de Marte ha sido explorada con seriedad desde muy diversos puntos de vista, desde el químico y biológico hasta el legal y ético, por parte de diversos científicos, filósofos, estudiosos y simples entusiastas de la investigación espacial que creen sinceramente que el futuro del hombre se halla expandiéndose por otros planetas.

Así, el experto en astronáutica Robert M. Zubrin y el investigador del centro Ames de la NASA Christopher P. McKay han resumido los principales requisitos tecnológicos para terraformar al planeta rojo. Parten de la idea de que Marte tiene suficiente CO2 en sus rocas para crear una atmósfera, y proponen diversos sistemas para iniciar un ciclo de realimentación positiva en que el calentamiento de Marte libere CO2 y este gas, a su vez, ayude al calentamiento del planeta por medio del efecto invernadero para crear una atmósfera lo bastante densa. Un sistema es el uso de grandes espejos, de unos 200 kilómetros de diámetro, en órbita para calentar el polo sur marciano y liberar el CO2 atrapado en él. Otra opción es llevar a Marte asteroides con grandes cantidades de amoniaco y otros gases de invernadero. La tercera que se plantean es la producción de gases de invernadero en la superficie marciana por medio de fábricas construidas allí mismo. El segundo paso sería la oxigenación del planeta, urilizando medios industriales para crear bastante oxígeno para luego introducir plantas que puedan realizar la tarea propagándose sobre el suelo marciano hasta tener una atmósfera adecuada para los seres humanos.

Evidentemente, las propuestas serias de terraformación no son instantáneas y casi mágicas, como era la "bomba" llamada "Génesis" en una de las películas de Star Trek, sino asunto de décadas o siglos a lo largo de los cuales se cree una atmósfera adecuada, se siembre una variedad de vida vegetal y animal adecuada para los futuros colonizadores y se limpien las sustancias potencialmente dañinas. En el caso del ejercicio de Zubrin y McKay, sus cálculos indican que se podrían introducir animales avanzados unos 900 años después del inicio del trabajo de terraformación.

Y tratándose de la superviviencia de la especie y de la oportunidad de ocupar todo el universo, no parece tanto tiempo.

A pequeña escala

La "paraterraformación" es la posibilidad de crear ambientes similares a los de la Tierra únicamente en pequeñas zonas aisladas de otros planetas, como ciudades encerradas en domos o en sistemas de cavernas, posibilidades ampliamente exploradas por la ciencia ficción y en las que, sin embargo, la fragilidad de todo el sistema y su vulnerabilidad a cualquier perforación las convierten en una idea poco viable, pero visualmente poderosa.

La peste negra

Asoló Europa y cambió para siempre las relaciones económicas, la visión de la vida y la forma de ordenar la sociedad, además de convertirse en referente inevitable de la cultura occidental.

Durante buena parte de la Edad Media, Europa se vio asolada por disintas epidemias que hoy podemos identificar con cierta certeza, como el cólera, el tifus o la disentería, producto de las malas condiciones sanitarias en ciudades cada vez más superpobladas. Pero ninguna fue tan aterradora como la llamada "peste negra" o "muerte negra" una epidemia que se originó en China a principios de la década de 1330 y que llegó a Europa entrando por Italia en 1347. Se trataba de una enfermedad feroz, aterradora, sin explicación aparente, sin curación posible y con una tasa de mortalidad de prácticamente el 100%.

Durante los siguientes tres años, recorrió europa matando a entre 1/3 y 3/4 de la población europea, dependiendo del país y las condiciones de vida. En donde había concentrados grandes núcleos de población, la mortalidad fue mucho mayor, como en Inglaterra, que perdió al 70% de su población pasando de 7 millones de habitantes a sólo 2, mientras que los países del centro de Europa, menos superpoblados y con menos ciudades, tuvieron cifras mucho más bajas. A esta terrible pandemia siguieron otros brotes menores durante los tres siglos subsiguientes en distintos países, matando en total a más de 25 millones de personas.

La búsqueda de una solución a la mortalidad llevó primero que nada a la búsqueda de la causa. En la mentalidad de la época, un acontecimiento de este tipo sólo podía ocurrir si lo causaban Dios o el Diablo, de modo que las reacciones fueron desde los grupos de flagelantes que se desollaban las espaldas a latigazos para, con su dolor, lavar los pecados de la humanidad y apacigur a la deidad, hasta quienes identificaron como "agentes del demonio" a los chivos expiatorios habituales: los judíos, los extranjeros en general, los leprosos (entre los que se incluían no sólo quienes tienen la enfermedad que hoy llamamos lepra, sino personas con acné grave, psoriasis y otras afecciones de la piel) y los gitanos, entre otros. Persecuciones, destierros y muerte se reservaron a estos grupos en un intento desesperado por detener el avance mortal de la peste. Por su parte, en el mundo musulmán, que no fue imnune a la pandemia, con grandes mortandades en Siria y Palestina, se culpabilizó a los infieles. En algunas zonas de los Balcanes, se echó mano de la cultura popular y la peste se atribuyó a los vampiros, y para defenderse de ella se abrieron numerosas tumbas para rematar a sospechosos de vampirismo. También para controlar la epidemia se dictaron las más diversas disposiciones, desde echar de la población a los anfermos hasta poner en cuarentena los bienes y personas que llegaban por mar, como se hizo en Venecia, prohibir actos que pudieran enfadar a Dios (las apuestas, los burdeles y las maldiciones en Speyer, Alemania)

Los síntomas de la enfermedad en sí incluían fuertes fiebres, dolor de cabeza y articulaciones, náusea, vómitos y las terribles bubas que muestran los grabados. Se trata de una inflamación intensa de los nódulos linfáticos del cuello, las axilas y las ingles, que secretan pus y sangre. En las etapas finales, el sangrado subcutáneo provoca un ennegrecimiento de la piel que podría colaborar a dar su nombre a la enferemedad. La víctima muere generalmente entre 4 y 7 días después de la aparición de la infección. Los síntomas han hecho a los estudiosos modernos concluir que lo más probable es que la muerte negra fuera lo que hoy llamamos peste bubónica, una afección provocada por la bacteria Yersinia pestis que es transmitida por las pulgas que viven en las ratas. Aunque ésta sigue siendo la explicación más convincente, resulta insuficiente para algunos estudiosos, que identifican las características del contagio, y en especial su velocidad, con un virus antes que con una bacteria, además de observar hechos como el que la epidemia atacara Islandia cuando en esa época no había poblaciones de ratas en esa isla

El horror que provocaban estos terribles síntomas, y el hecho de que predecían la muerte segura, está documentado en los manuscritos y pinturas de la época, cuyo epítome es El triunfo de la muerte de Francesco Traini, pintado hacia 1350 y que puede verse hoy en Campo Santo, Pisa, y en la presencia continua que tiene en la cultura popular desde el Decamerón de Bocaccio hasta nuestros días con obras como La peste de Albert Camus, el relato "La máscara de la muerte roja" de Edgar Allan Poe o la película El séptimo sello de Ingmar Bergman.

Pero quizá la consecuencia más inesperada y menos conocida de la muerte negra fue el cambio que representó en la sociedad europea. La súbita despoblación representó un desequilibrio profundo para el sistema feudal, que de pronto se encontró con que no tenía mano de obra sobreabundante, y por tanto el costo de ésta se elevaba, la disponibilidad de más alimentos también representó el final de una larga época de hambre, o al menos desnutrición, permanente en una Europa superpoblada. El hecho de que fracasaran todas las plegarias de la iglesia, para detener la pandemia, todas las persecuciones de los señalados como culpables y que los clérigos cayeran víctimas de la enfermedad en la misma proporción que el resto de la población contribuyeron a que se debilitara el férreo control de la iglesia sobre la población europea. Según algunos estudiosos, también contribuyó el hecho de que fue necesario sustituir en poco tiempo a grandes cantidades de eclesiásticos por otros menos preparados y, con frecuencia, menos devotos. Incluso en un próximo libro, Adiós a las limosnas, el Dr. Gregory Clark, experto en historia de la economía de la Universidad de California, propone que la revolución industrial en sí fue ocasionada por un cambio en el comportamiento humano tal vez originado por la peste negra, como la exaltación de la no-violencia, el acceso a la lectura y el hábito del ahorro. Así, en más de un sentido, la peste negra dio forma al mundo tal como lo conocemos hoy.

La conexión con el SIDA

Un 10% de la población europea es resistente al virus de la inmunodeficiencia humana (VIH) debido a una mutación genética llamada "CCR5-delta 32". Esta mutación está mucho más presente entre la población escandinava y tiene niveles relativamente bajos en las costas del Mediterráneo. Una posible explicación a por qué tal mutación está tan extendida si el VIH no pudo haber jugado un papel en la selección de personas resistentes fue propuesta por un grupo de biólogos de la Universidad de Liverpool, que hallaron indicaciones de que las plagas medievales, especialmente la Peste Negra de 1347, habrían ayudado a elevar la frecuencia de la mutación, si resultara que la muerte negra fue una afección viral y no peste bubónica.

Copérnico, el fundador

La historia de la investigación sobre el mundo en el que vivimos, su forma y su lugar en el universo, está plagada de ideas inexactas y concepciones extraídas de una visión general poco informada. Así, es conocida la idea de que la esfericidad de nuestro planeta era rechazada por los académicos europeos hasta Cristóbal Colón o, cuando menos, hasta el viaje de circunnavegación de Fernando de Magallanes. En realidad, la disputa de los académicos con Colón no era sobre la esfericidad de la Tierra, que todos aceptaban, sino que, según los cálculos de Eratóstenes, la Tierra tenía unos 40 mil kilómetros de circunferencia y ello hacía inviable un viaje de Europa a Asia por mar. Colón, por su parte, sostenía la convicción de que la Tierra era mucho más pequeña. Así, los críticos de su proyecto tenían razón, y Colón estaba equivocado, pero este detalle pocas veces se menciona en las escuelas y prácticamente nunca en el cine o la televisión.

Del mismo modo, existe la idea de que el libro que consolídó la idea de un sistema solar heliocéntrico, De revolutionibus orbium coelestium (Sobre las revoluciones de los orbes celestes) ocasionó un tsunami académico cuando se publicó en 1543, el año de la muerte de su autor, Nicolás Copérnico. Pero no fue así, el libro (presentado en su prólogo como una "mera hipótesis" y astutamente dedicado al Papa Paulo III) pasó prácticamente inadvertido durante casi sesenta años antes de participar en el terremoto del conocimiento que disparó la revolución que consagró a la ciencia como método para conocer, entender, explicar e incluso manipular el universo que nos rodea.

Quizá el silencio que rodeó a su libro habría sido del agrado del propio Copérnico, amante de pasar inadvertido, introvertido y reacio a debates como el que hasta hoy provocan sus ideas, pues al momento de escribir estas líneas, el artículo sobre Copérnico en la versión en inglés enciclopedia de Internet Wikipedia está bloqueado para impedir que grupos astrológicos, creacionistas, literalistas bíblicos y otros lo usen como campo de batalla para una guerra de promoción de sus propias ideas, prejuicios y creencias alrededor de uno de los grandes genios: el fundador de la astronomía moderna

Nicolás Copérnico nació en 1473 en Torun, Polonia, y aunque en general se le considera un astrónomo polaco, no faltan quienes lo quieren considerar alemán dados los conflictos fronterizos de la época. Estudió latín, matemáticas, astronomía, filosofía y óptica en la Academia de Cracovia y después, en Padua y Bolonia, en Italia, derecho canónico y medicina, lo que le permitió, a la vuelta a su tierra natal, el acceso a diversos puestos eclesiásticos, administrativos y políticos, además de su pasatiempo de traducir poesía griega al latín. Como canónigo en Frauemburg (Frombork) realizó una serie de observaciones astronómicas a ojo desnudo (el telescopio no estaría a disposición de los astrónomos sino hasta medio siglo después de la muerte de Copérnico) y en 1514 escribió y distribuyó entre sus amigos, en forma manuscrita, un pequeño libro, Commentariolus (Pequeño comentario) en el cual establecía algunas de sus ideas esenciales, principalmente que el centro de la Tierra no era el centro del universo, que el centro del universo estaba cerca del sol, que la distancia de la Tierra al sol era imperceptible comparada con la distancia a las estrellas, que el ciclo anual aparente de los movimientos del sol está causado por el movimiento de la Tierra a su alrededor y que el movimiento retrógrado que parecen tener los planetas es resultado del movimiento de la Tierra desde donde uno los observa.

No era Copérnico, ni con mucho, el primero en considerar la idea, que parecer ir contra la observación simple de los hechos, de que la Tierra giraba alrededor del sol. Algunos de los libros védicos hindús ya se plantean que el universo es heliocéntrico (tiene su centro en el sol). En la antigua Grecia, Heráclides de Ponto, Aristarco de Samos y el propio Eratóstenes, el hombre que midió la circunferencia de la Tierra en el siglo III antes de nuestra era, consideraban correcta la visión heliocéntrica. Lo mismo ocurrió en la Babilonia de los Seléucidas, en la que el astrónomo Seleucio de Seleucia retomó, e incluso se dice que probó, los planteamientos de Aristarco. Y en la Europa Medieval ya había ideas heliocéntricas antes de Copérnico.

Así, las ideas desarrolladas por Copérnico a partir de su "pequeño comentario" y que derivaron en el libro Sobre las revoluciones de los orbes celestes eran especiales no por su originalidad, sino por algo mucho más importante: porque más que ideas eran una cosmovisión formada por una sólida base matemática, la base que haría que Galileo, con una personalidad distinta, quizá más combativa, afirmara que la propuesta heliocéntrica no era "sólo una hipótesis", sino la única explicación posible a la realidad tal como la vemos.

Copérnico quizá nunca habría publicado su libro a no ser por la insistencia de Georg Joachim Rheticus, matemático alemán y tardío discípulo de Copérnico que lo impulsó a publicar, incluso resumiendo él en un libro las principales ideas de su maestro para mostrarle la buena acogida que tenían sus novedosas ideas. El libro fue enviado para su impresión a Nüremberg, y se publicó el año de la muerte de Copérnico. La leyenda dice que el genio polaco alcanzó a ver un ejemplar antes de morir.

El libro, pues, no fue retirado por la iglesia al triste Índice de Libros Prohibidos sino hasta 1616, en medio del escándalo de Galileo. Una serie de pasajes que hablaban del sistema heliocéntrico como una certeza fueron cambiados por una serie de autores aprobados por la iglesia, después de lo cual se permitió su vuelta a la circulación en 1620, aunque nunca se reimprimió y su lectura estuvo sujeta a restricciones hasta 1758.

Renovar el calendario

Para 1513, el calendario juliano ya tenía un importante desfase respecto de la realidad de las estaciones, de modo que el Quinto Concilio Laterano se propuso mejorar el calendario y el Papa reinante buscó la ayuda de varios expertos, entre ellos Copérnico, que ya era reconocido como un brillante astrónomo. A diferencia de otros, que se pusieron de inmediato en camino a Roma para hablar ante el concilio, Copérnico respondió por carta con una propuesta para la reforma del calendario indicando que no tenía más qué aportar a las discusiones porque consideraba que el movimiento de los cuerpos celestes aún no se entendía con bastante precisión. Cuando en 1582 Gregorio XIII promulgó finalmente las reformas al calendario, éstas se hicieron con ayuda de las tablas astronómicas realizadas por Erasmus Reinhold con base en los parámetros matemáticos descubiertos por Copérnico.

Dormir o enfermar

La falta de sueño, voluntaria e involuntaria, tiene efectos más profundos y duraderos de los que se suponía, como una de las necesidades esenciales del cuerpo humano.

"La siesta", de Vincent Van Gogh, 1890.
(Dominio Público, vía Wikimedia Commons)
Una de las imágenes más poderosas para entender la importancia del sueño es la de un soldado durmiendo en medio de una batalla, con su vida en peligro, como se puede ver en los conflictos bélicos, o simplemente quedarse dormido al volante, cuando uno sabe que su atención es fundamental para no sufrir un accidente que le puede costar la vida.

El sueño es una necesidad esencial, e incluso antes de que el método científico se utilizara para conocer los efectos de la privación de sueño, se consideraba que la falta de sueño era perjudicial para el carácter y la salud. Sin embargo, inventos como la luz eléctrica han alterado irreversiblemente nuestros patrones de sueño y nuestro reloj biológico, que ya no está regulado por el ciclo luz-oscuridad del día y la noche. Nuestro reloj biológico se llama "circadiano" porque tiene una duración cercana a la del día de 24 horas, pero no es exacto. Para "ponerse en hora", nuestro cuerpo requiere de elemento llamados "sincronizadores", el más importante de los cuales es el ciclo día-noche, siendo otros mecánicos como los relojes o sociales como la hora de comer o de entrar al trabajo o a la escuela. Diversos experimentos realizados en personas a las que se aísla de los sincronizadores, por ejemplo en cavernas donde no tienen ningún indicio de qué hora es en la superficie, han demostrado que más tarde o más temprano se presenta una desincronización en la cual el cuerpo abandona el ciclo de 24 horas y asume otros, que pueden ser desde 12 hasta 72 horas, aunque en general el ciclo entre dos períodos de sueño tiende a hacerse mayor a las 24 horas originales.

Así, en general podría decirse que los seres humanos del mundo moderno tenemos ciclos de sueño artificiales, en los que dormimos menos de lo necesario aunque no padezcamos insomnio, donde para despertarnos necesitamos de máquinas que hagan ruido (en ocasiones estridente e insistente), a lo que se debe sumar a todas las personas que tienen problemas de falta de sueño. Esta falta de sueño puede tener dos formas. La más conocida es la de no poder conciliar el sueño o no poder dormir el tiempo suficiente, es decir, el insomnio. Pero también puede ser el sueño de mala calidad, es decir, un sueño en el que no haya suficientes períodos de ensoñación (los sueños en sí) o en el que falten o estén alteradas algunas de sus etapas o el ciclo en el que se suceden a lo largo de una noche.

El sueño normal tiene al menos cinco etapas, 1, la de somnolencia, 2 la de sueño ligero, 3 y 4 las dos de sueño profundo en las que el cerebro muestra ondas lentas y la etapa 5 o de sueño REM (siglas en inglés de "movimiento rápido de los ojos", asociado a las ensoñaciones). Un ciclo de sueño está formado siguiendo el patrón de etapas 1, 2, 3, 4, 3, 2, 5. Las etapas no REM pueden durar entre 90n y 120 minutos, mientras que la etapa 5 dura cada vez más conforme se repiten los ciclos, empezando con una duración de unos 10 minutos que puede llegar a una hora en el último ciclo. Habitualmente, en una noche de sueño podemos recorrer este ciclo en cinco ocasiones.

Y los efectos de un sueño insuficiente en calidad o en cantidad pueden ser graves. Así, los estudiosos hablan de efectos graves en el juicio que pueden afectar nuestro proceso de toma de decisiones (y una tendencia mayor a asumir riesgos injustificados), un rendimiento inadecuado en la escuela, el trabajo y los deportes; mala coordinación, tiempo de reacción aumentado y disminución de las capacidades psicomotoras; problemas de memoria, concentración, capacidad de aprendizaje, ansiedad, depresión y otros problemas emocionales. Un panorama verdaderamente preocupante que, con frecuencia, atribuímos a otras causas sin darnos cuenta de que todo puede tener su origen en esas dos horas de sueño que le hemos robado a las últimas noches.

Y la información sigue apareciendo a gran velocidad. Hace unos años, un grupo de investigadores de Australia y Nueva Zelanda realizaron una serie de estudios según los cuales las personas que conducían después de estar despiertos durante entre 17 y 19 horas mostraban un peor desempeño al volante que las personas que tenían un nivel de alcohol de 0,05%, que es el límite legal para conducir en la mayoría de los países europeos (en Estados Unidos es el doble en la mayoría de los estados). Según ese estudio, entre el 16 y el 60% de los accidentes analizados implicaban la privación de sueño en alguno de los conductores. Hace pocas semanas se publicó un estudio de un grupo de investigadores noruegos que confirma que el insomnio crónico puede llevar a la ansiedad y la depresión. Hace unos meses, un equipo de la Universidad Estatal de Florida advirtió que los problemas de sueño están relacionados con un mayor riesgo de suicidio entre personas mayores, como resultado de un estudio con más de 14.000 personas a lo largo de 10 años. En este caso, sin establecer una relación causal (es decir, sin sugerir que los problemas de sueño sean el motivo de la mayor tasa de suicidios), han recomendado que los médicos tomen la falta de sueño de sus pacientes mayores como una advertencia de un riesgo aumentado que debe tenerse en cuenta. En junio, otro estudio de laboratorio en la Universidad de Pennsylvania indicaba que la falta de sueño crónica aumenta el riesgo de enfermedades cardiovasculares.

Quienes padecen formas patológicas del insomnio deben, por supuesto, acudir a un médico. Pero las personas comunes que tengan una "deuda de sueño" pueden acudir a algunas de las recomendaciones de los expertos, entre ellas: tener horas regulares para ir a la cama y para levantarse, incluso en fines de semana; desarrollar rituales relajantes para la hora de ir a la cama, disminuir el consumo de alcohol, cafeína y nicotina; no comer menos de dos o tres horas antes de ir a la cama, reservar el dormitorio para el sueño y el sexo (eliminando de él, por ejemplo, el televisor), darse un baño caliente para inducir una disminución en la temperatura corporal (que, a su vez, provoca somnolencia) y no hacer ejercicio en la noche, sino por la mañana.

¿Cuánto tiempo dormir?

La respuesta a esta pregunta depende, como muchas cosas, de cada persona, y la variación entre individuos es muy grande. De modo que, si usted se siente bien durmiendo mucho menos o mucho más de lo que indican las tablas de promedios, no tiene por qué preocuparse. Igualmente, aunque suele decirse que las personas mayores necesitan dormir menos que cuando eran adultos más jóvenes, esto no es forzosamente cierto, y necesitar tanto sueño (o más) que los adultos de mediana edad no debe ser motivo de preocupación.

Hatshepsut y las mujeres del antiguo Egipto

El anuncio de la identificación de la momia de la poderosa reina Hatshepsut pone de nuevo de relieve el singular papel de las mujeres en la historia egipcia.

Hace 3.500 años reinó en Egipto Ma'at-ka-Ra Hatshepsut, hija de Tutmoses I y esposa de su propio medio hermano, Tutmoses II. Durante veinte años, fue estrictamente "faraón" de Egipto, a la par de cualquier hombre que hubiera ocupado el trono antes y después de ella. Habiendo asumido la regencia a nombre de Tutmoses III, hijo de Tutmoses II y otra de sus esposas, siete años después se proclamó faraón, y mantuvo su reinado varios años más, en cierto modo usurpando al hijo de su fallecido esposo, hasta su muerte, cuando Tutmoses III se convirtió en un importante soberano egipcio. Sin embargo, si hubo amargura en Tutmoses III no se hizo evidente sino hasta cuatro décadas después, cuando mandó destruir o mutilar todas las representaciones de su madrastra, así como el nombre de Hatshepsut de todas las inscripciones que la mencionaban. El rastro de la singular mujer se perdió entonces del todo hasta que, en junio de 2007, el Secretario General del Consejo Supremo de Antigüedades, el arqueólogo Zahi Hawass, anunció que se había podido identificar con certeza la momia de la reina.

Los restos de la mujer más poderosa del antiguo Egipto son una momia hallada en 1903 por Howard Carter, que más adelante sería el descubridor de la tumba de Tutankhamón, pero que no había sido identificada con certeza. La reina había sido hallada en la tumba de su nodriza, la KV60, mientras que la tumba oficial de Hatshepsut había sido hallada vacía. La nodriza fue llevada a El Cairo y la tumba con la que hoy sabemos que era la más famosa reina egipcia antes de Cleopatra se volvió a cerrar hasta 1989, cuando la reabrió el arqueólogo Donald Ryan, a quien le llamó la atención que la momia estuviera en una pose reservada a la realeza, con un brazo cruzado sobre el pecho, y que hubiera los restos de un sarcófago con muestras de haber estado cubierto de oro, entre otras pistas.

Pero no fue sino hasta ahora que se pudo establecer sin género de dudas la identidad de la mítica reina. Las pruebas que ha ofrecido el equipo de Hawass son fundamentalmente dos. La primera, la momia tiene un molar roto conservando una de las raíces, y coincidía perfectamente con un molar hallado en una caja con el nombre de la soberana y que también contenía un hígado embalsamado, según se pudo determinar con una serie de tomografías axiales computerizadas o escáneres de la momia. Finalmente, se tomaron muestras de ADN de la momia bien identificada de la abuela de Hatshepsut y se compararon con el ADN de un total de cuatro momias que, según Hawass, tenían características que podrían identificarlas como Hatshepsut. Las pistas llevaron a la momia de esta mujer, que falleció alrededor de los 50 años de edad, tremendamente obesa, con los dientes muy deteriorados y víctima de cáncer en los huesos, no de un complot de asesinato por parte de su sucesor, como durante mucho tiempo creyeron algunos estudiosos.

Si bien antes y después de Hatshepsut hubo soberanas en Egipto, lo que distinguió a esta reina fue el que asumiera totalmente el papel de faraón como hombre, usando ropa masculina y la larga barba ceremonial de madera, y haciendo que se hablara de ella alternativamente como hombre y como mujer, y que se le representara como un faraón más.

La mujer en Egipto, al menos en las clases dirigentes, tenía en general una posición muy superior a la que estaba destinada a ellas en otras culturas, pues aunque se consideraba indudablemente que la cabeza del hogar era el hombre, la mujer era totalmente igual a él ante la ley, en cuanto a derechos así como en cuanto a responsabilidades. Mientras otras mujeres en las grandes civilizaciones originarias vivían bajo distintos grados de opresión, en el antiguo Egipto las mujeres podían poseer tierras, obtener préstamos, firmar contratos, iniciar un proceso de divorcio, recibir herencia de sus familiares e incluso defenderse ante los tribunales. Todo ello además de ser la responsable del gobierno de la casa y de ocuparse de la descendencia de la familia.

En el mundo de la religión, esencial para la vida social, política y económica del antiguo Egipto, la mujer jugaba un papel de gran importancia, como sacerdotisas u oficiantes en diversas ceremonias, interpretando música y ostentando títulos relacionados con los dioses, de modo cambiante a lo largo de la historia. Pero la esencia de lo femenino estaba también incorporada, de modo importante, en la enorme cantidad de diosas de su panteón, como la enigmática Hathor, diosa del cielo nocturno; Neith, diosa del principio, el más allá y el final, e Isis la escribana de los dioses.

Pero lo que denominamos el "antiguo Egipto" es una sucesión histórica de 3.500 años, desde las primeras dinastías hasta la muerte de Cleopatra e incluso la dominación romana, y en un lapso de tiempo tan prolongado hubo constantes cambios y una evolución a la que no hace justicia nuestra visión estática de un Egipto igual a lo largo de toda su historia. Pero las peculiaridades de Egipto las destacan los informes que recibimos de otras culturas. Para Herodoto, por ejemplo, es notable que las mujeres vayan al mercado y comercien mientras que los hombres se quedan en casa y tejen, y en general los atenienses veían con desconfianza la libertad de las mujeres egipcias, especialmente si habían llegado a regir el reino, cosa inimaginable en la Grecia clásica.

En ese entorno singular para las mujeres, Hatshepsut reinó, levantó obeliscos como su padre, reparó templos, construyó un singular templo mortuorio en Deir el-Bahri, que aún hoy puede visitarse, condujo a sus ejércitos en algunas campañas en Nubia y envió una expedición comercial a la legendaria Tierra de Punt (probablemente en lo que hoy es Somalia) antes de morir y dejar que finalmente ascendiera al trono su hijastro, quedando como una momia anónima hasta ahora.

Las otras soberanas

Como reinas o regentes, o como equivalentes a faraones, aunque sólo Hatshepsut asumió el título, puede haber gobernado Egipto una docena de mujeres: Merytneith, de la primera dinastía, alrededor del 3.000 antes de nuestra era, enterrada con los honores de los reyes; Nimaethap, reina madre de Djoser en la tercera dinastía; Khentkaus, madre de dos reyes en la cuarta dinastía y posible regente; la anónima esposa de Djedkare-Izezi, de la quinta dinastía; Ankhnesmeryre, probable regente de su hijo Pepi II en la sexta dinastía; Nitocris, al final también de la sexta dinastía; Sobeknefru, soberana en la décimosegunda dinastía; Ashotep, de la décimooctava dinastía; Nefertiti, posible reina a la muerte de su esposo Akhenaton; Tausret, regente de su hijo en la décimonovena dinastía, y Cleopatra VII, la última de los Ptolomeos.

Cuando fallan las buenas intenciones

Incluso en una actividad tan noble como la conservación medioambiental es posible ir demasiado lejos o caer en errores por no tener muy claros todos los elementos que influyen en el equilibrio de la vida.

En algunos lugares, los esfuerzos por la conservación han tenido, sin duda alguna, un gran éxito. En ciertas zonas de África, por ejemplo, la prohibición del comercio del marfil y la persecución de la caza furtiva han logrado evitar la desaparición del elefante y recuperar sus números, al grado de que hoy hay problemas de sobrepoblación de estos animales, que llegan a invadir los campos cultivados en los alrededores de las reservas naturales en busca de alimento, luego de agotar otros recursos como los árboles de los que se alimentan, lo que a su vez lleva a la desaparición de las especies que viven en las zonas boscosas conforme los elefantes las deforestan. Así, por ejemplo, en Sudáfrica, el sacrificio de elefantes se detuvo en 1994, y sólo 10 años después la población de elefantes se había duplicado en el Parque Kruger, obligando a los responsables a buscar soluciones al nuevo problema. Llevar a los elefantes a otras zonas es una opción cada vez más limitada por falta de espacio, y se trabaja en busca de métodos anticonceptivos eficaces y viables. Lo más asombroso, quizá, es que la reintroducción del sacrificio selectivo de elefantes, en la forma de la odiada cacería, se ha convertido en una forma de ayudar a la conservación en algunos países. Así, en Namibia se llevan a cabo unas pocas cacerías permitidas al año (12 en 2005) cobrando elevadas sumas que se utilizan para financiar los esfuerzos de conservación.

La lucha por la defensa de la biodiversidad, la conservación del medio ambiente y un adecuado equilibrio ecológico se ha encontrado con problemas surgidos, en parte, de la falta de comprensión de cómo un elemento afecta a todos los demás en el entramado de la vida, y cómo cualquier acción humana, incluso las que están motivadas por las mejores intenciones, tiene efectos profundos en el tejido ecológico. En otros casos, organizaciones como el Congreso por la Igualdad Racial de Uganda en voz de su coordinadora Fiona Kobusingye, luchan contra la prohibición de sustancias como el DDT, considerando que su uso es indispensable para salvar vidas, considerando los riesgos, los posibles daños y los probables beneficios de su reintroducción en el mercado con las salvaguardas adecuadas.

Los errores cometidos con buenas intenciones, como el que ha llevado a la sobrepoblación de elefantes, no son mejores que los cometidos desde la ignorancia, como la introducción de especies en ambientes nuevos, de la que hay amplios ejemplos con los intercambios producidos a raíz de los viajes entre continentes antes aislados, como Europa, América y Australia. Según algunos ecologistas, sin embargo, esos errores no suelen ser catastróficos debido a que el equilibrio ecológico es mucho más dinámico y flexible de lo que se creía, y que los ecosistemas no se colapsan, sino que simplemente cambian adaptándose. Algunos consideran, sin embargo, que la información al respecto no debe difundirse ante el riesgo de que sea utilizada por organizaciones y gobiernos para quitarle importancia a la necesidad de la conservación de hábitats y la atención al equilibrio ecológico.

Sin embargo, algunos hechos han despertado en muchos ecologistas la necesidad de reevaluar sus visiones. Un ejemplo es la Montaña Verde de Ascensión, una isla volcánica en el medio del océano Atlántico, que fue descrita por Darwin en 1836 como zona totalmente desprovista de árboles, y con sólo 20 especies de plantas. Siete años después, el gobierno británico se propuso darle vida a la isla plantando en ella árboles de Argentina, Sudáfrica y los Jardines Botánicos Reales de Kew. Esta mezcla descoordinada y sin bases biológicas de tan variadas especies no debería haber tenido éxito si los sistemas ecológicos complejos surgen, según la idea tradicional, gracias a la evolución de distintos organismos vegetales y animales que van llenando los nichos ecológicos disponibles. Pero a contracorriente de esa idea, a inicios del siglo XX las laderas de la montaña estaban cubiertas de una extraña mezcla de guayaba, plátanos, gengibre salvaje, eucalipto y bambú, entre otras especies, formando una selva tropical clásica.

Ecologistas como David Wilkinson, de la Universidad John Moores de Liverpool, habla de "ajuste ecológico", un proceso mediante el cual las especies no evolucionan para crear ecosistemas, sino que parten de lo que hay disponible para crearlos, de modo que se puede hacer surgir una selva tropical en un siglo, cuando se creía que un proceso así tomaría miles de años de coevolución de las especies implicadas.

A ojos de algunos, estos hechos son una advertencia sobre lo mucho que nos falta saber sobre el medio ambiente y la ecología, sobre todo para determinar si debemos intervenir en favor del medio ambiente para conservar el equilibrio tal como está hoy, o si bien debemos hacerlo en términos de un equilibrio dinámico y cambiante, aceptando que toda la naturaleza ha estado en permanente transformación, pero sin que ello sea justificación para atropellos ecológicos. La tarea está en el terreno de la biología, las matemáticas, y otras ciencias que están aún formando la disciplina de la ecología.

Según algunos, sobre todo, la ciencia detrás de todas las consideraciones ecológicas debe, ante todo, llevarse a cabo fuera del terreno político donde hoy suelen debatirse, con más pasión que información precisa, los más diversos temas relativos a la ecología, como el cambio climático o la conservación de algunas especies, temas que mueven nuestras pasiones pero para los cuales son mejores las respuestas científicas que las meramente emocionales.

El caso del DDT

El DDT, utilizado masivamente y sin controles desde el inicio de la Segunda Guerra Mundial hasta la década de 1960, fue objeto de una importante campaña de denuncia sobre su toxicidad y lo speligros de su uso indiscriminado en la agricultura. El libro de 1962 La primavera silenciosa de Rachel Carson se constituyó en una advertencia tan contundente que en poco tiempo se prohibió el uso del DDT en Estados Unidos y, para la década de 1980, en prácticamente todo el mundo. Sin embargo, el tiempo ha demostrado que, por una parte, utilizado con las salvaguardas correspondientes, el DDT no es más dañino que otros pesticidas, y además que sigue siendo la mejor arma para controlar la población de mosquitos que son los vectores de la malaria. Por fin, en septiembre de 2006, la OMS anunció que el DDT sería utilizado como una de las tres principales armas contra esta enfermedad, responsable de entre uno y tres millones de muertes al año, principalmente en África.

La enfermedad de Parkinson: 190 años de interrogantes

Considerada en el pasado una afección propia de la edad, la enfermedad de Parkinson sigue teniendo orígenes fundamentalmente misteriosos, pero también es motivo de fundada esperanza.

En 1817, el médico, geólogo, paleontólgo y pensador político británico James Parkinson publicó su Ensayo sobre la parálisis agitante, donde reunía información histórica sobre diversos síntomas que, en su conjunto, identificaban a una enfermedad concreta, una entidad clínica que él llamó, precisamente, parálisis temblorosa o agitante y que hoy conocemos como Enfermedad de Parkinson, una de las afecciones neurológicas más conocidas del siglo XX. La descripción de Parkinson era: "Movilidad involuntaria temblorosa, con disminución de la fuerza muscular, en partes del cuerpo que están en reposo. Hay tendencia a inclinar el tronco adelante y a que el paseo se convierta de pronto en carrera. No se afectan los sentidos o la inteligencia". Más adelante, los médicos reconocerían la la rigidez y algunos trastornos cognoscitivos como parte del cuadro sintomático del Parkinson.

Habrían de pasar más de 100 años para que, en 1919, C. Tretiakoff descubriera que la enfermedad de Parkinson se debía a la pérdida de células cerebrales, en particular de la llamada "sustancia nigra", una pequeña zona de la parte alta del tronco cerebral, encargadas de la producción de la dopamina, uno de los principales neurotransmisores que interviene en el movimiento, la cognición, el comportamiento, la motivación y el mecanismo de recompensas, el cerebro, el humor, la atención, el aprendizaje y la producción de leche en las madres lactantes.

Pero ni Parkinson ni Tretiakoff, ni nadie ha podido descubrir la causa de esta pérdida de neuronas en la mayoría de los casos de esta enfermedad, que tiene casi tantas expresiones como pacientes, con un desarrollo sumamente individualizado. Se han identificado 13 mutaciones genéticas responsables de un pequeño porcentaje de casos de Parkinson, como el caso del pueblo de Contursi Terme, en Italia, que se dio a conocer en 1997 por la alta incidencia de Parkinson entre sus habitantes. Igualmente, la sensibilidad a ciertas toxinas medioambientales, como el manganeso o el hierro, algunos traumatismos craneoencefálicos y el uso de algunos medicamentos antipsicóticos pueden desencadenar la enfermedad. Pero estas causas no suman sino una pequeñísima minoría ante la enorme cantidad de casos en los que la causa es desconocida. Y aunque se trata en general de una enfermedad de gente mayor, presentándose en promedio a los 60 años, entre 5 y 10% de los pacientes la empiezan a sufrir hacia los 40 años y puede presentarse incluso antes.

Los temblores de los miembros en reposo son el síntoma más conocido de la enfermedad de Parkinson,alrededor del 30% de los pacientes de Parkinson casi no tienen temblores perceptibles. Otros síntomas comunes son la rigidez de algunos músculos debido a un tono muscular incrementado, la lentitud o falta de capacidad para realizar ciertos movimientos repetitivos o alternos, y el fallo de los reflejos de la postura, que afecta al equilibrio. Junto a estos síntomas, hay otros muchos que pueden o no presentarse, como el caminar con pasos cortos, la postura inclinada hacia el frente, contracciones de los músculos de pies y tobillos, disminución del volumen y riqueza tonal del habla, babeo, problemas para la deglución, fatiga y otros muchos, incluyendo problemas de humor, alteraciones del sueño, problemas con las sensaciones y otros desórdenes.

La enfermedad de Parkinson no puede detectarse mediante pruebas de sangre o de laboratorio, los llamados "biomarcadores", de modo que el diagnóstico depende de la capacidad del médico y su conocimiento del historial del paciente, y la utilización de una escala unificada de puntuación para detectar la afección. Y sin embargo, sí tiene un tratamiento biológico, aunque éste debe de ir acompañado de educación para el paciente y su familia, servicios de grupos de apoyo, ejercicio y administración nutricional. El tratamiento más común es la administración de la levodopa o L-dopa, un precursos químico que las neuronas pueden convertir en dopamina para paliar la escasez de esta sustancia en el sistema nervioso, aunque debido a las formas en que el cuerpo metaboliza la L-dopa, el tratamiento pierde efectividad al paso del tiempo, hasta llegar a ser contraproducente. Para mejorar los efectos y la duración del tratamiento con L-dopa, se utilizan otras sustancias que evitan que ésta se metabolice fuera del sistema nervioso, que prolongan sus efectos, que activan los receptores de dopamina o que ayudan a que el tratamiento sea efectivo durante más tiempo.

La multitud de efectos secundarios que producen todas las sustancias empleadas hasta hoy en el tratamiento de la enfermedad de Parkinson ha motivado la búsqueda de otras opciones, como la cirugía, que se utiliza para implantar un marcapasos cerebral encargado de realizar una estimulación profunda del cerebro que puede reducir los temblores de la afección. Se ha intentado igualmente la implantación de células suprarrenales en el cerebro. Igualmente, se investiga en el terreno de la terapia genética, y en junio de este año un equipo del Hospital Presbiteriano de Nueva York y del Centro Médico de Cornell informó que había realizado la primera prueba clínica completa de fase 1 de una terapia genética para el tratamiento del Parkinson.

En esta terapia, se inyecta en el cerebro de los pacientes un virus inocuo que lleva un gen encargado de la producción del ácido glutámico decarboxilasa o GAD, que produce un neurotransmisor que "silencia" los disparos neuronales excesivos. Sin ocasionar ningún problema de seguridad o efectos secundarios indeseables, el procedimiento logró que los 12 sujetos del estudio (11 hombres y una mujer) mejoraran hasta un 30% en la escala unificada de puntuación de la enfermedad de Parkinson. Y, según los estudios en animales realizados previo a esta prueba, el gen se mantendrá activo durante años en el cerebro de los pacientes, mejorando su calidad de vida mientras se llega a la anhelada cura.

Una enfermedad despiadada

En 1997, la Organización Mundial de la Salud declaró el 11 de abril como Día Mundial del Parkinson, con objeto de aumentar la concienciación respecto de esta enfermedad que afecta aproximadamente a 1 de cada 1.000 personas en el mundo. Aunque no se trata de una enfermedad mortal directamente, su incesante avance una vez que se apodera de un paciente es extremadamente agotador para quien lo sufre y para quienes están a su alrededor, y que el apoyo psicológico y social por parte de otras personas que padecen la enfermedad y sus familias es importante para sobreponerse a la depresión y la ansiedad que conlleva un diagnóstico de Parkinson.

Richard Dawkins: el biólogo militante

Con su activismo en favor de la evolución y la ciencia, Richard Dawkins vive inmerso en el debate público, afirmando que el espacio de la ciencia no se limita a la academia.

La publicación de El gen egoísta en 1976 marcó la llegada al terreno del debate biológico de un joven biólogo de 35 años. La idea central del libro era una visión de la evolución centrada no en "la supervivencia de la especie", ni en "la supervivencia del más apto", sino en la supervivencia de los genes que compiten por trascender a la siguiente generación, planteando la metáfora de un "gen egoísta" como una unidad bioquímica que no "sabe" ni se interesa en la especie o los individuos, sino que únicamente actúa para perpetuarse como si actuara egoístamente. Nos decía que la vida evoluciona mediante la superviviencia diferencial de esos genes, unos lo consiguen, otros no. El obvio hecho de que se trataba de una metáfora para explicar ciertos procesos químicos y biológicos en busca de una mayor claridad, se perdió sin embargo en una serie de críticas poco informadas que veían en esta aproximación biológica un evolucionismo incluso más "frío" que el de Darwin. Al mismo tiempo, sus planteamientos encendieron un intenso debate en el mundo de la biología evolutiva que sacudieron la disciplina durante años.

El hombre que provocó todo esto nació en Nairobi, Kenia, el 26 de marzo de 1941, con dos padres, Clinton John Dawkins y Jean Mary Vyvyan tenían un claro interés por las ciencias naturales y animaron a su hijo en la búsqueda de respuestas científicas a sus preguntas. En 1949, la familia volvió a su Inglaterra original, donde el joven Dawkins siguió sus estudios elementales y pasó a estudiar zoología en Oxford, bajo la dirección de Niko Tinbergen, ganador del premio Nobel de medicina y fisiología en 1973 junto con Konrad Lorenz y Karl von Frisch, tres etólogos o estudiosos de las bases biológicas de la conducta que consiguieron finalmente introducir el estudio de la conducta en el terreno estricto de las ciencias naturales. Dawkins pasó a obtener una maestría y dos doctorados y a ocupar un puesto como profesor asistente de zoología en la Universidad de California en Berkeley, que ocupaba al publicar El gen egoísta.

La visión centrada en los genes de Dawkins se enfrentó a la visión del biólogo y paleontólogo Stephen Jay Gould, quien se oponía a ciertas visiones que consideraba reduccionistas, al gradualismo y a la sociobiología y la psicología evolutiva, que consideran que la evolución y la biología son componentes esenciales del comportamiento. El debate entre los seguidores de Dawkins y Gould fue llamado, más bien en broma, "Las guerras de Darwin" y ayudó enormemente al avance y desarrollo del conocimiento y comprensión de la evolución. Pero ello no significó un enfrentamiento personal o visceral entre los participantes. Por el contrario, los contendientes han mantenido siempre la cordialidad y el respeto, a sabiendas, como siempre ocurre en los debates dentro del mundo de la ciencia, que serán los hechos, no la pasión en el debate, los que determinen quién se acercaba más a una interpretación correcta.

A la publicación de El gen egoísta siguió una larga lista de libros de Dawkins, a caballo entre la ciencia pura y la divulgación científica para el público en general, entre los que vale la pena destacar El fenotipo extendido, El relojero ciego y su más reciente obra, El espejismo de dios, recientemente publicada en español, que ha devuelto al biólogo al centro del debate, en este caso entre el religionismo y el ateísmo más militante.

Habiendo vuelto a Oxford en 1990, Dawkins obtuvo la cátedra Simony para la Comprensión Pública de la Ciencia en 1995, un puesto creado exprofeso para que Dawkins fuera su primer ocupante. Ha sido editor de diversas revistas científicas o journals, presidente de la Asociación Británica para el Avance de la Ciencia, asociado del Comité para la Investigación Científica de las Afirmaciones sobre lo Paranormal (CSICOP, por sus siglas en inglés) y del Center for Inquiry.

Preocupado por la difusión de las pseudociencias, las medicinas "alternativas", el creacionismo, el pensamiento irracional y los integrismos religiosos, en los últimos años Dawkins ha asumido una militancia similar a la que en el pasado mantuvo el filósofo y matemático Bertrand Russell. Como ateo que, asegura, no se avergüenza de serlo, afirma que la educación y la creación de conciencia son las herramientas principales en la oposición a los dogmas. Su militancia ha sido en parte motivada por los ataques del 11 de septiembre de 2001, que a sus ojos demostraron que la fe puede ser peligrosa "porque le da a la gente una confianza inquebrantable sobre su propia rectitud" y porque "hemos aceptado un extraño respeto que protege singularmente a la religión de la crítica normal". Por ello, en 2006 presentó el documental crítico ¿La raíz de todo mal? y creó la Fundación Richard Dawkins para la Razón y la Ciencia. Dawkins ha creado nuevos debates al afirmar que, así como no hablamos de niños "marxistas" o de niños "conservadores", es inaceptable hablar de niños "protestantes", "musulmanes" o "budistas".

Pocos biólogos han logrado la preeminencia de Dawkins, y concitar apoyos y odios generalmente reservados más a personajes de la música o el mundo de la frivolidad. Pero la pasión con la que el biólogo británico enfrenta cuanto le interesa, desde los mecanismos de la evolución hasta la lucha por el pensamiento crítico, lo ha convertido en un personaje público que, cuando menos, nos obliga a pensar y tomar posiciones. En sus propias palabras: "... no se debe creer que mi objetivo principal es atacar la religión. Ciertamente observo que la visión científica del mundo es incompatible con la religión, pero eso no es lo interesante que tiene. También es incompatible con la magia, pero tampoco vale la pena destacar eso. Lo que es interesante de la visión científica es que es verdadera, inspiradora, notable y que une una gran cantidad de fenómenos bajo un solo encabezado. Y eso es lo que me resulta tan emocionante."

Los memes

En su libro El gen egoísta, Dawkins propuso que las ideas pueden seguir un patrón similar al de la vida en su propagación y evolución. Llamó "meme" a la unidad menor de información cultural. Los ejemplos que daba Dawkins incluían ciertas tonadas, frases, creencias, modas, tecnologías artesanales y leyendas urbanas que se propagan transmitiéndose de una persona a otra, o de padres a hijos. Esto generó toda una disciplina, aún en desarrollo, llamada "memética" (a semejanza de la genética). No habiendo participado directamente en el desarrollo de la memética, Dawkins sin embargo ha planteado que puede ser una útil herramienta para analizar y explicar fenómenos como las creencias religiosas.

Mujeres en el espacio

Casi medio centenar de mujeres han ido al espacio, y muchas otras han estado en la planificación y control de los vuelos, tema en el cual, sin embargo, Europa va a la zaga.


Sello postal de la Unión Soviética
celebrando el vuelo de Valentina
Tereshkova (via Wikimedia Commons)
Cuando el 19 de junio se anunció que la astronauta estadounidense Suni Williams había establecido varios récords en el espacio, volvió a los titulares el tema de la mujer como astronauta, como parte de la exploración espacial y su participación en el futuro de la Estación Espacial Internacional. Los récords femeninos que ha reunido Suni Williams, estadounidense con raíces en la India y en Eslovenia, incluyen el viaje espacial más prolongado (195 días), el mayor número de paseos espaciales (cuatro) y el mayor tiempo total de actividad extravehicular (29 horas y 17 minutos).

Valentina Tereshkova, ingeniera y paracaidista soviética, fue la primera mujer astronauta de la historia, en la misión de la Vostok 6 iniciada el 16 de junio de 1963, y que duró tres días. Era, además, la primera persona sin rango militar en llegar al espacio. Su selección fue, sin embargo, motivada en gran medida por intereses propagandísticos propios del régimen soviético. Sin embargo, lograda la misión de afirmar que la mujer soviética estaba a la altura del hombre, ni soviéticos ni estadounidenses se ocuparon del tema en largo tiempo. De hecho, pasaron 19 años antes de que otra astronauta soviética viajara al espacio. Se trató de la ingeniera, paracaidista, aviadora y experta aerobática Svetlana Savitskaya, incluida en el programa soviético, se dice, como respuesta a la "amenaza" de que los Estados Unidos utilizarían mujeres en los vuelos del trasbordador espacial por entonces en preparación, habiendo seleccionado en 1978 a seis como candidatas a ser astronautas. Como fuera, Savistkaya no viajaba únicamente por efectos propagandísticos. Después de su primera misión que la llevó a la estación espacial Salyut 7 en 1982, viajaría de nuevo al espacio en 1984 convirtiéndose en la primera mujer que realizó un paseo espacial o, en términos técnicos, una actividad extravehicular (AEV) el 25 de julio.

De las seis candidatas seleccionadas por la NASA en 1978, tres irían finalmente al espacio. La primera astronauta estadounidense, que siguió a Savitskaya y se convirtió en la tercera mujer en el espacio fue Sally Ride, de profesión física, que viajó en el trasbordador espacial Challenger como especialista de misión, tarea que volvería a realizar el 11 de octubre de 1984 en el sexto vuelo de dicho trasbordador. Le seguiría la ingeniera Judith Resnick, quien realizó una misión en el trasbordador Discovery en agosto de 1984, y que fallecería en el lanzamiento del Challenger el 28 de enero de 1986. La tercera del grupo en ser enviada en una misión efectiva fue Kathryn Sullivan, de profesión oceanógrafa y primera astronauta estadounidense en realizar una actividad extravehicular el 11 de octubre de 1984, como respuesta al paseo espacial de Savitskaya, y que realizó tres misiones espaciales sumando 532 horas en el espacio.

El valor propagandístico de las mujeres astronautas, claramente percibido por ambos participantes en la que se llamó la "carrera espacial" iniciada con el lanzamiento del Sputnik I en 1957 y finalizada en cierto modo con la llegada a la Luna en julio de 1969, dejó lejos de la percepción pública el trabajo de otras mujeres en el intento del ser humano por liberarse de la prisión de la gravedad y viajar fuera de nuestro planeta de origen. Un ejemplo de esto lo da, claramente, Claudie Haigneré, médica francesa poseedora de múltiples títulos (reumatología, medicina deportiva, medicina aeroespacial, biomecánica y fisiología del movimiento, y neurociencias). Claudie Haigneré coordinó los experimentos de ciencias de la vida y biomédicos en las misiones franco-rusas "Antares" y "Altair", en 1992, además de ser responsable de los experimentos franceses en la misión Euromir de la Agencia Espacial Europea (ESA) en 1994.

Sin embargo, su nombre no se hizo conocido entre el público en general sino hasta 1996, cuando se convirtió en la primera astronauta europea al participar en la misión franco-rusa "Casiopea", en 1996, pasando 16 días en la legendaria estación espacial rusa Mir. En 2001 fue además la primera mujer europea en ocupar la Estación Espacial Internacional, participando como ingeniera de vuelo en la misión "Andrómeda" y permaneciendo ocho días en las instalaciones, realizando experimentos biomédicos.

Según muchos expertos, si los viajes espaciales tienen algún sentido, es el de expandir la presencia firme de la especie humana fuera de nuestro planeta de origen, y ello requiere, claramente, de hombres y de mujeres. Y más allá de la importancia que tiene la afirmación de la igualdad social, económica y jurídica de la mujer y el hombre, está el hecho de que el organismo, el metabolismo, la constitución genética misma de la mujer y del hombre son distintos, y que urge reunir más información sobre los efectos de la estancia en el espacio en el organismo femenino y cómo enfrenta éste los desafíos de la falta de gravedad, el aislamiento y otros aspectos clave de los viajes espaciales.

Quizá el resultado de estos estudios indique, sin embargo, que lo más razonable es que los hombres queden en casa y sean las mujeres las que se ocupen de la exploración espacial. Así lo afirmaba, por ejemplo, el doctor William Rowe, de la Escuela Médica de Ohio, en los Estados Unidos, en un estudio de 2004 donde evaluaba los organismos humanos y afirmaba que en el caso de un viaje a Marte la mejor apuesta sería realizarlo con una tripulación de mujeres, de preferencia menores de 30 años, porque sus cuerpos tienden menos a tener problemas cardiacos gracias a la presencia de la hormona femenina (el estrógeno) y sus menores niveles de epinefrina. Rowe indicaba, por ejemplo, que algunas afecciones exhibidas en la Luna por los tripulantes del Apolo 15 se debían a problemas vasculares que no tendrían las mujeres. Según su resumen: "los hombres tienen los genes incorrectos para el espacio".

Lo cual no deja de ser, todavía, una idea que puede molestar a algunos...

Efemérides de la mujer en el espacio


  • Primera astronauta: Valentina Tereshkova, junio de 1963
  • Primer paseo espacial: Svetlana Savitskaya, julio de 1984
  • Primer súbdito británico (y primera mujer europea) en el espacio: Helen Sharman, mayo de 1991
  • Primera mujer negra en el espacio: Mae Jemison, septiembre de 1992
  • Primera mujer hispánica en el espacio: Ellen Ochoa, abril de 1993
  • Primera mujer japonesa en el espacio: Chiaki Mukai, julio de 1994
  • Primera piloto de un transbordador: Eileen Collins, febrero de 1995
  • Primera tripulante en la Estación Espacial Internacional: Susan Helms, mayo de 1999
  • Primera comandante de un transbordador: Eileen Collins, julio de 1999
  • Primera española en el espacio: ?

En busca de las memorias perdidas

Menos confiable de lo que quisiéramos, nuestra memoria es de todas formas esencial para nuestra supervivencia, y uno de los más atractivos misterios de las neurociencias.

El hipocampo, zona del cerebro que media entre nuestras
memorias a corto y largo plazo.
(Imagen Gray's Anatomy modificada vía Wikimedia Commons)
Hasta hace relativamente poco tiempo, la identificación de un delincuente por parte de su víctima se consideraba una prueba irrefutble. La gente sabe lo que ha visto y puede confiar en su memoria, nos decíamos.

Pero hoy sabemos que eso no es así. Una serie de estudios, en parte motivados por la aparición de una preocupante serie de informes sobre recuerdos de abusos infantiles en Estados Unidos en la década de 1980, demostraron que nuestros recuerdos no son precisos, que existen cosas memorias falsas, y que los recuerdos pueden ser implantados en personas susceptibles por gente como sus terapeutas (que fue el origen precisamente de la epidemia de falsas memorias de abusos), además de que las memorias, especialmente las adquiridas en situaciones de gran tensión, como al ser víctimas de un delito, cambian, se adaptan a informaciones obtenidas posteriormente y, en última instancia, no son tan contundentes como desearíamos creer.

La memoria es la capacidad de nuestro organismo de almacenar, conservar y hacer volver información. Independientemente de que dicha información pueda ser alterada o se pueda viciar de varias formas, el hecho es que seguimos sin saber cómo es que nuestro cerebro codifica la información, la almacena y la recupera. ¿Es una tarea que hacen células especializadas? ¿Se realiza alterando u ordenando alguna molécula? ¿Depende de la disposición anatómica de las estructuras neurales? ¿Se conserva medainte potenciales eléctricos? La respuesta a todas estas preguntas es, sin embargo, que aún no lo sabemos.

Entretanto, las memorias se clasifican en tres tipos distintos. La memoria sensorial es la que tenemos durante las primeras fracciones de segundo que transcurren desde que recibimos una pieza de información, ya sea visual, auditiva, táctil, etc. y tiene una duración muy reducida. Por su parte, la memoria a corto plazo es la que mantenemos durante algunos segundos o unos pocos minutos, y echamos mano de ella continuamente durante nuestras actividades cotidianas. Así, por ejemplo, podemos recordar durante unos minutos las indicaciones que se nos dan para llegar a una dirección determinada, pero no las conservamos más allá. La memoria a corto plazo parece estar sustentada en patrones de comunicación entre neuronas en ciertas zonas específicas de nuestro cerebro, el lóbulo frontal (que está directamente detrás de nuestra frente) y los parietales (situados arriba de los oídos).

Pero la que realmente es la clave de nuestra supervivencia es la llamada memoria a largo plazo, es la que nos permite recordar cómo nos llamamos, cuánto es 6x4, qué día nació nuestra pareja, cómo andar en bicicleta y quiénes fueron los primeros hombres que ascendieron al Everest. La cantidad de información que podemos almacenar es, verdaderamente, asombrosa, y hay muchos datos que, salvo que seamos víctimas de alguna enfermedad que afecte la memoria como el Alzheimer, guardamos todas nuestras vidas con una enorme precisión y fiabilidad, la precisión y fiabilidad que nos hacía suponer que todas nuestras memorias eran de calidad semejante.

La memoria a largo plazo parece ser una función de cambios permanentes en conexiones que se dan a nivel de todo el cerebro. Así, por ejemplo, es curioso observar que personas que han sufrido graves accidentes con pérdida de memoria por algún accidente no suelen perder sus recuerdos más esenciales, como si éstos estuvieran almacenados de modo redundante por todo el cerebro, protegiéndolos así dada su importancia para el individuo.

Curiosamente, el estudio de personas con desarreglos importantes como los savants autistas nos han permitido avanzar en el conocimiento de la memoria. Así, por ejemplo, los savants parecen emplear como parte de su memoria zonas que las personas comunes utilizan para actividades de tipo emocional, o al menos eso nos parecen indicar los estudios de resonancia magnética. Así, al parecer, las carencias emocionales de los savants autistas dejarían "libres" ciertas zonas del cerebro que pueden utilizar luego para hazañas de memoria como las de Kim Peek, quien inspiró la película Rain Man.

Se han propuesto diversos modelos que pueden someterse a estudio como posibles explicaciones de cómo funciona la memoria. Cada vez sabemos más, por ejemplo, de las zonas del cerebro que entran en acción cuando aprendemos algo o cuando lo recordamos, y los neurocientíficos parecen estar ciertos de que en la formación de memorias, al menos en las de los acontecimientos que hemos experimentado, y en su conversión en recuerdos a largo plazo, juega un papel esencial la zona llamada hipocampo, situada en lo más profundo de nuestro cerebro. Sin embargo, una vez consolidada una memoria, el hipocampo deja de jugar un papel en ella.

Una forma de saber esto es el estudio de personas que han sufrido daños al hipocampo a resultas de un accidente, y que, por una parte, experimentan en consecuencia dificultades para formar nuevas memorias, además de que tampoco acceden fácilmente a las memorias previas al daño sufrido, a veces las de años, pero en muchos casos, de nuevo, las memorias más antiguas permanecen. Igualmente, estos estudios demuestran que los daños al hipocampo no afectan el aprendizaje de nuevas habilidades, como el tocar un instrumento, lo que habla de al menos dos tipos de memoria claramente diferenciados, en uno de los cuales esa zona no juega ningún papel.

La explicación que hoy parece más plausible es que las memorias se forman y se mantienen mediante la creación de nuevas conexiones o sinapsis entre neuronas de nuestro cerebro. Pero la forma en que tales sinapsis codifican impulsos nerviosos para que los podamos reconstruir como el recuerdo de una tarde de verano junto a la persona amada sigue siendo un misterio que merece ser investigado, con la certeza de que el conocimiento fisiológico no puede, en modo alguno, acabar con la poesía del recuerdo

El invento de las memorias

Quienes dicen "hipnotizar" a otros para hacerles recordar episodios de su vida, de su infancia o incluso de supuestas "vidas pasadas", no hacen sino crear memorias basadas en la fantasía del hipnotizador y de su paciente, y en la la mala interpretación de ciertos datos. Fenómenos como las alucinaciones hipnopómpicas (que ocurren al despertarse) o hipnogógicas (que ocurren cuando nos estamos quedando dormidos) y que ocurren en una situación de gran confusión para el paciente, pueden también dar pie a interpretaciones descabelladas, incluidas las de secuestros por parte de supuestos extraterrestres, que se convierten en falsas, pero muy sinceras, memorias de las víctimas de los hipnotizadores.

De la tormenta al huracán

Las fuerzas de la atmósfera de nuestro planeta liberan toda su capacidad destructiva en las tormentas conocidas como huracanes, tifones o ciclones, que año con año recorren los océanos de la Tierra.

Las enormes tormentas que surgen en los océanos y que se desplazan girando sobre su eje son, en términos precisos, ciclones tropicales, nombre que denota su naturaleza giratoria y su origen en la franja delimitada por los trópicos. Estas tormentas pueden llamarse huracanes si ocurren en el Océano Atlántico o tifones, en el Océano Índico, pero se trata del mismo fenómeno destructivo. En el Océano Atlántico, el 97% de los ciclones tropicales ocurren entre el 1º de junio y el 30 de noviembre de cada año. En el Pacífico Noreste ya ocurren desde mayo, mientras que en el Pacífico Noroeste pueden darse en todo el año. En la parte norte de la cuenca del Índico pueden presentarse desde abril hasta diciembre, mientras que la parte sur del Índico y del Pacífico tienen su ciclo entre fines de octubre y mayo, pero en general la actividad máxima a nivel mundial se da a fines del verano, cuando es mayor la diferencia entre la temperatura del aire y la de la superficie de los océanos.

Un ciclón tropical se forma en un área de baja presión atmosférica ocasionada por la liberación del calor latente de la condensación del agua: el aire húmedo y caliente es llevado hacia las capas superiores de la atmósfera, el vapor de agua que contiene se condensa y libera calor, haciendo que las capas inferiores tengan una presión atmosférica menor. Cuando este proceso forma un ciclo de realimentación positiva, se empieza a desarrollar el futuro ciclón, en un proceso de convección en el cual el aire caliente sube de la superficie del mar, se condensa, se enfría y vuelve a bajar formando una especie de embudo de presiones atmosféricas que, además, empieza a girar sobre su propio eje (el "ojo del huracán") debido a la rotación terrestre, lo que afecta la fuerza del ciclón y su trayectoria sobre la superficie del planeta.

Así, hay algunos elementos clave para la formación de un ciclón: las aguas del océano deben tener una temperatura mínima de 26,5 ºC con una profundidad de al menos unos 50 metros, la atmósfera debe poder enfriarse rápidamente a una altura determinada, debe haber capas de aire relativamente húmedas a unos 5 kilómetros, debe estar a al menos 500 kilómetros del Ecuador (para que actúen las fuerzas de Coriolis provocadas por la rotación terrestre que hacen girar al ciclón), una perturbación preexistente en la superficie del agua y una baja turbulencia vertical de los vientos. Estas condiciones, y otras que aún están bajo estudio, determinan que una perturbación atmosférica de este tipo se convierta o no en un ciclón.

Los principios que rigen el proceso de generación de un huracán son muy sencillos desde el punto de vista de la física: todos sabemos que el aire caliente se expande y, por tanto, tiende a subir, como lo hace en los globos aerostáticos, porque al expandirse ese aire caliente tiene una menor presión que el aire frío que está a su alrededor, lo que genera un proceso dinámico en el que el primero desplaza al segundo. El hecho de que el principal motor de un ciclón tropical sea el aire húmedo y cálido explica por qué estos fenómenos atmosféricos no pueden desarrollarse en tierra, sino que requieren de un gran cuerpo de agua cálida para mantener su ciclo de "motor térmico". Esto también explica por qué, una vez que entran a tierra, estas tormentas se disipan en poco tiempo.

El proceso de este "motor térmico" provoca vientos cuya velocidad es utilizada por los meteorólogos para clasificar a las tormentas tropicales. Cuando los vientos sostenidos en la superficie tienen una velocidad que no supera los 17 metros por segundo, los meteorólogos nos hablan de "depresiones tropicales". Cuando superan esta velocidad pero aún no llegan a los 33 metros por segundo se conocen como "tormentas tropicales", y cuando sus vientos de superficie son de más de 33 metros por segundo o 118 kilómetros por hora se clasifican como huracanes, tifones o ciclones tropicales. La velocidad de los vientos se usa para asignar una "categoría" de intensidad estimada de los huracanes, entre 1 y 5 en la escala Saffir-Simpson, pues éstos son los que determinan su capacidad destructiva. Así, en la categoría 1, entre 33 y 42 metros por segundo, el ciclón sólo daña árboles y arbustos, y puede tirar letreros mal construidos, inundar caminos costeros y arrancar de sus amarras embarcaciones pequeñas. Al otro extremo, en la categoría 5, con vientos sostenidos a velocidades por encima de los 70 metros por segundo o 252 kilómetros por hora, el daño es inevitablemente catastrófico, con árboles y tejados arrancados, ventanas y puertas destrozadas, graves inundaciones e incluso pequeñas casas levantadas de sus cimientos. El famoso huracán Katrina que prácticamente borró del mapa a Nueva Orléans en 2005, era de categoría 5, con vientos máximos de 280 kilómetros por hora y, pese a haber golpeado a la nación más rica del mundo, ocasionó casi dos mil víctimas.

Ante estas cifras, que adquieren dimensiones aún más terribles cuando los ciclones tropicales asuelan países más pobres, no es extraño que los meteorólogos se hayan planteado la posibilidad de destruirlos o disiparlos antes de que toquen tierra. Para ello, se han planteado diversas opciones, como rociarlos de ioduro de plata, usar alguna sustancia o, de no ser posible destruirlos, aprovechar su energía, que es abundantísima y, ciertamente, gratuita. Ninguna de las propuestas lanzadas ha tenido ninguna oportunidad de éxito, sobre todo por no tener en cuenta debidamente el tamaño y fuerza reales de un huracán. Mientras tanto, la única opción es aprender a convivir con los huracanes, construir adecuadamente en las zonas expuestas a sus ataques, realizar labores preventivas comunitarias y personales, y, sobre todo, ampliar el conocimiento de lo que son y lo que pueden hacer los ciclones.

Los nombres de los huracanes


En el pasado, los huracanes recibían el nombre del santoral del día en que entraban a tierra, y la práctica de darles nombres de personas fue iniciada por el meteorólogo Clement Lindley Wragge a fines del siglo XIX, que usó nombres femeninos y de personas que detestaba, y la práctica de darles nombres femeninos se consolidó en la Segunda Guerra Mundial. La Organización Meteorológica Mundial dio a los huracanes exclusivamente nombres femeninos hasta que se presentó la preocupación de que tal práctica pudiera ser sexista. Por ello, desde 1979, se alternan nombres masculinos y femeninos en la nomenclatura de los huracanes, en una lista que la OMM prepara con antelación, usando nombres en inglés, francés y español, los idiomas dominantes en los países habitualmente afectados por los ciclones tropicales.

El VIH/SIDA 26 años después

En junio de 1981 se detectaron los primeros casos de la pandemia del SIDA. Desde entonces, lo que era una condena a muerte se ha convertido en una enfermedad crónica, y la investigación continúa.

Dos características ayudaron a que el SIDA se convirtiera en blanco de un interés más allá del estrictamente médico: el ser una enfermedad de transmisión sexual y el que en un principio fuera mortal por necesidad en la totalidad de los casos. Esto ayudó a que a su alrededor se desarrollaran debates muy diversos, en los que han participado jerarquías religiosas, visiones fundamentalistas, charlatanes médicos que ofrecen curaciones mágicas, teorías más o menos disparatadas y una visión popular que aún criminaliza a la víctima. Pero mientras eso ocurría, la investigación biomédica, a veces a contracorriente, realizaba un esfuerzo prácticamente sin precedentes por enfrentar esta enfermedad, con resultados médicamente buenos, aunque aún limitados en su aplicación por problemas económicos y políticos.

La razón por la que se repite continuamente que los antibióticos no sirven para curarnos cuando tenemos una gripe, resfriado, catarro o constipado es que el agente causante de la enfermedad es un virus, y los antibióticos son medicamentos que combaten infecciones bacterianas. La diferencia no es trivial: la bacteria es un ser vivo complejo, mientras que el virus es una estructura submicroscópica que se encuentra en el límite entre lo vivo y lo no-vivo: es simplemente una funda de proteínas más o menos compleja que lleva en su interior una carga genética. Cuando dicha carga se inyecta en la célula víctima, toma por asalto el centro de control de la célula haciendo que ésta deje de realizar sus funciones y se dedique exclusivamente a crear réplicas del virus, que al morir la célula salen en busca de nuevas víctimas. Los antibióticos inhiben el crecimiento de bacterias, hongos o protozoarios, pero no pueden hacer nada contra los virus. Es por ello que la herramienta ideal para la lucha contra las infecciones virales han sido las vacunas, que fortalecen las defensas del cuerpo y su resistencia a la infección. La viruela, la poliomielitis, la rabia, muchos cánceres, los herpes, el dengue, el ébola, la hepatitis y muchas otras afecciones son producidas por virus, incluido el SIDA, que pertenece a una familia llamada "retrovirus".

SIDA significa "síndrome de inmunodeficiencia adquirida". Esto significa esencialmente que su causante, el "virus de la inmunodeficiencia humana" o VIH toma como víctimas a las células responsables de la defensa del cuerpo contra infecciones, las que forman nuestro "sistema inmune", con lo que el paciente queda expuesto a una gran variedad de enfermedades contra las que lo protegería un sistema inmune sano. A estas enfermedades se les llama "enfermedades oportunistas" porque aprovechan la oportunidad que les da la degradación de las defensas del paciente para atacarlo y son, en último caso, las que pueden acabar con la vida del enfermo.

La investigación científica que se disparó con la identificación de la enfermedad hace 21 años, en junio de 1981, enfrentó por primera vez directamente el desafío de atacar a una enfermedad viral con distintas vertientes: controlar al virus cuando el paciente ya tiene SIDA, impedir que una persona infectada con VIH llegue a desarrollar el SIDA y buscar una vacuna para impedir que las personas sanas se infecten con el VIH. Los esfuerzos rindieron frutos claros a partir de 1996, con la llamada terapia antirretroviral altamente activa o HAART por sus siglas en inglés, una mezcla de varios medicamentos absolutamente sin precedentes que estabilizan los síntomas de los pacientes y controlan la cantidad de virus en su organismo, con lo que la supervivencia al SIDA ha pasado de unos pocos meses a alrededor de diez años. Sin ser una cura, y pese a tener algunos efectos secundarios desagradables, se ha conseguido mejorar en gran medida la cantidad y calidad de vida de los pacientes de SIDA.

Dada la importancia de la pandemia, que ha matado a más de 30 millones de personas en estos 26 años, la investigación continúa y prácticamente todos los días hay anuncios, en general esperanzadores, en las tres vertientes. Hay trabajos sumamente novedosos, como los de científicos que utilizan un virus de la rabia debilitado para disparar una reacción inmune que, si bien no impide la infección por el VIH, sí impide que se desarrolle el SIDA posteriormente. La búsqueda de una cura ha llegado incluso a la identificación de un ingrediente de la propia sangre humana, el VIRIP, que bloquea la acción del VIH. El camino, pues, es largo, y en él la ciencia está aprendiendo mucho acerca de los mecanismos de la infección viral, del sistema de defensa humano ante infecciones, de formas de dispersión de las infecciones en poblaciones humanas y otros datos que sin duda serán útiles en la lucha contra otras enfermedades.

Mientras que la mejor opción para contener la pandemia sigue siendo la prevención y el cuidado en cuanto a la exposición a fuentes de infección (sangre contaminada, agujas, sexo poco seguro), la situación de los enfermos de VIH/SIDA ha mejorado enormemente sin llegar a una situación tolerable todavía. El alto costo de la investigación y por ende de los medicamentos sigue presentando un obstáculo insalvable que condena a muerte a millones de personas, sobre todo en África, y el optimismo a mediano plazo no debe interpretarse, dicen los expertos, como una victoria. Al menos no todavía. Y menos aún en la percepción pública donde todavía las víctimas de esta enfermedad, asombrosamente, siguen siendo vistas como culpables de su propia desgracia. Y prevenir esa discriminación es otra forma de luchar contra la enfermedad, sin duda.


La inmunidad al SIDA

La idea de que el SIDA es mortal por necesidad no es exacta. Según se ha podido determinar, una de cada 300 personas infectadas por el VIH jamás desarrolla el SIDA, lo que los hace, en efecto, inmunes al terrible virus. La resistencia natural a las enfermedades no tiene excepciones, lo que significa que no importa cuál sea la infección, habrá personas que no sean susceptibles a ellas. En el caso de los pacientes inmunes al SIDA, que son objeto de intensos estudios, son muy pocos y difíciles de detectar. Se calcula que en toda Norteamérica sólo unas 2000 personas tienen esta inmunidad, pero en África hay incluso otros casos sumamente interesantes, como el de un grupo de 60 prostitutas de Nairobi, Kenya, que pese a estar expuestas casi diariamente al virus, sin la protección de preservativos, siguen dando negativo en las pruebas de VIH. Cautelosamente, los médicos que las estudian las llaman "resistentes", no "inmunes", pero aún así, parte de la respuesta al acertijo del SIDA podría estar en estas mujeres, lo que no deja de tener cierta ironía.