Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Richard Dawkins: el biólogo militante

Con su activismo en favor de la evolución y la ciencia, Richard Dawkins vive inmerso en el debate público, afirmando que el espacio de la ciencia no se limita a la academia.

La publicación de El gen egoísta en 1976 marcó la llegada al terreno del debate biológico de un joven biólogo de 35 años. La idea central del libro era una visión de la evolución centrada no en "la supervivencia de la especie", ni en "la supervivencia del más apto", sino en la supervivencia de los genes que compiten por trascender a la siguiente generación, planteando la metáfora de un "gen egoísta" como una unidad bioquímica que no "sabe" ni se interesa en la especie o los individuos, sino que únicamente actúa para perpetuarse como si actuara egoístamente. Nos decía que la vida evoluciona mediante la superviviencia diferencial de esos genes, unos lo consiguen, otros no. El obvio hecho de que se trataba de una metáfora para explicar ciertos procesos químicos y biológicos en busca de una mayor claridad, se perdió sin embargo en una serie de críticas poco informadas que veían en esta aproximación biológica un evolucionismo incluso más "frío" que el de Darwin. Al mismo tiempo, sus planteamientos encendieron un intenso debate en el mundo de la biología evolutiva que sacudieron la disciplina durante años.

El hombre que provocó todo esto nació en Nairobi, Kenia, el 26 de marzo de 1941, con dos padres, Clinton John Dawkins y Jean Mary Vyvyan tenían un claro interés por las ciencias naturales y animaron a su hijo en la búsqueda de respuestas científicas a sus preguntas. En 1949, la familia volvió a su Inglaterra original, donde el joven Dawkins siguió sus estudios elementales y pasó a estudiar zoología en Oxford, bajo la dirección de Niko Tinbergen, ganador del premio Nobel de medicina y fisiología en 1973 junto con Konrad Lorenz y Karl von Frisch, tres etólogos o estudiosos de las bases biológicas de la conducta que consiguieron finalmente introducir el estudio de la conducta en el terreno estricto de las ciencias naturales. Dawkins pasó a obtener una maestría y dos doctorados y a ocupar un puesto como profesor asistente de zoología en la Universidad de California en Berkeley, que ocupaba al publicar El gen egoísta.

La visión centrada en los genes de Dawkins se enfrentó a la visión del biólogo y paleontólogo Stephen Jay Gould, quien se oponía a ciertas visiones que consideraba reduccionistas, al gradualismo y a la sociobiología y la psicología evolutiva, que consideran que la evolución y la biología son componentes esenciales del comportamiento. El debate entre los seguidores de Dawkins y Gould fue llamado, más bien en broma, "Las guerras de Darwin" y ayudó enormemente al avance y desarrollo del conocimiento y comprensión de la evolución. Pero ello no significó un enfrentamiento personal o visceral entre los participantes. Por el contrario, los contendientes han mantenido siempre la cordialidad y el respeto, a sabiendas, como siempre ocurre en los debates dentro del mundo de la ciencia, que serán los hechos, no la pasión en el debate, los que determinen quién se acercaba más a una interpretación correcta.

A la publicación de El gen egoísta siguió una larga lista de libros de Dawkins, a caballo entre la ciencia pura y la divulgación científica para el público en general, entre los que vale la pena destacar El fenotipo extendido, El relojero ciego y su más reciente obra, El espejismo de dios, recientemente publicada en español, que ha devuelto al biólogo al centro del debate, en este caso entre el religionismo y el ateísmo más militante.

Habiendo vuelto a Oxford en 1990, Dawkins obtuvo la cátedra Simony para la Comprensión Pública de la Ciencia en 1995, un puesto creado exprofeso para que Dawkins fuera su primer ocupante. Ha sido editor de diversas revistas científicas o journals, presidente de la Asociación Británica para el Avance de la Ciencia, asociado del Comité para la Investigación Científica de las Afirmaciones sobre lo Paranormal (CSICOP, por sus siglas en inglés) y del Center for Inquiry.

Preocupado por la difusión de las pseudociencias, las medicinas "alternativas", el creacionismo, el pensamiento irracional y los integrismos religiosos, en los últimos años Dawkins ha asumido una militancia similar a la que en el pasado mantuvo el filósofo y matemático Bertrand Russell. Como ateo que, asegura, no se avergüenza de serlo, afirma que la educación y la creación de conciencia son las herramientas principales en la oposición a los dogmas. Su militancia ha sido en parte motivada por los ataques del 11 de septiembre de 2001, que a sus ojos demostraron que la fe puede ser peligrosa "porque le da a la gente una confianza inquebrantable sobre su propia rectitud" y porque "hemos aceptado un extraño respeto que protege singularmente a la religión de la crítica normal". Por ello, en 2006 presentó el documental crítico ¿La raíz de todo mal? y creó la Fundación Richard Dawkins para la Razón y la Ciencia. Dawkins ha creado nuevos debates al afirmar que, así como no hablamos de niños "marxistas" o de niños "conservadores", es inaceptable hablar de niños "protestantes", "musulmanes" o "budistas".

Pocos biólogos han logrado la preeminencia de Dawkins, y concitar apoyos y odios generalmente reservados más a personajes de la música o el mundo de la frivolidad. Pero la pasión con la que el biólogo británico enfrenta cuanto le interesa, desde los mecanismos de la evolución hasta la lucha por el pensamiento crítico, lo ha convertido en un personaje público que, cuando menos, nos obliga a pensar y tomar posiciones. En sus propias palabras: "... no se debe creer que mi objetivo principal es atacar la religión. Ciertamente observo que la visión científica del mundo es incompatible con la religión, pero eso no es lo interesante que tiene. También es incompatible con la magia, pero tampoco vale la pena destacar eso. Lo que es interesante de la visión científica es que es verdadera, inspiradora, notable y que une una gran cantidad de fenómenos bajo un solo encabezado. Y eso es lo que me resulta tan emocionante."

Los memes

En su libro El gen egoísta, Dawkins propuso que las ideas pueden seguir un patrón similar al de la vida en su propagación y evolución. Llamó "meme" a la unidad menor de información cultural. Los ejemplos que daba Dawkins incluían ciertas tonadas, frases, creencias, modas, tecnologías artesanales y leyendas urbanas que se propagan transmitiéndose de una persona a otra, o de padres a hijos. Esto generó toda una disciplina, aún en desarrollo, llamada "memética" (a semejanza de la genética). No habiendo participado directamente en el desarrollo de la memética, Dawkins sin embargo ha planteado que puede ser una útil herramienta para analizar y explicar fenómenos como las creencias religiosas.

Mujeres en el espacio

Casi medio centenar de mujeres han ido al espacio, y muchas otras han estado en la planificación y control de los vuelos, tema en el cual, sin embargo, Europa va a la zaga.


Sello postal de la Unión Soviética
celebrando el vuelo de Valentina
Tereshkova (via Wikimedia Commons)
Cuando el 19 de junio se anunció que la astronauta estadounidense Suni Williams había establecido varios récords en el espacio, volvió a los titulares el tema de la mujer como astronauta, como parte de la exploración espacial y su participación en el futuro de la Estación Espacial Internacional. Los récords femeninos que ha reunido Suni Williams, estadounidense con raíces en la India y en Eslovenia, incluyen el viaje espacial más prolongado (195 días), el mayor número de paseos espaciales (cuatro) y el mayor tiempo total de actividad extravehicular (29 horas y 17 minutos).

Valentina Tereshkova, ingeniera y paracaidista soviética, fue la primera mujer astronauta de la historia, en la misión de la Vostok 6 iniciada el 16 de junio de 1963, y que duró tres días. Era, además, la primera persona sin rango militar en llegar al espacio. Su selección fue, sin embargo, motivada en gran medida por intereses propagandísticos propios del régimen soviético. Sin embargo, lograda la misión de afirmar que la mujer soviética estaba a la altura del hombre, ni soviéticos ni estadounidenses se ocuparon del tema en largo tiempo. De hecho, pasaron 19 años antes de que otra astronauta soviética viajara al espacio. Se trató de la ingeniera, paracaidista, aviadora y experta aerobática Svetlana Savitskaya, incluida en el programa soviético, se dice, como respuesta a la "amenaza" de que los Estados Unidos utilizarían mujeres en los vuelos del trasbordador espacial por entonces en preparación, habiendo seleccionado en 1978 a seis como candidatas a ser astronautas. Como fuera, Savistkaya no viajaba únicamente por efectos propagandísticos. Después de su primera misión que la llevó a la estación espacial Salyut 7 en 1982, viajaría de nuevo al espacio en 1984 convirtiéndose en la primera mujer que realizó un paseo espacial o, en términos técnicos, una actividad extravehicular (AEV) el 25 de julio.

De las seis candidatas seleccionadas por la NASA en 1978, tres irían finalmente al espacio. La primera astronauta estadounidense, que siguió a Savitskaya y se convirtió en la tercera mujer en el espacio fue Sally Ride, de profesión física, que viajó en el trasbordador espacial Challenger como especialista de misión, tarea que volvería a realizar el 11 de octubre de 1984 en el sexto vuelo de dicho trasbordador. Le seguiría la ingeniera Judith Resnick, quien realizó una misión en el trasbordador Discovery en agosto de 1984, y que fallecería en el lanzamiento del Challenger el 28 de enero de 1986. La tercera del grupo en ser enviada en una misión efectiva fue Kathryn Sullivan, de profesión oceanógrafa y primera astronauta estadounidense en realizar una actividad extravehicular el 11 de octubre de 1984, como respuesta al paseo espacial de Savitskaya, y que realizó tres misiones espaciales sumando 532 horas en el espacio.

El valor propagandístico de las mujeres astronautas, claramente percibido por ambos participantes en la que se llamó la "carrera espacial" iniciada con el lanzamiento del Sputnik I en 1957 y finalizada en cierto modo con la llegada a la Luna en julio de 1969, dejó lejos de la percepción pública el trabajo de otras mujeres en el intento del ser humano por liberarse de la prisión de la gravedad y viajar fuera de nuestro planeta de origen. Un ejemplo de esto lo da, claramente, Claudie Haigneré, médica francesa poseedora de múltiples títulos (reumatología, medicina deportiva, medicina aeroespacial, biomecánica y fisiología del movimiento, y neurociencias). Claudie Haigneré coordinó los experimentos de ciencias de la vida y biomédicos en las misiones franco-rusas "Antares" y "Altair", en 1992, además de ser responsable de los experimentos franceses en la misión Euromir de la Agencia Espacial Europea (ESA) en 1994.

Sin embargo, su nombre no se hizo conocido entre el público en general sino hasta 1996, cuando se convirtió en la primera astronauta europea al participar en la misión franco-rusa "Casiopea", en 1996, pasando 16 días en la legendaria estación espacial rusa Mir. En 2001 fue además la primera mujer europea en ocupar la Estación Espacial Internacional, participando como ingeniera de vuelo en la misión "Andrómeda" y permaneciendo ocho días en las instalaciones, realizando experimentos biomédicos.

Según muchos expertos, si los viajes espaciales tienen algún sentido, es el de expandir la presencia firme de la especie humana fuera de nuestro planeta de origen, y ello requiere, claramente, de hombres y de mujeres. Y más allá de la importancia que tiene la afirmación de la igualdad social, económica y jurídica de la mujer y el hombre, está el hecho de que el organismo, el metabolismo, la constitución genética misma de la mujer y del hombre son distintos, y que urge reunir más información sobre los efectos de la estancia en el espacio en el organismo femenino y cómo enfrenta éste los desafíos de la falta de gravedad, el aislamiento y otros aspectos clave de los viajes espaciales.

Quizá el resultado de estos estudios indique, sin embargo, que lo más razonable es que los hombres queden en casa y sean las mujeres las que se ocupen de la exploración espacial. Así lo afirmaba, por ejemplo, el doctor William Rowe, de la Escuela Médica de Ohio, en los Estados Unidos, en un estudio de 2004 donde evaluaba los organismos humanos y afirmaba que en el caso de un viaje a Marte la mejor apuesta sería realizarlo con una tripulación de mujeres, de preferencia menores de 30 años, porque sus cuerpos tienden menos a tener problemas cardiacos gracias a la presencia de la hormona femenina (el estrógeno) y sus menores niveles de epinefrina. Rowe indicaba, por ejemplo, que algunas afecciones exhibidas en la Luna por los tripulantes del Apolo 15 se debían a problemas vasculares que no tendrían las mujeres. Según su resumen: "los hombres tienen los genes incorrectos para el espacio".

Lo cual no deja de ser, todavía, una idea que puede molestar a algunos...

Efemérides de la mujer en el espacio


  • Primera astronauta: Valentina Tereshkova, junio de 1963
  • Primer paseo espacial: Svetlana Savitskaya, julio de 1984
  • Primer súbdito británico (y primera mujer europea) en el espacio: Helen Sharman, mayo de 1991
  • Primera mujer negra en el espacio: Mae Jemison, septiembre de 1992
  • Primera mujer hispánica en el espacio: Ellen Ochoa, abril de 1993
  • Primera mujer japonesa en el espacio: Chiaki Mukai, julio de 1994
  • Primera piloto de un transbordador: Eileen Collins, febrero de 1995
  • Primera tripulante en la Estación Espacial Internacional: Susan Helms, mayo de 1999
  • Primera comandante de un transbordador: Eileen Collins, julio de 1999
  • Primera española en el espacio: ?

En busca de las memorias perdidas

Menos confiable de lo que quisiéramos, nuestra memoria es de todas formas esencial para nuestra supervivencia, y uno de los más atractivos misterios de las neurociencias.

El hipocampo, zona del cerebro que media entre nuestras
memorias a corto y largo plazo.
(Imagen Gray's Anatomy modificada vía Wikimedia Commons)
Hasta hace relativamente poco tiempo, la identificación de un delincuente por parte de su víctima se consideraba una prueba irrefutble. La gente sabe lo que ha visto y puede confiar en su memoria, nos decíamos.

Pero hoy sabemos que eso no es así. Una serie de estudios, en parte motivados por la aparición de una preocupante serie de informes sobre recuerdos de abusos infantiles en Estados Unidos en la década de 1980, demostraron que nuestros recuerdos no son precisos, que existen cosas memorias falsas, y que los recuerdos pueden ser implantados en personas susceptibles por gente como sus terapeutas (que fue el origen precisamente de la epidemia de falsas memorias de abusos), además de que las memorias, especialmente las adquiridas en situaciones de gran tensión, como al ser víctimas de un delito, cambian, se adaptan a informaciones obtenidas posteriormente y, en última instancia, no son tan contundentes como desearíamos creer.

La memoria es la capacidad de nuestro organismo de almacenar, conservar y hacer volver información. Independientemente de que dicha información pueda ser alterada o se pueda viciar de varias formas, el hecho es que seguimos sin saber cómo es que nuestro cerebro codifica la información, la almacena y la recupera. ¿Es una tarea que hacen células especializadas? ¿Se realiza alterando u ordenando alguna molécula? ¿Depende de la disposición anatómica de las estructuras neurales? ¿Se conserva medainte potenciales eléctricos? La respuesta a todas estas preguntas es, sin embargo, que aún no lo sabemos.

Entretanto, las memorias se clasifican en tres tipos distintos. La memoria sensorial es la que tenemos durante las primeras fracciones de segundo que transcurren desde que recibimos una pieza de información, ya sea visual, auditiva, táctil, etc. y tiene una duración muy reducida. Por su parte, la memoria a corto plazo es la que mantenemos durante algunos segundos o unos pocos minutos, y echamos mano de ella continuamente durante nuestras actividades cotidianas. Así, por ejemplo, podemos recordar durante unos minutos las indicaciones que se nos dan para llegar a una dirección determinada, pero no las conservamos más allá. La memoria a corto plazo parece estar sustentada en patrones de comunicación entre neuronas en ciertas zonas específicas de nuestro cerebro, el lóbulo frontal (que está directamente detrás de nuestra frente) y los parietales (situados arriba de los oídos).

Pero la que realmente es la clave de nuestra supervivencia es la llamada memoria a largo plazo, es la que nos permite recordar cómo nos llamamos, cuánto es 6x4, qué día nació nuestra pareja, cómo andar en bicicleta y quiénes fueron los primeros hombres que ascendieron al Everest. La cantidad de información que podemos almacenar es, verdaderamente, asombrosa, y hay muchos datos que, salvo que seamos víctimas de alguna enfermedad que afecte la memoria como el Alzheimer, guardamos todas nuestras vidas con una enorme precisión y fiabilidad, la precisión y fiabilidad que nos hacía suponer que todas nuestras memorias eran de calidad semejante.

La memoria a largo plazo parece ser una función de cambios permanentes en conexiones que se dan a nivel de todo el cerebro. Así, por ejemplo, es curioso observar que personas que han sufrido graves accidentes con pérdida de memoria por algún accidente no suelen perder sus recuerdos más esenciales, como si éstos estuvieran almacenados de modo redundante por todo el cerebro, protegiéndolos así dada su importancia para el individuo.

Curiosamente, el estudio de personas con desarreglos importantes como los savants autistas nos han permitido avanzar en el conocimiento de la memoria. Así, por ejemplo, los savants parecen emplear como parte de su memoria zonas que las personas comunes utilizan para actividades de tipo emocional, o al menos eso nos parecen indicar los estudios de resonancia magnética. Así, al parecer, las carencias emocionales de los savants autistas dejarían "libres" ciertas zonas del cerebro que pueden utilizar luego para hazañas de memoria como las de Kim Peek, quien inspiró la película Rain Man.

Se han propuesto diversos modelos que pueden someterse a estudio como posibles explicaciones de cómo funciona la memoria. Cada vez sabemos más, por ejemplo, de las zonas del cerebro que entran en acción cuando aprendemos algo o cuando lo recordamos, y los neurocientíficos parecen estar ciertos de que en la formación de memorias, al menos en las de los acontecimientos que hemos experimentado, y en su conversión en recuerdos a largo plazo, juega un papel esencial la zona llamada hipocampo, situada en lo más profundo de nuestro cerebro. Sin embargo, una vez consolidada una memoria, el hipocampo deja de jugar un papel en ella.

Una forma de saber esto es el estudio de personas que han sufrido daños al hipocampo a resultas de un accidente, y que, por una parte, experimentan en consecuencia dificultades para formar nuevas memorias, además de que tampoco acceden fácilmente a las memorias previas al daño sufrido, a veces las de años, pero en muchos casos, de nuevo, las memorias más antiguas permanecen. Igualmente, estos estudios demuestran que los daños al hipocampo no afectan el aprendizaje de nuevas habilidades, como el tocar un instrumento, lo que habla de al menos dos tipos de memoria claramente diferenciados, en uno de los cuales esa zona no juega ningún papel.

La explicación que hoy parece más plausible es que las memorias se forman y se mantienen mediante la creación de nuevas conexiones o sinapsis entre neuronas de nuestro cerebro. Pero la forma en que tales sinapsis codifican impulsos nerviosos para que los podamos reconstruir como el recuerdo de una tarde de verano junto a la persona amada sigue siendo un misterio que merece ser investigado, con la certeza de que el conocimiento fisiológico no puede, en modo alguno, acabar con la poesía del recuerdo

El invento de las memorias

Quienes dicen "hipnotizar" a otros para hacerles recordar episodios de su vida, de su infancia o incluso de supuestas "vidas pasadas", no hacen sino crear memorias basadas en la fantasía del hipnotizador y de su paciente, y en la la mala interpretación de ciertos datos. Fenómenos como las alucinaciones hipnopómpicas (que ocurren al despertarse) o hipnogógicas (que ocurren cuando nos estamos quedando dormidos) y que ocurren en una situación de gran confusión para el paciente, pueden también dar pie a interpretaciones descabelladas, incluidas las de secuestros por parte de supuestos extraterrestres, que se convierten en falsas, pero muy sinceras, memorias de las víctimas de los hipnotizadores.

De la tormenta al huracán

Las fuerzas de la atmósfera de nuestro planeta liberan toda su capacidad destructiva en las tormentas conocidas como huracanes, tifones o ciclones, que año con año recorren los océanos de la Tierra.

Las enormes tormentas que surgen en los océanos y que se desplazan girando sobre su eje son, en términos precisos, ciclones tropicales, nombre que denota su naturaleza giratoria y su origen en la franja delimitada por los trópicos. Estas tormentas pueden llamarse huracanes si ocurren en el Océano Atlántico o tifones, en el Océano Índico, pero se trata del mismo fenómeno destructivo. En el Océano Atlántico, el 97% de los ciclones tropicales ocurren entre el 1º de junio y el 30 de noviembre de cada año. En el Pacífico Noreste ya ocurren desde mayo, mientras que en el Pacífico Noroeste pueden darse en todo el año. En la parte norte de la cuenca del Índico pueden presentarse desde abril hasta diciembre, mientras que la parte sur del Índico y del Pacífico tienen su ciclo entre fines de octubre y mayo, pero en general la actividad máxima a nivel mundial se da a fines del verano, cuando es mayor la diferencia entre la temperatura del aire y la de la superficie de los océanos.

Un ciclón tropical se forma en un área de baja presión atmosférica ocasionada por la liberación del calor latente de la condensación del agua: el aire húmedo y caliente es llevado hacia las capas superiores de la atmósfera, el vapor de agua que contiene se condensa y libera calor, haciendo que las capas inferiores tengan una presión atmosférica menor. Cuando este proceso forma un ciclo de realimentación positiva, se empieza a desarrollar el futuro ciclón, en un proceso de convección en el cual el aire caliente sube de la superficie del mar, se condensa, se enfría y vuelve a bajar formando una especie de embudo de presiones atmosféricas que, además, empieza a girar sobre su propio eje (el "ojo del huracán") debido a la rotación terrestre, lo que afecta la fuerza del ciclón y su trayectoria sobre la superficie del planeta.

Así, hay algunos elementos clave para la formación de un ciclón: las aguas del océano deben tener una temperatura mínima de 26,5 ºC con una profundidad de al menos unos 50 metros, la atmósfera debe poder enfriarse rápidamente a una altura determinada, debe haber capas de aire relativamente húmedas a unos 5 kilómetros, debe estar a al menos 500 kilómetros del Ecuador (para que actúen las fuerzas de Coriolis provocadas por la rotación terrestre que hacen girar al ciclón), una perturbación preexistente en la superficie del agua y una baja turbulencia vertical de los vientos. Estas condiciones, y otras que aún están bajo estudio, determinan que una perturbación atmosférica de este tipo se convierta o no en un ciclón.

Los principios que rigen el proceso de generación de un huracán son muy sencillos desde el punto de vista de la física: todos sabemos que el aire caliente se expande y, por tanto, tiende a subir, como lo hace en los globos aerostáticos, porque al expandirse ese aire caliente tiene una menor presión que el aire frío que está a su alrededor, lo que genera un proceso dinámico en el que el primero desplaza al segundo. El hecho de que el principal motor de un ciclón tropical sea el aire húmedo y cálido explica por qué estos fenómenos atmosféricos no pueden desarrollarse en tierra, sino que requieren de un gran cuerpo de agua cálida para mantener su ciclo de "motor térmico". Esto también explica por qué, una vez que entran a tierra, estas tormentas se disipan en poco tiempo.

El proceso de este "motor térmico" provoca vientos cuya velocidad es utilizada por los meteorólogos para clasificar a las tormentas tropicales. Cuando los vientos sostenidos en la superficie tienen una velocidad que no supera los 17 metros por segundo, los meteorólogos nos hablan de "depresiones tropicales". Cuando superan esta velocidad pero aún no llegan a los 33 metros por segundo se conocen como "tormentas tropicales", y cuando sus vientos de superficie son de más de 33 metros por segundo o 118 kilómetros por hora se clasifican como huracanes, tifones o ciclones tropicales. La velocidad de los vientos se usa para asignar una "categoría" de intensidad estimada de los huracanes, entre 1 y 5 en la escala Saffir-Simpson, pues éstos son los que determinan su capacidad destructiva. Así, en la categoría 1, entre 33 y 42 metros por segundo, el ciclón sólo daña árboles y arbustos, y puede tirar letreros mal construidos, inundar caminos costeros y arrancar de sus amarras embarcaciones pequeñas. Al otro extremo, en la categoría 5, con vientos sostenidos a velocidades por encima de los 70 metros por segundo o 252 kilómetros por hora, el daño es inevitablemente catastrófico, con árboles y tejados arrancados, ventanas y puertas destrozadas, graves inundaciones e incluso pequeñas casas levantadas de sus cimientos. El famoso huracán Katrina que prácticamente borró del mapa a Nueva Orléans en 2005, era de categoría 5, con vientos máximos de 280 kilómetros por hora y, pese a haber golpeado a la nación más rica del mundo, ocasionó casi dos mil víctimas.

Ante estas cifras, que adquieren dimensiones aún más terribles cuando los ciclones tropicales asuelan países más pobres, no es extraño que los meteorólogos se hayan planteado la posibilidad de destruirlos o disiparlos antes de que toquen tierra. Para ello, se han planteado diversas opciones, como rociarlos de ioduro de plata, usar alguna sustancia o, de no ser posible destruirlos, aprovechar su energía, que es abundantísima y, ciertamente, gratuita. Ninguna de las propuestas lanzadas ha tenido ninguna oportunidad de éxito, sobre todo por no tener en cuenta debidamente el tamaño y fuerza reales de un huracán. Mientras tanto, la única opción es aprender a convivir con los huracanes, construir adecuadamente en las zonas expuestas a sus ataques, realizar labores preventivas comunitarias y personales, y, sobre todo, ampliar el conocimiento de lo que son y lo que pueden hacer los ciclones.

Los nombres de los huracanes


En el pasado, los huracanes recibían el nombre del santoral del día en que entraban a tierra, y la práctica de darles nombres de personas fue iniciada por el meteorólogo Clement Lindley Wragge a fines del siglo XIX, que usó nombres femeninos y de personas que detestaba, y la práctica de darles nombres femeninos se consolidó en la Segunda Guerra Mundial. La Organización Meteorológica Mundial dio a los huracanes exclusivamente nombres femeninos hasta que se presentó la preocupación de que tal práctica pudiera ser sexista. Por ello, desde 1979, se alternan nombres masculinos y femeninos en la nomenclatura de los huracanes, en una lista que la OMM prepara con antelación, usando nombres en inglés, francés y español, los idiomas dominantes en los países habitualmente afectados por los ciclones tropicales.

El VIH/SIDA 26 años después

En junio de 1981 se detectaron los primeros casos de la pandemia del SIDA. Desde entonces, lo que era una condena a muerte se ha convertido en una enfermedad crónica, y la investigación continúa.

Dos características ayudaron a que el SIDA se convirtiera en blanco de un interés más allá del estrictamente médico: el ser una enfermedad de transmisión sexual y el que en un principio fuera mortal por necesidad en la totalidad de los casos. Esto ayudó a que a su alrededor se desarrollaran debates muy diversos, en los que han participado jerarquías religiosas, visiones fundamentalistas, charlatanes médicos que ofrecen curaciones mágicas, teorías más o menos disparatadas y una visión popular que aún criminaliza a la víctima. Pero mientras eso ocurría, la investigación biomédica, a veces a contracorriente, realizaba un esfuerzo prácticamente sin precedentes por enfrentar esta enfermedad, con resultados médicamente buenos, aunque aún limitados en su aplicación por problemas económicos y políticos.

La razón por la que se repite continuamente que los antibióticos no sirven para curarnos cuando tenemos una gripe, resfriado, catarro o constipado es que el agente causante de la enfermedad es un virus, y los antibióticos son medicamentos que combaten infecciones bacterianas. La diferencia no es trivial: la bacteria es un ser vivo complejo, mientras que el virus es una estructura submicroscópica que se encuentra en el límite entre lo vivo y lo no-vivo: es simplemente una funda de proteínas más o menos compleja que lleva en su interior una carga genética. Cuando dicha carga se inyecta en la célula víctima, toma por asalto el centro de control de la célula haciendo que ésta deje de realizar sus funciones y se dedique exclusivamente a crear réplicas del virus, que al morir la célula salen en busca de nuevas víctimas. Los antibióticos inhiben el crecimiento de bacterias, hongos o protozoarios, pero no pueden hacer nada contra los virus. Es por ello que la herramienta ideal para la lucha contra las infecciones virales han sido las vacunas, que fortalecen las defensas del cuerpo y su resistencia a la infección. La viruela, la poliomielitis, la rabia, muchos cánceres, los herpes, el dengue, el ébola, la hepatitis y muchas otras afecciones son producidas por virus, incluido el SIDA, que pertenece a una familia llamada "retrovirus".

SIDA significa "síndrome de inmunodeficiencia adquirida". Esto significa esencialmente que su causante, el "virus de la inmunodeficiencia humana" o VIH toma como víctimas a las células responsables de la defensa del cuerpo contra infecciones, las que forman nuestro "sistema inmune", con lo que el paciente queda expuesto a una gran variedad de enfermedades contra las que lo protegería un sistema inmune sano. A estas enfermedades se les llama "enfermedades oportunistas" porque aprovechan la oportunidad que les da la degradación de las defensas del paciente para atacarlo y son, en último caso, las que pueden acabar con la vida del enfermo.

La investigación científica que se disparó con la identificación de la enfermedad hace 21 años, en junio de 1981, enfrentó por primera vez directamente el desafío de atacar a una enfermedad viral con distintas vertientes: controlar al virus cuando el paciente ya tiene SIDA, impedir que una persona infectada con VIH llegue a desarrollar el SIDA y buscar una vacuna para impedir que las personas sanas se infecten con el VIH. Los esfuerzos rindieron frutos claros a partir de 1996, con la llamada terapia antirretroviral altamente activa o HAART por sus siglas en inglés, una mezcla de varios medicamentos absolutamente sin precedentes que estabilizan los síntomas de los pacientes y controlan la cantidad de virus en su organismo, con lo que la supervivencia al SIDA ha pasado de unos pocos meses a alrededor de diez años. Sin ser una cura, y pese a tener algunos efectos secundarios desagradables, se ha conseguido mejorar en gran medida la cantidad y calidad de vida de los pacientes de SIDA.

Dada la importancia de la pandemia, que ha matado a más de 30 millones de personas en estos 26 años, la investigación continúa y prácticamente todos los días hay anuncios, en general esperanzadores, en las tres vertientes. Hay trabajos sumamente novedosos, como los de científicos que utilizan un virus de la rabia debilitado para disparar una reacción inmune que, si bien no impide la infección por el VIH, sí impide que se desarrolle el SIDA posteriormente. La búsqueda de una cura ha llegado incluso a la identificación de un ingrediente de la propia sangre humana, el VIRIP, que bloquea la acción del VIH. El camino, pues, es largo, y en él la ciencia está aprendiendo mucho acerca de los mecanismos de la infección viral, del sistema de defensa humano ante infecciones, de formas de dispersión de las infecciones en poblaciones humanas y otros datos que sin duda serán útiles en la lucha contra otras enfermedades.

Mientras que la mejor opción para contener la pandemia sigue siendo la prevención y el cuidado en cuanto a la exposición a fuentes de infección (sangre contaminada, agujas, sexo poco seguro), la situación de los enfermos de VIH/SIDA ha mejorado enormemente sin llegar a una situación tolerable todavía. El alto costo de la investigación y por ende de los medicamentos sigue presentando un obstáculo insalvable que condena a muerte a millones de personas, sobre todo en África, y el optimismo a mediano plazo no debe interpretarse, dicen los expertos, como una victoria. Al menos no todavía. Y menos aún en la percepción pública donde todavía las víctimas de esta enfermedad, asombrosamente, siguen siendo vistas como culpables de su propia desgracia. Y prevenir esa discriminación es otra forma de luchar contra la enfermedad, sin duda.


La inmunidad al SIDA

La idea de que el SIDA es mortal por necesidad no es exacta. Según se ha podido determinar, una de cada 300 personas infectadas por el VIH jamás desarrolla el SIDA, lo que los hace, en efecto, inmunes al terrible virus. La resistencia natural a las enfermedades no tiene excepciones, lo que significa que no importa cuál sea la infección, habrá personas que no sean susceptibles a ellas. En el caso de los pacientes inmunes al SIDA, que son objeto de intensos estudios, son muy pocos y difíciles de detectar. Se calcula que en toda Norteamérica sólo unas 2000 personas tienen esta inmunidad, pero en África hay incluso otros casos sumamente interesantes, como el de un grupo de 60 prostitutas de Nairobi, Kenya, que pese a estar expuestas casi diariamente al virus, sin la protección de preservativos, siguen dando negativo en las pruebas de VIH. Cautelosamente, los médicos que las estudian las llaman "resistentes", no "inmunes", pero aún así, parte de la respuesta al acertijo del SIDA podría estar en estas mujeres, lo que no deja de tener cierta ironía.

Francis Bacon: inventar la ciencia

Lo que hoy nos parece una forma razonable de investigar la realidad, el método científico, fue esencialmente producto del pensamiento de un peculiar personaje de la corte inglesa renacentista.

Retrato de Sir Francis Bacon por
John Vanderbank
(National Galleries London, D.P., vía
Wikimedia Commons)
"El conocimiento es poder" es una máxima muy repetida desde que la informática transformó al planeta. Lo que no es muy conocido es que tal frase fue acuñada por Sir Francis Bacon, Lord Verulam y Vizconde de Saint Alban, filósofo y político del siglo XVI que personifica (e impulsó) una de las más grandes revoluciones en el pensamiento humano de todos los tiempos.

Antes de las propuestas de Bacon, se consideraba que los autores clásicos eran la fuente por excelencia de conocimiento indudable y que no se podía siquiera discutir, y entre todos los autores clásicos, Aristóteles era el más apreciado, de modo tal que si uno tenía una idea, cualquiera, y encontraba una cita de Aristóteles que sustentara dicha idea, la sociedad medieval daba dicha idea por "demostrada" o "probada" en general. La escolástica era la forma de enseñanza, que buscaba reconciliar el pensamiento de los autores clásicos, los académicos, doctos o autoridades con lo escrito en la Biblia. Unidos, los autores clásicos, la Biblia y lo que parecía lógico o razonable eran la "prueba de verdad" de todo cuanto había en el cielo y la tierra.

El problema que tenía esta forma de evaluar la verdad era que se contradecía con la realidad, y al paso del tiempo tales contradicciones eran más y más patentes y menos fácil resultaba sustentar el valor de las autoridades. Por ejemplo, Aristóteles, independientemente de sus aportaciones a la historia del pensamiento, afirmó en su Historia de los animales que los hombres tienen más dientes que las mujeres. No sabemos de dónde sacó esta idea, pero durante casi dos mil años la humanidad creyó firmemente que los hombres tenían más dientes que las mujeres. Lo decía una "autoridad", y no lo contradecían ni la Biblia ni ninguna otra "autoridad", de modo que era cierto por decreto.

Uno piensa hoy que se debía contar los dientes de un número representativo de hombres y mujeres para comprobar el dato. Contar los dientes sería una práctic de empirismo, es decir, de acudir a la experiencia y a la percepción de nuestros sentidos para formar nuestras ideas, mientras que suponer que el resultado de nuestro recuento de dientes en un número adecuado de hombres y mujeres nos permite inferir con cierta certeza que ello será cierto en la mayoría de los casos (es decir, el derivar ideas generales a partir de casos particulares). Pero esto nadie lo hacía porque la experiencia de cada persona se consideraba inferior al conocimiento de las autoridades y de la Biblia. El otro ejemplo del empirismo ante la escolástica, más conocido, es el de la afirmación aristotélica de que un objeto 10 veces más pesado que otro cae 10 veces más rápido que aquél. Suena lógico, parece razonable y la gente lo creyó hasta que Galileo demostró empíricamente que era falso, revolucionando así toda nuestra concepción del universo.

La lucha por desarrollar un método empírico e inductivo, que hoy llamamos "método científico", para responder a las preguntas que dejaban abiertas la escolástica, la magia y la religión fue larga, sin duda, e incluyó a pensadores medievales como Robert Grosseteste, Roger Bacon, Alberto Magno, Guillermo de Occam o Duns de Escoto, que sentaron las bases para la revolución del método que vendría con Francis Bacon y su propuesta de un sistema, como hemos dicho, empírico, inductivo y que permitiera el desarrollo de nuevas artes y ciencias, algo realmente herético.

Porque la búsqueda del conocimiento era para Bacon algo más que un simple ejercicio intelectual, tenía por objeto ser "para el uso y beneficio de los hombres" y para aliviar la "condición humana", es decir, tenía aristas tecnológicas y sociales que antes no eran consideraciones en el mundo del conocimiento, e inauguraba, prácticamente sin ayuda, la idea del "progreso". En sus propias palabras: "Los hombres han buscado hacer un mundo a partir de sus propias concepciones y extraer de sus mentes todo el material que emplearon, pero si en lugar de ello hubieran consultado a la experiencia y a la observación, habrían tenido los hechos para razonar sobre ellos, y no las opiniones, y podrían en última instancia haber llegado al conocimiento de las leyes que gobiernan el mundo natural".

Lo que propuso Francis Bacon en sus obras fue un nuevo sistema para alcanzar el conocimiento, que fuera de los hechos a los axiomas y a las leyes, sin que el experimentador o filósofo se dejara llevar por prejuicios, preconcepciones, nociones falsas o tendencias que impiden ver la verdad, y a las que Bacon llamó "ídolos", esos elementos subjetivos que aún hoy nos preocupamos por eliminar de la investigación científica para tener la certeza de que arribamos a conclusiones válidas y sólidas. De nuevo en sus propias palabras: "Si un hombre parte de certezas, terminará con dudas, pero si se conforma con partir de dudas, terminará obteniendo certezas".

Pero lo más fascinante del método propugnado por Bacon es que funciona. Es decir, el mundo que conocemos hoy en día se ha formado a partir de esas "certezas" que nos ha dado el método científico. La electricidad, los motores, la luz, la gravedad, la genética, el metabolismo, todo funciona de acuerdo a leyes que hemos conocido gracias al método científico, y precisamente al funcionar nos confirman día a día que este método nos da certezas que no nos ofrece ningún otro sistema.

La pasión de Bacon por experimentar fue finalmente la causa de su muerte. En marzo de 1626, de viaje de Londres a Highgate, se detuvo para poner a prueba la idea de que el frío podía conservar la carne, rellenando un ave de nieve. La experiencia le ocasionó una grave enfermedad, al parecer neumonía, que lo llevó a la "muerte por sofocación" el 9 de abril de ese año.

Una vida de sobresaltos


Los logros filosóficos de Sir Francis Bacon adquieren una dimensión singular si tenemos en cuenta que su vida fue, además, la de un estadista, escritor y político que vivió en el poder y rodeado de escándalo. Habiendo estudiado derecho y perteneciendo al parlamento como Lord, ocupó diversos puestos de cierta importancia a lo largo de su vida. Una eterna mala situación financiera lo llevó a la cárcel por deudas en 1598, luego tuvo buenos tiempos en el favor de los poderosos hasta convertirse en procurador del reino, pero sólo para derrumbarse en 1621 ante la friolera de 23 acusaciones de corrupción por parte de un comité del Parlamento, ser encerrado en la Torre de Londres durante unos días, multado y excluido para siempre de los puestos públicos, aunque hay datos que indican que era inocente y se declaró culpable para salvar la reputación de su rey.

Agricultura sin tierra

La hidroponía, una idea que hace apenas unas décadas parecía de ciencia ficción, abastece hoy nuestras tiendas y alacenas, y es una promesa contra el hambre.


Cultivo hidropónico en tubos de PVC
(Foto GFDL 1.2 de Ildar Sagdejev, vía Wikimedia Commons)
En 1627, el padre del método científico, Sir Francis Bacon, publicó el libro Sylva sylvarum, hablando del cultivo de plantas sin el uso de tierra, sólo en agua, una técnica que se afinaría y utilizaría, incluso en nuestros días, para la investigación en botánica. Lo que había descubierto Bacon, y que no explicaron los científicos sino hasta el siglo XIX, era que la tierra es sólo un depósito de nutrientes minerales, pero no es esencial en sí para las plantas, que se alimentan absorbiendo el agua y los nutrientes presentes en la tierra. Si se quita la tierra y se sustituye por agua o por un medio inerte como la grava, las plantas seguirán creciendo si tienen nutrientes, oxígeno, bióxido de carbono, la temperatura adecuada y suficiente luz.

Pero utilizar este descubrimiento para la producción requirió desarrollar técnicas fiables. En 1929, el profesor de la Universidad de California William Frederick Gericke propuso por primera vez la utilización de esta técnica, que llamó "hidroponía", a la producción de cultivos comerciales, tanto de plantas ornamentales o de valor económico como alimenticias. Sus éxitos produciendo tomates hidropónicos de tamaño enorme en su jardín llamó la atención de otros científicos, especialmente cuando en 1940 publicó el libro La guía completa a la jardinería sin suelo. A partir de allí, diversos estudiosos afinaron, crearon o perfeccionaron las técnicas necesarias para cultivar plantas sin tierra. Entretanto, la imaginación popular se desbocó un tanto, generando algunos mitos persistentes. En España, por cierto, los primeros ensayos de cultivos hidropónicos se realizaron en 1957, en Almería.

Es evidente que los cultivos hidropónicos tienen ventajas evidentes cuando no se cuenta con lo que todavía se percibe como la materia prima de la agricultura: la tierra y el clima. Y no cualquier tierra, sino una tierra de "buena calidad", lo que significa una tierra que contenga una buena cantidad y variedad de nutrientes, que sea adecuadamente porosa y que tenga una buena exposición a la luz solar. De hecho, el primer cultivo hidropónico comercial permanente se estableció precisamente en la isla de Wake, un atolón del Pacífico que utilizaba una línea aérea como estación de reabastecimiento de combustible y donde se establecieron cultivos hidropónicos en la década de 1930 para producir vegetales para los pasajeros, ya que era prohibitivo llevarlos en avión a este punto. Lo mismo ocurre en sitios como los desiertos o la Antártida, donde la producción de vegetales sólo puede realizarse hidropónicamente. En ese sentido, Israel se convirtió en pionero en el desarrollo de la tecnología hidropónica debido a su clima y suelos poco feraces. Y, sin duda alguna, cualquier proyecto espacial a largo plazo fuera del alcance de los transbordadores orbitales requerirá la producción hidropónica de alimentos.

Menos evidentes, al principio, fueron las ventajas que tenían los cultivos hidropónicos incluso en lugares donde se podría utilizar la tierra. Así, por ejemplo, se tiene una menor utilización de agua que en los cultivos en suelo, porque ésta se recicla perdiéndose sólo la que se evapora. Igualmente, los cultivos hidropónicos, cuando se realizan en invernaderos (lo cual no es indispensable) requieren menos pesticidas por no haber enfermedades transmitidas por tierra ni maleza. La aplicación de fertilizantes en estos cultivos contamina menos el medio ambiente y se puede hacer de manera más precisa y controlada. Las plantas tienen una mejor nutrición y un mejor acceso al oxígeno en las raíces, dando como resultado productos más sanos, más grandes y más sanos. Y los cultivos hidropónicos, aunque requieren una tecnología más desarrollada, generalmente requieren menos mantenimiento, energía y espacio que los tradicionales, y en algunos casos, como el cultivo de fresas, el costo de producción se llega a abatir hasta en un 20%. Igualmente, se pueden tener más ciclos agrícolas al año que en tierras que todavía dependen del riego natural: la lluvia. Finalmente, sacar a las plantas de la tierra suele provocar su muerte, mientras que algunos cultivos hidropónicos, como las lechugas, se pueden recoger y empaquetar mientras aún están vivos, lo que permite que lleguen al mercado con mayor frescura. En resumen, se tiene un producto en más cantidad, de más calidad y obtenido en menos tiempo.

La tecnología hidropónica implica una diversidad de elementos, desde la mezcla de nutrientes adecuada para cada cultivo y disuelta en el agua, y la forma de riego de la misma (lo que en hidroponía es un solo proceso llamado "fertirrigación", pasando por la cantidad de luz (que puede aumentarse artificialmente para promover el crecimiento) a la que estén expuestas las plantas, la cantidad de bióxido de carbono disponible (que también puede aumentarse artificialmente en los invernaderos) y otros niveles de supervisión que requieren una formación y cualificación especiales en los encargados de los cultivos, además del conocimiento de diversas técnicas, fórmulas y sustratos que pueden utilizarse para distintos cultivos en distintas condiciones.

Pero uno no puede sino tener presente que el conocimiento técnico del que dispone cualquier campesino tradicional no es, en modo alguno, escaso o sencillo. El agricultor conoce una enorme cantidad de hechos acerca de la tierra, el clima, sus semillas, sus fertilizantes, sus herramientas... sólo que son datos obtenidos a lo largo de muchos años, mientras que el cambio hacia la hidroponía requiere sustituir gran parte de esa información en breve tiempo.

Sin embargo, a juzgar por los resultados, que muchas veces no vemos claramente en las estanterías, aunque estén allí, el esfuerzo puede valer la pena por motivos económicos, nutricionales y medioambientales, pues si bien la hidroponía no tiene visos de sustituir en breve a la agricultura tradicional, es una opción que puede hacer mucho en la lucha por un mundo sin hambre y en mejores condiciones generales.

Un resultado agradable a la vista


Antes de que se generalizaran las plantas comestibles cultivadas sin suelo, otras plantas de gran valor económico empezaron a cultivarse hidropónicamente. En el terreno de la floricultura, por ejemplo, las rosas de Israel son mundialmente competitivas, y el 97% de ellas se cultivan sin suelo, dando a sus productores un rendimiento de unos 150.000 euros anuales por hectárea de producción en invernadero, uno de los más altos ingresos por producción agrícola del mundo. Gran parte del mercado de claveles, con un valor de unos 8 mil millones de euros al año en todo el mundo, se abastece también gracias a la hidroponía.

Nace una estrella... y millones de ellas

La idea de los cielos inmutables ha dado paso a un concepto de un universo dinámico y en permanente transformación.

En 1592, el filósofo, sacerdote y cosmólogo Giordano Bruno fue llevado ante la inquisición (primero la veneciana, después la romana) por ocho acusaciones, una de las cuales era la creencia en la "pluralidad de los mundos", concepto éste que partía de su idea de que las estrellas no eran luces inmutables en los cielos perfectos de la enseñanza eclesiástica, sino que eran soles alrededor de los cuales podría haber mundos como la Tierra, lo cual, a ojos de la ortodoxia del siglo XVI, equivalía a negar que este mundo era singular, y que el dios bíblico había colocado aquí, de modo privilegiado, a las criaturas que eran a su imagen y semejanza. El 17 de febrero de 1600, Bruno fue quemado vivo en el Campo de Fiori, en Roma.

Pese al horror que nos pueda causar esta historia, no es difícil entender que durante milenios, salvo por las conjeturas o fantasías de algunos personajes excepcionales, la idea prevaleciente fuera que las estrellas y los cielos eran inmutables, las zonas de habitación de las deidades, y por tanto la idea de que las estrellas podían cambiar era casi inimaginable. De hecho, pese a las observaciones aisladas sobre nuevas estrellas realizadas en el pasado, fue Edmond Halley, el astrónomo que dio su nombre al famoso cometa, quien demostró por primera vez en el siglo XVII que dos estrellas habían cambiado su posición relativa a la Tierra desde que las describiera Hiparco en el siglo II antes de nuestra era. El uso de la espectroscopía y el conocimiento de las leyes de la gravitación, dos logros de Isaac Newton llevaron por fin a la demostración de que el universo era, en efecto, un sistema dinámico, y que las estrellas nacían, se desarrollaban y morían, como en la actualidad lo podemos constatar con las asombrosas fotografías de las "incubadoras de estrellas" en los límites del universo que nos han podido traer telescopios de última generación como el Hubble.

Las estrellas son soles, el sol es una estrella, pero... ¿qué es una estrella?

La definición más simple es que una estrella es un cuerpo de plasma en el cual un proceso de fusión nuclear hace que produzca luz y calor. El "plasma" es una fase de la materia, distinta de la sólida, la gaseosa o la líquida, en la cual la materia tiene una forma similar a un gas, pero ionizado, con una gran capacidad de conducir electricidad y una sensibilidad especial a los campos electromagnéticos. Cuando hay una cantidad o masa suficiente de plasma reunida en un punto, puede comenzar un proceso de fusión nuclear. En dicho proceso, los átomos de la materia que conforman el plasma empiezan a unirse para crear átomos de un núcleo más pesado, liberando en el proceso una gran cantidad de energía. En las estrellas como nuestro sol, el hidrógeno está fusionándose continuamente para formar átomos de helio, generando la luz y el calor que permiten la vida en la Tierra.

Las estrellas se forman dentro de las llamadas nubes moleculares gigantes, regiones de gran densidad de hidrógeno en el espacio interestelar. Cuando una nube molecular se ver perturbada por algún fenómeno cercano, como las ondas de choque de una supernova o la colisión de dos galaxias, se pude crear una inestabilidad, llamada Inestabilidad de Jeans, que provoque que en un punto haya tal densidad de materia que su propia gravedad empiece a provocar que se contraiga la nube molecular, el llamado "colapso gravitacional". Durante este largo colapso, la nube se fragmenta en regiones cada vez más pequeñas, hasta que en el centro de la nube llega a formarse lo que se conoce como una protoestrella, alrededor de la cual los demás fragmentos forman discos de materia que pueden condensarse formando planetas o, incluso, otras estrellas. En las protoestrellas, el calor es producto de la gravedad pero aún sin iniciar una reacción de fusión nuclear

Cuando la densidad de la protoestrella permite que el calor en su interior llegue a los 10 millones de grados Kelvin, el hidrógeno que la forma comienza el proceso de fusión nuclear, la estrella "nace" y comienza a brillar, cosa que pueden hacer, en función de su masa, entre unos pocos millones de años y 13 mil millones de años, evolucionando lentamente en cuanto a su luminosidad y a la cantidad de calor que emiten. Igualmente, su masa determinará su destino, si una estrella al final de su vida estallará como una brillante supernova o se se convertirá en una gigante roja, y si finalmente se convertirá en una densa enana blanca (como le ocurrirá a nuestro sol), en una estrella de neutrones o en un denso y misterioso agujero negro. Como en la vida humana, en la existencia de las estrellas infancia es destino en gran medida.

El desarrollo de cada estrella dependerá principalmente de la masa con la que ha nacido, que a su vez determina la temperatura superficial que tiene y su clasificación. Los cosmólogos clasifican a las estrellas según sus características espectrales con las letras O, B, A, F, G, K y M, siendo las más calientes las de clase O (con 33.000 grados Kelvin o más) y las más frías las de clase M (con entre 2.600 y 3.850 grados Kelvin). Nuestro sol es una estrella de clase G, con una temperatura superficial de entre 5.500 y 6.000 grados Kelvin.

Las estrellas se forman continuamente en nuestro universo, de forma más frecuente de lo que se creía no hace muchos años. Las observaciones con el telescopio Hubble recientemente han demostrado, por ejemplo, que en un solo racimo globular de estrellas de nuestra propia galaxia, el NGC 2808, han surgido estrellas en tres momentos distintos, tres "generaciones" que contradicen la idea de que en un racimo todas las estrellas se formaban a la vez. Una pluralidad de pluralidades que sin duda habría complacido a Giordano Bruno.

Estrellas gemelas y más


Las estrellas pueden existir en sistemas múltiples, y se conoce al menos un sistema séxtuple, el de la estrella Castor. Los más comunes son los binarios, con dos estrellas producto de la misma nube molecular que giran una alrededor de un centro de masa o baricentro común. Se calcula que al menos una cuarta parte de todas las estrellas están en sistemas binarios, y el más conocido por nosotros es Sirio, cuya estrella componente Sirio A, es la más brillante de la noche, mientras que su compañera, Sirio B, es una enana blanca. Según los astrónomos, nosotros estuvimos a punto de vivir en un sistema solar con dos estrellas: si Júpiter hubiera tenido unas pocas veces más su masa, se habría convertido cuando menos en una estrella de las llamadas "enanas marrón", pues el gigante de gas se habría colapsado iniciando fusión nuclear en su interior. Júpiter es, así, la estrella que no pudo ser.

El camino de un medicamento

Desde la idea hasta que un medicamento llega al recetario, el proceso es largo y complejo, y la mayoría de las veces fracasa sin que lo sepamos.

Junto a las historias de éxitos médicos asombrosos como el de la penicilina, la anestesia, las vacunas o procedimientos quirúrgicos asombrosos como los trasplantes de órganos, están algunos relatos de medicamentos que, sin ser probados a fondo, han sido utilizados con resultados sumamente indeseables. De hecho, problemas como el que ocasionó la talidomida entre 1957 y 1961, que provocó el nacimiento de miles de niños con problemas congénitos porque nunca se había probado en mujeres embarazadas han servido para afinar cada vez más las exigencias legales y los requisitos científicos necesarios para que una sustancia llegue a usarse para tratar alguna afección humana.

El camino de un medicamento comienza con la observación de que una sustancia (o un producto vegetal, que además debe estudiarse para determinar cuál o cuáles sustancias activas contiene) produce ciertos efectos en las personas, o que exhibe cierto comportamiento al entrar en contacto con ciertos tejidos, o que tiene ciertas características químicas similares a las de otras sustancias con valor medicinal, o bien los bioquímicos analizan cómo una enfermedad actúa a nivel molecular y fisiológico y buscan sustancias específicas que la contrarresten.

El hallazgo o identificación de una sustancia o compuesto prometedores es, sin embargo, apenas el primer paso de un largo camino. Cuando se tiene una sustancia que es candidata a ser un medicamento, los químicos médicos intentan mejorar sus características deseables y disminuir sus efectos no deseados. La nueva sustancia deberá tener, entonces, una actividad benéfica contra un cierto objetivo biológico, pero entonces será necesario determinar sus niveles de toxicidad, sus posibles efectos secundarios, la forma en que se absorbe, distribuye, metaboliza y excreta del cuerpo y muchos elementos adicionales que se conocen mediante estudios con células aisladas en tubos de ensayo o, cuando es indispensble, en animales de laboratorio para determinar si realmente puede usarse sin riesgos excesivos y cuáles serían las recomendaciones respecto a las dosis, el tipo de administración (inyectable, en cápsulas, en comprimidos, en gotas, etc.) y la frecuencia (posología) para obtener los mejores resultados posibles. Cuando hay una certeza razonable de todos estos elementos, se realizan unas primeras pruebas clínicas con pequeños grupos de voluntarios, y del éxito de éstas depende la decisión de realizar pruebas con grandes grupos de voluntarios que permitan un análisis estadístico válido de los resultados, utilizando el medicamento a prueba y una sustancia inocua o "placebo" en dos grupos de personas, para comparar los efectos que experimentan ambos grupos, tanto positivos como negativos.

Uno de los problemas más serios que enfrenta la prueba de medicamentos en personas es que la situación emocional y las expectativas de los pacientes influyen en los efectos que se reportan de los medicamentos, y aún no sabemos cuál es el mecanismo, cómo actúa o con qué intensidad. Hablamos de "efecto placebo" para designar este misterioso mecanismo aún por explorarse. Pero aún más, si el médico espera que un medicamento funcione, puede influir en el paciente, aumentar sus expectativas de buenos resultados y potenciar el efecto placebo, o, por el contrario, con su actitud disminuir la confianza del paciente y bajar la efectividad de una sustancia. Para aumentar nuestra certeza de que los efectos que se pueden observar en las pruebas clínicas con pacientes se deben a los medicamentos que se están probando y no a ningún otro elemento, se ha diseñado el llamado sistema de "doble ciego", utilizado para controlar el efecto placebo y los sesgos conscientes o inconscientes de los investigadores. Con este sistema, utilizado apenas en los últimos cincuenta años, ni los pacientes ni los médicos que administran la prueba saben si el paciente está recibiendo el medicamento activo o un placebo. Sólo al cabo de todo el estudio clínico, los investigadores saben cuáles pacientes recibieron el medicamento a estudio y cuáles recibieron una sustancia inocua. Si las diferencias entre ambos grupos son lo bastante relevantes, si los efectos positivos son notables y los negativos son pequeños, se pueden hacer más pruebas y plantearse la eventual solicitud de aprobación del medicamento, para la cual los expertos de las dependencias gubernamentales deberán revisar todos los experimentos realizados desde el principio y determinar que el medicamento es efectivo contra la afección para la que se indica y que cumple con los criterios de seguridad establecidos. Estas pruebas pueden durar incluso años, y para ellas se requiere que todos los voluntarios estén plenamente informados del esquema experimental, de sus posibles riesgos y beneficios y de un equipo de apoyo sólido en caso de que algo salga mal. A lo largo de todo este proceso, son literalmente miles las ocasiones en que los resultados pueden ser tales que requieran que la sustancia sea desechada, bien por ineficaz, o bien porque sus efectos colaterales son inaceptables.

Todos estos procedimientos no pueden garantizar que un medicamento no resulte dañino bajo ciertas condiciones, o que no haya errores humanos, pero sin duda es una forma de darle cada vez más certeza a los pacientes de que los medicamentos a los que tienen acceso son efectivos y seguros. El que tal cosa sea cierta no es, sin embargo, tan difícil de probar, basta ver el aumento en la expectativa de cantidad y calidad de vida en los países con buenos sistemas de sanidad pública para determinar que, pese a sus problemas, la medicina sigue avanzando y aún guarda muchas promesas en la búsqueda de sustancias curativas.

Tiempo y dinero, el problema


Muchas organizaciones, en especial ONG, luchan por conseguir que participen más recursos públicos en la investigación y desarrollo de medicamentos, para atender urgentes necesidades médicas, sobre todo del tercer mundo, que no resultan económicamente atractivas para los laboratorios. Y es que el desarrollo de un medicamento toma mucho tiempo y dinero. Se calcula que el desarrollo de un medicamento tiene un costo de entre 500 millones y dos mil millones de dólares, y puede durar hasta 15 años. Más aún, sólo una de cada cinco mil sustancias que empieza a estudiarse en los laboratorios llega a convertirse en un medicamento en nuestras farmacias. Visto así, el problema no es del método científico y experimental utilizado para conseguir nuevos medicamentos, sino simplemente un asunto de economía y de política cuyas soluciones no son abandonar la investigación científica, sino ayudar a darle un giro más humano y menos comercial.

Los seres que viven en nosotros

Somos habitados, literalmente, por miles de millones de organismos para los cuales nuestro cuerpo es, simplemente, su casa. Y apenas estamos conociéndolos.

Staphylococcus epidermidis, bacteria comúnmente
presente en nuestra piel.
(foto CC Janice Carr, Centers for Disease Control and
Prevention, via Wikimedia Commons)
Hace unos 140 años, Louis Pasteur demostró más allá de toda duda que ciertas enfermedades son provocadas por la acción de seres vivos, agentes infecciosos. Hasta ese momento, nuestra conciencia de nuestra relación con los animales era bastante más sencilla: existían los seres que explotábamos (cultivos, ganado, abejas, gallinas, presas de caza, etc.), los que nos dañaban atacándonos a nosotros o a nuestros bienes (lobos, felinos y otros depredadores, mala hierba, moho) y los que no representaban ningún valor económico para bien ni para mal. Con Louis Pasteur llegó para siempre la idea de que estamos estrechamente relacionados con muchísimos otros seres vivos que no podemos ver, pero que igual ayudan a fermentar muchos de nuestros alimentos, nos ocasionan enfermedades o nos ayudan en tareas esenciales como la digestión.

Y al hablar de muchísimos seres vivos, estamos hablando de más seres que la suma de nuestras propias células. El cuerpo humano tiene una media de 10 billones de células (10^13, o un 1 seguido de 13 ceros), pero alberga, solamente en el intestino, alrededor de 100 billones de microorganismos (10^14 o un 1 seguido de 14 ceros), sin contar a otros muchos que habitan en otras partes del tracto digestivo, la piel, el tracto respiratorio y los nódulos linfáticos.

Los microbios que más nos preocupan son, por supuesto, los seres vivos que pueden perjudicarnos. Hay más de 100 tipos de parásitos distintos: gusanos, hongos, bacterias, protozoarios y artrópodos diversos, entre otros. Luego están los literalmente cientos de agentes infecciosos: virus, bacterias y hongos. Pero hay muchísimos seres vivos más que no son ni lo uno ni lo otro, que nos colonizan creciendo dentro de nuestros cuerpos pero sin causar que responda nuestro sistema inmune, al menos de forma evidente. Estos últimos son, sin embargo, particularmente interesantes, ya que su éxito como colonizadores del cuerpo humano depende de su capacidad para inhibir la respuesta inmune y controlar en cierta medida las células del cuerpo en el que habitan. Conocer los mecanismos que utilizan estos organismos para desactivar las respuestas de nuestro cuerpo es una de las claves para entender cómo funciona nuestro sistema inmunológico y cómo podemos fortalecerlo.

Un ejemplo muy sencillo de esta vida sobre nosotros son las bacterias de las especies Corynebacterium tenuis y Corynebacterium xerosis, que viven especialmente en nuestras axilas o sobacos. Estas bacterias se multiplican en grandes números cuando hay sudor a su alrededor, y sus procesos vitales ocasionan un olor sumamente agudo y molesto. De este modo, el olor al que nosotros llamamos "a sudor" no es tal, ya que el sudor prácticamente carece de aroma. Y aunque difícilmente se podría decir que las bacterias de estas especies son una amenaza para la humanidad, o un tema de máxima prioridad, no podemos pasar por alto que los desodorantes representan un mercado sumamente valioso, de más de 120 millones de euros anuales sólo en España.

Más importante, sin duda, es la flora intestinal formada por microorganismos de diversas especies, calculadas entre 300 y 1.000, y que ayudan a actividades tales como la fermentación y absorción de carbohidratos, en especial algunos polisacáridos que nosotros no podemos aprovechar, pero que son descompuestos por las enzimas de nuestra flora intestinal. La flora intestinal, además, estimula el crecimiento de las células epiteliales del intestino, ayuda a impedir el crecimiento de microbios patógenos, ayudan al sistema inmune a reconocer a organismos dañinos y responder sólo a ellos, e incluso ayuda a prevenir algunas enfermedades, como alergias o procesos inflamatorios en el tracto intestinal. Y hay otras relaciones que aún no entendemos, como las que muestran recientes estudios indicando que un grupo de microorganismos de la flora intestinal, los bacteroidetes, disminuyen en relación con otro grupo, los firmicutes, en las personas que padecen obesidad, indicando nuevas avenidas para la investigación. Otros estudios indican que, así como resulta beneficiosa y útil para la vida, bajo ciertas condiciones la flora intestinal puede ser responsable de diversas afecciones, causando simples colitis o colaborando en el desencadenamiento de ciertas formas de cáncer.

Un estudio de principios de 2007 determinó que la diversidad bacteriana entre distintas personas es enorme, con sólo unas cuantas especies presentes en todos los sujetos del estudio (entre ellas, claro, las Corynebacterium responsables del mal olor corporal). El estudio observó además al menos tres especies de bacterias que estaban presentes sólo en los hombres. Igualmente, se determinó que algunas de estas bacterias están presentes en nuestro cuerpo todo el tiempo, mientras que otros aparecen y desaparecen, transmitiéndose o migrando de una persona a otra. Estos mecanismos de transmisión son objeto de intensos estudios ya que nos indican la evolución de distintas infecciones y, especialmente, de las epidemias. De hecho, según algunos expertos, prácticamente todas las medidas de control de salud pública tienen como principal objetivo el cortar los sistemas de transmisión de microorganismos entre la población, ya sea mediante medidas sanitarias que cortan las rutas de transmisión, tratamientos que reducen la duración de las infecciones y la posibilidad de contagio a otras personas, las vacunas que fortalecen la inmunidad y las cuarentenas o aislamiento de personas infectadas. La forma en que viven y se transmiten los colonos más inocentes de nuestro cuerpo puede dar también claves sobre cómo se comportan los microorganismos infecciosos, mejorando nuestra comprensión de cómo se difunden ciertas enfermedades y ayudándonos a encontrar mejores formas de controlarlas y luchar contra ellas.

La fobia a los gérmenes

Howard Hughes, millonario empresario de la aviación, y productor de cine, murió en 1976 aterrorizado por los microbios, negándose a darle la mano a la gente para saludarla y siempre munido de toallas de papel para coger cualquier cosa. Desde los años 50 sufría misofobia o miedo patológico a los gérmenes. Esta afección también parece tener entre sus víctimas al ex rey del pop, Michael Jackson, quien suele dejarse ver con una mascarilla quirúrgica y evita igualmente el contacto físico con otras personas. La misofobia es una de las fobias más comunes, y lleva a muchas personas a lavarse las manos o limpiar su casa compulsivamente, así como a emprender diversas acciones para evitar verse expuestos a los gérmenes, algo que es no sólo absolutamente imposible sino, por lo que sabemos hoy, muy poco deseable.

El cómplice oculto: las abejas

Una epidemia en Estados Unidos muestra cuán unida está nuestra suerte a la de estos insectos, no por su miel, sino por menos conocida su labor de polinización.

La compleja vida social de las abejas ha sido siempre objeto de estudio y fascinación, y este insecto aparece en la mitología helénica, cuando diosas como la minoica Potnia, Démeter y Artemisa se identificaban con las abejas, igual que sus sacerdotisas. Ya los minoicos habían domesticado a las abejas para obtener su miel, y de ella una bebida alcohólica fermentada.

De las muchas especies de abejas existentes, sociales o solitarias, con o sin aguijón, de apenas 2 milímetros de largo o de hasta 39 milímetros, la más conocida es la abeja europea o abeja de la miel, cuyo nombre científico es Apis mellifera, de la cual existen al menos 28 subespecies, incluida la Apis mellifera iberiensis, la abeja específicamente española, identificada apenas en 1999. Esta especie de abeja es la que más evidentemente juega un papel económico por la importancia de la miel en la economía mundial, y porque es la que más intensamente se ha estudiado. Como ejemplo de la atención que le ha prestado la ciencia, el trabajo del zoólogo Karl Von Frisch que identificó los mecanismos de comunicación de las abejas y consiguió descifrar el significado de la "danza de las abejas", la forma en que los movimientos de las abejas exploradoras indican la distancia y dirección de macizos de flores donde se puede alimentar la colmena. Estos estudios le valieron el Premio Nobel de Medicina y Fisiología en 1973 junto con otros dos estudiosos de la conducta animal, Konrad Lorenz y Niko Tinbergen.

La capacidad de las abejas y otros insectos de producir miel procede de sus hábitos alimenticios, es decir, de que se alimentan del néctar y polen de las flores, el primero para obtener energía y el segundo como fuente de proteínas. Pero el néctar es, sobre todo, un sistema empleado por las plantas precisamente para atraer a insectos y otros animales de modo que lleven su polen a plantas lejanas y les traigan a su vez polen de tales plantas. Se calcula que más de un tercio de todos los cultivos del mundo dependen de la polinización por parte de distintos animales, y las abejas son responsables de gran parte de este porcentaje.

Existen estudios que demuestran que las plantas polinizadas mediante estos polinizadores animales producen frutos más grandes, más sabrosos y de mejor calidad que los frutos que son resultado de la autopolinización o la polinización realizada únicamente por medio del viento. Así, la ausencia de un número adecuado de colonias de abejas, domésticas o salvajes, en una zona determinada, puede convertirse en un enorme desastre agrícola. Esto es precisamente lo que ha disparado las alarmas en los Estados Unidos.

La disminución de las colonias de abejas a lo largo del último siglo es un hecho bien conocido, producto, entre otras cosas, de la urbanización, el uso de pesticidas, algunos parásitos de las abejas y otras causas, con algunas agudizaciones ocasionales que nunca han sido satisfactoriamente explicadas, como la registrada en Estados Unidos en el invierno de 2004-2005. Actualmente, se está difundiendo una alarma indicando que la desaparición de colonias de abejas se había acentuado desde mediados de 2006 hasta hoy, a lo que se le ha llamado "Desorden de Colapso de Colonias", reportado primero en Estados Unidos y, recientemente, añadido con informes no confirmados en Polonia, Grecia, Italia, Portugal, España, Suiza y Alemania.

Aunque según algunos estudiosos el fenómeno no es real, sino que obedece a variaciones naturales o normales, otros afirman que ciertos síntomas (como la ausencia total de abejas adultas en la colonia sin acumulación de abejas muertas en los alrededores de la colmena) muestran que se trata de un problema real y distinto de otras formas de colapso de las colonias, como los causados por ácaros o virus ya conocidos, y se han ocupado de buscar sus causas. Finalmente, los afectos a anunciar el apocalipsis, los agoreros del desastre que ayudan poco a identificar el problema, aislar sus causas y corregirlo, no sólo han encontrado entretenido culpar a sus demonios particulares (como los teléfonos móviles, los cultivos genéticamente modificados o la industrialización), sino que han difundido una cita falsamente atribuida a Einstein, indicando que de desaparecer las abejas, la humanidad seguiría en un plazo de cuatro años. Si bien tal "predicción" no tiene ninguna base, la falta de abejas sí podría representar graves problemas económicos, especialmente para algunos cultivos como el de almendras en California, cuya polinización es realizada mayormente por las abejas.

A fines de abril de 2007, un grupo de investigadores del Centro Químico Biológico Edgewood y de la Universidad de California en San Francisco, habían identificado tanto un virus como un parásito que podrían estar detrás de la desaparición de colonias de abejas. Igualmente, investigadores como Diana Cox-Foster, del departamento de entomología de la Universidad Estatal de Pennsylvania, han hablado de la presencia de ciertas infecciones con hongos y, sobre todo, han enfatizado la necesidad de criar abejas de la miel que sean más resistentes a las enfermedades y a los parásitos. El desarrollo de nuevas variedades de abejas es una labor que realizan diversos investigadores, apoyados en el genoma de la abeja que terminó de descifrarse a fines de 2006, con objeto de impedir que los apicultores y los agricultores resulten afectados por éstos y otros cambios súbitos que son, al menos eso es claro, resultado de un ambiente dinámico, cambiante y no siempre ideal.

La abeja africanizada


Un caso ejemplar en cuanto al manejo de las abejas ha sido la difusión por América de la "abeja africanizada", mal llamada "abeja asesina" por los profesionales del miedo. En los años 50, el biólogo brasileño Warwick E. Kerr trabajaba cerca de San Paulo cruzando abejas italianas (Apis mellifera ligustica) con otras procedentes de Tanzania (Apis mellifera scutellata) para crear una variedad mejor adaptada a las condiciones tropicales. En 1957, 26 abejas reinas africanas se liberaron accidentalmente, se cruzaron con zánganos locales y produjeron las colonias de abejas africanizadas que empezaron a invadir América hacia el norte, desplazando en gran medida a las abejas europeas por su mayor defensividad (en cuanto a número de abejas dedicadas a la defensa y tácticas), tendencia a la migración y otras características. Actualmente, se encuentra abeja africanizada hasta la mitad sur de los Estados Unidos, aunque su entrecruzamiento continuado con la abeja europea ha ido diluyendo su agresividad y creando, especialmente en México, una variedad mezclada fácilmente manejable.

El cerebro del doctor Ramachandran

En un mundo en el que todo parece explorado, un brillante investigador de la India nos enseña mucho sobre un área aún desconocida: nuestro propio cerebro.

Vilayanur S. Ramachandran
(fotografía CC de David Shankbone,
vía Wikimedia Commons)
Un hombre reporta un intenso dolor en un brazo amputado porque tiene la mano férreamente apretada, clavándose las uñas en las palmas, pero no puede controlar la mano para abrirla. El dolor se convierte en un obstáculo para llevar una vida normal. Este caso, uno más de "miembro fantasma", frecuente entre personas que han sufrido una amputación, sugirió una solución cuando menos extraña al doctor Vilayanur S. Ramachandran, quien propuso que el cerebro recibía información sensorial por medio de la vista y la propiocepción indicando que el miembro no se podía mover, y podía engañarlo, para lo cual creó una caja en la que el paciente podía meter los brazos, con espejos de modo tal que en el lugar del brazo amputado se veía el reflejo del brazo sano del paciente. Su idea era que al "decirle" al cerebro visualmente que el miembro se ha movido se conseguiría eliminar algunas de las sensaciones negativas del miembro fantasma. Esta hipótesis se demostró en la práctica y desde 1998 la "caja de espejos" del doctor Ramachandran se ha convertido en una herramienta esencial para combatir las sensaciones desagradables de los miembros fantasmas.

En los inicios de su carrera, Ramachandran se ocupó de la percepción visual por medio de la psicofísica, estudiando, los mecanismos neurológicos que permiten que se combine la información de los dos ojos humanos para formar una imagen con profundidad, el movimiento aparente, la forma en que nuestra percepción deduce formas y estructuras a partir del sombreado o el movimiento y las interacciones entre el color y el movimiento. Estos estudios implicaron la creación de las llamadas "ilusiones ramachandran", empleadas precisamente para estos estudios. Pero a fines de los años 80 Ramachandran volvió su atención a temas neurológicos como los miembros fantasma. Pero su labor más reciente y mundialmente reconocida se ha desarrollado en el terreno de la sinestesia, una condición en la que dos o más sentidos corporales están acoplados o interconectados (por decirlo de algún modo, aunque no hay pruebas de una "conexión" real). La forma más común de sinestesia es aquélla en la que las personas "ven" colores relacionados con letras, números, palabras u otros conceptos, como los días de la semana o los meses.

La primera aportación de Ramachandran al estudio de la sinestesia fue, sin duda alguna, la dmeostración de que era una condición fisiológica real y no una ilusión o alucinación puramente psicológica. Lo que hizo Ramachandran fue desarrollar una prueba similar a la empleada para detectar la ceguera al color o daltonismo, en la cual una persona común no encontraría ciertos patrones que se harían rápidamente evidentes para alguien que tuviera realmente sinestesia. En una de estas pruebas, se presenta un cuadro en el que hay una serie de números "5" de rasgos cuadrados dispuestos al azar en un espacio en blanco. Entre ellos, algo que para un "no-sinesteta" es muy difícil de ver, hay una serie de números "2" igualmente cuadrados, imágenes en espejo de los "5", pero que forman un triángulo. Un verdadero sinesteta que ve colores en los números identifica de un solo vistazo un triángulo de símbolos de cierto color en un espacio formado por símbolos de otro color. Con esta y otras pruebas, Ramachandran demostró de una vez por todas que había un sustrato física y neurológicamente real en los reportes de sinestesia, abriendo la puerta al estudio serio de esta condición y lo mucho que puede enseñarnos respecto del cerebro "común" (por no llamarle "normal"). A partir de esta demostración, Ramachandran ha continuado, llevando en los años más recientes el estudio de la sinestesia a estudios de neuroimágenes funcionales para aprender las diferencias en la activación cerebral que tienen los sinestetas y los no-sinestetas al verse expuestos a los mismos estímulos.

A partir de sus estudios, el doctor Ramachandran ha sugerido que muchas de nuestras metáforas verbales son, en cierto modo, "sinestésicas". Así, un "color chillante" en realidad no chilla, pero evoca en nosotros la misma sensación que un agudo alarido, mientras que un "frío cortante" en realidad no corta, o la envidia puede ser un "sentimiento agrio". Ramachandran considera que todos tenemos algún nivel de sinestesia y que probablemente la sinestesia es un componente fundamental de muchas formas artísticas, y que muchos artistas son, sépanlo o no, sinestetas. Más aún, señala "Nuestros estudios de las bases neurobiológicas de la sinestesia sugieren que la capacidad de realizar metáforas, de ver vínculos profundos entre cosas superficialmente distintas y sin relación entre sí, proporcionan una semilla clave para la aparición del idioma".

Un área peculiar de estudio de Ramachandran es el síndrome de Capgras o "ilusión de los dobles", afección en la que el paciente cree que sus familiares o personas queridas han sido sustituidos por dobles. Según Ramachandran, en al menos un caso se produjo por una desconexión entre la corteza temporal (donde se lleva a cabo el reconocimiento de los rostros) y el sistema límbico, implicado en las emociones. Como el paciente no experimenta emociones al ver a sus seres queridos, cree que esto indica que la persona ante él, es un sosías o doble.

En el otoño de 2007 se publicará Mirrors in the mind o "Espejos en la mente, la ciencia de lo que nos hace humanos y creativos", nuevo libro de Ramachandran sobre el los mundos del cerebro.

El viajero del cerebro humano

Vilayanur S. Ramachandran nació en 1951 en Tamil Nadu, en la India, y se graduó como médico en el colejo médico Stanley de Madrás, de donde salió para obtener su doctorado en el Colegio Trinity de la Universidad de Cambridge en las áreas de psicofísica y neurofisiología, además de realizar estudios de postdoctorado en Cal Tech. Actualmente es director del Centro para el Cerebro y la Cognición de la Universidad de California en San Diego, director del Laboratorio del Cerebro y el Proceso Perceptual y profesor del departamento de psicología y del programa de neurociencias en dicha universidad.

Ha recibido una larga cadena de honores y reconocimientos por sus más de 120 artículos científicos publicados, 20 de ellos en la prestigiosa revista Nature, además de ser autor de libros de divulgación, como Fantasmas en el Cerebro. Los misterios de la mente al descubierto (Editorial Debate, Madrid, 1999), escrito conjuntamente con Sandra Blakeslee, es el editor en jefe de la Enciclopedia del Cerebro Humano y de la Enciclopedia del Comportamiento Humano y aparece con frecuencia en documentales relacionados con el cerebro, la mente y la percepción.