Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Galvani, Frankenstein y el desfibrilador

El funcionamiento de nuestro cuerpo depende de impulsos eléctricos generados químicamente, algo que empezamos a descubrir hace 220 años.

Mary Wollstonecraft Shelley
(Retrato D.P. de Reginald Easton,
via Wikimedia Commons)
Era 1790 y la señora Galvani, afectada por una fiebre, pidió una curativa sopa de rana. Su marido, el fisiólogo Luigi Galvani, profesor de la universidad de Bolonia, se puso a preparar el brebaje y depositó la bandeja de ranas sobre su mesa de trabajo, donde jugueteaba con la electricidad. Una chispa saltó de un instrumento a la pata de una rana, ésta se contrajo violentamente y Luigi Galvani descubrió la relación entre los impulsos nerviosos y la electricidad.

Este relato tiene un gran atractivo literario, incluido el científico distraído que por error realiza un descubrimiento relevante, pero por desgracia es un simple mito. En realidad, el trabajo de Galvani había comenzado mucho antes, observando cómo la electricidad afectaba a los músculos de las ranas antes de publicar sus conclusiones en las actas del Instituto de Ciencias de Bolonia en 1791 con el título Comentario sobre la fuerza de la electricidad en el movimiento muscular.

La misteriosa electricidad había sido estudiada por primera vez con detenimiento en 1600, por el inglés William Gilbert, entre otras cosas médico de Isabel I, quien descubrió que nuestro planeta es magnético y acuñó el término “electricus” denotar lo que hoy llamamos “electricidad estática”, la capacidad del ámbar de atraer objetos ligeros después de frotarlo.

Pero fueron estudiosos como Benjamín Franklin (quien demostró que los relámpagos son electricidad) o Alessandro Volta los que dispararon el interés por la electricidad. Volta, colega, amigo y vecino de Galvani, consideraba que las convulsiones de las ranas se debían sólo a que el tejido servía como conductor, mientras que Galvani consideraba que los seres vivos tenían y generaban electricidad.

Para demostrar que su amigo se equivocaba, por cierto, Volta creó su primera pila, la madre de todas las baterías, con objeto de tener una corriente eléctrica continua para sus experimentos

Y entonces apareció Mary Shelley, que tenía todavía de apellido Wollstonecraft en 1816, cuando el poeta Percy Bysse Shelley con el que había huido a Ginebra (el escritor estaba casado con otra) les propuso a ella, al también poeta Lord Byron y al médico John Polidori escribir un cuento de terror.

Los miembros del grupo ya habían comentado los descubrimientos sobre electricidad y Mary, de sólo 18 años, leía sobre los descubrimientos del italiano. Tuvo entonces una pesadilla donde vio a un estudiante de “artes impías” dando vida a un ser utilizando una máquina. El resultado fue la novela Frankenstein o el moderno Prometeo, que publicaría finalmente en 1819, ya en Inglaterra y casada con el poeta. Por ese libro, para la mayoría de la gente el apellido “Shelley” evoca al monstruo y a su atormentado creador, antes que a los versos de Ozymandias o la Oda al viento del este.

El debate entre Galvani y Volta se habría resuelto en 1794 con la publicación de un libro de Galvani que incluía un experimento en el cual los músculos de una rana se contraían al ser tocados no por una placa metálica con una diferencia de potencial, sino con una fibra nerviosa de otra rana. Pero por alguna causa, la publicación se hizo de manera anónima.

Hubo de llegar el naturalista alemán Alexander von Humboldt a realizar una serie de experimentos que demostraron que el tejido animal era capaz por sí mismo de generar un potencial eléctrico, lo cual por cierto quedaba también demostrado con su trabajo sobre anguilas eléctricas, cuya capacidad de causar violentas reacciones en sus víctimas era bien conocida, pero no se había explicado hasta entonces.

Demostrado pues que las fibras nerviosas eran conductoras y generadoras de electricidad, se sucedieron los descubrimientos. Supimos que el sistema nervioso está formado por células cuyas prolongaciones forman las fibras nerviosas o que existe un aislante eléctrico natural en estas fibras, la mielina. Se midió la la velocidad de los impulsos nerviosos y se fue describiendo cómo el sistema nervioso transmite órdenes y recibe información electroquímicamente de célula en célula.

Las derivaciones médicas vinieron pronto. Además de los charlatanes que vendían por igual agua electrizada para curarlo todo o slips eléctricos para la impotencia masculina, la detección de los potenciales eléctricos se convirtió en procedimientos de diagnóstico como la electrocardiografía y la electroencefalografía, entre otros, mientras que las descargas eléctricas de intensidad variable se empezaron a utilizar para la estimulación muscular en rehabilitación, para el manejo del dolor, apoyando la cicatrización pues mejoran la microcirculación y la síntesis de proteínas en zonas lesionadas, y aplicadas directamente en el cerebro mediante electrodos para afecciones tan distintas como la enfermedad de Parkinson y la depresión grave.

Pero el más espectacular uso de la electricidad en medicina sigue siendo evocador de las ranas de Galvani y del momento en que Frankenstein le da vida a su criatura: es el desfibrilador. En 1899, los investigadores Jean-Louis Prévost y Frederic Batelli descubrieron que una descarga eléctrica podía provocar la fibrilación (el latido irregular del corazón, que lleva a un fallo catastrófico) mientras que una descarga aún mayor podía invertir el proceso, regularizando el ritmo cardíaco.

Desde 1947, cuando el médico estadounidense Claude Beck lo usó por primera vez para salvar a un paciente de 14 años, el desfibrilador se ha desarrollado y ha salvado una cantidad incalculable de vidas.

Pero el cine y la televisión suelen mostrar el uso de desfibriladores para “poner en marcha” un corazón que se ha detenido (la temida línea recta del electrocardiógrafo con su siniestro pitido). Pero esto no ocurre así. La descarga eléctrica no puede arrancar un corazón detenido. Al contrario, detiene momentáneamente el corazón, bloqueado por impulsos desordenados, de modo que su marcapasos natural, un grupo de células nerviosas llamado “nodo sinoatrial”, pueda entrar en acción. Es una forma de restaurar el funcionamiento corazón. Pero cuando el corazón se ha detenido y el nodo sinoatrial no está enviando impulsos, lo que se utiliza son distintos compuestos químicos para ponerlo nuevamente en marcha… lo cual es bastante menos cinematográfico por útil que resulte.

El temido electroshock

La terapia electroconvulsiva es materia de muchas historias de terror por la forma en que se utilizó en las décadas de 1940 y 1950. Sin embargo, hoy se aplica sólo con el consentimiento del paciente y bajo anestesia. Si bien no es una panacea, no es tampoco un procedimiento que afecte al paciente y sí es una herramienta útil en casos de depresión grave y otros problemas.

Microondas: de las telecomunicaciones a la cocina

Son simples ondas de radio, de longitud un poco más pequeña, pero cuyas características las han convertido en una de las herramientas clave de nuestra vida actual.

El Piruli close view02
Las antenas de Torrespaña, de RTVE
(Foto CC de Xauxa Håkan Svensson,
vía Wikimedia Commons)
Cuando ponemos las palomitas de maíz en el microondas para una sesión doméstica de cine o un partido de fútbol, estamos reproduciendo sin saberlo un experimento de 1945 que llevó el principio del radar a numerosas cocinas en todo el mundo.

El experimento en cuestión fue inspirado por un peculiar accidente. Percy Spencer, ingeniero autodidacta contratado por la empresa Raytheon, estaba investigando las características y fabricación de los magnetrones usados para producir ondas de radar. Un día, después de estar un tiempo frente a un potente magnetrón en funcionamiento, descubrió que se había derretido una chocolatina que llevaba en el bolsillo.

Al día siguiente, Spencer hizo un experimento informal llevando maíz para palomitas a su laboratorio y colocándolo frente al magnetrón, con los mismos resultados que obtenemos nosotros en nuestras cocinas. Un año después, Raytheon empezaba a vender un horno de microondas primitivo, basado en la patente de Spencer… y el público en general se familiarizaba con la palabra “microondas” aunque probablemente no con su significado.

Las microondas se definen son ondas de radio con longitudes de onda entre un metro y un milímetro o bien de frecuencias entre 1 y 100 GHz o gigaherzios (es decir, que oscilan entre 1.000 y 300.000 millones de veces por segundo). Son más potentes y de mayor frecuencia que las ondas que utilizamos para la transmisión de radio y menos potentes que la radiación infrarroja, la luz visible, los rayos X y los rayos gamma.

Una de las características peculiares de las microondas es que ciertas sustancias como las grasas o el agua absorben su energía y entran en movimiento, chocando entre sí y produciendo calor. Es un fenómeno que los físicos llaman “calentamiento dieléctrico” y que es el responsable de que nuestros pequeños hornos puedan calentar la comida “agitando” sus líquidos y grasas sin calentar ni el aire ni los recipientes. Las microondas que utilizan nuestros hornos tienen una longitud de onda de 122 milímetros.

Las microondas habían sido previstas por las ecuaciones publicadas en 1873 por el físico escocés James Clerk Maxwell. Al entender que el magnetismo y la electricidad eran una misma fuerza, la electromagnética, y describir su funcionamiento, preveía la posibilidad de que existieran ondas electromagnéticas invisibles con longitudes de onda mucho mayores que las de la luz visible (que tiene longitudes entre unos 400 y 700 nanómetros, o millonésimas de metro).

Fue Heinrich Hertz quien a partir de 1886 hizo los experimentos que demostraron que estas ondas existían y que se podían transmitir, convirtiéndose en el primer hombre que generó ondas de radio.

El siglo XX comenzó de lleno con el esfuerzo por generar, controlar y utilizar efectivamente esas ondas, con las experiencias y desarrollo de la radio por parte del italiano Guillermo Marconi. Con base en ellas, Nikola Tesla propuso que se podían utilizar ondas electromagnéticas para localizar objetos que las reflejaran, principio que fue utilizado por el francés Émile Girardeau en 1934 para crear el primer radar experimental utilizando el magnetrón, inventado en 1920 por Albert Hull, para emitir microondas, que son reflejadas por los objetos metálicos.

El radar, palabra procedente de las siglas en inglés de “detección y localización por radio”, se desarrolló rápidamente en varios países, pero fueron los británicos los primeros que lo emplearon con éxito para detectar la entrada de aviones enemigos en su espacio aéreo. Continuó siendo un elemento fundamental durante toda la Segunda Guerra Mundial.

Desde el radar y el horno, las microondas han encontrado una variedad asombrosa de usos en nuestra vida.

En el terreno de las comunicaciones, las microondas tienen la ventaja de que se pueden transmitir en haces muy estrechos que pueden ser captados por antenas igualmente pequeñas. Por ello se utilizaron, antes de que existiera la fibra óptica, para crear enlaces terrestres como los de telefonía y televisión. La comunicación por microondas se realiza en lo que se llama “línea de visión”, es decir, no debe haber obstrucciones (incluida la curvatura de la Tierra) entre antenas. Así, la señal se iba relevando de una a otra antena de microondas situadas generalmente en puntos geográficos elevados.

Los satélites se enlazan mediante microondas entre sí y a las estaciones terrestres que los controlan y dirigen, y a todos los puntos a los que envían su información. Todo lo que obtenemos de los satélites nos llega por microondas, sean datos meteorológicos, las fotografías del telescopio Hubble, mediciones del magnetismo terrestre o los datos para la navegación por satélite, como los del sistema GPS estadounidense que hoy está presente en la mayoría de los automóviles y el futuro Galileo de la Unión Europea.

Las microondas, además, permiten la existencia de la telefonía móvil y otros sistemas de comunicación inalámbrica como el bluetooth y el wifi. Su eficiencia a baja potencia permite tener transmisores y receptores pequeños y de bajo consumo. Y pese a todas las afirmaciones poco informadas en contrario, son, hasta donde sabemos, inocuas para la salud humana, lo cual se explica fácilmente al tener en cuenta que tienen mucho menos energía que la luz visible.

La radioastronomía, por su parte, observa la radiación de microondas del universo e incluso las utiliza para realizar tareas tan diversas como calcular la distancia de la Tierra a la Luna o para poder cartografiar la superficie de Venus a través de su eterna capa de nubes.

Estas peculiares ondas de radio podrían ser, además, protagonistas de uno de los avances más anhelados de nuestro tiempo: la fusión nuclear controlada, que podría darnos cantidades enormes de energía con mínima contaminación y a bajo coste. En los reactores, las microondas se emplean para ayudar a calentar el hidrógeno y disparar la reacción en la que las moléculas de este elemento se unen formando helio y generando energía tal como lo hace nuestro sol.

La huella del big bang

En 1948 un estudio predijo que el universo entero tenía una radiación de microondas cósmica de fondo, misma que fue descubierta en 1965 por Arno Penzias y Robert Woodrow Wilson, quienes acabarían recibiendo el Premio Nobel de Física por su descubrimiento. Estas microondas presentes de modo uniforme en todo el universo son ni más ni menos que el “eco” o el calor restante producto de la colosal explosión llamada “Big Bang” en la que se originó nuestro universo, el tiempo y el espacio. No sólo demuestran que ocurrió, sino que pueden decirnos mucho sobre cómo ocurrió.

Alfred Russell Wallace, el pionero oscuro

En la era de los grandes naturalistas ingleses del siglo XX, uno de los más brillantes es hoy uno de los más injustamente olvidados.

Alfred Russell Wallace en su libro sobre
sus viajes por el Río Negro.
(D.P., vía Wikimedia Commons)
La historia nos puede sonar conocida: joven británico emprende un viaje como naturalista de a bordo en una expedición hacia América. Analizando las especies que va encontrando empieza a germinar en su mente la idea de que cuanto ve es una prueba de que las especies se van formando, evolucionando por medio de un mecanismo llamado “selección natural”, mediante el cual los individuos mejor adaptados para la supervivencia tienen una probabilidad mayor de reproducirse, creándose una criba lenta que al paso de larguísimos períodos va llevando a una especie como tal a diferenciarse de otra, a cambiar, a mejorar su adaptación, a sobrevivir mejor.

Sin embargo, ésta no es la historia de Charles Darwin. Es la historia, paralela a la de éste,del segundo genio de la selección natural de la Inglaterra del siglo XIX, Alfred Russell Wallace.

Alfred Rusell Wallace, presuntamente descendiente del independentista escocés William Wallace, nació en Monmouthshire, Inglaterra (hoy Gales) en 1823, como el octavo de nueve hermanos. Cualquier inquietud intelectual que hubiera tenido en su niñez sufrió un duro golpe cuando, a los doce años de edad, su padre, arruinado a manos de unos estafadores, lo tuvo que sacar de la escuela y enviarlo con sus hermanos mayores, uno de los cuales, William, lo tomó como aprendiz de topógrafo.

En 1843, cuando sólo tenía 20 años, el joven Alfred consiguió un puesto como profesor de dibujo, topografía, inglés y aritmética en el Collegiate School de Leicester, donde además empezó a estudiar historia natural, disciplina que lo fascinó, especialmente en cuanto a los insectos y su clasificación.

En 1845, la lectura de un libro de Robert Chambers lo convenció de que la evolución (llamada por entonces “transmutación”) era un hecho real. Tres años después, en compañía de un amigo y colega entomólogo, emprendió el viaje a Brasil, inspirado por otros naturalistas como el propio Darwin, que había hecho su viaje en el “Beagle” en 1831.

Russell Wallace pasó cuatro años recorriendo las selvas brasileñas, recolectando especímenes, haciendo mapas, dibujando animales y escribiendo numerosas notas. Por desgracia, cuando decidió volver a Inglaterra en 1852, el barco en el que viajaba se hundió, dejándolo a la deriva durante 10 días y llevándose al fondo del mar todos los documentos reunidos por el joven naturalista. Sin arredrarse, en 1854 emprendió una nueva expedición, ahora al archipiélago malayo, donde pasó ocho años en total dedicado a documentar la fauna local, describiendo miles de especies hasta entonces desconocidas para la ciencia.

Fue en 1858 cuando, estando convalesciente de una enfermedad en la isla indonesia de Halmahera, Alfred Russell Wallace encontró finalmente una explicación plausible, integral y clarísima del proceso mediante el cual evolucionaban las especies, la selección natural. De inmediato escribió un extenso ensayo explicando su teoría y sus bases, y se la envió a Charles Darwin, con quien ya había tenido correspondencia sobre el tema de la evolución.

Darwin, por su parte, había descubierto el mecanismo de la selección natural años atrás, pero su visión sistemática y pausada (llevaba más de 25 años analizando los datos que había reunido en el “Beagle”, investigando e incluso experimentando sobre temas diversos relacionados con el tema) le había hecho mantener su idea en relativo secreto, hasta estar absolutamente seguro de que los datos la sustentaban. Ahora, sin embargo, el asunto debía saltar al público.

Asesorado por el geólogo Charles Lyell y el explorador y botánico Joseph Dalton Hooker, Darwin aceptó que ellos dos presentaran el ensayo de Wallace y dos extractos del libro que pacientemente había ido redactando Darwin (“El origen de las especies”) ante la Sociedad Linneana de Londres el 1º de julio de 1858, y que se publicaron ese año en la revista de la sociedad con el nombre conjunto de “Sobre la tendencia de las especies a formar variedades y sobre la perpetuación de las variedades y las especies por medios naturales de selección".

Durante los años siguientes, la teoría de la evolución por medio de la selección natural fue conocida como la teoría Darwin-Wallace, y los premios, reconocimientos y críticas recayeron por igual sobre los dos destacados naturalistas, el ya maduro (Darwin estaba por cumplir medio siglo) y el aún joven (Russell Wallace tenía casi la mitad, 25).

Mientras Darwin publicaba un año después su famoso libro y, con el apoyo de Thomas Henry Huxley, capeaba en el Reino Unido el temporal de críticas y malinterpretaciones que produjo, Alfred Russell Wallace continuó trabajando en Indonesia, clasificando, observando y tomando notas.

Cuando finalmente volvio a Inglaterra en 1862, Wallace se dedicó a difundir y explicar la teoría de la selección natural que había creado con Darwin, y a escribir más de 20 libros sobre viajes, zoología y biogeografía, entre ellos “El archipiélago malayo”, un clásico de la exploración y la aventura. Además de ello, tuvo tiempo bastante de disfrutar multitud de honores, premios y apoyos. Incluso cuando se vio en dificultades económicas, contó con la ayuda de Darwin, que consiguió que la corona inglesa le asignara a Wallace un estipendio vitalicio para que pudiera continuar su trabajo sin preocupaciones financieras.

Al morir Alfred Russell Wallace en 1913 a los 91 años, era probablemente el más conocido naturalista inglés. Y sin embargo, conforme la teoría de la selección natural se perfeccionó y afinó con nuevos descubrimientos como la genética para crear la síntesis que hoy explica el surgimiento de las especies, el nombre de Alfred Russell Wallace se fue borrando de la conciencia popular, pese al reconocimiento que Darwin siempre le dio como co-fundador de la teoría de la evolución mediante la selección natural.

Quizá haya alguna clave en el hecho de que Wallace escribiera, con base en las conferencias que dio sobre evolución en los Estados Unidos durante tres años, el libro simplemente intitulado “Darwinismo”, publicado en 1889 y que se convirtió en una de sus obras más citadas, dejándonos con la duda de por qué no lo llamó “Darwinismo-Wallacismo”.

La línea de Wallace

Alfred Russell Wallace fue también uno de los fundadores de la biogeografía, al notar que ,pese a que las islas de Bali y de Lombok, están separadas por apenas 35 kilómetros, la diferencia de su fauna era enorme. Las aves de Bali eran parientes de las que vivían en las islas mayores como Sumatra y Java, mientras que las de Lombok estaban relacionadas con las de Nueva Guinea y Australia. Había encontrado el punto que delimita dos zonas ecológicas distintas, lo que hoy se conoce como la Línea de Wallace.

Locura: la presa escurridiza

El antiguo temor a perder la razón apenas empieza a encontrar respuestas en el estudio científico de las patologías del comportamiento.

"El cirujano" de Jan Van Hemessen en el Museo del Prado
(Copyright ©  Directmedia Publishing GmbH,
Wikimedia Commons) 
En la pintura flamenca del renacimiento y posterior es común el tema de la extracción de la piedra de la locura. En el Museo del Prado podemos verla representada por Hieronymus Bosch (“El Bosco”) y Jan Van Hemessen, y también fue tocado por Pieter Brueghel “El viejo”, Jan Steen, Frans Hals y otros: un cirujano charlatán extrae de la frente de su paciente una piedra que, se decía, era la causante de la locura. Para los pintores es claramente un truco de prestidigitación, como el que hoy realizan “cirujanos psíquicos” que fingen extraer de sus pacientes objetos y supuestos tumores (vísceras de diversos animales).

Éste es un testimonio de la preocupación que el ser humano ha dedicado a la pérdida de la razón, la locura, según haya sido definida en distintos momentos y lugares para diferenciarla de la simple extravagancia, la excentricidad o la rebeldía ante el convencionalismo.

En el principio de la historia humana, y durante varios miles de años, toda enfermedad, y las del comportamiento no eran la excepción, se consideraron producto de la acción de espíritus maléficos o demonios, o un castigo divino como lo señala repetidamente la Biblia. En la Grecia clásica, Aristóteles o Plinio el Viejo afirmaron que la locura era inducida por la luna llena, creencia que en cierta forma persiste en la actualidad en forma de leyenda urbana pese a que la han contradicho diversos estudios.

No eran mejores las interpretaciones que atribuían la locura a una falla moral del propio paciente, visión probablemente reforzada por los efectos de la sífilis, que en su etapa terciaria puede provocar demencia (pérdida de memoria), violentos cambios de personalidad y otros problemas que se atribuían a la disipación sexual de la víctima.

El estudio científico de las alteraciones graves de la conducta y la percepción no se inició sino hasta la aparicion del pensamiento ilustrado, a fines del siglo XVIII, que empezó a considerar estas alteraciones como problemas orgánicos y no espirituales, abriendo el camino a su estudio médico y psicológico.

Tratamientos delirantes y definiciones cambiantes

Los criterios para considerar una conducta como patológica son en extremo variables según el momento, la cultura y las normas sociales, sin considerar casos extremos (la Unión Soviética fue ejemplo claro) donde se declaraba loco a quien no aceptara las ideas del poder político, actitud que, además, no ha sido privativa de las dictaduras.

Pero argumentar que algunos comportamientos pueden ser simples desviaciones de la media, incluso un derecho a disentir por parte del afectado, como plantean algunos críticos, queda el problema de ciertos estados que provocan un sufrimiento claro para quienes los padecen y una disminución de su capacidad de funcionar, como las alucinaciones, los delirios y los problemas de comportamiento y percepción propios de afecciones como la esquizofrenia.

Hasta el siglo XIX no había siquiera un intento de caracterización de los trastornos psicológicos, y sin embargo hubo numerosos intentos de tratamiento poco efectivos y sin bases científicas, desde el psicoanálisis hasta intervenciones directas, químicas o quirúrgicas, que parecen haber surgido como producto tanto de la impotencia ante las alteraciones observadas como de cierto oportunismo producto de la indefensión de los pacientes.

La lobotomía prefrontal (el corte de las conexiones entre la parte más delantera del cerebro y el resto del mismo), el shock insulínico, la terapia de sueño profundo inducido con barbitúricos y la terapia de electrochoques fueron procedimientos ampliamente practicados en pacientes durante la primera mitad del siglo XX, porque parecían tener cierta efectividad. Aunque fueron abandonados o su utilización se afinó para ciertos casos donde su eficacia finalmente se demostró, han servido para dar una imagen negativa de la psiquiatría bien aprovechada por sus detractores.

El cambio en el tratamiento se produjo en la década de 1950, con la aparición de los medicamentos antipsicóticos, que por primera vez ofrecieron, si no una curación, sí un alivio perceptible para los pacientes y sus familias, y a los que se añadieron antidepresivos y ansiolíticos (medicamentos que reducen la ansiedad) para el tratamiento de alteraciones emocionales. Estos medicamentos han ayudado, al menos en principio, a empezar a identificar algunos aspectos químicos de algunas de las escurridizas “enfermedades mentales”.

El desarrollo de estos medicamentos ha permitido el control de algunos de los aspectos de las psicosis que más sufrimiento causan a los pacientes y a sus familias, en particular las alucinaciones y los delirios, pese a no estar exentos de problemas, efectos secundarios indeseables y una eficacia inferior a la deseable.

Del lado de la psicología, las distintas terapias suelen no ser producto de una aproximación científica rigurosos, sino postuladas teóricamente por autoproclamados pioneros, con el resultado de que su eficacia es igualmente debatida. Es sólo en los últimos años cuando se han empezado a realizar estudios sobre los efectos de distintas terapias en busca de bases sólidas para las intervenciones psicológicas.

Finalmente, el área del comportamiento, al no tener en general criterios de diagnóstico objetivos, fisiológicos, anatómicos y medibles, se ha visto sujeta a la aparición de modas diversas en cuanto al diagnóstico y tratamientos, muchas veces en función de la percepción de los medios de comunicación. En distintos momentos se ha diagnosticado a grandes cantidades de personas como depresivas, autistas o bipolares sin una justificación clara, y al mismo tiempo florecen por cientos las más diversas terapias.

El cerebro humano, y en particular la conducta y la percepción, siguen siendo terreno desconocido en el que las neurociencias apenas empiezan a sondear las aguas. La esperanza es llegar a una caracterización clara de las psicopatologías (definidas por sus características fisiológicas, genéticas o neuroquímicas) y tratamientos basados en las mejores evidencias científicas. Pero aún mientras ello ocurre, al menos en parte se ha dejado atrás el embuste de la piedra de la locura que fascinó a los pintores holandeses.

Más allá del ser humano

Aunque no hay comunicación directa, se han observado patrones de comportamiento en primates cautivos que parecen indicar una alteración en los procesos de pensamiento y percepción similares a los desórdenes mentales: agresividad, automutilación, aislamiento de los compañeros de grupo y otras anormalidades del comportamiento que podrían ayudar a caracterizar algún día con más objetividad las psicopatologías humanas.

420 millones de años de dientes

Aunque hay grandes lagunas en nuestro conocimiento de los tiburones, hoy sabemos que muchos mitos a su alrededor no tienen base en la realidad… y que están en peligro.

Tiburón ballena en el acuario de Georgia
(Imagen de Wikimedia Commons)
Existe un monstruo marino mítico, una explosión de furia que ataca y devora cualquier cosa, llenando los océanos con ejércitos de atacantes de cerebros diminutos, casi autómatas; peces de gran tamaño y frialdad asesina que acechan a todo ser humano que se aventure a sondear las aguas marinas y que ha sido inmortalizado en libros, películas y leyendas multiplicadas por la imaginación popular.

Por otro lado están los tiburones, más de 400 especies del superorden que los biólogos llaman Selachimorpha y que incluye a ocho órdenes vivientes y cuatro ya extintos. Son peces de esqueleto formado de cartílago, sin huesos y cuyas especies van desde el diminuto Apristurus sibogae, de las costas de Indonesia que llega a los 21 centímetros de longitud, hasta el gigantesco tiburón ballena, el pez más grande del planeta, que puede llegar a medir más de 15 metros y pesar más de 30 toneladas, un tranquilo gigante que se alimenta de pequeños organismos, como las ballenas reales.

Los tiburones son animales, predominantemente carnívoros pero muy selectivos en cuanto a su dieta, con una capacidad de aprendizaje y adaptabilidad en algunos aspectos similares a los de los mamíferos y para los cuales el ser humano resulta un alimento poco apetitoso, con demasiados huesos y demasiada poca grasa.

Pese al temor generalizado, los ataques de tiburones a humanos no llegan al centenar cada año en todos los mares del mundo y las muertes que ocasionan son apenas unas 10. La estrategia de muchos tiburones, consiste en lanzar una rápido mordisco y retirarse a esperar a que la víctima se desangre. Esto le evita enfrentarse a los agudos y fuertes dientes de presas como las focas. El “mordisco para probar” puede darse a objetos como boyas y tablas de surf, y podría explicar que los tiburones habitualmente se retiren después de morder a un ser humano, considerándolo poco apetitoso.

Es el tiburón el que debería temer al ser humano, que lo sacrifica para obtener esa aleta dorsal que se considera aviso de peligro cuando corta la superficie del agua, y que se usa para hacer una sopa muy apreciada en la cocina china. También se le caza por un mito según el cual el cartílago de tiburón tendría capacidad de combatir el cáncer, creencia que no tiene ninguna base sólida.

Las cifras que se citan son muy diversas, la ONU calcula el sacrificio de 10 millones de tiburones anuales, pero algunos conservacionistas elevan la cifra a los 100 millones. Un estudio de 2006 del Imperial College London, basado en datos de los mercados, concluyó que la cifra más probable es de 38 millones de tiburones sacrificados sólo para cortarles la aleta y devolver el resto del animal, muerto o medio muerto, al mar.

Evolución de un mito

Los cientos de especies de tiburones que hoy pueblan los océanos y algunos ríos tuvieron su origen hace al menos 420 millones de años, lo cual sabemos gracias al hallazgo de escamas fosilizadas que los expertos coinciden en considerar como pertenecientes a ancestros de tiburones (aunque hay escamas de más de 450 millones de años sobre las que no hay acuerdo), y de dientes primitivos de tiburón hallados en depósitos de 400 millones de años de antigüedad.

Ambos aspectos, escamas y dientes, son notablemente distintivos de los tiburones. Los dientes no crecen dentro de sus mandíbulas, sino en las encías, y continuamente caen para verse sustituidos por otros que van avanzando desde el interior del hocico en filas sucesivas. Según algunos expertos, un tiburón actual puede perder unos 30.000 dientes a lo largo de toda su vida. Su característica forma triangular permite identificar especies, tendencias evolutivas e incluso aspectos tales como el tamaño y algunos hábitos del animal. Las escamas, por otro lado, son singulares por su pequeño tamaño en comparación con las de los peces de esqueleto óseo y su forma aerodinámica, que es en parte responsable de la velocidad de los tiburones, y que se ha utilizado como modelo para el diseño de trajes de natación y buceo.

Los grupos de tiburones modernos tienen su origen hace aproximadamente 100 millones de años, cuando ocurrió lo que los biólogos llaman una “radiación”, es decir, la aparicion de varios linajes a partir de un ancestro común, en este caso un ancestro aún no identificado.

Un momento culminante de la larga historia del tiburón ocurrió hace unos 20 millones de años, cuando apareció la especie llamada megalodon (gran diente), el mayor tiburón que ha existido. Sus grandes dientes fósiles, que pueden sobrepasar los 18 centímetros de longitud, y algunas vértebras fosilizadas, son todo lo que tenemos para intentar reconstruirlo. Distintas aproximaciones dan un pez de al menos 13 metros de largo (con dientes desproporcionadamente grandes, pero plausibles) y de quizá más de 20 metros. El megalodon desapareció de las aguas del planeta hace alrededor de un millón de años y, actualmente, sus dientes son un objeto de colección muy apreciado y motivo de un animado comercio mundial.

Queda mucho por saber sobre los tiburones, su historia evolutiva, su comportamiento, su presencia en los mares y el riesgo en el que realmente pueden estar algunas especies por su sobreexplotacion (en aras de una sopa de aleta de tiburón que, según los expertos en cocina, ni siquiera tiene un sabor distintivo ni intenso). Pero también su singular química nos va ofreciendo posibilidades interesantes.

En septiembre de 2011 se publicó un estudio que revelaba la aparente capacidad antiviral de una sustancia que se encuentra en el hígado de los tiburones, la escualamina. Michael Zasloff, que descubrió la molécula en 1993 y la ha estudiado desde entonces, ha encontrado varias aparentes propiedades antibióticas de esta sustancia que están siendo estudiadas, aunque algunos vendedores de productos milagros se han precipitado para ofrecerla como uno más de los “remedios para todo” que inundan el mercado de lo alternativo.

Si realmente se demostrara la utilidad y seguridad de la escualamina como antiviral para los seres humanos, eventualmente llegaría al arsenal médico con el que contamos. Las buenas noticias para los tiburones es que no será necesario pescarlos para obtener el medicamento: la escualamina se puede sintetizar con relativa facilidad a partir de semillas de soja

El sueño del tiburón

Los tiburones no tienen la vejiga natatoria con la que otros peces controlan su flotabilidad, y la mayoría no puede bombear el agua a través de sus branquias. Para no hundirse y para poder respirar, la mayoría de los tiburones están obligados a nadar constantemente, incluso cuando están dormidos, o al menos parecen estarlo.

Espacio 2012

Lanzamiento de un
cohete Ariane
(Wikimedia Commons)
Mientras Japón, China, la India y el capital privado empiezan a participar en la exploración espacial, la ESA mantiene un proyecto espacial europeo cuya importancia a veces subestimamos.

Quizás gran parte del romanticismo de los viajes espaciales se ha visto sustituido por uno de los grandes enemigos de la humanidad: la rutina. Los niños ya no suelen pegarse a las pantallas de televisión, como lo hacían en los años 60 y 70, para ver todos y cada uno de los lanzamientos espaciales.

Ir al espacio ya no es un acontecimiento excepcional con sabor a aventura, como los primeros viajes orbitales, la carrera hacia la Luna, la primera sonda a Marte o los robots pioneros que se lanzaron a visitar los límites del sistema solar. Hoy, los lanzamientos son cosa cotidiana y con gran frecuencia se ocupan de cosas mundanas como llevar pasta de dientes a la Estación Espacial Internacional.

2012 será la primera ocasión en 30 años en que Estados Unidos no tendrá un vehículo espacial propio, retirados ya los transbordadores espaciales. Y no lo tendrá al menos en dos años. Su sustituto, el vehículo Orión, tiene prevista su primera prueba no tripulada para 2014. Mientras, el transporte de tripulantes hacia y desde la Estación Espacial Internacional (ISS) dependerá de Rusia y su renovada nave Soyuz TMA-M.

Quizá la mejor forma de ver la forma que asume la exploración espacial en el siglo XXI es revisar el presupuesto de la ESA para 2012, que asciende a 4.020 millones de euros (contra los 14.470 millones de euros de la NASA) dedicados a la investigación, pruebas, fabricación, lanzamiento y operación de todas sus misiones.

La mayor parte de ese presupuesto, más de 860 millones de euros, se dedica a la observación de la Tierra (estudio de la atmósfera, del campo magnético, etc). 720 millones van para navegación, 578 millones se dedican a sistemas de lanzamiento, el programa científico recibe 480 millones y los viajes espaciales humanos 413 millones. A las telecomunicaciones quizá el beneficio más evidente de la exploración espacial en nuestra vida cotidiana, se destinan 330 millones.

La Agencia Espacial Europea en 2012

En enero, la ESA realizará el primer vuelo de su cohete de lanzamiento Vega. capaz de poner en órbitas polares y bajas cargas de 300-2.000 kilogramos. Este cohete pequeño completa la oferta de lanzadores europeos, facilitando un acceso más barato al espacio para satélites científicos y de observación terrestre. En su primer viaje al espacio, el Vega pondrá en órbita el satélite LARES de la agencia espacial italiana, dedicado al estudio de algunos aspectos de la relatividad general y el ALMASat de la universidad de Bolonia, además de varios microsatélites de universidades europeas, de los llamados “cubesat”, cubos de 10 cm por lado y una masa de 1,33 kilogramos.

El camión espacial europeo, el ATV, realizará su tercera misón en marzo de 2012 llevando a la estación espacial 6,6 toneladas de carga. A diferencia de los vehículos de transporte privados Dragón y Cygnus, su avanzado sistema de navegación le permite acoplarse automáticamente a la estación espacial. Después de permanecer acoplado a ella durante un tiempo, el ATV se separa llevando consigo varias toneladas de desechos y reingresa a la atmósfera terrestre, quemándose por completo.

Durante el año, la ESA lanzará también 2 nuevos satélites meteorológicos. En mayo se pondrá en órbita polar el MeteOp-B, segundo de una serie de tres dedicados a mejorar la calidad de la previsión del tiempo y la monitorización de las condiciones de la atmósfera. En junio o julio será el turno del MSG-3, tercero de una serie cuyo nombre son las siglas en inglés de “segunda generación de Meteosat”, dedicado a la observación de la Tierra mediante luz visible y radiación infrarroja para el estudio de la meteorología y la previsión de desastres naturales.

En mayo de 2012, un cohete ruso Protón llevará a la estación espacial internacional el brazo robótico europeo ERA, de más de 11 metros de longitud total, que se colocará en el laboratorio multiusos de la ISS y se utilizará para el reemplazo de paneles solares, la inspección de la estación, el manejo de carga y el apoyo a los astronautas durante las caminatas espaciales.

También en mayo volverá a la Tierra el astronauta holandés de la ESA, André Kuiper, después de llevar a cabo la cuarta misión de larga duración de la ESA en la Estación Espacial Internacional, a la que llegó el 23 de diciembre.

En el verano de 2012 también se pondrá en órbita la misión Swarm, una constelación de tres satélites en tres órbitas polares que se dedicarán a medir con la máxima precisión la fuerza, dirección y variaciones del campo magnético de la tierra.

Una actividad de espacil importancia será el lanzamiento dos nuevos satélites del sistema Galileo de navegación y geoposicionamiento. En la actualidad, el mundo depende de la red GPS de 24 satélites del Departamento de Defensa de los Estados Unidos. Por motivos que van desde la seguridad, aspectos estratégicos hasta la antigüedad del sistema estadounidense, Europa ha emprendido este proyecto que contará con 30 satélites en total para 2014. Además del servicio gratuito de GPS, Galileo, ofrecerá servicios especiales a usuarios tales como aerolíneas, gobiernos y servicios de búsqueda y rescate.

Los satélites de geolocalización o navegación requieren de una amplia red de apoyo. Galileo contará con entre 30 y 40 estaciones sensoras, 3 centros de control, 9 estaciones de comunicaión con los satélites y 5 estaciones de telemetría, rastreo y comando.

Con vistas al futuro, 2012 será un año de pruebas intensivas de la nave orbitadora planetaria de Mercurio, mitad europea del proyecto BepiColombo para el estudio de Mercurio, el más pequeño y más cercano al sol de los planetas del sistema solar. La otra mitad es el orbitador magnetosférico de Mercurio que está construyendo la agencia espacial japonesa. La misión está prevista para ponerse en marcha en 2014.

Además de sus proyectos propios, la ESA se encargará del lanzamiento y puesta en órbita de satélites de distintos países y para distintos objetivos.

Finalmente, en noviembre se llevará a cabo en Italia la reunión de los ministros encargados del espacio de los 19 países miembros de la ESA, para analizar lo realizado y plantear los nuevos caminos de la exploración espacial europea.

La empresa privada en órbita

Estados Unidos ha apostado de modo intenso, por la financiación de proyectos privados. Las empresas privadas Space X y Orbital Sciences Corporation enviarán dos primeros vehículos de abastecimiento a la ISS en 2012. La primera de estas empresas Space X, tiene previsto realizar su primer vuelo tripulado en 2015, mientras que el negocio de los vuelos suborbitales es la gran apuesta del multimillonario Richard Branson con su empresa Virgin Galactic.

El doble ciego y el mal Stradivarius

Un moderno mecanismo de la experimentación científica que nos enseña tanto sobre nosotros como sobre la realidad objetiva.

Stradivarius de1687 del Palacio Real de Madrid
(Foto deHåkan Svensson, Wikimedia Commons) 
El científico que estudia plásticos, bacterias o huracanes tiene una razonable certeza de que los resultados de sus estudios no van a cambiar según el humor, expectativas o inseguridades personales de los objetos a los que se dedica.

Pero el que trabaja con seres humanos debe tener en cuenta la personalidad, percepciones, emociones, expectativas, humor, actitudes y demás volubilidades humanas.

Esto es cierto en alguna medida incluso cuando medimos aspectos objetivos en algunos estudios de laboratorio, como un recuento de glóbulos blancos en la sangre, y más al estudiar eventos que no se pueden medir directamente, como el dolor. En un estudio donde un grupo de personas debe decir si un medicamento les alivia el dolor, el experimentador no puede medir objetivamente el dolor, su cantidad o forma, sino que depende de lo que diga o informe quien está sufriendo el dolor y recibe el medicamento.

Las personas que participan en el estudio pueden cambiar su valoración en función de muchos elementos y no sólo de la eficacia del medicamento. Pueden creer que el nuevo medicamento es enormemente eficaz, o sentirse mejor que otra persona que considere que ningún medicamento le puede ayudar, si la medicina con bases científicas le ha ayudado en el pasado o si bien es proclive a creer en terapias no demostradas. O bien, aunque no se sienta mejor, puede no querer que por su culpa se dañe la investigación de un médico amable y simpático, e informe así de una mejoría mayor que la que siente en realidad. O bien el enfermero o la enfermera que les atiende les resultan muy atrayentes y confunden el bienestar que les produce una visión estética con un efecto del medicamento. O que les relaje la buena disposición y comprensión exhibidas por un experimentador.

Son multitud los elementos que pueden afectar los informes de un paciente en este tipo de estudios. Y uno de los retos de la experimentación científica con humanos (y con seres vivos que tienen un sistema nervioso desarrollado, en general) ha sido desarrollar herramientas para tratar de eliminar, descontar o compensar esas variables y así obtener resultados más fiables.

Lo primero que se nos ocurre, por supuesto, es que la persona no sepa si está recibiendo el medicamento o no. Podemos separar a nuestro grupo en dos: a la mitad les daremos el medicamento y a la otra mitad les daremos un comprimido idéntico en aspecto, pero que no tiene propiedades farmacológicas. Esto sería un estudio llamado “a ciegas” o “ciego” porque los sujetos no saben si están recibiendo medicamento real o simulado.

Este medicamento simulado es lo que se conoce como “placebo” y los estudios que se hacen utilizándolo se denominan “controlados por placebo”. Así, si se mantiene igual todo (incluidos los enfermeros atractivos) y el grupo que recibe el medicamento informa de una mejoría significativamente superior que el grupo que recibe el placebo, es razonable suponer en principio que el efecto se debe al medicamento y no a los demás factores que influyen en cada persona.

Pero, si las expectativas del individuo influyen en los resultados, también pueden influir las expectativas de quien administra el medicamento. Si el médico o enfermera saben que le están dando un placebo a un paciente, pueden dar señales, incluso sutiles, de que no debe esperar demasiado de él, comentarios al paso durante la entrega de los comprimidos, miradas, etc. Si, por otra parte, saben que están administrando la sustancia real y tienen grandes expectativas de que funcione, pueden ser más amables, cordiales y cálidos con los pacientes que la reciben, y darles ánimos y comentarios positivos que influyan en el informe del paciente. Para evitar esto se establece un requisito adicional: que quienes administran el medicamento (real o simulado) tampoco sepan qué le están dando al paciente. Esto es lo que se conoce como “doble ciego”.

El mecanismo de doble ciego disminuye (pero no elimina) muchos aspectos subjetivos de estudios no sólo de farmacología, sino de otros tipos. Junto con el placebo y los esfuerzos por distribuir aleatoriamente los grupos de personas estudiadas para que sean homogéneos en cuanto a edad, sexo, historial clínico y otros aspectos, son herramientas que permiten tener mayor certeza en los resultados experimentales. Es por ello que en cuestiones de seguridad fundamentales como los medicamentos y los alimentos se exige que sean sometidos a estudios rigurosos que incluyan este mecanismo para tener una idea más fiable de su eficiencia y seguridad.

Pero el doble ciego no sólo se utiliza en medicina. Recientemente, el procedimiento dio una sorpresa en el mundo de la música. Durante una competencia de violín, la física especializada en acústica Claudia Fritz hizo que 21 violinistas profesionales tocaran seis violines (tres modernos, dos Stradivarius y un Guarnerius) y dijeran cuál preferían, para ver si efectivamente los violinistas podían distinguir las maravillas de los antiguos instrumentos italianos.

En una habitación con poca iluminación, con gafas de soldador para no distinguir los instrumentos y con perfume en las barbadas (donde se apoya la barbilla) para ocultar el olor de la madera antigua, los violinistas tocaron durante tres minutos cada uno de los violines en orden aleatorio, entregados por una persona que tampoco sabía cuál era moderno y cuál antiguo.

¿El resultado? Los violinistas seleccionaron por igual los modernos que los antiguos, salvo uno de los Stradivarius… que obtuvo las peores calificaciones generales. Por supuesto, los primeros sorprendidos fueron los violinistas, que antes del estudio estaban seguros que los Stradivarius y Guarnerius serían fácilmente identificables por su calidad de sonido superior.

Estudios similares han puesto en cuestión la calidad de otros productos en cuya percepción, lo que ocurre en nuestro interior parece influir más que los estímulos del exterior. Esto, por supuesto, no quita valor a la profundidad de nuestras emociones cuando creemos estar escuchando un Stradivarius, pero quizá nos ayude también a apreciar mejor un violín de bajo precio tocado con gran maestría.


El inventor del doble ciego


Al estudiar los efectos de la cafeína y el alcohol en la fatiga muscular, el británico William Halse Rivers Rivers se percató de que había componentes psicológicas en sus resultados, de modo que en los primeros años del siglo XX diseñó los primeros experimentos rigurosos de doble ciego “para eliminar todos los efectos posibles de la sugestión, la estimulación sensorial y el interés”. El procedimiento de doble ciego, sin embargo, no se generalizó sino hasta bien entrado el siglo XX.

El viento del sol

Esquema que muestra cómo el campo magnético
de la Tierra nos protege del viento solar
(Imagen D.P. de la NASA vía Wikimedia Commons)
Dirige la cola de los cometas, provoca las auroras boreales y australes y podría algún día llevarnos a las estrellas.

El 1º de septiembre de 1859, poco antes del mediodía, dos astrónomos aficionados, Richard Christopher Carrington y Richard Hodgson, observaron independientemente, por primera vez en la historia humana, una erupción solar, una súbita explosión en la superficie del sol que libera lo que parece una potente llamarada de un poder difícil de imaginar.

Esa misma tarde, el físico escocés Balfour Stewart, director del observatorio magnético Kew de Londres, registró una intensa anomalía magnética en el sol seguida, a las 4 de la mañana del día siguiente, por una intensa tormenta geomagnética, la más intensa, de hecho, que se ha registrado hasta el día de hoy. Las “auroras boreales” o luces del norte se llegaron a ver incluso sobre Venezuela, casi en el Ecuador del planeta, y fueron de una intensidad tal que el New York Times informó que a la una de la mañana se podía leer el diario sólo con esas fantasmales luces. Otro efecto de esta poderosa tormenta magnética fue el fallo temporal de los sistemas de telégrafos en todo el hemisferio norte. Para el día 4 de septiembre, la tormenta magnética amainó finalmente.

Poco tardaron los científicos en conectar la erupción solar observada por Carrington y Hodgson con la perturbación magnética y la tormenta subsiguiente. Una brusca y colosal alteración del sol afectaba a nuestro planeta de un modo que apenas había sido entrevisto por algunos teóricos y abría toda una nueva avenida de investigación sobre nuestro universo.

El sol emite continuamente y en todas direcciones un flujo de plasma (el cuarto estado de la materia, ni gaseoso, ni líquido ni sólido) compuesto por electrones libres, protones y iones altamente energizados y que sale despedido a una velocidad media de unos 400 kilómetros por segundo, pero que puede ser muchísimo más rápida en el caso de erupciones solares violentas. Es el llamado “viento solar”, que fue descubierto en la década de 1950 por el astrónomo alemán Ludwig Biermann. El científico observó que sin importar en qué punto de su órbita esté un cometa, su cola siempre apunta en sentido contrario al sol, y teorizó que esto se debía a un flujo continuo de partículas emitidas por el sol, que ya había sido sugerido por el astrofísico Arthur Eddington en 1910.

El viento solar no es producido únicamente por el calor del sol (calculado en 15 millones de grados centígrados en su interior y en 6.000 ºC en su superficie), sino por el campo magnético del sol. De hecho, el viento solar escapa de la atmósfera del sol primordialmente por sus polos magnéticos.

El viento solar es extremadamente potente. Para darnos una idea, los datos de la nave Mars Global Surveyor indican que, efectivamente, nuestro vecino Marte tuvo una atmósfera mucho más densa en el pasado, pero esta atmósfera fue literalmente arrastrada hacia el espacio por el viento solar.

¿Por qué no pasa esto en la Tierra? ¿No estamos en peligro de que estas potentes emisiones del Sol nos dejen sin nuestra preciada y vital atmósfera? Lo estaríamos a no ser porque tenemos algo con lo que no cuenta el planeta rojo, lo más parecido al “escudo de fuerza invisible” de la ciencia ficción: el campo magnético de la Tierra.

El campo magnético

Nuestro campo magnético o magnetosfera se distingue por dos zonas llamadas “cinturones de radiación Van Allen”, en forma de donut o, como le llaman los topólogos, “toro”, alrededor de nuestro planeta. Están formados por partículas altamente cargadas provenientes de los rayos cósmicos y, principalmente, del viento solar.

El viento solar se encuentra con la magnetosfera de modo similar a como lo hace el agua con la proa de un barco, desviándose de modo que no choca directamente con la atmósfera terrestre. En su recorrido, las partículas del viento solar que logran penetrar el campo magnético quedan atrapadas en los cinturones de Van Allen. Al mismo tiempo, el viento solar transfiere partículas y energía a la magnetosfera, cuyos electrones e iones viajan por las líneas del campo magnético hacia los polos, provocando las auroras boreales (en el norte) y australes (en el sur).

Mientras más intenso es el viento solar, como en el caso de la explosión de 1859, mayor es la perturbación del campo magnético de nuestro planeta y éste recibe más energía que podemos ver en la forma de auroras y en diversas alteraciones de la ionosfera e incluso de dispositivos eléctricos y electromagnéticos en la superficie de la Tierra, como ocurrió con los telégrafos en 1859.

Pero, si el viento solar tiene esa fuerza tan asombrosa, ¿no se podría utilizar para impulsar una vela, como el viento de la atmósfera terrestre es aprovechado por los veleros?

Ya en la década de 1920, el pionero ruso de la astronáutica Konstantin Tsiolkovsky propuso usar “la presión de la luz del sol” para viajar por el cosmos, una idea que se fortaleció conforme se comprendían mejor el viento solar y la presión que ejerce la radiación solar, y que fue retomada con entusiasmo por la ciencia ficción de las décadas de 1950 a 1980.

El viento solar y los fotones que forman la luz del sol, se teorizó, podrían ser empleados por una “vela” de un material reflectante muy, muy ligero. Para poder aprovechar la fuerza del sol, tal vela tendría que ser extremadamente grande. En la década de 1970, por ejemplo, un equipo de la NASA propuso un velero solar para encontrarse con el cometa Halley, y cuya vela debería tener 600.000 metros cuadrados, 50% más grande que la Plaza de Tiananmen, en Beijing.

La primera, y única hasta ahora, vela solar en funcionamiento es la de una nave experimental de la Agencia Japonesa de Exploración Aeroespacial (JAXA), llamada IKAROS (siglas en inglés de “nave cometa interplanetaria acelerada por la radiación del sol). Lanzada el 21 de mayo de 2010, consiguió demostrar la viabilidad de la tecnología de la vela solar, completando con éxito la misión de viajar hasta Venus, planeta a cuya vecindad llegó en diciembre de 2010, demostrando que la enorme fuerza de nuestra estrella, el viejo Sol, podría ser la que nos lleve algún día hacia otras estrellas, el viejo sueño del cosmos.

El peligro de una tormenta solar

El riesgo, pequeño pero real, de que una tormenta solar especialmente violenta en un Sol en gran actividad pueda provocar alteraciones en dispositivos y sistemas eléctricos y electromagnéticos ha sido inspiración de algunas fantasías que aseguran que en el 2012 habrá una tormenta aún más intensa que la de 1859. Los astrofísicos no están de acuerdo. Aunque 2012-2013 marcarán será el pico del ciclo de 11 años de actividad de nuestra estrella, desde 2008 sabemos que este ciclo resultó especialmente tranquilo, el menos intenso desde 1928.

¿Cuántas vidas puedes salvar?

La donación de órganos y tejidos después de la muerte es la única esperanza de millones de personas que sufren las más diversas afecciones.

Injerto de vena safena en el corazón
(Wikimedia Commons)
El primer trasplante exitoso de un tejido de una persona a otra ocurrió en lo que hoy es Chequia en diciembre de 1905, cuando el médico austríaco Eduard Konrad Zirm trasplantó las córneas de un niño a un trabajador, devolviéndole la vista. Pero no fue sino hasta que Christiaan Barnard realizó en Sudáfrica el primer trasplante de corazón en 1968 que la donación de nuestros restos mortales se convirtió en un aspecto importante de las decisiones que tomamos para después de nuestra muerte.

Antes de esa época, la única opción (que sigue vigente) era legar el cuerpo para ser utilizado en investigación o en la enseñanza de anatomía y técnicas quirúrgicas en la carrera de medicina. Pero en el camino que ha llevado hasta 2011, cuando el médico español Pedro Cavadas realizó el primer trasplante doble de piernas, lo más común en la visión popular es la donación de órganos (hígado, pulmones, corazón, riñones, etc.) y, más recientemente, miembros.

Pero los órganos y miembros completos son una mínima parte de todo lo que se puede reutilizar de nuestro cuerpo.

Las otras donaciones

Podemos donar nuestro cuerpo completo o sólo algunos tejidos u órganos. Todos pueden usarse para el tratamiento de diversas dolencias, afecciones o problemas de salud. Cada uno de nosotros es, por así decirlo, un almacén ambulante de piezas de recambio con las que, después de que termine nuestra vida, podemos salvar a casi una decena de personas, devolverle la vista a dos más y mejorar la calidad de vida de muchas más.

Por ejemplo, el hueso se utiliza en la reparación o estabilización de la columna vertebral y de otros huesos dañados por traumatismos, cáncer, degeneración o defectos congénitos. Igualmente se emplea en cirugía oral para reparar hueso perdido alrededor de los dientes. El hueso donado también puede someterse a un proceso de desmineralización para extraer algunas proteínas que estimulan la formación de hueso. Estas proteínas se utilizan conjuntamente con hueso del propio paciente para estimular el crecimiento de hueso nuevo. Entre los huesos que podemos donar están los arcos vertebrales, las cabezas de los fémures, las rótulas, los platillos de las tibias y la bóveda craneal.

Los músculos de nuestro cuerpo están recubiertos de un tejido conjuntivo fibroso que se conoce médicamente como fascia y que los protege y une. La fascia se utiliza en cirugía para reparar tendones, músculos, ligamentos y deformidades diversas.

Otro tipo de tejido conjuntivo son los tendones, tejidos fibrosos que conectan a los músculos con los huesos para permitir el movimiento. En cirugía, los tendones se utilizan para la reconstrucción de lesiones como la rotura del ligamento anterior cruzado y en otras reconstrucciones de las articulaciones.

También se puede donar la membrana amniótica dentro de la cual se desarrolla el feto, aunque sólo en casos de nacimiento por cesárea, ya que el paso por el canal del parto contamina estos tejidos. La membrana amniótica puede dar más vida de la que ha albergado al utilizarse para el tratamiento de quemaduras, ya que permite reducir el dolor, disminuir el peligro de infecciones y promover el desarrollo de piel nueva. Se emplea también en la reconstrucción de tímpanos y de las meninges (los tejidos que rodean y protegen al cerebro) y para reparar cierto tipo de úlceras. Finalmente, se utilza también en cirugía oftalmológica para la reconstrucción de distintas partes del ojo.

El resto de la placenta puede donarse para procedimientos de cirugía en los que se utiliza para disminuir la inflamación, las cicatrices y el dolor. Además, la sangre de la placenta y la que queda en el cordón umbilical cuando se corta son fuentes abundantes de células madre adultas que se utilizan tanto en transplantes como en investigaciones médicas y que no están sujetas a las cuestiones éticas de las células madre provenientes de fetos abortados.

Las paratiroides son glándulas que están detrás de la tiroides, alrededor de la tráquea y que producen una hormona (PTH), encargada de controlar los niveles de calcio, fósforo y vitamina D dentro de la sangre y el hueso. La escasez de esta hormona se corrige con el trasplante de glándulas paratiroides donadas.

No sólo se puede hacer un trasplante de corazón completo, sino que también se pueden trasplantar válvulas cardiacas a pacientes que tienen defectos en las propias. Igualmente, las grandes arterias, como la aorta, y venas, como la femoral o la safena, se utilizan continuamente para sustituir segmentos de vasos sanguíneos en pacientes que han sufrido traumatismos u otro tipo de lesiones, por ejemplo, en la cirugía de arterias coronarias del corazón y para bypass femoral como solución a algunos problemas de circulación de las piernas.

Uno de los tratamientos más prometedores para la diabetes es el transplante de las células del páncreas responsables de la producción de insulina, la sustancia que nos permite metabolizar el azúcar. En lugar de hacer un transplante de páncreas completo, que es un procedimiento quirúrgico en extremo complejo, se transplantan solamente estas células, llamadas islotes de Langerhans mejorando la calidad y la duración de vida de los diabéticos.

También se puede donar la piel para injertos o trasplantes en cirugías de reparación de la pared abdominal, cirugía plástica o reconstructiva y para el tratamiento de víctimas de quemaduras. Cada uno de nosotros tiene entre uno y dos metros cuadrados de piel que pueden ayudar a muchos pacientes.

Por último mencionaremos el pericardio, el recubrimiento protector del corazón, que se utiliza para la reparación de defectos en las paredes de diversos vasos sanguíneos, como un “parche” en neurocirugía para reemplazar la duramadre, una de las membranas que protegen al cerebro y para reparar el hueso en cirugías orales.

Todos, independientemente de nuestra edad, somos potenciales donantes de al menos algunos tejidos. El único requisito es no tener enfermedades infecciosas tales como el VIH/SIDA o la hepatitis B (aunque aún en esos casos podemos donar órganos, tejidos o todo nuestro cuerpo para la investigación de estas afecciones).

Es el regalo de la vida que se le puede arrancar a la muerte.

El futuro de los trasplantes

La investigación con células madre permite soñar con una era en la que se podrán hacer órganos y tejidos de recambio “a la medida” sin necesidad de donantes. Las células madre tienen la capacidad de convertirse en cualquier tejido del cuerpo humano según las instrucciones químicas que reciban: piel, tendones, ligamentos, músculo cardiaco, en fin. Sin embargo, esa posibilidad es aún lejana y se mantiene en el terreno de la ciencia ficción.

El hombre de los mosquitos

Sir Patrick "Mosquito" Manson,
padre de la medicina tropical

El animal más peligroso del mundo no posee garras afiladas, enorme dentadura, músculos poderosos, veneno, un tamaño imponente ni ninguno de los elementos que habitualmente relacionamos con la capacidad de hacer daño.

El animal más mortífero para el ser humano es el mosquito. Algunos cálculos afirman que las enfermedades transmitidas por los mosquitos han matado a la mitad de las personas que han vivido en la historia, unos 47 mil millones.

Distintas especies de mosquitos pueden transmitir alrededor de 600 agentes causantes de enfermedades, virus, protozoarios o gusanos que afectan a unos 700 millones de personas (el 10% de los seres humanos) principalmente en África, América Latina y Asia. Los más conocidos son el virus del Nilo Occidental, la filiarasis (o elefantiasis), el dengue hemorrágico, la fiebre amarilla y la más mortífera de todas las enfermedades del mundo, la malaria.

El organismo unicelular que provoca la malaria es transmitido por el mosquito anófeles y ocasiona la muerte a entre 2 y 3 millones de personas al año, principalmente niños en África. En comparación, las serpientes venenosas causan unas 9.000 muertes al año en el mundo, los tiburones 5 y el temido cáncer pulmonar 1,4 millones.

El mosquito estuvo impune durante millones de años. Los protomédicos de la antigüedad y de todas las culturas, nunca descubrieron la relación entre la picadura del mosquito y las diversas enfermedades que transmite. Esto ocurrió a fines del siglo XIX, y el responsable fue un médico escocés que llegó a ser conocido como Patrick “Mosquito” Manson.

Educado en la universidad de Aberdeen, a los 22 años Manson viajó a Taiwán como oficial médico y enfrentó el tratamiento de las enfermedades propias del clima cálido y húmedo de los trópicos. La primera que estudió a fondo fue la elefantiasis, una forma de la filariasis cuyo síntoma más notable es la acumulación de líquidos en las extremidades, principalmente en las piernas, y un enorme engrosamiento de la piel y los tejidos subyacentes, dándoles un aspecto que recuerda a las patas de elefante. Como ya se sabía desde mediados del siglo XIX que la filariasis era causada por la infección de pequeños gusanos nemátodos de varias especies, Manson se propuso averiguar cómo llegaban los gusanos al torrente sanguíneo de los enfermos.

Manson empezó a estudiar la elefantiasis en la sangre de su jardinero llamado Hin Lo , que la padecía. Observó que por la noche aparecían más parásitos en la sangre cercana a la piel, de modo que se planteó la hipótesis de que la enfermedad podría ser transmitida por algún insecto que se alimentara de la sangre de los enfermos.

Se dedicó entonces a estudiar a los mosquitos que picaban a los pacientes, atrapándolos y disecándolos cuidadosamente al microscopio en busca de los gusanos. Finalmente los encontró en una especie llamada Culex fatigans. Al analizar el estado de evolución de los gusanos dentro de los mosquitos, y observar asombrado que, en vez de ser digeridos, los parásitos parecían florecer en el sistema digestivo del mosquito. Concluyó que este pequeño y molesto insecto era parte esencial del ciclo de vida de la enfermedad.

De regreso en Londres en 1892, Manson se ocupó de la más extendida y mortal de las enfermedades tropicales, la malaria, cuyo parásito había sido descubierto pocos años antes por Charles Laveran, un cirujano militar francés, quien también describió parte del ciclo vital. En 1894 comenzó una serie de intercambios con Ronald Ross, médico nacido en la India y por entonces dedicado a la malaria, y en diciembre de 1894 publicó un artículo en el British Medical Journal postulando que un mosquito sostenía una fase esencial del desarrollo del parásito, como lo hacía con la filariasis. El trabajo de Manson impulsó a Ross a una investigación que lo llevó finalmente a desrcibir el ciclo vital del parásito de la malaria (un ciclo que muchos de nosotros estudiamos en la escuela) y a identificar a la especie concreta que lo transmitía. Ross escribió en 1898: “Estas observaciones prueban que la teoría del mosquito para la malaria, como la presentó el Dr. Patrick Manson… Su brillante inducción indicó con tanta precisión la línea verdadera de la investigación que mi papel ha sido simplemente seguir su dirección”.

Fue Manson el responsable de dar a conocer al público los descubrimientos de Ross, quien seguía con el ejército en la India. Ambos estaban convencidos de que el control de los vectores o transmisores, los mosquitos, era fundamental para vencer a la enfermedad, pero la idea no tenía precedente alguno y habría sido considerada ridícula, sobre todo porque la sociedad seguía creyendo que las enfermedades eran transmitidas por malos olores o malos aires, tormentas, las constelaciones, la lluvia y otros factores. De hecho, “malaria” está tomado del italiano “mal aire”.

Según relata Joseph Rowton, de la propia universidad de Aberdeen donde estudió Manson, lo hizo con un dramatismo difícil de igualar para no dejar duda de la implicación del mosquito en la transmisión de la malaria. Dejó que dos mosquitos anófeles que se habían alimentado de pacientes de malaria se alimentaran también de dos voluntarios que nunca habían estado expuestos a esta enfermedad, uno de ellos médico e hijo del propio Patrick Manson, Thornburn Manson. Después de ser picados por los mosquitos, desarrollaron la malaria y el parásito se encontró presente en su sangre.

Finalmente, Ross realizó las primeras acciones preventivas en Ismailia, Egipto, combatiendo el desarrollo de larvas de mosquitos en aguas estancadas. En poco tiempo, la ciudad estaba libre de malaria.

Patrick Manson continuó estudiando diversos parásitos propios de las regiones tropicales, fue nombrado Sir del reino británico y fundó tanto la primera escuela de medicina tropical del mundo en Liverpool como la Real Sociedad de Medicina Tropical. Pero, sobre todo, había sido el científico que abrió el camino para entender cómo se transmiten muchas enfermedades infecciosas, una de las claves de la medicina científica.

Mosquitos transgénicos contra la malaria

Dado lo difícil que es prevenir efectivamente la malaria en ciertas zonas, se ha propuesto el uso de mosquitos genéticamente modificados para cortar el ciclo de vida del insecto. Anthony James, de la Universidad de California, ha modificado mosquitos para que las hembras no puedan volar, haciendo que la población caiga dramáticamente junto con su capacidad de transmitir la enfermedad. Las pruebas que se han hecho son alentadoras, aunque se teme el rechazo de grupos opuestos a toda forma de modificación genética.

El viaje fantástico de Vesalio

Retrato de Vesalio en su libro
De humani corporis fabrica
Viaje fantástico fue una película de 1966 en la que un submarino, con sus tripulantes y un equipo de médicos, son reducidos de tamaño para ser inyectados en el torrente sanguíneo de un científico estadounidense y disolver directamente un coágulo. Aunque la historia estaba llena de agujeros lógicos, el público quedó cautivado por las representaciones (bastante fantasiosas) del interior del cuerpo humano.

El conocimiento real de lo que ocurre debajo de nuestra piel tiene una historia bastante corta, que comienza con la publicación de De Humani Corporis Fabrica, es decir “De la estructura del cuerpo humano”, el atlas anatómico de Andrés Vesalio.

Antes de Vesalio

En occidente, el estudio de la anatomía comenzó quizá en el año 500 a.C., cuando Alcmeón de Crotona, filósofo pitagóricos, comparó las estructuras de hombres y animales y diferenció las arterias de las venas. 200 años después, Herófilo de Calcedonia y Erasístrato de Ceos, fundadores de la Escuela de Alejandría, realizaron disecciones públicas de cadáveres y reunieron un acervo que no sobrevivió a las sucesivas destrucciones de la Biblioteca de Alejandría de modo que sólo lo conocemos por citas de otros autores.

Hacia el año 162, el cirujano griego Galeno de Pérgamo empieza a tratar a los heridos en una escuela de gladiadores en Roma. Los conocimientos que adquirió estudiando en Alejandría las obras de Herófilo y Erasístrato, entre otros, se vio complementado con las disecciones que realizó en monos, cerdos, vacas y perros, dado que no podía hacerlas en seres humanos porque la ley romana las prohibía. Galeno escribió más de 600 libros sobre diversos temas de medicina y filosofía, de los cuales sobrevive menos de una tercera parte. Galeno se convirtió pronto en el autor médico de referencia de Europa y del mundo islámico.

El Vaticano, durante la Edad Media, tampoco veía con buenos ojos la disección de cadáveres humanos (aunque no la persiguió, como suele afirmarse), y las obrasde Galeno fueron elevadas a la categoría de autoridad indiscutible. Esta visión apenas fue tibiamente desafiada por las disecciones públicas que se hicieron en la escuela de medicina creada en Salerno, Italia, en 1235 y las que realizó Mondino de Liuzzi en Bolonia a comienzos del siglo XIV, aunque en su libro “Anathomia corporis humani”, antes que describir sus propias experiencias, repite los conceptos de la “autoridad” de sus predecesores, en particular Galeno.

Entre 1489 y 1515 el genio renacentista Leonardo da Vinci realizó la disección de unos treinta cuerpos humanos para sus dibujos anatómicos. Cuando el papa León X le ordenó que suspendiera sus disecciones, Leonardo había producido alrededor de 750 dibujos de extraordinario detalle. En 1522 el anatomista italiano Jacopo Berengario da Carpi publica la primera descripción anatómica detallada del cuerpo humano.

El desafío a Galeno se había lanzado… y terminaría con el flamenco Andries Van Wesel, al que en español llamamos Andrés Vesalio.

De la admiración a la crítica

Vesalio nació en 1514 en Bruselas, en una familia de médicos, y estudió en París, donde complementó las enseñanzas con disecciones de perros observando huesos humanos en los cementerios de París. Después, estudió en Louvain y en Padua, donde se doctoró y se quedó como catedrático. Convencido de la importancia de la anatomía, empezó a realizar disecciones pero, a diferencia de sus predecesores, que solían leer a Galeno en voz alta mientras un cirujano-barbero, realizaba la disección, Vesalio hacía personalmente el trabajo rodeado de sus alumnos, lo que le permitió tratar de confirmar y ampliar los enseñado por Galeno, a quien admiraba.

Lo que encontró, sin embargo, fue que Galeno, la autoridad absoluta sobre anatomía durante más de mil años, se equivocaba. En 1541, Vesalio descubrió por qué: Galeno nunca había diseccionado un cuerpo humano, sino que extrapolaba todas sus afirmaciones de sus disecciones de distintos animales, principalmente de monos de Gibraltar. Vesalio pronto descubrió que en los seres humanos no existían algunas estructuras propias de otras especies y empezó a publicar correcciones a Galeno que no siempre fueron bien recibidas.

Si distintas especies tenían distinta anatomía, también existía la posibilidad de que las variaciones entre seres humanos individuales fueran relevantes. Era necesario hacer lo que hoy se conoce como anatomía comparada: diseccionar a distintos individuos y determinar cuáles son sus características comunes y cuáles serían peculiaridades individuales. Como dijo Vesalio, “no estoy acostumbrado a decir nada con certeza después de sólo una o dos observaciones” . Por fortuna, un juez de Padua se interesó por su trabajo y puso a su disposición los cuerpos de los delincuentes ejecutados en la ciudad, facilitando el trabajo de comparación.

El método, la aproximación de Vesalio al cuerpo humano describiéndolo tal como era, recogiendo la observación directa, buscando hechos más que la confirmación de los prejuicios, y sin las interpretaciones astrológicas, religiosas y basadas en ideas no comprobadas del pasado, fue quizás una aportación aún mayor que los propios datos anatómicos que reunió, entre ellos puntos tan relevantes como la primera descripción fiel del corazón humano. Algunos de sus predecesores habían empezado el camino, pero su apego al pensamiento vigente les había impedido llegar a donde llegó Vesalio.

Lo más asombroso, quizá, es que Vesalio creó los siete tomos de su magna obra en tan sólo 4 años, entre los 24 y los 28. Era el primer atlas anatómico exhaustivo, tanto en sus descripciones como en sus abundantes y detalladas ilustraciones (con frecuencia atribuidas a Jan Stepehn Van Calcar, discípulo de Tiziano).

Terminada su obra, Vesalio se dedicó a la práctica de la medicina, llegando a ser médico de Carlos V, quien lo hizo conde palatino, y de su hijo, Felipe II, en cuyo servicio murió en 1564, de regreso de un viaje a Tierra Santa, probablemente sin estar consciente de que 21 años atrás había dado el gran paso para empezar el lento proceso de convertir el estudio del ser humano y sus enfermedades en una verdadera ciencia.

La revolución científica

En los siglos XVI y XVII se operó un cambio en Europa que enfrentó a la corriente filosófica dominante según la cual la razón se debía someter a la fe, y si entraba en conflicto con ella no podía estar en lo correcto, y que la fuente de todo conocimiento era la autoridad de los libros antiguos, en particular la Biblia. Las observaciones de personajes como Copérnico, Galileo o Vesalius no sólo exaltaron a la razón y a la observación, sino que dijeron, por primera vez en siglos, que el ser humano podía obtener conocimientos nuevos, que no todo estaba escrito ya, y que había aún grandes misterios por enfrentar.

De la Tierra a Marte... y de vuelta

El 4 de noviembre finalizó la misión Marte 500 realizada conjuntamente por Europa, China y Rusia, una simulación para poner a prueba la posibilidad de un viaje a Marte.

El logotipo de la misión
Viajar a Marte es un viejo sueño alimentado a partes iguales por la realidad y la ficción. En la realidad, Marte destaca en el cielo nocturno por su peculiar color rojo, que hizo que los romanos le dieran el nombre del dios pagano de la guerra, y ya en el siglo XVIII el astrónomo William Herschel señaló que, de todos los planetas del sistema solar, Marte era el más parecido a nosotros. Además, está cerca… relativamente. En algunas ocasiones nos separan apenas unos 56 millones de kilómetros.
En la ficción, tenemos una vasta obra literaria que ha atizado la fascinación marciana, que comienza en 1656 con el alemán Athanasius Kirchner y sigue hasta la épica Trilogía Marciana de Edgar Rice Burroughs (también creador de Tarzán), la aterradora Guerra de los Mundos de H.G. Wells o las poéticas Crónicas Marcianas de Ray Bradbury.

A la mitad entre la realidad y la ficción, en 1877 el astrónomo italiano Giovanni Schiaparelli creyó ver en la superficie de Marte una red de líneas que interpretó como posibles canales de agua. La imaginación popular pronto las convirtió en canales artificiales, autopistas u otras estructuras producto de una civilización vecina … aunque resultaron ser únicamente ilusiones ópticas producto de la imperfecta óptica disponible a fines del siglo XIX.

El inicio de la era espacial dio al sueño la posibilidad de realizarse.

Sin embargo, los viajes espaciales tienen complicaciones, la primera de las cuales es que las naves no pueden viajar en línea recta de un planeta a otro (o a su satélite, en el caso de la Luna), sino que deben despegar y describir una curva elíptica para encontrarse con su objetivo meses después, o incluso años en el caso de las sondas que han ido a los límites del Sistema Solar. Un viaje a Marte de ida y vuelta por la ruta de “menor coste”, la llamada “órbita de transferencia de Hohmann”, incluyendo el tiempo que se pretenda pasar en la superficie marciana, sería cosa de más de un año.

La duración del viaje no sólo es un desafío técnico en términos de combustible, impulsores, sistemas de frenado y despegue en la superficie marciana y otros asuntos de ingenería. Es también un reto humano, de relaciones interpersonales, de separación de los seres queridos, de alimentación, bebida, entretenimiento, trabajo, salud, ejercicio y trabajo, de sistemas eficientes y fiables de sostenimiento de la vida y de formación para enfrentar cualquier dificultad imaginable, desde una emergencia médica hasta una pelea entre dos tripulantes.

Diversos experimentos han buscado analizar aspectos de un viaje de estas características. El más ambicioso hasta hoy lo emprendieron las agencias espaciales de Europa, Rusia y China con el nombre “Marte 500”. En esta misión, , seis participantes debían simular un viaje a Marte durante 520 días que incluía el recorrido, el aterrizaje, la exploración y el regreso, reproduciendo algunas condiciones de un recorrido de este tipo, aunque otras no se pudieran simular, como la microgravedad y el bombardeo de rayos cósmicos a los que se ve sometido todo objeto en el espacio.

La “nave” marciana del proyecto es una estructura de 180 metros cuadrados habitables construida dentro del Instituto Ruso de Problemas Biomédicos, en las afueras de Moscú, formada por un módulo médico, sala de estar, cocina y comedor, dormitorios, cabina de control, un invernadero y un simulador de la superficie marciana. A ella entraron el 3 de junio de 2010 tres científicos rusos, uno chino, uno italocolombiano y uno francés, para quedar aislados totalmente durante la misión, sin luz del sol y sin más aire y agua que los que reciclan los equipos de la “nave”.

Al hacinamiento, la poca privacidad, la falta de luz solar, la rutina agobiante y los problemas propios de todo grupo humano se añadieron otros elementos como la comunicación ralentizada con sus seres queridos y con el centro de control debida a la distancia. Dado que las ondas de radio viajan a la velocidad de la luz, un correo electrónico (o una entrada de Twitter de los astronautas europeos) podía tardar hasta 25 minutos. Y, a nivel personal, el sólo poderse duchar cada 10 días, los problemas digestivos de alguno de los participantes y la falta de relaciones sexuales fueron factores de tensión y de estudio por parte del amplio equipo científico del proyecto.

Pasar el tiempo libre fue otro de los problemas que la misión sorteó con éxito con soluciones que iban Durante la misión, se desarrollaron 106 investigaciones científicas sobre los participantes: 28 de tipo psicológico y psicofisiológico, 34 clínicas y de diagnóstico de laboratorio, 26 fisiológicas, 8 sobre sanidad, higiene y microbiología y 10 operativas y tecnológicas, con investigadores de numerosos países. Los estudios tenían objetivos tan diversos como analizar continuamente la bioquímica, la temperatura y las variables de salud de los participantes, estudiar sus relaciones y tensiones sociales y psicológicas o, incluso, muestrear distintas superficies la “nave” para determinar cómo se daba el crecimiento y desarrollo de microorganismos en ese espacio cerrado, un elemento que podría representar un problema grave de salud y supervivencia en un viaje real.

Al final de la misión, los participantes superaron con creces la marca de de 437 días continuos en el espacio que estableció Valeri Vladimirovich Polyakov en la estación espacial Mir entre 1994 y 1995. Polyakov se había prestado a ese experimento para demostrar que el cuerpo humano podría soportar la microgravedad en un viaje prolongado, y cuando volvió a la Tierra declaró convencido: “Podemos viajar a Marte”.

No muy distinto que lo que dijo el miembro francés de Marte 500, Romain Charles al salir del aislamiento el 4 de noviembre con sus compañeros en un más que razonable estado de salud: "¡Estamos listos para embarcarnos en la siguiente nave espacial que vaya para allá!"

Las conclusiones preliminares de los científicos encargados de los experimentos de estos meses parecen apoyarlos: es posible. Falta ahora la decisión de hacerlo, y ésa no depende de los científicos ni de los astronautas.

Un menú para 17 meses

Para alimentarse durante un viaje como el Marte 500, cada astronauta debería llevar consigo 1.000 kilogramos de alimentos, algo inviable desde el punto de vista técnico. El invernadero hidropónico de Marte 500 permitió analizar la posibilidad de que los astronautas cultiven sus propios alimentos durante el viaje. Marte 500 también ayudará a encontrar formas de combatir el aburrimiento alimenticio que implica el comer menús limitados durante largo tiempo… sin poder llamar para pedir una pizza.