Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Oppenheimer y la responsabilidad del científico

Las enormes fuerzas a las que el hombre obtuvo acceso gracias a la revolución de la física en el siglo XX le presentaron a los científicos desafíos éticos que antes no se habían planteado abiertamente.

Einstein con J. Robert Oppenheimer.
(Foto D.P. del Departamento de Defensa de los EE.UU.
vía Wikimedia Commons)
El 29 de junio de 1954, después de un accidentado proceso, Julius Robert Oppenheimer, “Oppy” para los medios de comunicación, el padre de la bomba atómica estadounidense, era despojado de su autorización de seguridad por la Comisión de la Energía Atómica (AEC). Era, en muchos sentidos, la caída de un héroe. Los motivos eran, principalmente, sus dudas éticas a la luz de los acontecimientos derivados de su trabajo en el Proyecto Manhattan.

El proceso a Oppenheimer fue una parte muy visible de la “cacería de brujas” del senador Joseph McCarthy, promotor de un pánico anticomunista que barrió los Estados Unidos y destrozó las vidas de numerosas personas, no sólo comunistas, sino hombres y mujeres de avanzada, incluso simples antifascistas.

Pero el delito de Oppenheimer era no sólo tener simpatías de izquierdas. Era haber asumido una posición moral ante el desarrollo de la bomba de hidrógeno, entendiendo que el científico no podía deslindarse ya más del uso que la política daba al conocimiento.

Una vida en el conocimiento

Julius Robert Oppenheimer nació en la ciudad de Nueva York en 1904, en una familia acomodada judía no practicante emigrada desde Alemania y estudió sus primeros años en la Escuela de la Sociedad de la Cultura Ética. Esta institución educativa, que aún existe, fue fundada por el racionalista Félix Adler como una escuela gratuita para hijos de obreros con la idea de que se desarrollaran como personas “competentes para cambiar su entorno para lograr una mayor conformidad con el ideal moral”.

En esta escuela de pedagogía revolucionaria, estudió matemáticas, ciencia e idiomas, desde griego y latín clásico hasta francés y alemán. A la temprana edad de 12 años, su pasión por coleccionar minerales le hizo presentar un artículo científico ante el Club Mineralógico de Nueva York, que lo recibió como miembro honorario. Se matriculó en Harvard en 1922 con la idea de estudiar química, pero terminó fascinado por la física y emprendiendo una carrera vertiginosa. Se graduó en 1925 y viajó a Inglaterra donde investigó bajo la dirección del famoso físico Sir Joseph John Thomson para después concluir su doctorado en la universidad de Göttingen con el no menos importante Max Born, con quien hizo trabajos de mecánica cuántica. En 1927 volvió a Harvard y en 1929, con sólo 25 años, fue nombrado profesor en la Universidad de California.

Esta carrera implicó que se desentendiera del “mundo real”, de la política y los conflictos sociales, hasta que la emergencia del fascismo en la década de 1930 lo sacudió. Comenzó a relacionarse con personas de la izquierda estadounidense y apoyó económicamente a las Brigadas Internacionales en la Guerra Civil Española mientras seguía con su trabajo en la física teórica, que incluyó algunos de los primeros artículos que sugerían la existencia de los agujeros negros.

Al comenzar la Segunda Guerra Mundial, Oppenheimer se implicó como entusiasta antifascista en el esfuerzo por desarrollar una bomba atómica: un dispositivo en que un material radiactivo iniciara una reacción en cadena que llevara a una explosión convirtiendo una mínima parte de su materia en energía. En 1942, el ejército estadounidense lo nombró director científico de lo que se conocería con el nombre clave de “Proyecto Manhattan”. Oppenheimer fue más allá de la física, organizando, administrando y conduciendo a un equipo de más de 3.000 personas, entre ellas las mejores mentes de la física de ese tiempo. El proyecto dio sus frutos el 16 de julio de 1945, cuando se detonó la primera bomba atómica en Alamogordo, Nuevo México. Es famosa la afirmación de Oppenheimer de que, al contemplar la explosión, pensó en una línea del Bhagavad-Gita: “Me he convertido en la Muerte, el destructor de universos”. Menos famosa es su observación de que “Sabíamos que el mundo ya no sería el mismo” desde ese momento.

Menos de un mes después, se lanzaron dos bombas atómicas contra Hiroshima y Nagasaki. El argumento era que una invasión convencional de Japón podría costar hasta 14 millones de vidas entre soldados aliados y civiles japoneses. Las bombas atómicas causaron unas 210.000 víctimas civiles y provocaron la rendición inmediata de Japón, pero también el terror mundial ante su violencia. De inmediato, además, comenzó una carrera armamentista entre las dos superpotencias de la época: los EE.UU. y la URSS para desarrollar nuevas armas nucleares y amenazarse mutuamente.

El siguiente paso se dio en la década de 1950 con el desarrollo de las bombas termonucleares, que utilizan una bomba atómica como detonante de una reacción de fusión de hidrógeno miles de veces más poderosa.

Pero Robert Oppenheimer, al frente de los esfuerzos estadounidenses, expresó su clara oposición al desarrollo de la bomba de hidrógeno, proponiendo en cambio negociaciones con la URSS que detuvieran la proliferación de armas nucleares y advirtiendo del peligro de un holocausto nuclear. Ya en 1945 había dicho “Si las bombas atómicas han de añadirse como nuevas armas a los arsenales de un mundo en guerra, o a los arsenales de las naciones que se preparan para la guerra, llegará el día en que la humanidad maldiga los nombres de Los Álamos e Hiroshima. La gente de este mundo debe unirse o perecerán.”

En 1953, el pánico anticomunista del senador Joseph McCarthy lo convirtió en su blanco por esta actitud conciliadora, interpretada como traición a los Estados Unidos, por sus simpatías de izquierdas y por su amistad con comunistas. Despojado de su autorización de seguridad, volvió a su trabajo como investigador y profesor en la Universidad de Berkeley donde siguió haciendo aportaciones a la teoría de la relatividad y la física cuántica.

En 1963, el gobierno estadounidense, a modo de disculpa, le concedió el premio Enrico Fermi.

Robert Oppenheimer murió el 18 de febrero de 1967 a causa de un cáncer en la garganta dejando la convicción de que los físicos debían hacerse responsables de lo que se hacía con el conocimiento que obtenían. “Los físicos han conocido el pecado”, dijo en 1947, “y éste es un conocimiento que ya no pueden perder”.

Oppenheimer en el teatro

El proceso a Oppenheimer, su interrogatorio y condena, fueron tomados por el dramaturgo Heiar Kipphardt, miembro del movimiento de teatro-documento, en la obra Sobre el asunto de J. Robert Oppenheimer, publicada en 1964, cuando el físico aún vivía. Basada en las 3.000 páginas de la transcripción del proceso, la obra explora los problemas éticos y la responsabilidad moral de los científicos, y la interferencia política en su trabajo.

El elemento número 1

Estamos cada vez más cerca del día en que gran parte de nuestras necesidades de energía sean satisfechas por el hidrógeno, el elemento más antiguo y más abundante de nuestro universo.

Esquema de una celdilla de combustible de
hidrógeno que produce una corriente eléctrica.
(Imagen D.P. de Albris modificada por Los
Expedientes Occam. vía Wikimedia Commons)
Cuando miramos por la noche a las estrellas, estamos asistiendo, muchas veces sin saberlo, a un espectáculo de hidrógeno incandescente.

Todas las estrellas de todo el universo no son sino enormes esferas de hidrógeno que debido a su enorme están experimentando una reacción atómica llamada fusión, donde los átomos de hidrógeno se fusionan o unen para formar otros elementos y, como resultado de este proceso, liberando enormes cantidades de energía en forma de diversos tipos de radiación, entre ellos la luz gracias a la cual las vemos.

El horno de fusión de hidrógeno más cercano a nosotros es precisamente la estrella que ocupa el centro de nuestro sistema planetario, el sol, gracias a cuya energía existe y se mantiene la vida en nuestro planeta.

El universo era muy joven cuando apareció el hidrógeno. Realmente joven. Habían pasado apenas unos tres minutos desde el Big Bang, esa súbita expansión de una singularidad en la cual surgieron al mismo tiempo el espacio, el tiempo y toda la materia, cuando los protones y neutrones que habían aparecido poco antes empezaron a formar núcleos rodeados de un electrón, convirtiéndose en hidrógeno pesado, una de las varias formas de este elemento. En el proceso se formó también helio. Los cálculos de los cosmólogos indican que en esos tres primeros minutos de nuestro universo había 10-11 átomos de hidrógeno por cada uno de helio. Y de inmediato hizo su aparición también el hidrógeno común, formado por un protón y un electrón, sin neutrones.

El hidrógeno es el más común de los elementos, tanto que toda la materia que podemos ver en el universo es aproximadamente 73% de hidrógeno y 25% de helio. Sólo un 2% aproximadamente del universo está formado por elementos más pesados que estos dos.

(Cabe señalar que la materia que podemos ver es sólo el 23% de toda la materia del universo, mientras que el 77% restante de la materia que debe existir para que el universo se comporte tal como lo hace es, hasta hoy, invisible para nosotros. Es la llamada “materia oscura” que hoy la ciencia busca invirtiendo grandes esfuerzos.)

Todos los elementos del universo proceden, pues, del hidrógeno, que es el más ligero de ellos y por tanto el que ocupa el primer lugar en la tabla periódica que ordena los elementos por sus características y su peso atómico. El peso atómico es el número de protones que contiene el núcleo de los átomos de cada elemento. El hidrógeno tiene el número 1.

En el corazón de las estrellas, el hidrógeno se fusiona en helio, el helio y el hidrógeno se fusionan para crear berilio... y así se van creando todos los elementos hasta el hierro, que tiene el número atómico 23. Todos los demás elementos, desde el cobre, con número atómico 27 hasta el uranio, el 92 de la tabla y el último que es natural (todos los elementos más pesados que el uranio son hechos por el ser humano) se crean no en el corazón de las estrellas, sino al estallar éstas en las explosiones que llamamos supernovas.

Por eso decía Carl Sagan que “estamos hecho de materia de estrellas”.

Sin embargo, pese a su temprana aparición, su abundancia y su importancia, el hidrógeno no fue identificado por el ser humano sino hasta 1766, cuando el británico Henry Cavendish se dio cuenta de que este inflamable gas, que había sido producido por primera vez por el sabio renacentista Paracelso, era una sustancia discreta. En 1781, el propio Cavendish descubrió que al quemarse esta sustancia producía agua, un experimento fundamental para desmentir la idea de que el universo estaba formado por cuatro elementos. Finalmente, en 1783, el francés Antoine Lavoisier, después de reproducir los experimentos de Cavendish, le dio nombre a la sustancia que solían llamar “aire inflamable”: hidrógeno, que en griego quiere decir “generador de agua”.

Una de las características del hidrógeno, además de su facilidad para quemarse, es ser mucho más ligero que el aire. Esto lo aprovechó ese mismo año un físico francés, Jacques Alexander Cesar Charles, para lanzar un globo lleno de hidrógeno que alcanzó una altitud de tres kilómetros. Poco después, Charles se convirtió en el primer hombre en volar en un globo de hidrógeno.

En 1800 se descubrió que al aplicarle una corriente eléctrica al agua, ésta se descomponía en hidrógeno y oxígeno, un proceso llamado electrólisis. Y en 1839 se descubrió el proceso inverso, el de la celdilla de combustible, en el que el hidrógeno se une al oxígeno y genera una corriente eléctrica, que se llevó a la práctica en 1845 con la creación de la primera “batería de gas”.

A lo largo de los años se fueron descubriendo numerosos usos industriales para el hidrógeno al tiempo que se abandonaban otros. La tragedia del dirigible Hindenburg, que se incendió al atracar en en 1937 en Nueva Jersey, marcó el fin del uso del hidrógeno para hacer volar máquinas más ligeras que el aire, y fue sustituido por el helio.

Pero la idea del hidrógeno como combustible siguió su camino. En los programas espaciales, de modo muy notable, los combustibles utilizados son el hidrógeno y el oxígeno líquidos, que al mezclarse generan un fuerte empuje. Pero, con menos atención del público, los astronautas que fueron a la luna en las misiones Apolo y sus antecesores de las misiones Gémini obtenían su electricidad en el espacio gracias a celdillas de combustible que, además, les proporcionaban agua para beber.

Hoy en día, el hidrógeno es una de las más prometedoras opciones para ofrecer a la humanidad una fuente de energía limpia, no contaminante y renovable. Algunos fabricantes de autos ya están trabajando para dejar atrás, en un futuro quizás cercano, el ruidoso automóvil con motor a explosión de gasolina, sustituido por vehículos eléctricos accionados por hidrógeno.

El desafío es hacer el sistema más eficiente y encontrar formas para obtener hidrógeno a un coste tal que resulte competitivo con los todavía baratos combustibles fósiles. Esto puede parecer extraño tratándose de un elemento tan abundante en el universo pero, después de todo, en nuestro planeta se encuentra principalmente en forma de compuesto, como en el agua de los océanos. Resolver este desafío podría significar toda una nueva era para la civilización humana.

El hidrógeno en nosotros

El hidrógeno es uno de los seis elementos básicos que hacen posible la vida, junto con el carbono, el oxígeno, el nitrógeno, el azufre y el fósforo, y está presente en todas las moléculas que nos conoforman. Aproximadamente el 10% de la masa de nuestro cuerpo es hidrógeno, la mayor parte en el agua que es nuestro principal componente. Es una parte de nosotros que nació junto con el universo mismo.

La estrella de la mañana

Muchas culturas lo identificaron con los atributos de sus deidades femeninas. Para otras era la guía del sol y el reloj del universo. Y al ser el planeta más cercano al nuestro, ha presentado un desafío genuinamente milenario.

Imagen de Venus con rayos X que permite ver
su superficie por debajo de la densa capa de
nubes que lo cubre.
(Foto D.P. de Magellan Team, JPL, NASA,
vía Wikimedia Commons)
Los escritores de ciencia ficción del siglo XIX y principios del XX se imaginaron el planeta Venus, nuestro vecino de camino al Sol así como Marte lo es en sentido contrario, como una especie de paraíso tropical, un planeta con junglas húmedas, como una versión más cálida y exuberante de la Tierra. Sus especulaciones se basaban en lo poco que se sabía entonces sobre el planeta. Sabíamos que disponía de atmósfera desde que el ruso Mijail Lomonosov lo observó en un tránsito por el Sol en 1761, y observaciones posteriores constataron que esa atmósfera contenía una espesa capa de nubes que no permitía ver su superficie pero le daba su peculiar brillo al reflejar intensamente la luz del Sol.

Especulaciones más descabelladas o desvergonzadas provenían de quienes, a raíz del estallido del mito ovni en 1947, escribieron libros asegurando que habían sido llevados a visitar Venus por los habitantes del planeta, tripulantes de naves maravillosas.

Estas especulaciones se alimentaban de otros datos sugerentes. Venus es casi gemelo de nuestro mundo: tiene un tamaño del 90% de la Tierra y una masa del 80%. De hecho se parece más a nuestro planeta que Marte, que mide sólo la mitad de la Tierra y tiene una masa es de poco más del 10%, y que también apasionó a escritores de ciencia ficción y charlatanes. A estos parecidos une características singulares como que su rotación es en dirección contraria a la de la Tierra y ocurre muy lentamente. Un día venusino, es decir, una rotación completa alrededor de su propio eje, dura 243 días terrestres, más tiempo que un año venusino, el tiempo que tarda en dar una órbita completa alrededor del Sol y que es de 224,65 días terrestres.

El 14 de diciembre de 1962, el Mariner 2, se convertía en el primer aparato hecho por el hombre que se acercaba a otro planeta de nuestro sistema solar y nos informaba de cómo eran las condiciones en ese lugar, hasta entonces sólo visto y analizado por medio de nuestros telescopios. La sonda pasó a una distancia de 34.773 kilómetros de la superficie de Venus y en breves observaciones destruyó la fantasía. Donde Edgar Rice Burroughs se había imaginado un planeta de agua en su serie de historias fantásticas sobre Venus, había un planeta con temperaturas altísimas y sin rastro de agua alguna.

Casi cinco años después, un artilugio humano tocaba la superficie de Venus. El 18 de octubre de 1967, la sonda Venera 4 de la entonces Unión Soviética, lanzó varios instrumentos a la atmósfera venusina antes de descender en paracaídas. Supimos entonces que la atmósfera de Venus estaba formada casi totalmente de dióxido de carbono y la presión atmosférica en su superficie era mucho mayor que la de la Tierra, hoy sabemos que es 92 veces mayor, más o menos la presión que existe a un kilómetro bajo el mar. Su capa de nubes, de varios kilómetros de espesor, genera además un poderoso efecto invernadero que da a la superficie de Venus las más altas temperaturas del sistema solar, mayores incluso que las de Mercurio, mucho más cerca del Sol, que llegan hasta 450 grados Celsius.

Era la realidad de uno de los cuerpos celestes por los que los pueblos antiguos mostraron un mayor interés debido a que es el objeto más luminoso del cielo después del Sol y de la Luna y tiene la característica de ser visible únicamente poco antes del amanecer en algunos meses o, en otros, poco después del atardecer, y en otros no es visible. Como ocurre con Mercurio, ambos planetas no son visibles de noche ya que debido a que sus órbitas son “inferiores” a la órbita de la Tierra, es decir, que están entre nosotros y el sol, desde nuestro punto de vista siempre aparecen cerca de nuestra estrella.

El primer registro escrito sobre el segundo planeta desde el sol data del 1581 antes de nuestra era: un texto babilónico llamado la tabla de Ammisaduqa, que registra 21 años de apariciones de Venus. Algunas otras culturas creían, sin embargo, que se trataba de dos objetos celestes distintos: una estrella de la mañana y una estrella del atardecer Para los egipcios, las dos estrellas eran Tioumoutiri y Ouaiti, mientras que los griegos las llamaron Phosphorus y Hesperus, al menos hasta que en el siglo VI antes de nuestra era Pitágoras determinó con certeza que se trataba de un solo objeto celeste.

La identificación de Venus con una imagen femenina data desde los propios babilonios, que lo llamaban Ishtar, el nombre de su diosa de la guerra, la fertilidad y el amor, parcialmente identificada con Venus, la diosa griega del amor. Para los persas era Anahita, diosa también de la fertilidad, la medicina y la sabiduría. Los antiguos chinos llamaban a Venus Tai-pe, la hermosa blanca, mientras que en la actualidad las culturas china, japonesa, coreana y vietnamita lo llaman “la estrella de metal”.

Pero probablemente ninguna cultura estableció una relación tan estrecha con Venus como los mayas, para los cuales el movimiento y ciclos de Venus. Para la cultura maya, Venus era considerado el objeto celeste que guiaba al sol, y por tanto tenía tanta o más importancia que nuestra estrella.

Los mayas relacionaban a Venus con una de sus principales deidades, Kukulcán, la serpiente emplumada. Le llamaban Chak Ek’, la gran estrella, que cuando salía en la mañana en el este era considerada indicio de renacimiento, al mismo tiempo que un anuncio de guerra y un peligro para la gente, pero cuando aparecía en la tarde se relacionaba con la muerte, y se creía que el período entre ambas apariciones en el que no se veía se debía a que hacía un recorrido por el submundo de los muertos. Los ciclos de Venus eran una de las bases de la compleja interacción de calendarios de la cultura maya, que se utilizaban incluso para decidir el mejor momento de emprender una guerra contra una ciudad-estado vecina.

25 misiones exitosas de acercamiento o descenso en Venus (rodeadas de muchos intentos fallidos, especialmente en los inicios de la exploración espacial), conocemos mejor a nuestro casi gemelo cósmico. Contamos con mapas detallados de su superficie, obtenidos por rayos X y tenemos respuestas a muchas preguntas... y cada día nuevas preguntas.

Venus y Galileo

Venus fue uno de los objetos celestes a los que Galileo dirigió su telescopio, descubriendo que exhibía fases igual que la Luna. La observación de este fenómeno fue una de las primeras demostraciones contundentes y concluyentes de la validez de la idea del sistema heliocéntrico propuesto por Copernico. Si, como proponía el modelo geocéntrico de Ptolomeo, Venus giraba en epiciclos alrededor de la Tierra junto con el Sol, debería estar siempre en fase creciente.

La lucha contra el frío

Bajan dos grados y lo resentimos. Pero hay seres a nuestro alrededor que han desarrollado diversas estrategias para soportar temperaturas de rigor estrictamente cósmico.

Pingüino emperador en la Antártida
(Foto CC de Hannes Grobe
vía Wikimedia Commons)
El frío es un excelente conservante de los alimentos, y de los tejidos vivientes en general, debido a que a bajas temperaturas, las bacterias que descomponen los tejidos muertos para realizar el peculiar reciclaje de la naturaleza ven su actividad enormemente reducida o incluso anulada.

Es por esto que tenemos neveras y congeladores, no sólo en nuestros hogares sino en muchos lugares y vehículos para mantenerlos frescos. Y es por esto también que en lugares especialmente fríos se pueden conservar asombrosamente personas como Ötzi, el hombre del hielo que tanto nos ha enseñado sobre la vida de nuestros antepasados

Las bacterias disminuyen enormemente su actividad por debajo de los 4 grados centígrados y, por debajo del punto de congelación, mueren debido a que el agua que las compone en un 80-90% se cristaliza, destruyendo al organismo. Esto es también la explicación de por qué no se pude congelar a un ser humano y revivirlo posteriormente: el congelamiento destruye las células físicamente.

Y sin embargo, hay muchos seres vivos que viven en temperaturas extremas en las que un ser de características tropicales como el ser humano no podría vivir sin la protección que ha diseñado culturalmente, como la ropa de abrigo o la calefacción. Estos seres vivos han desarrollado una enorme variedad de estrategias para enfrentar el frío, sobrevivirlo e incluso prosperar en él... incluso en extremos verdaderamente aterradores y que, a primera vista, nos parecerían incompatibles con la vida.

Los más conocidos son, por supuesto, un pelaje o plumaje densos y con una buena dosis de aceite, que cree una capa de aire inmóvil cerca de la piel que se mantiene más caliente que el aire más allá de la capa de pelo o plumas. Esta estrategia, junto con una buena capa de grasa subcutánea, aísla a animales como las focas, los pingüinos y los mamíferos de las zonas más frías, como liebres, zorros y, claro, los emblemáticos osos que bajo su pelaje tienen, por cierto, la piel negra.

Las especies de clima frío suelen ser además más grandes que especies similares en climas cálidos, con extremidades más cortas y cuerpos más gruesos. lo que reduce la superficie de contacto con el aire que provoca la pérdida de calor. Así, estos animales son capaces de mantener temperaturas corporales normales, en general similares a las del ser humano, entre 34 y 40 grados Celsius (aunque pueden bajar hasta los 31-32 grados durante la hibernación).

Hay otros sistemas menos conocidos, como el mecanismo llamado “intercambio calórico de contracorriente”, en el que las arterias que traen sangre caliente de los pulmones y el corazón se ven rodeadas de redes venosas que traen sangre fría de las extremidades. La sangre venosa captura parte de ese calor en su camino hacia el interior del cuerpo, evitando que se pierda mientras que la sangre arterial llega más fría a su destino. Esto pasa en las patas de los pingüinos, el lobo y el zorro árticos y otras especies, que pueden mantener sus patas por encima de la temperatura de congelación sin perder demasiado calor.

El anticongelante orgánico

Hay lugares donde, hasta hace poco tiempo, no creíamos que pudiera haber vida, lugares con condiciones extremas, por lo que a sus habitantes, que poco a poco se van descubriendo, se les llama extremófilos, o seres que gustan de los extremos. A los que gustan del frío extremo se les llama psicrófilos (“psicrós” en griego es “frío”), pues pueden vivir en temperaturas muy bajas, incluso de hasta -15 grados Celsius, como ocurre en algunas bolsas de agua muy salada rodeadas de hielo y que no se congelan precisamente por su alto contenido de sal.

La hazaña de sobrevivir a temperaturas tan bajas requiere una forma de impedir que el agua de los organismos se congele y se cristalice, y para ello se utilizan distintas estrategias.

Algunos peces que viven en aguas heladas acumulan sodio, potasio, iones de calcio o urea. Estas sustancias reducen el punto de congelación de sus tejidos, del mismo modo en que la sal permite que no se congelen las bolsas de agua más frías. Otras especies producen naturalmente las llamadas glicoproteínas, que inhiben el crecimiento de los cristales de hielo, lo mismo que hace el anticongelante que se tiene que poner en los autos en zonas gélidas cuando se acerca el invierno.

Las glicoproteínas son sólo algunas de las proteínas anticongelantes que producen algunos animales, plantas, hongos y bacterias. Estas proteínas se unen a los cristales de hielo cuando aún son pequeños, impidiéndoles crecer y recristalizarse. Hay muchas variedades de proteínas anticongelantes, utilizadas por plantas, bacterias, arqueobacterias, insectos y peces.

Lo más interesante de estas proteínas es que su eficacia como anticongelantes es muy superior a la de los anticongelantes usados por el ser humano, como el metanol, el propilenglicol o el etilenglicol, alcoholes que se añaden al agua utilizada para el enfriamiento de motores para reducir su punto de congelación y evitar que se hiele dentro de los conductos del motor cuando están inactivos, lo que podría provocar el estallido de los conductos y otros daños.

Una estrategia de supervivencia en estado de verdadera animación suspendida al estilo de las historias de ciencia ficción y fantasía es la que siguen los tardígrados, que pueden soportar hasta dos semanas a una temperatura casi de cero absoluto, -273 grados Celsius, más que ningún otro ser vivo, entrando en un estado llamado de “tun”, donde se deshace de gran parte del agua de su cuerpo además de producir proteínas anticongelantes para proteger la poca que le queda, redefiniendo en ese estado nuestro concepto mismo de la vida.

Los animales que soportan el frío nos dan además claves para soportarlo mejor, para crear cultivos que puedan tolerar las bajas temperaturas facilitando la agricultura en zonas extremas y, sobre todo, nos animan a pensar que si la vida es así de persistente en nuestro planeta, probablemente ello signifique que está ocupando otros espacios del universo, aunque no venga a visitarnos en naves caprichosas.

Temblar de frío

Cuando hace frío, el hipotálamo, que entre otras actividades es el centro regulador de la temperatura del cuerpo, envía un mensaje a los músculos para que se contraigan rítmicamente, lo que conocemos como temblar de frío. Este temblor tiene por objeto aumentar la producción de calor del cuerpo de una manera muy eficiente. Además el temblor de alta intensidad que conocemos comúnmente y que dura un tiempo relativamente corto, hay un temblor de baja intensidad que puede sostenerse durante mucho tiempo, incluso durante meses, y así lo hacen muchos animales que hibernan durante el invierno, temblando imperceptiblemente para mantener su temperatura.

El abuelo de la evolución

¿Qué famoso apellido es el vínculo entre el sistema de conducción de los autos, la teoría de la evolución y las máquinas copiadoras?

Erasmus Darwin en 1770 en retrato de Joseph
Wright  of Derby (Dominio Público, vía
Wikimedia Commons)
Los relatos contemporáneos lo describen como un hombre jovial y bromista, más bien rotundo, con facilidad para hacer amigos, dado a los placeres mundanos y, sobre todo, como hombre de una curiosidad insaciable respecto de todo el mundo que lo rodeaba. No es tan conocido como merece, entre otras cosas, por lo avanzado de sus ideas sociales, y pese a que su nieto Charles Darwin, cuya fama lo superó con mucho, intentó rescatar su figura escribiendo su biografía.

Erasmus Darwin nació en los Midlands del Este, en Inglaterra, en 1731, en las agitadas aguas de la revolución científica y la ilustración que cambiaron radicalmente nuestra visión del universo y las relaciones sociales, con conceptos tales como el método científico, los derechos fundamentales o la democracia. Estudió medicina en la Escuela Médica de la Universidad de Edimburgo en Escocia y estableció su consulta médica en la ciudad de Lichfield, donde pasaría el resto de su vida.

Incluso su práctica médica reflejaría las ideas avanzadas y heterodoxas de Darwin, que se ganaba la vida tratando a los ricos y poderosos, al tiempo que ofrecía consultas gratuitas a los más pobres, y que rechazó ser médico personal del rey Jorge III para poder seguir su trabajo científico, técnico e, incluso, artístico.

Erasmus Darwin militó en la ilustración y la revolución científica junto con un grupo de pioneros intelectuales que en 1765 formaron la Sociedad Lunar, llamada así porque a falta de iluminación artificial, sus miembros se reunían en luna llena para tener luz con la cual volver de sus reuniones, cenas informales en las que la discusión de todos los temas era libre. La Sociedad Lunar comenzó cuando Darwin conoció al emprendedor Matthew Boulton a través de su amigo común James Watt, conocido como por haber perfeccionado la máquina de vapor y disparado la revolución industrial en Gran Bretaña, además de investigar en la naciente química. Darwin y Boulton empezaron a compartir sus intereses, incluyendo a otros amigos en sus diálogos, hasta que instituyeron un grupo informal que se reunía a cenar una vez al mes, del que fueron parte, entre otros, el médico William Small, el relojero y experto en hidráulica y geología John Whitehurst, el inventor Richard Lovell Edgeworth y el químico y polígrafo Joseph Priestley, descubridor del oxígeno. A ellos se uniría, primero en persona y luego por carta, Benjamin Franklin, con el que Erasmus Darwin estableció una estrecha amistad.

En el terreno de las invenciones, Darwin se interesó por los mecanismos de la voz humana, creando una máquina parlante con un fuelle y labios de cuero que, según testimonios, era capaz de engañar a quienes la escuchaban por primera vez y convencerlos de que estaban oyendo una voz humana decir “mamá” y “papá”. Creó una máquina para levantar las barcas en los canales y una copiadora de la que no quedan ni el diseño ni un ejemplar, pero sí testimonios de que era capaz de producir copias perfectas. Curiosamente, intentó que su amigo James Watt la comercializara, pero éste, en cambio, creó su propia copiadora química. Igualmente inventó un molino de viento horizontal, un pequeño pájaro artificial que pretendía que volara movido por un mecanismo neumático y del que se puede ver un modelo actualmente en su casa de Lichfield, convertida en museo. De modo muy relevante, diseñó un sistema para conducir carruajes permitiéndoles girar en las curvas y las esquinas con un sistema de varillas a fin de que ambas ruedas describieran círculos de diámetro diferente. Este sistema sería reinventado más de 100 años después y se utilizaría no sólo para carruajes sino para los automóviles.

Como apasionado de la botánica, creó una asociación dedicada a la traducción de la obra de Linneo, promoviendo la clasificación taxonómica de la flora y fauna de su zona, además de hacer algunos descubrimientos de gran relevancia: identificó los azúcares y almidones como productos de la “digestión” vegetal y postuló la existencia de los estomas de las plantas, al suponer que respiraban mediante pequeños poros al ver que las plantas morían si sus hojas se cubrían con aceite.

Aficionado a excavar en busca de fósiles y apoyado en su conocimiento de los animales domésticos, en 1794 publicó el resultado de 25 años de observaciones y cavilaciones en el libro Zoonomía o las leyes de la vida orgánica, donde además de intentar una clasificación completa de las enfermedades y sus tratamientos, proponía una de las primeras teorías formales de la evolución de las especies. Aunque parte de su visión era todavía que las modificaciones que un ser experimentara en vida podrían transmitirse a su descendencia, una idea que Jean-Baptiste Lamarck desarrollaría años después. Pero ya se le sugería también la selección natural. Al hablar de la competencia por la reproducción, escribió: “El resultado final de este concurso entre machos parece ser que el animal más fuerte y más activo es el que propagará la especie, que así se verá mejorada”.

Pero de modo notable se atrevió a suponer que toda la vida había evolucionado a partir de un solo ancestro común, un “filamento viviente” al que llamó “la gran primera causa”, capaz de adquirir nuevas partes y mejorar, transmitiendo esas mejoras a su posteridad.

Erasmus Darwin murió en 1802. Pese a su intensa actividad intelectual, había tenido tiempo de casarse dos veces y tener una amante intermedia, tres mujeres con las que tuvo catorce hijos, aunque se habla de al menos un hijo más con otra amante. Siendo además un poeta altamente reconocido y admirado, dejó un largo poema que se publicó un año después de su muerte, El templo de la naturaleza, en el cual retoma su visión evolucionista en verso: “La vida orgánica, bajo las olas sin playas / nació y creció en las nacaradas cavernas del océano; / primero formas diminutas que no podrían verse con lente esférica, / se mueven en el barro o rompen la masa acuática; / Éstas, conforme florecen nuevas generaciones /adquieren nuevos poderes y asumen miembros más grandes; / donde brotan incontables grupos de vegetación, / y reinos que respiran con aleta, y pies, y alas.”

El revolucionario social

Erasmus Darwin fue uno de los pensadores socialmente avanzados de su tiempo. Republicano en un país tradicionalmente monárquico, no muy religioso, crítico de las supersticiones, libertario y con clara inclinación por lo que hoy llamaríamos “amor libre”, era además defensor de la abolición de la esclavitud y, como feminista, en 1797 publicó su Plan para la conducción de la educación femenina con la poco popular idea de que las mujeres tenían derecho a una formación científica, humanística y artística.

Corazones de recambio

Cientos de personas viven hoy, al menos temporalmente, con un electrocardiograma plano, con un corazón hecho de ingenio y los más modernos materiales.

Corazón Jarvik 7 (Foto D.P. del National Health
Institute, vía Wikimedia Commons)
El corazón bombea sangre por todos los vasos sanguíneos del cuerpo mediante contracciones rítmicas repetidas. La definición parece bastante sencilla. Si así fuera, de hecho, crear un aparato que sustituyera al corazón sería una tarea no demasiado difícil. La realidad, sin embargo, es mucho más complicada y ha dificultado la creación de un corazón artificial desde que el primero fue patentado en 1963.

La complejidad del funcionamiento del corazón es resultado de una larga historia evolutiva. El antecesor del corazón que hoy podemos ver en los mamíferos es un simple músculo tubular que impulsa un líquido con nutrientes y oxígeno por el cuerpo de algunos invertebrados, como ciertos tipos de gusanos. Ese músculo, efectivamente, se contrae a intervalos regulares en un movimiento peristáltico, es decir una contracción que se propaga como una ola a lo largo del músculo, de la misma manera en que se contrae nuestro esófago o nuestros intestinos para hacer avanzar los alimentos.

Ese músculo apareció hace alrededor de 500 millones de años. Con el tiempo, apareció un genuino sistema circulatorio cerrado, donde la sangre se encuentra siempre dentro de un bucle de vasos sanguíneos que pasa por el corazón. Y en el órgano muscular aparecieron cámaras diferenciadas que facilitaban el proceso de mover la sangre por el cuerpo.

El corazón de cuatro cámaras (dos aurículas y dos ventrículos) como el humano es un órgano tremendamente complejo. Su lado derecho recibe la sangre venosa en la parte superior, la aurícula y la envía a los pulmones por la cámara inferior, el ventrículo. La sangre pasa por los pulmones, se oxigena y vuelve a entrar al corazón por la aurícula izquierda, de donde pasa al ventrículo izquierdo que la envía al resto del cuerpo. Entre cada aurícula y ventrículo hay válvulas que impiden que la sangre vuelva en el proceso de contracción del corazón, que primero se contrae por su parte superior y después por la inferior en una compleja danza muscular controlada por nodos de células nerviosas.

Esta maquinaria late unos 40 millones de veces al año durante toda nuestra vida, respondiendo al ejercicio físico, a las emociones, a las percepciones y a las condiciones internas y externas de nuestro cuerpo y variando de modo correspondiente el ritmo cardiaco, de unos 72 latidos en promedio en reposo hasta más de 200 en casos de angustia o esfuerzo físico extremo.

Todo esto debería hacerlo un corazón artificial, o al menos parte de ello con suficiente eficacia. Porque pese a su gran resistencia y diseño asombroso, el corazón falla y, hasta antes de mediados del siglo XX, su fallo era una condena a muerte. La lucha de los médicos ha sido por aumentar la calidad y cantidad de vida de la gente a la que su corazón le ha fallado.

Cuando el corazón falla

Un corazón artificial puede ser de dos tipos. El permanente sustituye definitivamente al corazón orgánico mientras que el temporal lo hace durante un tiempo breve, unas horas durante una cirugía cardíaca, algunos días o, cuando mucho, algunos meses, en lo que se tiene a disposición para trasplante un corazón compatible con el paciente.

En 1952 se utilizó el primer dispositivo cardiopulmonar para sustituir la función del corazón y los pulmones durante una intervención quirúrgica y que podría llamarse un corazón mecánico. Consta de una membrana permeable al gas a través de la cual se elimina el bióxido de carbono de la sangre y se le infunde oxígeno, cumpliendo las funciones de los pulmones, y una bomba centrífuga que hace el papel del corazón. Las máquinas cardiopulmonares son grandes y pesadas, las más modernas de alrededor de 350 kilos.

La primera patente de un corazón artificial de tamaño similar al natural pertenece a un personaje que fue famoso en los Estados Unidos por motivos que nada tenían que ver con la medicina. En las décadas de 1950-60, Paul Winchell era una estrella del vodevil y la naciente televisión en laespecialidad de la ventriloquía, actuando con varios muñecos altaneros. Además de interesarse por estudiar medicina mientras triunfaba en el espectáculo, desarrolló actividad como inventor acumulando una treintena de patentes diversas. La idea de un corazón artificial se le sugirió cuando el Dr. Henry Heimlich, el médico que desarrolló la “maniobra Heimlich” que ha salvado literalmente millones de vidas, lo invitó a ver una cirugía cardiaca. Ambos hombres se dedicaron entonces juntos a desarrollar el aparato que patentaron en 1963.

En la década de los 70, en la Universidad de Utah, el Dr. Robert Jarvik trabajó con otro corazón artificial no patentado, del Dr. Willem Kolff, tratando de perfeccionarlo. Winchell le obsequió su patente a la universidad y parte de su diseño fue incorporada al proyecto de Jarvik.

En 1981, el Dr. William DeVries implantó el primer corazón artificial en un paciente llamado Barney Clark. El corazón fue el Jarvik 7, que utilizaba el aire como método de accionamiento. Esto implicaba que el corazón dentro del pecho de Clark estuviera conectado al exterior por dos gruesos tubos unidos a un motor que suministraba el aire para que el corazón bombeara. Clark sobrevivió 112 días con el corazón artificial.

Los desafíos de los corazones artificiales han sido principalmente los materiales, que deben impedir la formación de coágulos, un funcionamiento que no aplaste las células sanguíneas y, sobre todo, la forma de lograr el bombeo.

Actualmente, un sucesor del corazón Jarvik 7 se utiliza con frecuencia como “puente” a la espera de un corazón adecuado para el trasplante. Las bombas neumáticas se han reducido hasta poderse llevar con sus baterías en una mochila con un peso de 6 kilogramos en lugar de los 200 kilos de la versión original.

Pero un corazón que sustituya de modo permanente, eficiente y fiable al corazón humano no parece hoy más cercano que cuando Winchell y Heimlich patentaron su invento. Quizá hagan falta algunos millones de años de evolución para que consigamos un aparato tan fiable como el que traemos de serie, y que a la enorme mayoría de nosotros no nos da problemas al menos durante los primeros 60 años de nuestra vida.

Los corazones parciales

Una aproximación eficaz a las prótesis cardiacas ha sido el uso de aparatos que sustituyen parcialmente alguna función o porción del corazón, como los dispositivos de asistencia ventricular. Utilizados principalmente también como puentes mientras se obtiene un corazón viable para trasplante, algunos corazones parciales han llegado a funcionar de modo fiable durante más de dos años. Es el caso de otro desarrollo de Robert Jarvik, el dispositivo de asistencia ventricular Jarvik 2000.

Historia natural de los dragones

No todas las leyendas tienen una base real gracias a que la imaginación humana es fértil y diversa. Pero en el inicio del mito de los dragones sí hay hechos, y animales, de verdad.

El mítico caballero Yvain de la leyenda del Rey Arturo
combatiendo a un dragón (posiblemente siglo XV,
vía Wikimedia Commons).
Existen al menos dos grandes variedades de dragones. El de China, llamado allí “konglong” y que se difundió hacia todas las culturas del extremo oriente, era descrito como un gran reptil similar a una enorme serpiente, con ojos de conejo, cuernos de venado y garras de tigre. Con diversos colores que juegan un importante papel en su mitología, de grandes garras y cuerpo muy alargado. El konglong es símbolo del poder imperial chino, de la amabilidad y de la sabiduría más que del combate y la violencia, como suponen los occidentales al verlo como motivo decorativo oriental. Su historia se remonta al menos al quinto milenio antes de nuestra era, de donde procede una estatua de la cultura yangshao.

El dragón europeo aparece en las primeras historias registradas y es importante su papel en leyendas como la de Jasón y el vellocino de oro, donde sus dientes pueden plantarse para que germinaran como guerreros listos para la batalla. Puede tener cuatro patas, dos o ninguna, pero lo caracteriza algo de lo cual carece casi completamente su primo asiático: dos poderosas alas con las cuales puede volar. Además, algunos dragones europeos cuentan con la capacidad de exhalar fuego, hazaña nada despreciable.

El dragón apareció en europa como serpiente marina temida por los marineros y al paso del tiempo evolucionó en el folklore hasta convertirse en el reptil gigantesco, volador y poderoso que protagoniza numerosos mitos y, sobre todo, una variada literatura dragonil en la que no puede faltar mención a “El Hobbit” de J.R.R. Tolkien.

Muchos han querido ver un dragón en la figura del mítico dios-filósofo llamado Kukulcán por los mayas y Quetzalcóatl por los aztecas, palabra formada de “quetzal” o ave hermosa y “cóatl”, serpiente, es decir, serpiente emplumada. (Aunque en realidad “quetzalcóatl” es una forma metafórica de decir “gemelo precioso”, que es más preciso en el contexto de la historia del rey Tolteca que dio origen al mito, pero ciertamente menos pintoresco.)

Porque, como muchos seres mitológicos, no sólo los podemos estudiar en la leyenda y en la historia, en las costumbres y decoración de distintos pueblos. Los dragones pueden ser espacio de divertimento para los biólogos.

¿Cómo serían las alas del dragón? Si nos atenemos a las numerosas representaciones y nos inclinamos por las más plausibles, las alas del dragón se parecen mucho a las de los murciélagos, es decir, muestran una estructura rígida plegable parecida a dedos con una membrana entre ellos, como patas palmeadas que se hubieran adaptado para el vuelo.

El problema es difícil, pero no insoluble. La evolución trabaja con las estructuras existentes y las modifica para darles formas a veces radicalmente distintas conforme se van adaptando a un entorno cambiante. El problema es que para generar esas alas, en la espalda, los ancestros del dragón deberían haber tenido seis patas, un par de las cuales hubiera evolucionado hacia las alas. Y los vertebrados terrestres, proceden todos de peces con aletas pectorales y pélvicas pareadas.

El otro problema del dragón europeo es la capacidad de escupir fuego. Algunos biólogos han especulado sobre mecanismos como un saco que almacenara metano proveniente de la digestión del dragón y que se incendiara mediante la fricción de dos dientes especializados o generando una chispa eléctrica como lo hacen muchos seres vivos. Vamos, que es evolutivamente incluso menos implausible que las alas del dragón.

Podemos encontrar el origen de los dragones en una frase de José Luis Sanz, quien afirma que quienes practican su profesión, la paleontología, son “cazadores de dragones”, nombre que dio a un libro de divulgación sobre el descubrimiento e investigación de los dinosaurios. En él cuenta cómo un texto de entre los años 265 y 317 de nuestra era informa del hallazgo de huesos de dragón en la provincia de Sichuan. De hecho, es común en China hallar huesos de dragón, incluso hoy, tanto que las creencias precientíficas conocidas como “medicina tradicional china” incluyen entre sus remedios al hueso de dragón o “long gu” y, como todos los preparados mágicos, se usa igual como tranquilizante que para problemas de corazón e hígado, insomnio, sudoración externa y diarrea crónica.

Otros remedios, por cierto, como el hueso de tigre o “hu gu”, la bilis de oso y el cuerno de rinoceronte son tan buen negocio para los furtivos que estos tres animales están en peligro de extinción. Pero el “long gu” procede de animales ya extintos. Y no son los dragones.

La cercanía dinosaurios-dragones parece bastante obvia. Y más cuando pensamos en que China es hoy una de las zonas del planeta más fructíferas en cuanto a la paleontología. ¿Acaso los long gu son simplemente huesos de dinosaurios?

En parte sí. Sería difícil encontrar un cráneo de Tsintaosaurus spinrhinus, dinosaurio de 5 metros de alto con un cuerno al centro de la frente evocador del “unicornio” sin pensar en un ser misteriosísimo, oculto y poderoso. Pero también vale la pena recordar la variedad de la vida en el pasado para suponer que muchos huesos de dinosaurios eran, simplemente, mamíferos del pasado, desconocidos para quienes los hallaban asombrados.

Así, por ejemplo, en la casa consistorial de Klagenfurt, en Austria, se atesoraba lo que se decía que era la cabeza de un dragón que, según la leyenda, había sido derrotado por dos valientes jóvenes antes de la fundación de la ciudad en 1250. Hoy sabemos que ese enorme cráneo corresponde a un rinoceronte lanudo que vivió durante el Pleistoceno. Otros cráneos, de mamíferos marinos, sobre todo, fueron considerados restos de dragones.

Y mientras el dragón sigue siendo una maravilla de la imaginación y un excelente pretexto y protagonista de apasionantes historias fantásticas, en la vida real, aunque sin exhalar fuego, muchos dragones reales, los dinosaurios, terribles y violentos depredadores o pacíficos herbívoros, enormes y aterradores o pequeños y escurridizos, fueron las especies dominantes de la Tierra durante 135 millones de años. Las historias de ambos tipos de seres siguen siendo apasionantes.


Los dragones reales

En la isla de Komodo vive uno de los mayores reptiles terrestres, un varano que puede llegar a medir 3 metros y pesar más de 70 kilos. Descubiertos en 1910, el nombre de “dragones” lo recibieron en 1926 del explorador W. Douglas Burden, en un libro que escribió sobre su viaje al “mundo perdido” de Indonesia, libro que, por cierto, inspiró la película King Kong. Hoy, el dragón de Komodo, peligrosísimo por las infecciones que causa su mordida y que usa para cazar, está, paradójicamente, en riesgo de extinción.

Izquierda y derecha en el universo

Ser zurdo o diestro no es trivial, basta tratar de usar unas tijeras con la mano izquierda para que los diestros lo sepamos. Nosotros, y el universo, compartimos la curiosa tendencia a uno u otro lado.

Salvo escasas excepciones, somos diestros o zurdos. Es parte de nuestra forma de ser desde la niñez, cuando descubrimos que nos resultaba más cómodo usar una mano o la otra. La desgraciada costumbre de intentar obligar a niños zurdos a usar la mano derecha cuando todo su sistema nervioso indicaba que eran zurdos, nos ha enseñado incluso cuánto sufrimiento implica el no seguir esa tendencia de nuestro cuerpo.

Curiosamente, ese rechazo a lo zurdo y la presión para cambiar su tendencia natural, provenía de la superstición de que el lado izquierdo (“sinistra” en latín) era malévolo y de mal agüero, el lado del diablo, igual que la mano correspondiente o, como se considera en el Islam, la mano sucia que se usa para ir al baño.

¿Por qué somos diestros o zurdos? Los científicos aún no tienen la respuesta. Existen hipótesis como que la preferencia de mano tiende a ser reflejo de la preferencia de lenguaje, es decir, que los diestros tienden a tener las habilidades del lenguaje concentradas en el hemisferio izquierdo y los zurdos en el derecho, pero las muchas excepciones a esta regla general no la sustentan demasiado sólidamente. Y el origen genético (pese a cierta tendencia de que ser derecho o zurdo sea heredada) tampoco es tan sólido si consideramos que hay casos de gemelos idénticos en los que uno es diestro y el otro zurdo. Después de todo, podría simplemente ser un accidente, según algunos biólogos: la especialización de las manos hizo que se concentraran ciertas habilidades en uno u otro hemisferio, y pasamos a ser diestros simplemente por azar.

Ciertamente, lo que podemos inferir de algunos de nuestros antepasados o parientes del género Homo como el neandertal, el ergaster y el heidelbergensis es que eran mayoritariamente diestros, como nuestra especie. Los brazos derechos más fuertes y musculados (lo que se revela por la inserción de los músculos en los huesos que estudiamos) y la fabricación de algunas herramientas así parecen indicarlo.

Pero esto no es verdad en todos los primates. Revisando estudios realizados en nuestros parientes taxonómicos durante 90 años muestra que todos los primates tienen una preferencia. Los lémures y otros prosimios tienden a ser zurdos, los macacos y otros monos del viejo mundo se dividen más o menos a la mitad: 50% zurdos y 50% diestros. Los gorilas y chimpancés son preferentemente diestros con un 35% de zurdos y entre los humanos los zurdos son algo más del 10%. Esto podría indicar que ser diestro es un fenómeno más reciente en la evolución de nuestra familia.

Pero vale la pena decir que ser diestro o zurdo no es en realidad una preferencia absoluta. Todos tenemos tareas que hacemos mejor con la mano izquierda. En el béisbol, por ejemplo, la mano que los diestros usan para atrapar es la izquierda, e intentar hacerlo con la derecha les resulta tan incómodo como a un zurdo tratar de escribir con la derecha. Más que la dominancia de una mano (o, entre los futbolistas, un pie) sobre el otro, lo que hay podría conceptuarse como una división del trabajo que se expresa a la inversa entre diestros y zurdos.

Del mismo modo en que el ser humano tiene esta diferencia, el universo también la exhibe.

Quiralidad en la naturaleza

Fue Louis Pasteur quien, en 1848, descubrió que ciertas sustancias podían presentarse en dos tipos de moléculas de fórmula idéntica salvo porque unas eran la imagen en espejo de las otras, sin poder superponerse una sobre la otra, como pasa con nuestras manos. Se llamó a esta propiedad “quiralidad” (de la raíz griega “chiros”, que significa “mano”) y aunque originalmente se descubrió por sus propiedades ópticas (los cristales “diestros” de una sustancia giran la luz polarizada en la misma cantidad pero sentido inverso que los cristales “zurdos”), pronto se descubrió que las diferencias eran bastante más complejas y representaban variedades en otros aspectos. A las que miran a la derecha se les llama “dextrógiras” mientras que a las que miran a la izquerda se les llama “levógiras”.

Por ejemplo, las moléculas de 19 de los 20 aminoácidos tienen quiralidad (la excepción es la glicina, que es una molécula simétrica y por tanto su imagen en espejo es igual), pero las proteínas que nuestro ADN produce sólo tienen aminoácidos levógiros. Esto significa que la molécula mayor, la proteína, está formada de elementos de construcción que tienen una quiralidad uniforme, por lo que se les conoce como “homoquirales”. El ADN, la macromolécula de la vida en la tierra, también es homoquiral, pues si estuviera formado por unidades de quiralidad diferente no podría formar correctamente la estructura de la doble hélice.

Si los aminoácidos son levógiros, las azúcares suelen ser dextrógiras. Así, por ejemplo, la glucosa natural es dextrógira, por lo que la conocemos como dextrosa o D-glucosa. Se puede producir artificialmente una glucosa levógira, la L-glucosa, que pese a ser igualmente dulce no puede ser metabolizada y usada como fuente de energía (su coste y otros problemas han impedido que se use como sustituto de la dextrosa para dietas y diabéticos).

El sabor y los aromas que percibimos, sin embargo, se relacionan también con la quiralidad. La hipótesis más extendida sobre cómo detectan los aromas y el sabor nuestros receptores nerviosos indican que son activados por la forma de ciertas moléculas, que se acoplan con ellos (o con sustancias en su superficie) como una llave con una cerradura. Así, por ejemplo, el 4-metilhexanal, en su versión levógira, no tiene olor detectable, pero en su versión dextrógira provoca una sensación olfativa intensa, floral y con elementos verdes y frescos. Más contrastantemente, el ácido 2-metilbutanoico levógiro es afrutado y dulce, pero su reflejo dextrógiro nos huele a queso y sudor.

Hoy, la ciencia encuentra quiralidad en sitios donde no se esperaba, desde neutrinos diestros y zurdos hasta una variación en el giro de las galaxias a derecha e izquierda – desde nuestro punto de vista – que nos muestran un universo menos simétrico de lo que quizás creímos. Un universo que es de izquierda o de derecha... y no en sentido político.

Un mundo para diestros

Uno de los problemas que apenas están solucionando las sociedades más tecnológicas es el de los muchísimos implementos (desde tijeras y abrelatas hasta equipo deportivo y muchos instrumentos musicales) que están diseñados para personas diestras sin pensar en la alternativa. Hoy, afortunadamente, los virtuosos no tienen que tocar una guitarra al revés, como lo hizo Jimmy Hendrix, sino que cuentan con multitud de productos hechos para ellos.

Y Norman le dio de comer al mundo

Dar de comer a una población creciente es un desafío complejo. Abordarlo siempre ha sido urgente, pero nunca como ahora tuvimos las armas para realmente resolverlo gracias a un científico singular.

Norman Borlaug, el rostro del héroe. (Foto D.P.
 Ben Zinner, USAID, vía Wikimedia Commons)
Un popular libro de la década de los 60, La bomba poblacional de Paul Ehrlich, advertía del apocalipsis que le esperaba a la humanidad a la vuelta de la esquina. “La batalla para alimentar a la humanidad ha terminado. En las décadas de 1970 y 1980, cientos de millones de personas morirán de inanición sin importar los programas de emergencia que emprendamos ahora”, advertía, y el público se horrorizó.

La profecía no se hizo realidad en buena medida gracias al trabajo de un científico cuyo nombre no le dice nada a la gran mayoría de la gente.

Norman Borlaug nació el 25 de marzo de 1914 en un pequeño rancho de Iowa, en el Medio Oeste estadounidense, en una zona poblada por inmigrantes noruegos, como su abuelo, quien había construido el rancho. Se educó en una primaria rural antes de pasar a una secundaria donde destacó en la lucha grecorromana llegando a ser admitido en el Salón de la Fama de la Lucha en Iowa.

Su futuro no estaba en el deporte. Salió del bachillerato en los momentos más negros de la Gran Depresión y empezó a trabajar como peón agrícola para pagarse la matrícula en la Universidad de Minnesota, y cuyas cuotas pagó trabajando de camarero y aparcacoches. Seguiría su doctorado, que obtuvo en 1942 trabajando con el patólogo botánico, Elvin Charles Stakman.

Lo que parecía esperarle era el American Dream con un trabajo en una gran empresa química, la E.I. duPont de Nemours, donde empezó a trabajar como una obligación bélica en tiempos de la Segunda Guerra Mundial. Pero en 1944 se interpuso una invitación de la Fundación Rockefeller para que el joven científico agrícola se fuera a México a resolver un problema grave: las cosechas de trigo del vecino y aliado de los EE.UU. se habían visto reducidas a la mitad debido a la infección del hongo conocido como roya del tallo y el país se acercaba a una hambruna generalizada.

Borlaug quedó aterrorizado por la situación del campo mexicano, pero aceptó el reto y pasó los siguientes 20 años dedicado a un colosal esfuerzo, hibridizando distintas variedades de trigo que recogió por todo el mundo para seleccionarlas y reproducirlas, polinizando a mano, en un duro trabajo manual en el campo, hasta conseguir una variedad resistente a la roya del tallo (algo que hoy es mucho más sencillo con técnicas de ingeniería genética). Trabajando cultivos de verano e invierno en dos zonas del país, encontró además variedades no sensibles a la duración del día, algo esencial para poderlas plantar en distintas latitudes.

En cinco años logró una variedad de trigo resistente a la roya y más productiva. Luego se dedicó a cruzar plantas para obtener una variedad con semillas más grandes, obteniendo espigas mucho más productivas. Pero apareció otro problema: el peso de las semillas doblaba los largos tallos del trigo mexicano, desarrollados para sobresalir de entre la maleza. Los hibridizó con una variedad japonesa de tallo muy corto y en 1954 consiguió una variedad de trigo enano, de alto rendimiento, tallo corto y resistente a la roya.

En 1956, México consiguió ser autosuficiente en trigo, un cambio notable cuando 16 años antes importaba el 60% de este grano. Por esos años, una epidemia de roya del tallo destruyó el 75% de la cosecha de trigo durum en los Estados Unidos, lo que favoreció la adopción de las nuevas variedades desarrolladas por el visionario. Las técnicas de Borlaug permitieron a los científicos además mejorar muy pronto el rendimiento de dos cultivos esenciales para alimentar al mundo, el maíz y el trigo.

En la década de 1960, el innovador fue a la India, país que en 1943 había sufrido la peor hambruna conocida en la historia con más de cuatro millones de víctimas mortales. El genetista Mankombu Sambasivan Swaminathan, arquitecto de la Revolución Verde en la India, recuerda que al momento de la independencia de la India, en 1947, el rendimiento de trigo y arroz en los campos indios era de menos de una tonelada métrica por hectárea. Y aunque en los siguientes 20 años se incrementó el área de cultivo para alimentar a la desbordante población india, los rendimientos no aumentaban. Se importaban 10 millones de toneladas de trigo al año. De hecho, el libro de Ehrlich afirmaba que “la India no tiene ninguna posibilidad de alimentar a doscientos millones de personas más para 1980”.

La revolución verde consiguió que la cosecha de la India en 1965 fuera 98% mayor que la del año anterior... duplicando prácticamente el rendimiento del trabajo agrícola. Pakistán consiguió la independencia alimentaria en 1968. Al paso de los años, el trabajo de Borlaug ha conseguido resultados asombrosos. En 1960, el mundo producía 692 millones de toneladas de grano para 2.200 millones de personas. En 1992 estaba produciendo 1.900 millones de toneladas, casi el triple, para 5.600 millones de personas, y todo ello utilizando sólo un 1% más de tierra dedicada al cultivo.

Los logros del especialista agrícola llamaron la atención del Comité Nobel, que en 1970 acordó entregarle a Norman Borlaug el Premio Nobel de la Paz porque, dijeron, “más que ningún otro individuo de su edad, ha ayudado a proveer de pan a un mundo hambriento”.

La Revolución Verde fue el primer gran resultado de la biotecnología, de la aplicación de nuestros conocimientos biológicos para conseguir mejores plantas. Pero no sólo dependía de las nuevas variedades, sino de la capacidad de irrigación, mejores fertilizantes y mecanización, causas que, junto con la incertidumbre política, impidieron que África siguiera el camino de otros países (entre ellos China, hoy exportadora de alimentos). En palabras del propio científico: “A menos que haya paz y seguridad, no puede haber un incremento de producción”.

Norman Borlaug siguió trabajando por combatir el hambre y por promover el uso racional de la tecnología para mejorar el rendimiento de los cultivos lo que ha impedido la conversión en tierra de cultivo de grandes espacios de bosques y ecosistemas protegidos. Murió el 12 de septiembre de 2009, pero su trabajo contra el hambre continúa en la Norman Borlaug Heritage Foundation, para cuyos programas educativos la casa de Iowa donde nació el Premio Nobel se ha convertido en una residencia estudiantil.

Triunfos pasajeros

“Es verdad que la marea de la batalla contra el hambre ha cambiado a mejor en los últimos tres años. Pero las mareas tienen su forma de subir y bajar. Bien podemos estar en marea alta hoy, pero la marea baja podría instalarse pronto si nos volvemos complacientes y relajamos nuestros esfuerzos.” Discurso de aceptación del Premio Nobel de Norman Borlaug el 10 de diciembre de 1970.

La literatura que vino del conocimiento

El primer puente eficaz entre la ciencia y las humanidades se tendió con base en el asombro y expectativa que se genera alrededor de quien sea que nos diga “voy a contar una historia”.

El primer número de la revista fundada por
Hugo Gernsback, con portada del artista
Frank R. Paul y errata en el nombre de
Edgar Allan Poe.
(Imagen D.P. vía Wikimedia Commons)
Isaac Asimov argumentaba, con muy buenas razones, que la ciencia ficción, ese género literario singular de cruce de caminos entre la ciencia y el arte, no tenía un padre fundador como otros. Por ejemplo, el género policiaco tuvo como padre a Edgar Allan Poe en sus dos cuentos con el inspector Dupin, mientras que la moderna fantasía heroica fue producto de la obra de J.R.R. Tolkien. La ciencia ficción, única en la literatura (y en otras artes, posteriormente) tenía madre fundadora: Mary Shelley.

La joven concibió su novela Frankenstein o el moderno Prometeo por las conversaciones que tenían ella, su amante Percy Bysse Shelley, el amigo de ambos Lord Byron y el médico de éste, John Polidori, a las orillas del lago Ginebra en 1816. La joven Mary estaba interesada por los trabajos del italiano Galvani sobre la electricidad animal y, cuando se propuso que los cuatro escribieran un cuento de fantasmas, ella esbozó lo que sería la novela que publicó dos años después. Más allá de precursores como las narraciones fantásticas de Luciano de Samosata, Johannes Kepler o Cyrano de Bergerac, es fácil argumentar que la especulación científica de Shelley es el primer trabajo de la ciencia ficción como la conocemos hoy en día.

Pero si la ciencia ficción nació en 1816-18, tuvo que esperar más de un siglo para obtener su nombre y su identidad definitiva. Un siglo y que un soñador y empresario luxemburgués llamado Hugo Gernsback se entusiasmara con la idea de que se podía divulgar ciencia mediante la literatura. Experimentador con la electricidad y editor, Gernsback echó una mirada a la popularidad de los “romances científicos”, como se llamaba en Gran Bretaña a la obra de Jules Verne o H. G. Wells y decidió dedicarse a escribir y publicar eso que también se ocupó de bautizar. Su primera propuesta se traduciría como "cientificción" pero para 1929 adoptó el término que se generalizó y se ha mantenido pese a muchos intentos de rebautizarlo: "ciencia ficción".

Fue en 1926 cuando Gernsback, que ya publicaba revistas dedicadas a la radio y la electricidad donde ocasionalmente incluía cuentos con temática científica, fundó la revista Amazing Stories, la primera publicación dedicada exclusivamente a cuentos de ciencia ficción y que sería la plataforma de lanzamiento del género y de numerosos autores hoy considerados clásicos del género como Isaac Asimov, Ursula K. Le Guin, Howard Fast o Roger Zelazny.

Muchos autores no estaban de acuerdo con la idea de que la ciencia ficción tuviera la misión de divulgar ciencia. De hecho, saber algo de ciencia ya era requisito para el disfrute total de algunos de los relatos lque se estaban escribiendo en la primera mitad del siglo XX. Más que divulgarlos hechos y datos de la ciencia, para muchos era la forma de divulgar algo que consideraban mucho más importante: el método científico y el pensamiento crítico y cuestionador en el que se basa para llegar al conocimiento. Y para advertir de la necesidad de impedir que la política y el poder usaran mal el conocimiento científico.

La gran explosión de la ciencia ficción ocurrió después de la Segunda Guerra Mundial, entre el horror de la bomba atómica y la guerra fría, de un lado, y la promesa científica y tecnológica de los antibióticos, la carrera espacial y los plásticos, del otro.

Al mismo tiempo, los medios visuales se unieron entusiastas, si bien con poca suerte, al boom de la ciencia ficción. Una serie de películas, más bien de clase B, empezaron a salir de los estudios cinematográficos, algunas de ellas de cierto valor, como el clásico de la paranoia de la guerra fría The Body Snatchers o la muy moralina The Day the Earth Stood Still. La televisión, constreñida por limitaciones presupuestarias, abordó a la ciencia ficción menos entusiasta, con destellos en series clásicas como The Twilight Zone, dirigida y producida por Rod Serling.

La ciencia ficción visual llegó a su madurez en la década de 1960. En televisión, Star Trek, ideada por Gene Roddenberry, planteó de modo apasionante los dilemas morales de la ciencia y la cultura, la lógica y la emoción, y otro tanto hacía en el cine, en 1968, 2001: Una odisea del espacio, escrita por Arthur C. Clarke y dirigida por Stanley Kubrick.

El salto en efectos especiales que se dio a partir de esta película fue tal que, de hecho, para muchas personas de las nuevas generaciones la ciencia ficción sería considerada principalmente como un género cinematográfico y televisual, donde muchos de los grandes autores literarios como Frank Herbert (Dune) y Philip K. Dick (Total Recall, Blade Runner, Minority Report) se verían llevados al cine con mayor o menor fortuna.

La ciencia ficción ha pasado por distintas encarnaciones, a veces tan diferentes que resulta peculiar que los lectores y aficionados las identifiquen como facetas de una misma expresión artística. Desde la ciencia ficción “dura”, escrita muchas veces por científicos y basada en datos científicos minuciosamente precisos hasta la fantasía futurista de Ray Bradbury en Crónicas marcianas, desde los fulgurantes efectos especiales de Matrix hasta la serena reflexión de Solaris, desde los viajes dentro de nuestro cuerpo y mente hasta el diseño de imperios galácticos colosales, desde acción y batallas hasta la lucha contra los problemas mentales.

Esta forma de creación artística, sin embargo, quizás se identifica no por usar la ciencia, por enseñarla, por difundirla o por criticarla, sino porque sus preocupaciones son las mismas que las de la ciencia: cómo obtenemos el conocimiento, cómo cuestionamos a la realidad, cómo manejamos el conocimiento, cuáles son los obstáculos que le ponemos al saber, qué tanto tememos al pensamiento libre o cuáles son los cauces que debemos darle a esos conocimientos, entre otras cosas.

Muchos científicos de hoy en día encuentran las raíces de su interés por la ciencia en algún relato, alguna novela, algún autor, alguna película o serie de televisión. Pero es su atractivo para el público en general, ese público que muchas veces está por lo demás alejado de la ciencia, el que sigue convirtiendo a la ciencia ficción en el género de los grandes desafíos y las grandes dudas.

El primer beso

En noviembre de 1968, en lo que entonces era una audacia, sólo meses después del asesinato de Martin Luther King, se emitió un episodio de Star Trek donde el capitán Kirk, interpretado por William Shatner, besaba a la teniente Uhura, interpretada por Nichelle Nichols. Fue el primer beso interracial de la conservadora televisión estadounidense, algo que quizá sólo podía haber ocurrido entonces en el espacio aparentemente inocuo de la ciencia ficción.

Pesticidas: los heroicos villanos

Queremos alimentos baratos, en buen estado, que no estén infectados, enfermos o mordidos por insectos u otros animales. Algo que sería muy difícil sin los productos que controlan las plagas.

La familia de Bridget O'Donell durante la
gran hambruna irlandesa de 1845-52.
(Ilustración D.P. del Illustrated London
News, 22 de diciembre de 1849,
via Wikimedia Commons)
Lo único que separa al ser humano de la muerte por hambre es el éxito de la siguiente cosecha. Y el entorno está lleno de organismos que quieren aprovechar nuestro esfuerzo agrícola, plagas y enfermedades de aterradora diversidad, desde virus diminutos hasta aves o mamíferos de tamaño considerable como los topos o las ratas, que atacan nuestros campos, nuestra semilla y nuestros graneros.

La gran hambruna de las patatas en Irlanda, que mató a un millón de personas entre 1845 y 1852, fue causada principalmente por la llegada a Europa de una nueva plaga, el “tizón tardío”, que arrasó los campos de patatas que alimentaban al pueblo irlandés. La producción cayó de casi 15 mil toneladas en 1844 a sólo 2 mil toneladas en 1847.

Los procedimientos pesticidas para intentar evitar estos desastres no son nada nuevo en la historia. Hace 6.500 años en la antigua Sumeria, encontramos el primer uso registrado de plaguicidas químicos: distintos compuestos de azufre empleados para combatir a los insectos y a los ácaros. Desde entonces, el ser humano ha usado los más distintos productos para proteger la fuente principal de su alimentación, desde el humo (de preferencia muy hediondo) producto de la quema de distintos materiales hasta derivados de las propias plantas, como los obtenidos de los altramuces amargos o sustancias inorgánicas como el cobre, el arsénico, el mercurio y muchos otros.

Otros seres vivos también han sido usados como pesticidas. Si el ejemplo más obvio es el gato que protege casas, graneros y cultivos contra ratas y ratones, también los ha habido más elaborados. Mil años antes de nuestra era, en China se utilizaban feroces hormigas depredadoras para proteger los huertos de cítricos contra orugas y escarabajos. Se cuenta cómo los agricultores ponían incluso cuerdas y varas de bambú para facilitar el movimiento de las hormigas entre las ramas de distintas plantas.

En el siglo I antes de nuestra era, Marco Terencio Varro, un sabio romano, recomendaba el uso del alpechín, ese líquido oscuro y amargo con base de agua que se obtiene de las aceitunas antes del aceite, contra las hormigas, los topos y las malas hierbas, lo que sería el primer pesticida “de amplio espectro” de la historia.

Junto a estos materiales, los seres humanos utilizaron también durante la mayor parte de nuestra historia prácticas mágicas, religiosas y supersticiosas destinadas a proteger los cultivos, desafortunadamente sin buenos resultados.

En la década de 1940, después del fin de la Segunda Guerra Mundial, empezó a desarrollarse un tipo totalmente nuevo de pesticidas basados en la química orgánica (recordemos que la química orgánica es aquélla relacionada con los compuestos de carbono, y aunque el carbono es la base de la vida, esto no significa que todas las sustancias “orgánicas” desde el punto de vista químico tengan relación con la vida).

Los pesticidas parecían una solución perfecta que conseguían los resultados deseados por los agricultores sin provocar daños a otros seres vivos, ni al ser humano. Pronto, sin embargo, los estudios científicos demostraron que, según era también previsible, nada es perfecto. Algunos pesticidas se acumulaban en el ambiente, algunos otros resultaban muy tóxicos para organismos que no eran su objetivo, algunos podían acumularse en el medio ambiente o en los seres vivos, otros estaban siendo usados en exceso por distintos consumidores y, finalmente, otros iban poco a poco funcionando como un elemento de presión selectiva favoreciendo la aparición de cepas de distintos organismos resistentes al pesticida, del mismo modo en que los antibióticos que usamos como medicinas han favorecido la aparición de infecciones humanas resistentes a ellos.

El público reaccionó con lógica preocupación que en algunos casos se convirtió en miedo irracional y se extendió, injustificadamente, a todos los pesticidas y sustancias que ayudan a la agricultura, y a un desconocimiento de los desarrollos de las últimas décadas. En la conciencia general quedó identificada la idea de “pesticida” con los productos anteriores. Incluso, entre algunos grupos se considera poco elegante señalar que, pese a los innegables problemas, nadie nunca ha enfermado gravemente ni ha muerto por consumir productos agrícolas protegidos por pesticidas.

A fines de la década de 1960 se introdujo el concepto de la gestión integrada de plagas, una estrategia que implica utilizar una combinación de elementos para proteger los cultivos. En parte ha implicado volver a utilizar formas de control de plagas que habían sido abandonadas ante la eficacia de los pesticidas, y asumir una aproximación equilibrada usando juiciosamente todas las opciones a nuestro alcance: pesticidas químicos, otras especies, medios mecánicos, etc.

Hoy, existen cada vez mejores legislaciones para los distintos productos (no las había en los 40-50) y se investiga creando mejores pesticidas, efectivos , específicos (que ataquen sólo a las plagas y no a otras especies) y que después de actuar se descompongan en residuos no tóxicos y reintegrándose al medio ambiente. Junto a ellos, ha aparecido la opción de integrar mediante ingeniería genética capacidades pesticidas a los propios cultivos o hacerlos resistentes a las plagas. Así, por ejemplo, hoy se tienen cultivos que producen ellos mismos las toxinas del Bacillus thuringiensis, una bacteria frecuentemente usada como insecticida viviente.

Aún con los avances, cada año se pierde un 30% de todos los cultivos en todo el mundo. Una tercera parte. Sin pesticidas, los expertos aseguran que las pérdidas se multiplicarían y por ello, en este momento y bajo las condiciones económicas y sociales reales de nuestro planeta, no es posible alimentar a la población humana actual, 7 mil millones de personas, sin la utilización de pesticidas. Lo importante es seguir fomentando el desarrollo de mejores sustancias, emplearlas de modo inteligente y no indiscriminado, respetando todas las precauciones y aplicando sistemas alternativos siempre que sea posible y viable.

Nada de lo cual impedirá que los pesticidas sigan siendo, a la vez, héroes y villanos de la alimentación humana.

Mejor ciencia, no menos ciencia

Norman Borlaug, el creador de la “revolución verde” con la que se calcula que ha salvado más de mil millones de vidas decía en 2003: “Producir alimentos para 6.200 millones de personas, a las que se añade una población de 80 millones más al año, no es sencillo. Es mejor que desarrollemos una ciencia y tecnología en constante mejora, incluida la nueva biotecnología, para producir el alimento que necesita el mundo hoy en día”.

Rehacer el cuerpo

La posibilidad de reconstruir partes del cuerpo, órganos o miembros, manipulando nuestras propias células y procesos, es la gran promesa de la biología y la medicina regenerativas.

Tráquea artificial hecha con las propias células madre
del paciente. (Foto University College London, Fair use)
En 1981, un paciente del Hospital General de massachusetts, en Boston, había sufrido quemaduras graves. Los médicos decidieron probar una aproximación diferente a los trasplantes e injertos de piel tradicionalmente empleados en estos casos. Tomaron una pequeña muestra de piel sana de la víctima, la sometieron a un proceso llamado de “cultivo de tejidos”, donde las células son alimentadas y estimuladas para que se reproduzcan. el tejido resultante se colocó en una matriz y se aplicó en las zonas donde las quemaduras habían destruido la piel. Por primera ocasión, las propias células de un paciente se habían utilizado exitosamente como terapia.

Para llegar a ese momento, fue necesario que la ciencia respondiera a una enorme pregunta: ¿De qué estamos hechos? Durante la mayor parte de nuestra historia, la conformación de nuestro propio cuerpo fue uno de los grandes misterios. ¿Cómo se reunían las sustancias del para crear algo tan cualitativa y cuantitativamente peculiar como el tejido de un ojo, un pulmón, un músculo o un corazón? Y, más impresionante, cómo lo que comíamos nos hacía crecer y cómo, a veces, el cuerpo tenía la capacidad de regenerarse: se cortaba y al paso de un tiempo la herida cerraba, aparecía nuevo material que la sanaba y dejaba, en todo caso, una cicatriz.

Más aún, las capacidades regenerativas del ser humano, pese a lo asombrosas que pueden resultar, son limitadas. No puede regenerar un miembro, un ojo o una oreja, pese a que hay miembros del mundo animal que sí están en capacidad de hazañas asombrosas. Las salamandras, como las llamadas axolotl o ajolotes, pueden hacer crecer un miembro completo que se les haya amputado, y un gusano plano como la planaria puede ser cortada en varios trozos y cada uno de ellos producirá un individuo nuevo completo.

La idea de que el cuerpo humano podría regenerarse como las salamandras o los gusanos ha estado presente, así, como uno de los grandes sueños de la medicina, aunque la mitología se las arregló para presentar la regeneración también como una desgracia. En el mito de Prometeo, cuyo castigo por darle el fuego a los hombres fue ser encadenado a una roca donde un águila le comía todas las noches el hígado, que se regeneraba durante el día. Probablemente los griegos ya sabían que el hígado es el órgano con mayores capacidades regenerativas del cuerpo humano.

La posibilidad de usar la regeneración como forma de tratamiento hubo de esperar a que el ser humano conociera cómo esta formado el cuerpo, sus tejidos y órganos, las células que los conforman, la reproducción, la genética y el desarrollo embriológico. A partir de allí ya era legítimo imaginar terapias en las cuales un brazo destrozado, un ojo, un páncreas o cualquier otra parte del cuerpo pudieran ser reemplazados por otros creados con las células del propio paciente, ya fuera cultivándolas en el laboratorio para trasplantarlas después o provocando que el propio cuerpo las desarrollara.

En el mismo año de 1981 en que se realizaba el autotrasplante de células cultivadas en Boston, en las universidades de Cambridge y de California se conseguía aislar ciertas células de embriones de ratones, las llamadas células madre o pluripotentes, es decir, células que se pueden convertir en células de cualquiera de los muchos tejidos diferenciados del cuerpo humano. Todas nuestras células, después de todo, proceden de una sola célula, un óvulo fecundado por un espermatozoide, y en nuestro desarrollo embrionario se van especializando para cumplir distintas funciones, desde las neuronas que transmiten impulsos nerviosos hasta los eritrocitos que transportan oxígeno a las células de todo el cuerpo, las fibras musculares capaces de contraerse o las células de distintas glándulas que secretan las más diversas sustancias en nuestro cuerpo.

Pero aún con las células ya especializadas de los tejidos de los pacientes, se pueden realizar hazañas considerables. En 2006, científicos de la Wake Forest University de Carolina del Norte por primera vez utilizaron células de la vejiga urinaria de un paciente para cultivarlas y hacerlas crecer sobre un molde o “andamio” en un proceso llamado “ingeniería de tejidos”. El resultado fue una vejiga que se implantó quirúrgicamente sobre la del propio paciente, sin ningún riesgo de rechazo al trasplante debido a que son sus propias células. Desde entonces, la técnica se ha estandarizado para resolver problemas de vejiga en numerosos pacientes.

Otro sistema de ingeniería de tejidos lo empleó el dr. Paolo Maccharini en 2008 en el Hospital Clinic de Barcelona para tomar una tráquea donada, eliminar de ella todas las células vivas del donante dejando sólo el armazón de cartílago y repoblando éste con células de la paciente a la que se le iba a trasplantar, evitando así el rechazo del trasplante y eliminando la necesidad de utilizar inmunosupresores como parte de la terapia.

El primer órgano desarrollado a partir de células madre que se implantó con éxito fue también una tráquea, y el trabajo lo hizo el mismo médico, esta vez en el Instituto Karolinska de Suecia, donde a fines de 2011 se hizo un molde de la tráquea del paciente sobre el cual crecieron células pluripotentes tomadas de su propia médula ósea.

Curiosamente, la idea de conservar el cordón umbilical de los recién nacidos está relacionado con la idea de la medicina regenerativa, ya que en dicho cordón se encuentra una reserva de células madre pluripotentes que, en un futuro, podrían facilitar la atención de esos niños para la sustitución de órganos y tejidos.

A través de las terapias celulares y de la ingeniería de tejidos, la medicina regenerativa algún día, no muy lejano, podrían producir tejido sano para sustituir a los tejidos dañados responsables de una gran variedad de afecciones, desde la artritis, el Parkinson, el Alzheimer, la diabetes tipo I y las enfermedades coronarias, además de hacer innecesaria la donación de órganos. Sería la medicina que nos podría hacer totalmente autosuficientes, capaces de repararnos y convertir en parte del pasado gran parte del sufrimiento humano, que no es una promesa menor.

El potencial de multiplicación

El Dr. Anthony Atala, creador del primer órgano desarrollado en laboratorio (una vejiga), explica: “Podemos tomar un trozo muy pequeño de tejido, como de la mitad de un sello postal, y en 60 días tener suficientes células para cubrir un campo de fútbol”. Sin embargo, recuerda, esto aún no es aplicable a todos los tipos de células, algunos de los cuales no pueden hacerse crecer fuera del cuerpo de los pacientes.