Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Café, té y chocolate

En el siglo XVII confluyeron en Europa, procedentes de Asia, África y América, tres bebidas estimulantes, calientes y reconfortantes que hoy siguen dominando nuestras culturas.

Tratado novedoso y curioso del café, el té y
el chocolate de Philippe Sylvestre Dufour
(Imagen D.P. via Wikimedia Commons)
Los seres humanos tenemos una relación muy estrecha con nuestras bebidas reconfortantes, las que servimos calientes y nos dan, paradójicamente, tanto una sensación de tranquilidad y relajación como un efecto estimulante. Aunque hay muchas de estas bebidas, como el mate suramericano, la kombucha, el té tuareg de menta y una cantidad prácticamente inagotable de infusiones diversas con creativas mezclas de distintas plantas, flores, frutos y hojas, las que predominan son el café, el té y el chocolate.

La más antigua de estas bebidas, o al menos de la que hay registros más tempranos es el té, que fue descubierto en la provincia de Yunán, en China, hacia el año 1000 antes de la Era Común y fue utilizado con propósitos medicinales durante 1600 años hasta que, hacia el año 618 de la Era Común empezó a popularizarse en China como bebida reconfortante y disfrutada por su sabor. Un siglo después llegó a Japón donde se naturalizó y se hizo parte de la cultura nipona, y tendrían que pasar otros mil años para que llegara a Europa, donde adquirió pasaporte británico gracias al rey Carlos II y su matrimonio con la portuguesa Catalina de Braganza, que llevó consigo el té a la corte inglesa a fines del siglo XVII.

Todo el té es una infusión de la planta cuyo nombre científico es Camellia sinensis, un arbusto nativo de Asia. Las distintas variedades dependen no de plantas diversas, sino del tratamiento que se le imparte a las hojas antes de preparar la infusión. El té blanco se hace con las hojas más tiernas, que sólo se tratan con vapor antes de ponerlas en el mercado. El té verde se hace con hojas más maduras, que se tuestan para deshidratarlas y para detener el proceso de fermentación que se inicia en ellas naturalmente. Si se deja continuar la fermentación un tiempo se obtiene un té oolong, mientras que si se deja que se desarrolle por completo se obtiene el té negro.

El té contiene como principal estimulante la teanina, una sustancia que reduce la tensión, mejora la cognición y estimula los sentidos y la cognición. Contiene también cafeína (en mayor proporción por peso que el propio café), teobromina y teofilina, que conjuntamente forman un cóctel estimulante y psicoactivo que explica en gran medida que sea la bebida reconfortante más popular del mundo.

El té también contiene unas sustancias llamadas catequinas, potentes antioxidantes que en la década de 1990 empezó a pensarse que podían ser beneficiosos para la salud. Vale la pena señalar que, sin embargo, los estudios realizados durante el último cuarto de siglo no ofrecen ninguna evidencia de que los antioxidantes tengan ninguna propiedad concreta para mejorar nuestra salud, mucho menos prevenir el cáncer.

El café es la más moderna de las tres grandes bebidas reconfortantes, aunque su principal ingrediente activo, la cafeína, es considerada por muchos expertos la droga más común y más consumida del mundo, ya que además de estar en el café que es el desayuno de gran parte de occidente la encontramos en numerosas bebidas refrescantes y energéticas, e incluso en algunos helados. El café contiene, además, teobromina.

La leyenda atribuye el descubrimiento del café a un pastor de cabras llamado Kaldi, que mantenía su rebaño en las tierras altas de Etiopía durante el siglo XIII de la Era Común. Allí vio que sus animales se mostraban más inquietos y animados cuando consumían las bayas de cierto árbol y decidió probarlas él mismo. Como fuera, para el siglo XV el café ya era cultivado en Yemen, y los árabes prohibieron su cultivo fuera de las tierras que controlaban y lo vendían a Europa, donde empezaron a aparecer los establecimientos donde se podía tomar una taza de café y participar en estimulantes conversaciones en las principales ciudades de Inglaterra, Austria, Francia, Alemania y Holanda. En 1616, los mercaderes holandeses, precisamente, sacaron de contrabando de Yemen semillas de café que empezaron a cultivar en invernaderos.

Más que otras bebidas, el café fue considerado por muchos un producto satánico, que exigió la intervención del papa Clemente VIII para autorizar su consumo en 1615.

El chocolate era, originalmente, una bebida esencialmente amarga, obtenida al tostar las semillas del árbol del cacao y luego molerlas para cocer el resultado en agua adicionado con vainilla aromatizante, algunas especias y, a veces, algo de chile o maíz molido y alguna miel natural. Puede sonar poco apetitoso, pero resulta que el chocolate (cuya etimología no es clara, por cierto) no era sólo una bebida que se consumía sólo por gusto. Si el gusto por el chocolate azteca era probablemente adquirido, como el gusto por el amargor de la cerveza, la energía que impartía al consumidor era su principal virtud. Al describirlo en una de sus cartas a Carlos V, Hernán Cortés exageraba un tanto asegurando que “una sola taza de esta bebida fortalece tanto al soldado que puede caminar todo el día sin necesidad de tomar ningún otro alimento”.

Como a tantas otras materias de origen vegetal, al chocolate se le atribuyeron en principio diversas propiedades terapéuticas y su llegada a Europa fue como bebida terapéutica, de lo que dio noticia el médico Alonso de Ledesma, que publicó un tratado al respecto en Madrid en 1631. Pero si no curaba tanto como se prometía, su preparación evolucionó con azúcar, canela, y preparado a veces con leche en lugar de agua y pronto se popularizó como bebida placentera.

El ingrediente activo que hace que el chocolate sea una bebida estimulante es la teobromina, una sustancia relacionada con la cafeína que no fue descubierta sino hasta 1841.

Las tres bebidas llegaron a Europa y compitieron por el favor de los consumidores que habían descubierto los placeres de un estimulante caliente donde antes sólo habían tenido cerveza y vino. En España y Francia, el chocolate adquirió personalidad propia, mientras que en Suiza asumió otras formas sólidas. El café se apoderó del continente europeo y, después, del americano con una sola excepción: Inglaterra, cuyo romance con el café apenas empieza a desarrollarse en el siglo XXI, después de 200 años de té.

El experimento de Gustavo III de Suecia

Gustavo III, rey de Suecia, estaba convencido de que el café que había invadido sus dominios era un peligroso veneno y se propuso probarlo. Se procuró a dos hermanos gemelos condenados a muerte y les conmutó la pena por cadena perpetua a cambio de que uno se tomara tres jarras de café al día y el otro hiciera lo mismo con tres jarras de té, bajo la supervisión de dos médicos. Gustavo III fue asesinado en 1792 y los dos médicos eventualmente también murieron, mientras los condenados seguían vivos. Se cuenta que el bebedor de té murió primero, a los 83 años de edad, y nadie sabe cuánto después murió el bebedor de café.

Pasado y futuro del elefante

El mayor animal terrestre tiene una larga historia evolutiva, y aunquesu supervivencia es aún incierta, hay señales de recuperación.

Elefante africano (Fotografía CC de Bernard Dupont, via Wikimedia
Commons)
La mayoría de nosotros conoce sólo dos especies de elefantes: el africano, reconocible por sus grandes orejas y lomo cóncavo, y el asiático, un poco más pequeño, de orejas más pequeñas y lomo convexo. Pero hay otra especie en África, el elefante del bosque, por lo que el más común y mayor se conoce ahora como “elefante de la sabana”. Para complicar más el panorama, la especie de la sabana está formada por al menos dos subespecies, mientras que el elefante asiático tiene hasta siete subespecies distintas. Y esto sin considerar la larga lista de sus antecesores, ya extintos, algunos bien reconocibles como el mamut lanudo o el mastodonte.

La línea evolutiva del elefante se remonta a 60 millones de años. Contrario a lo que presenta la fantasía, sus antecesores no convivieron con los dinosaurios. Todos los mamíferos de la época de los dinosaurios, los ancestros de todos los mamíferos que conocemos hoy, incluidos nosotros, eran pequeños, del tamaño de ratones, y correteaban por un mundo dominado por los grandes saurios.

Pero esos pequeños mamíferos consiguieron sobrevivir al evento que hace 65 millones de años ocasionó la extinción de los dinosaurios (dejando sólo como testimonio de su estirpe a las aves de hoy en día) y se encontraron con todo un medio ambiente lleno de nichos ecológicos desocupados. La evolución permitió que surgieran especies para ocuparlos todos, desde el mundo subterráneo de los topos hasta la tundra helada, desde los océanos hasta el desierto, desde la selva lluviosa hasta la sabana.

Y así, hace 60 millones de años apareció en los bosques africanos una especie de tranquilos hervíboros regordetes del tamaño de un cerdo, los Phosphaterium. Con metro y medio de largo y unos 50 kilos de peso, lo distinguía una trompa alargada. Esa trompa le daría nombre a todos los animales descendidos de él, Proboscidea, debido precisamente a su nariz o proboscis. Este animal vivió unos 5 millones de años dando lugar a otras especies como los Moeritherium, Barytherium y, finalmente Phiomia, el ancestro directo de los elefantes actuales y que hace 37 millones de años ya presentaba un aspecto imponente, con más de 3 metros de largo y media tonelada de peso, con el principio de los colmillos y la trompa que caracterizan a sus descendientes.

El elefante adquirió sus características definitivas a partir de los llamados gomphoterium, un género o genus que vivió aproximadamente desde hace 14 millones de años hasta hace 3,6 millones y del que descendieron los primeros miembros del orden Proboscidea con los que se encontraría el ser humano durante la última glaciación: los mastodontes y los mamuts. Los gomphoterium y sus descendientes se acomodaron a distintos hábitats en todo el mundo salvo Australia, donde no hay mamíferos placentarios nativos debido a que se separó de los demás continentes 35 millones de años antes de la extinción de los dinosaurios.

En varias ocasiones han aparecido elefantes enanos, poblaciones que se desarrollan en islas y desarrollan el llamado “enanismo insular” en respuesta a los límites del entorno van reduciendo su tamaño y sus necesidades de alimentación y espacio. Aunque hoy están todos extintos, fueron comunes en las islas del Mediterráneo como Chipre, Creta, Sicilia, Cerdeña y otras, y en las de Indonesia, en especial en Sulawesi, Timor y Flores, donde al parecer una variedad humana, el “hombre de Flores” experimentó también enanismo insular, por lo que se le ha llamado imprecisamente, “hobbitts” en recuerdo de los personajes de J.R.R. Tolkien.

Hay unos primos de los elefantes que también fueron conocidos por los seres humanos: los deinotherium, que quiere decir “mamífero terrible”, de hasta 5 metros de alto y 10 toneladas y que vivieron en Asia, África y Europa desde hace 10 millones de años hasta hace unos 10.000. De hecho, una de las hipótesis de su extinción incluye el haber sido presas de los cazadores humanos. Los elefantes modernos aparecieron en África hace apenas 5 millones de años. De allí, el elefante migraría a Asia donde se diversificó en varias subespecies.

Las dos especies de elefantes africanos enfrentaron una tragedia: sus colmillos están hechos del valioso marfil, y su obtención que motivó una cacería descontrolada que desde el siglo XIX redujo la población de elefantes africanos (que tienen los colmillos más largos y pesados) de 26 millones de ejemplares a entre 500.000 y 700.000 en la actualidad. Prohibido desde 1989, el comercio de marfil continúa ilegalmente apoyado sobre todo en la cacería furtiva, que sin embargo es mucho menor que la del pasado. De hecho, el elefante africano está considerado ahora como especie vulnerable, pero no en riesgo de extinción, y en algunas zonas su población ha crecido en las últimas décadas. Esto ha dado lugar a un conflicto adicional: su choque con las poblaciones humanas al invadir cultivos y aldeas, y se calcula que matan a unas 200 personas al año. Esto y la sobrepoblación de elefantes en algunas zonas ha motivado acciones de cacería para reducir sus números por parte de los propios estados africanos.

El elefante asiático, usado ampliamente como animal de trabajo y considerado sagrado, sí está en peligro, con una población de apenas entre 25.000 y 33.000 individuos, amenazados sobre todo por el crecimiento de las poblaciones humanas y el aislamiento de sus manadas, lo que afecta el flujo genético y la diversidad en sus poblaciones. En ese conflicto, los elefantes además matan a unas 300 personas al año en el Sudeste Asiático.

Como en todos los casos de especies puestas en peligro especialmente por la acción humana, sólo con un esfuerzo amplio, que incluya no sólo a las naciones donde viven los elefantes, sino a todos los países y organizaciones, se logrará estabilizar su situación y garantizar la supervivencia de las especies con poblaciones adecuadas y en una convivencia sostenible con los seres humanos. Sin eso, se perderá un legado de 60 millones de años y al mayor animal terrestre, que al final no es sino un gran herbívoro más bien pacífico... como sus más lejanos ancestros.

Los elefantes pintores

La inteligencia y el delicado manejo de su trompa, que conoce cualquiera que le haya dado algo de comer a un elefante y éste lo haya tomado de su mano, han sido aprovechados por el Proyecto de Arte y Conservación del Elefante Asiático, fundado por dos pintores que han enseñado pacientemente a algunos elefantes a pintar ciertas escenas. Cada elefante aprende una escena (la más famosa es el dibujo precisamente de un elefante) y la pinta diariamente frente a un público. Aunque no estén ejerciendo “creatividad” directamente, la hazaña es impresionante.

La imagen en movimiento

Una gran parte de nuestro entretenimiento e información vienen hoy en día en la forma de cine y vídeo. Dos medios que hace poco más de un siglo no eran más que el sueño de unos pocos.

William Henry Fitton, creador del
taumatropo y pionero del cine.
(Imagen CC vía Wikimedia Commons)
El cine nació en 1825. O al menos la primera ilusión óptica que hace que veamos movimiento a partir de imágenes fijas. Fue cuando el irlandés William Henry Fitton creó el "taumatropo" o rotoscopio, un disco con dos imágenes en sus dos caras que al ser girado con dos hilos en puntos opuestos de sus bordes dan la impresión de que ambas imágenes están juntas. El ejemplo clásico, que seguramente todos conocemos, tiene en un lado un pájaro y en el otro una jaula, y al girar el disco vemos al pájaro dentro de la jaula.

Es posible que los primeros intentos de representar el movimiento estén en algunas pinturas rupestres donde los animales parecen tener más patas de las normales, acaso la representación de su movimiento. Nunca lo sabremos. Sí sabemos quehay un vaso de cerámica de Irán que data de hace unos cinco mil años y que lleva cinco dibujos que, como fotogramas de una película, muestran momentos del salto de un antílope sobre unas plantas.

El camino hacia el cine siguió con una serie de inventos que mejoraban su capacidad de crear la ilusión al tiempo que adquirían nombres cada vez más enrevesados, como el fenakitoscopio del belga Joseph Plateau, de 1832, con dos discos que giraban sobre un mismo eje, uno con dibujos y el otro con ranuras. Al ver los dibujos en un espejo a través de las ranuras, parecían moverse. Dos años después nació el “daedalum” o “zoetropo” del matemático, William George Horner.

Es claro que, estando la fotografía en sus primeras etapas, los dibujos animados fueron los antecesores del cine, como los del “folioscopio” (esos libritos cuyas hojas llevan cada una un dibujo y al pasarse a gran velocidad se animan) del francés Pierre-Hubert Desvignes en 1860 y que podía incluir muchos más dibujos que los menos de veinte del zoetropo. El folioscopio fue usado por fotógrafos para animar por primera vez secuencias fotográficas a falta de proyectores.

En 1877, el profesor de ciencias francés Charles Émile Reynaud creó el mejor aparato de este tipo con su debido nombre de trabalenguas: el praxinoscopio, que mejoraba al zoetropo y le ganó a su inventor una Mención Honorífica en la Exposición de París de 1878. Un año después, le añadió un proyector de diapositivas, heredero de las linternas mágicas del siglo XVII.

Estas y otras ideas se unieron en el kinetoscopio, desarrollado en el laboratorio de Tomas Alva Edison, quien creó un proyector de imágenes fotográficas sucesivas. Pero era un aparato para una sola persona, que ponía una moneda en él y veía, inclinada en un visor, una cinta de un par de minutos.

Fueron los hermanos Auguste y Louis Lumière (y probablemente Léon Bouly) quienes crearon ina forma de registrar, proyectar e imprimir película fotográfica en secuencia sobre una pantalla para varias personas. Fue el “cinematógrafo” cuya primera proyección se hizo el 28 de septiembre de 1895.

Desde entonces, todo han sido mejoras, añadidos, avances tecnológicos y reelaboraciones sobre el concepto de los hermanos Lumière, su cámara, su proyector y su pantalla, que consiguieron crear una ilusión convincente para nuestro sistema nervioso.

Porque el cine, finalmente, no es otra cosa que una forma de magia, una ilusión, un engaño eficaz para los dispositivos de percepción y procesamiento de la imagen de los que disponemos, como el de un prestidigitador al hacernos creer que ha hecho desaparecer o aparecer algo por arte de magia.

A principios del siglo XX el cine ya estaba bien encaminado. Charles Chaplin había tenido la brillante idea de mover la cámara para cambiar de punto de vista. Georges Méliès había inventado los efectos especiales y el cine a color (vale, pintando a mano cada fotograma, la tecnología mejoraría el asunto en poco tiempo). El poco conocido Orlando Kellum había dado los pasos clave para añadirle sonido al cine y en 1914 Winsor McCay inventó los dibujos animados en el cine con su corto (que aún sobrevive) “Gertie, la dinosaurio amaestrada”.

El desafío que quedaba a la ciencia y la tecnología era lograr con la imagen en movimiento lo que habían conseguido Nikla Tesla y Guiglielmo Marconi con el sonido y la radio: transmitirlo remotamente en “tiempo real”. Ver lo que ocurría desde lejos o tele-visión.

El primer sistema de televisión factible desarrollado a partir del trabajo de Marconi en la radio fue el del estudiante de ingeniería alemán Paul Nipkow, que en 1884 patentó una televisión "mecánica" que capturaba imágenes explorándolas mediante un disco giratorio con 18 orificios en espiral, aunque no se sabe si alguna vez llevó su diseño a la práctica.

Lo que sí se sabe es que la palabra “televisión” fue acuñada por el ruso Constantin Perskyi en un discurso durante la Exposición Universal de París de 1900. Pero la primera demostración de un sistema real tuvo que esperar hasta 1926, cuando el ingeniero escocés John Logie Baird la ofreció en 1926 en Londres con otro sistema mecánico de captura de imágenes.

La televisión no se volvió viable sino hasta que se desarrollaron procedimientos electrónicos para la captura y reproducción de imágenes, ya que el sistema mecánico era de bajísima resolución y sólo podía transmitir imágenes de tamaño pequeño. El logro definitivo correspondió al estadounidense Philo T. Farnsworth, que había aprendido electricidad con un curso por correspondencia, y que el 7 de septiembre de 1927 llevó a cabo la primera emisión de televisión electrónica en San Francisco, California. El primer televisor se vendería apenas un año después en los Estados Unidos y en 1929 el invento se lanzaba en Inglaterra y Alemania.

Era televisión en blanco y negro, poco nítida y con pocas líneas de resolución, 60, una minucia comparadas con las 520 de la televisión común o las 1.125 de la televisión de alta definición. Pero, como ocurrió con el cine, las bases estaban puestas y todo era cosa de desarrollarlas y construir sobre ellas convirtiendo un logro de la ciencia y la tecnología, al mismo tiempo, en un negocio, una industria y, muchas veces, una forma de arte.

¿Por qué vemos como vemos?

Desde principios del siglo XIX se creyó que existía una "persistencia de la visión" mediante la cual la imagen de un objeto en la retina permanecía aún después de haber desaparecido su causa, y que tal fenómeno explicaba por qué percibíamos la ilusión del movimiento con imágenes fijas. La neurociencia actual ha desechado el concepto y diversas disciplinas buscan, primero, entender cómo vemos e interpretamos el movimiento. El misterio persiste y aún no sabemos por qué nos engañan el cine y la televisión... aunque los críticos de cine sigan hablando de la “persistencia de la visión”.

La lucha contra pelagra, entre el dogma y el prejuicio

La teoría de los gérmenes explicaba mucho, pero no lo explicaba todo. Demostrarlo fue la tarea de la vida de Joseph Goldberger.

El doctor Joseph Goldberger (Imagen CC de los Centers for
Disease Control [PHIL #8164] vía Wikimedia Commons)
Louis Pasteur y Robert Koch desarrollaron a mediados del siglo XIX las bases de la medicina científica al postular y demostrar la “teoría de los gérmenes”, es decir, que las enfermedades infecciosas lo eran debido a la acción de seres microscópicos. Su trabajo permitió empezar a entender al fin las infecciones, el contagio, las epidemias, la prevención mediante la higiene y la vacunación y una notable mejoría en la calidad y cantidad de vida de los seres humanos en general.

Pero en un caso que marcó un hito en la historia de la investigación médica, el entusiasmo por la teoría de los gérmenes resultó no sólo injustificado, sino que retrasó el tratamiento de una terrible enfermedad.

A principios del siglo XX, la pelagra había adquirido proporciones epidémicas en los Estados Unidos. Se le conocía por su horrendo desarrollo, una sucesión de síntomas que provocaban a sus víctimas un enorme sufrimiento que se podía desarrollar a lo largo de tres o cuatro años hasta que llegaba al fin la muerte, con alteraciones que iban desde la pérdida de cabello y descamación de la piel junto con gran sensibilidad al sol hasta descoordinación y parálisis muscular, hasta problemas cardiacos, agresividad, insomnio y pérdida de la memoria.

El Servicio de Salud Pública de los EE.UU. comisionó en 1914 al doctor Joseph Goldberger, que estaba al servicio de la institución desde 1899, para que encabezara su programa de lucha contra la pelagra, que estaba afectando a la población del sur del país y, de modo muy especial, a quienes vivían en orfanatos, manicomios y pueblos dedicados al hilado de algodón.

Goldberger era hijo de una familia pobre de inmigrantes judíos, con los que había llegado a Nueva York a los seis años de edad desde su natal Hungría. Educado en escuelas públicas, consiguió entrar a la Universidad de Bellevue y graduarse como médico en 1895. En el Servicio de Salud Pública había demostrado ser un brillante investigador en temas de epidemias, combatiendo por igual la fiebre amarilla que el dengue y el tifus en varios países... y siendo víctima de estas tres enfermedades. Para cuando se le comisionó a luchar contra la pelagra era uno de los más brillantes epidemiólogos y estaba precisamente trabajando en u programa contra la difteria. Entre sus varias aportaciones se contaba la demostración de que los piojos podían ser vectores de transmisión del tifus.

La razón por la que se le llamó a esa tarea era, precisamente, que la ciencia médica actuaba bajo el convencimiento de que la pelagra era una enfermedad contagiosa, y era necesario descubrir al patógeno responsable, virus o bacteria, para poder contener la epidemia.

Pero Goldberger pronto concluyó que la pelagra no era contagiosa, sino producto de una deficiencia alimentaria, una opinión muy minoritaria. Era la explicación que mejor se ajustaba al curioso hecho de que el personal y los administradores de las instituciones más afectadas por la pelagra, como orfanatos y psiquiátricos, nunca se contagiaban de la enfermedad.

El médico emprendió un experimento, cambiando la dieta de los niños y pacientes de algunas instituciones. Si solían comer pan de maíz y remolacha, empezaron a recibir leche, carne y verduras. Pronto, los enfermos se recuperaron y, entre los que se alimentaban con la nueva dieta, ya no aparecieron nuevos casos de la afección.

Parecía concluyente.

Pero los médicos del sur se rehusaron a aceptar los resultados de Goldberger. En su rechazo no sólo había convicciones médicas, sino prejuicios. El médico era de un servicio gubernamental, era del norte y era judío, tres características que aumentaban la suspicacia contra sus ideas.

Emprendió entonces un experimento que hoy ni siquiera se podría plantear: en 1916 tomó a un grupo de 11 prisioneros sanos voluntarios y a cinco de ellos les proporcionó una dieta abundante pero deficiente en proteínas, mientras que los otros seis mantuvieron su dieta normal. En poco tiempo, los cinco presos con mala dieta sufrieron de pelagra.

Aún así, la mayoría de los médicos del sur se negaban a aceptar la hipótesis de Goldberger. Su siguiente experimento fue aún más aterrador: él y su equipo intentaron contagiarse de pelagra comiendo e inyectándose secreciones, vómito, mucosidades y trozos de las lesiones de piel de enfermos de pelagra. Pese a sus heroicos pero repugnantes esfuerzos, ninguno de ellos desarrolló la afección.

La contundencia del experimento, sin embargo, fue insuficiente. Los experimentos de Goldberger habían sido suficientes para que el Servicio de Salud Pública emitiera un boletín señalando que la pelagra se podría prevenir con una dieta adecuada (aún sin saber exactamente cuál era la sustancia o sustancias responsables del trastorno). Pero en el sur, hasta 1920, muchísimos médicos se negaron a aceptarlo, de modo que no emprendieron acciones para mejorar la dieta de sus pacientes.

El motivo no era sólo médico. El razonamiento de Goldberger, después de todo hijo de pastores reconvertidos en comerciantes, era que si la pelagra era resultado de una alimentación deficiente y ésta era resultado de la pobreza, la mejor prevención para la pelagra no estaba en la medicina, sino en una reforma social que cambiara el modo de propiedad de la tierra, superviviente de las haciendas sostenidas en el siglo XVIII y XIX con trabajo esclavo. Esto no gustaba a los poderosos del Sur, que sentían que su región estaba siendo denigrada.

Joseph Goldberger siguió buscando las causas de la pelagra infructuosamente hasta su muerte en 1929. No fue sino hasta la década de 1930 cuando se descubrió que el ácido nicotínico, también llamado niacina y vitamina B3, curaba a los pacientes de pelagra. Pronto se descubrió que el triptofano, uno de los aminoácidos que necesitamos en nuestra dieta, era precursor de la niacina, es decir, que nuestro cuerpo lo utiliza para producir la vitamina, y que era la carencia de ésta la la que provocaba la pelagra, como la falta de vitamina C provoca el escorbuto. Se empezó a añadir triptofano a diversos alimentos como el pan... y la pelagra desapareció pronto del panorama de salud del mundo. Un homenaje póstumo al desafío de Goldberger, con datos y hechos, a una creencia dañina.

Maíz y pelagra

La pelagra se descubrió en Asturias en el siglo XVIII cuando la población rural empezó a alimentarse de maíz. El maíz contiene niacina, pero para que el cuerpo la pueda aprovechar, es necesario cocinar el maíz con una sustancia alcalina, como se hace en Centroamérica para producir las tortillas o tortitas de maíz, motivo por el cual las culturas que dieron origen al cultivo del maíz nunca conocieron la pelagra.

La guerra contra el frío

Somos animales tropicales que han invadido otras latitudes gracias a su tecnología. Pero, debajo de esa tecnología, seguimos siendo extremadamente vulnerables al frío.

Reconstrucción de la ropa
que llevaba Ötzi.
(Fotografía CC de Sandstein,
vía Wikimedia Commons)
Imagínese cruzando los Alpes austríacos a unos seis grados centígrados bajo cero o incluso, posiblemente, una temperatura aún más fría.

Esa hazaña no es nada sencilla. El frío alpino diezmó al ejército de Aníbal en su cruce de los Alpes en el 218 antes de la Era Común durante la segunda guerra, pero no parece haber sido obstáculo para un hombre que murió allí hace algo más de 5.000 años no de frío, sino por una flecha disparada a su espalda. Sus restos son hoy una de las momias más famosas, Ötzi, el hombre de hielo. Su descubrimiento en 1991, gracias al deshielo del glaciar donde murió, nos permitió echar un vistazo sin precedentes a la vida de nuestros antepasados neolíticos.

Entre los objetos que se recuperaron junto al cuerpo del hombre de 1,60 de estatura y unos 45 años de edad destacaba su ropa, eficaz para protegerlo del frío: un gorro de piel de oso, chaqueta, taparrabos y leggings de piel de cabra cosida con los tendones del propio animal y unos zapatos de exterior de piel de ciervo aislados con capas de hierba y paja.

Probablemente estaba mejor equipado que los hombres de Aníbal, y vivía no muy lejos del punto donde fue emboscado y encontrado, y sabía cómo enfrentar las inclemencias del tiempo.

El frío es uno de los grandes enemigos de la vida humana, aunque algunas especies claramente florecen a temperaturas por debajo del punto de congelación. De hecho, según científicos que han estudiado la evolución humana, es probable que nuestros ancestros sobrevivieron a la glaciación que se produjo hace entre 123.000 y 195.000 años refugiándose en una zona de la costa del Sur de África. Las exploraciones paleoantropológicas en Pinnacle Point sugieren que primeros Homo sapiens aprovecharon las condiciones únicas de la zona para sobrevivir y, eventualmente, extenderse por el continente, viajar al norte hacia el Medio Oriente y, finalmente, extenderse por el continente eurasiático. En su viaje muy probablemente llevaban ya consigo un enorme avance tecnológico contra el frío: el fuego, que junto con las pieles curtidas de animales producto de la cacería les permitirían vivir en temperaturas para las cuales el ser humano no está preparado según su constitución genética.

El triunfo contra el frío es un triunfo totalmente cultural y tecnológico. Sin él, los seres humanos sólo podríamos vivir en espacios muy delimitados, principalmente entre los trópicos, donde las condiciones son lo bastante amables como para vivir sin abrigo “artificial”. Y sin abrigo artificial el frío puede causar verdaderos estragos en el cuerpo humano.

Combatir el frío significa evitar que la pérdida de calor de nuestro cuerpo (por radiación de calor, por transmisión a los objetos y al aire, y mediante el sudor) sea tal que se reduzca nuestra temperatura basal, ésa que sabemos que se ubica alrededor de los 37 ºC, con una variación de alrededor de un grado según la hora del día y la actividad que se realiza. Sabemos los efectos que sufrimos si nuestra temperatura aumenta un par de grados, y la gravedad que puede llegar a tener el superar los 40 grados de fiebre.

Si, en el otro sentido, nuestros órganos internos bajan a una temperatura de 35 ºC, se presenta una hipotermia leve y comienza el peligro para la vida. Si baja de 33 ºC hay amnesia y un estupor que nubla el jucio, y la hipotermia se agrava. Al pasar los 30 grados se deja de tiritar de frío, y el corazón entra en arritmia, es decir, su latido se vuelve irregular, y el lento flujo sanguíneo dispara alucinaciones y una extraña reacción conocida como “desnudo paradójico” observada incluso en montañistas, que se arrancan la ropa afirmando que experimentan un calor abrasador. Al caer por debajo de los 28 ºC se pierde la consciencia y si nuestro cuerpo alcanza los 21 ºC la muerte es casi certera. La hipotermia puede desencadenar, entre otros efectos mortales, una insuficiencia cardiaca o una apoplejía.

Antes que las estrategias culturales para evitar que nuestra temperatura baje a niveles peligrosos están las reacciones que tiene nuestro propio cuerpo para defenderse. El centro nervioso a cargo de regular la temperatura, nuestro termostato biológico, es el hipotálamo.

Cuando la temperatura baja así sea levemente, entran en acción diversos mecanismos interconectados que conocemos bien. Primero, se reduce la sudoración y los vasos sanguíneos cerca de la piel se contraen, con lo que se reduce la pérdida de calor, con el efecto colateral de darle a la piel un color azulado por falta de riego. La constricción de los vasos sanguíneos, por cierto, provoca que el cuerpo se deshaga de líquidos excedentes por medio de los riñones, lo que explica que el frío provoque deseos de orinar. Además, el hipotálamo indica al cuerpo que produzca calor, lo que puede hacer primero aumentando el tono muscular y después contrayendo los músculos rítmicamente (tiritar de frío) o bien liberando hormonas que aumentan la tasa metabólica del cuerpo. También, comer alimentos altos en calorías y hacer ejercicio para “quemarlas” sirve para combatir el posible descenso en la temperatura corporal.

Pero si la situación es crítica, el hipotálamo toma decisiones terribles: su prioridad son los órganos internos y otras partes, como los dedos de las manos y los pies, parecen prescindibles (lo que se ejemplifica en los casos de congelación de dedos en montañistas).

Existen, por supuesto, casos extremos de personas que han sobrevivido temperaturas corporales bajísimas. Y es que no importa realmente el frío que hace afuera, sino la pérdida de calor que experimentamos nosotros. Con ropa adecuada y sin viento, una persona puede sobrevivir cómodamente a -29 ºC, pero si hay viento, la sensación de frío (o factor de congelación) puede marcar la diferencia hasta el congelamiento.

La protección adecuada contra el frío ha cambiado mucho respecto de la que llevaba Ötzi en su excursión, pero si es eficaz, nos puede garantizar la supervivencia sin necesidad de vivir en los trópicos.

Nuevos materiales

En los últimos años se han desarrollado materiales que sustituyen a los naturales y que ofrecen mayor protección con menor peso y capas más delgadas, ya que una buena ropa aislante del frío debe constar de varias capas que mantengan el calor y se deshagan de la humedad por capilaridad simultáneamente, que es lo que hacen los textiles “transpirables”. Más allá de telas como el fleece, o forro polar, o el thinsulate, hay proyectos que contemplan el uso de sensores y tejidos dinámicos para responder a las variables del cuerpo humano, permitiendo que sus usuarios funcionen a pleno rendimiento en temperaturas mortalmente bajas.

Libros para navidad

Comer sin miedo: Mitos, falacias y mentiras sobre la alimentación en el siglo XXI, J.M. Mulet, Destino

A veces parece que el mundo está dispuesto a decirnos cuán dañino y poco saludable es todo lo que comemos. Ya sea en Internet, en el taxi, en las reuniones de amigos, en la radio y la televisión, estamos rodeados de gente que nos informa que tal o cual alimento es en realidad un veneno peligrosísimo, una bomba de relojería cuyo consumo nos puede costar tiempo y calidad de vida. Y la solución que nos ofrecen, generalmente, incluye comer alimentos que llaman “naturales”, “orgánicos” o “ecológicos”

Pero la mayoría de quienes con toda buena fe nos informan de estos temibles peligros no tienen ni la más remota idea de cómo se obtienen esos alimentos, a duras penas han visto el campo en postales y lo más cercano a la agricultura que han hecho es germinar un par de alubias en la escuela cuando eran niños.

J.M. Mulet, investigador y profesor de biotecnología en la Universidad Politécnica de Valencia hace un recorrido por los grandes “miedos alimentarios” que conforman todo un zoo de leyendas urbanas y los desmonta explicándolos de manera amena y clara: ¿en realidad estamos envenenándonos con pesticidas, aditivos alimenticios y misteriosas sustancias químicas?, ¿los cultivos transgénicos causan daños a la salud?, ¿existen las dietas milagro?, ¿los alimentos “naturales” o “ecológicos” realmente son más sanos? La respuesta a todas estas preguntas es que no, pero lo fascinante es averiguar por qué, y descubrir que los alimentos que tenemos hoy a nuestro alcance son los más seguros de toda la historia de la humanidad y tenemos la seguridad científica de que podemos comer sin miedo y que la tecnología es lo más normal en nuestros alimentos desde la invención de la agricultura.

El bonobo y los diez mandamientos, Frans de Waal, Tusquets

Frans de Waal es un experto en comportamiento social de los primates con casi cuarenta años dedicado a explorar la cooperación, el altruismo, la resolución de conflictos y el sentido de la justicia de los primates, como punto de partida para descubrir cuáles son los orígenes evolutivos de nuestro sentido de la moral. Sus investigaciones han demostrado que los primates tienen una idea básica de la moral y saben lo que es la justicia, y en este libro ameno y sorprendente nos presenta cómo se expresa esa idea entre nuestros más cercanos parientes evolutivos, los pacíficos y muy sexuales bonobos.

El nanomundo en tus manos. Las claves de la nanociencia y la nanotecnología, Elena Casero Junquera, Carlos Briones Llorente, Pedro Serena Domingo, José Ángel Martín-Gago, Crítica

En el terreno de lo extremadamente pequeño, entre 0,1 y 100 o millonésimas de milímetro, se está gestando una de las grandes transformaciones del conocimiento. A esa escala hay materiales, estructuras e incluso máquinas formadas átomo a átomo y molécula a molécula con aplicaciones igual en la electrónica, la biotecnología o la medicina. Este libro, de científicos que trabajan en la vanguardia de esta disciplina que apenas cumple treinta años de existir, cuenta la historia, expectativas y riesgos previsibles de la nanotecnología, y nos cuenta cómo podremos disfrutar sus beneficios sin peligro.

Orígenes, Neil deGrasse Tyson y Donald Goldsmith, Paidós

Neil deGrasse Tyson se convirtió en una celebridad a nivel mundial gracias a su participación como presentador de “Cosmos”, la serie que continuó la legendaria incursión televisual de Carl Sagan. Pero Tyson era ya un experimentado divulgador que presentó varios programas en la televisión estadounidense, entre ellos “Orígenes”. La idea detrás de esa serie se plasmaría en este libro que relata los 14 mil millones de años que han transcurrido desde el Big Bang hasta llegar a donde estamos hoy, para conocer nuestros más profundos y genuinos orígenes, el punto de partida de lo que podemos llegar a ser.

Neurozapping. Aprende sobre el cerebro viendo la televisión, José Ramón Alonso, Laetoli

La televisión nos muestra con frecuencia personajes y situaciones que exhiben rasgos que para un neurocientífico son sus áreas de estudio y trastornos comunes. Utilizando la televisión como pretexto, José Ramón Alonso nos muestra muchoque las neurociencias saben sobre nuestro cerebro. ¿Cómo es una tartamudez como la del cerdito Porky? ¿Cómo saben los forenses del CSI en qué mometo se produce la muerte cerebral? ¿Qué es la psicopatía que afecta al enormemente popular Dexter? Un recorrido que nos permite aprender a partir de lo que hemos visto en la televisión y quizá empezar a verla con otros ojos.

En un metro de bosque, David George Haskell, Turner Noema

Un libro que demuestra una vez más lo artificial que resulta la separación entre ciencia y poesía, entre conocimiento y emociones. El autor, biólogo y poeta, asume la actitud del antiguo naturalista, como Darwin, de observar y registrar lo que ocurre en la naturaleza, pero elige para ello un solo metro de bosque al que acude diariamente durante un año para analizarlo desde todos los puntos de vista, ayudado sólo de una lupa y un cuaderno de campo. Aves, lombrices, depredadores, árboles, flores e insectos van pasando por el libro contándonos sus respectivas historias con un estilo rico y cordial.

Un físico en la calle, Eduardo Battaner, EUG

Esta esperada reedición de un libro de 2005 no es un libro de ensayos, sino una novela protagonizada por un profesor de física y sus conversaciones con una estudiante de historia y el tabernero del pueblo que comentan problemas de la física que se presentan en la vida cotidiana, incluso sin que nos demos cuenta de que son problemas de física. Battaner utiliza esta realidad inmediata para presentar, con todo rigor, los principios de la física que subyacen a ellos y cómo se llegó a ellos: la física de fluidos, la astrofísica, la entropía y algunas preocupaciones de la filosofía de la ciencia.

Crónicas de ciencia improbable, Pierre Barthelémy, Academia

No hay preguntas tontas, sino respuestas insuficientes. Se puede entender parte de la realidad desde el cuestionamiento más sencillo, de leyendas como la de que alguien puede encanecer en una noche, de la angustia por elegir siempre la fila más lenta del supermercado, o de cuestionamientos delirantes como la relación del Big Bang del inicio del universo con el molesto hecho de que las tostadas suelen caer del lado de la mantequilla. Barthelémy, popular blogger de ciencia de Le Monde, parte de estas preguntas para un viaje apasionante por el conocimiento en muchas de sus facetas interrelacionadas.

Si tú me dices Gen lo dejo todo, The Big Van Theory, La esfera de los libros

The Big Van Theory es un grupo de monologuistas de comedia que disfrutan de éxito en sus recorridos por España, parte de Europa y América Latina transmitiendo humor con temas científicos desde la singular perspectiva de que ellos mismos, los que nos cuentan temas de la ciencia y del trabajo cotidiano de la investigación, son científicos provenientes de distintos campos. Este libro no sólo reúne algunos de sus mejores monólogos, como, sino que incluye las explicaciones de los temas que les han dado origen, desde los aceleradores de partículas hasta las plantas transgénicas y los ejércitos de bacterias.

La generación espontánea

Un debate milenario sobre el origen de los seres vivos se resolvió finalmente a lo largo de 200 años de experimentos elegantes y audaces.

Monumento a Lazzaro Spallanzani.
(Foto CC de Massimo Barbieri, via
Wikimedia Commons.)
¿De dónde salen los seres vivos?

Esta pregunta parecería absurda hoy en día. Los seres vivos, sabemos, nacen de otros seres vivos. Siempre. La vida proviene de la vida y así ha sido desde su inicio, evolucionando de modo incesante y diversificándose de manera asombrosa.

Sin embargo, esto no era tan claro en la antigüedad. Ciertamente muchos animales nacían de otros, incluidos los seres humanos, pero se creía que ése era un caso especial, es decir, que había otras formas de crear seres vivos. Los babilónicos creían que los gusanos surgían espontáneamente del barro, los chinos pensaban que los pulgones nacían así del bambú y los indostanos creían que la suciedad y el sudor daban origen a las moscas.

Esta teoría de la generación espontánea la sintetizó Aristóteles diciendo que algunos seres vivos como muchos insectos emergían de “tierra o materia vegetal en putrfacción”. Y es que si aislamos un lugar donde no haya, digamos, gusanos o escarabajos, al cabo de cierto tiempo aparecían al parecer de la nada gusanos o escarabajos. Y si eso era válido para escarabajos lo podía ser para animales más grandes e incluso para seres humanos.

La hipótesis se mantuvo a lo largo de toda la antigüedad, la Edad Media y el Renacimiento. Todavía en el siglo XVII, el médico y químico flamenco Jan Baptist van Helmont, inventor de la palabra “gas”, publicó una receta para obtener ratones usando un frasco con granos de trigo y una camisa sucia de sudor. Había hecho el experimento y reportó asombrado que los ratones obtenidos con esta receta eran indistinguibles de los que se podían obtener mediante reproducción sexual.

Pero era la época en que el cuestionamiento se liberaba de las antiguas limitaciones y, en 1668, el toscano Francesco Redi, hizo una serie de experimentos cuidadosamente controlados para determinar si las larvas de mosca aparecían por sí solas de la carne en putrefacción, como afirmaba la teoría de la generación espontánea. Utilizó frascos con distintos materiales en putrefacción que dejó sin cubrir y otros frascos iguales cuyas bocas cubrió, unos con una fina tela de algodón y otros con un corcho, y pudo observar que no aparecían larvas de mosca en los que estaban cubiertos, mientras que sí aparecían en los que estaban abiertos. Otros experimentos incluían poner moscas en frascos sellados que contenían carne en descomposición. Si las moscas estaban muertas, no aparecían larvas, si estaban vivas, sí se reproducían.

Algún factor invisible que implicaba moscas vivas era el que transmitía la vida.

En 1674, seis años después de que Redi publicara sus experimentos, un comerciante y pulidor de lentes holandés llamado Anton Van Leeuwenhoek consiguió ver lo invisible: seres diminutos, vida unicelular, huevos de moscas y otros insectos. Se empezaba a prefigurar la respuesta a la controversia que había agitado Redi... aunque los defensores de la vieja hipótesis simplemente bajaron de escala y empezaron a afirmar que los microorganismos eran los que se producían espontáneamente.

Algunos experimentos como el de Louis Joblot, discípulo de Leeuwenhoek mostraban claramente que los microorganismos que se veían en las soluciones experimentales venían del propio aire circundante, pero la idea siguió sin ser aceptada por la mayoría de los naturalistas. Empezaba a aparecer el concepto de “esterilidad”, es decir, de tener un medio básico en el que el experimentador pudiera estar seguro de que no había microorganismos al inicio del experimento, para así constatar el origen de los que pudieran aparecer después.

El sacerdote galés John Needham hizo algunos experimentos hirviendo distintas materias orgánicas con la idea de matar los microorganismos que pudiera haber. Pese a que sellaba los frascos, seguían apareciendo estos seres, lo cual fue ampliamente interpretado como una validación de la generación espontánea.

Entró entonces en el debate el científico italiano Lazzaro Spallanzani, un convencido de que la experimentación rigurosa y repetida era la única forma de alcanzar certezas científicas. El científico, que después descubriría tanto la ecolocalización de los murciélagos como los procesos químicos de la digestión, repitió los experimentos de Needham demostrando que sus técnicas eran insuficientes y que, si las soluciones se hervían el tiempo suficiente y se mantenían protegidas todo el tiempo de la ocntaminacion aérea, no aparecían los microorganismos. Sus resultados, publicados en 1765, fueron ignorados pese a su contundencia.

Pero la realidad práctica se iba imponiendo a las ideas consolidadas. Así, en 1795 el confitero francés Nicholas Appert inventó un método para conservar alimentos. Su sistema implicaba introducir un alimento en un frasco, cerrar éste herméticamente y luego cocinarlo hirviéndolo durante largo tiempo. Sin proponérselo, el cocinero confirmó los resultados de Spallanzani... y de paso ganó el premio de 12 mil francos que ofrecía el ejército francés a quien lograra una gran innovación en las conservas.

Quedaba un resquicio para los defensores de la generación espontánea: argumentaron que era necesario que hubiera aire para que se operara el milagro de la generación de vida. Era su último bastión.

El minucioso trabajo de Spallanzani puso las bases para los experimentos del joven Louis Pasteur publicados en 1864 y que derrumbaron esa última plaza fuerte de la generación espontánea. Usó un preparado de caldos de carne que hirvió exhaustivamente en matraces con un alargado cuello en forma de “S” horizontal. En algunos, rompió el cuello en forma de S para que el contenido quedara expuesto al aire y al polvo, mientras que en otros dejó abierto el cuello, en consecuencia dejando que pasara el aire pero no el polvo que llevaba los microorganismos y que quedaba atrapado en la curvatura del matraz. En los primeros se desarrollaron microorganismos, en los segundos no.

Culminaban así casi 200 años desde los primeros experimentos de Redi. Quedaba entonces sólo un misterio: al menos en un momento, hace unos 3.800 millones de años, la vida sí surgió a partir de la materia inanimada. Quien descubra cómo ocurrió ese proceso pasará a la historia como Pasteur o Spallanzani.

Consecuencias en la salud

La idea de que todo microorganismo proviene de otro fue la base de toda la microbiología y, entre otras cosas de las prácticas de higiene han sido responsables de evitar millones y millones de muertes y cantidades enormes de sufrimiento, gracias a pioneros como Ignaz Semmelweis, que promovió la higiene de los médicos desde 1847 y de Joseph Lister, que propuso la desinfección del material quirúrgico apenas 3 años después del experimento de Pasteur.

Aprender de los hilos naturales

La imitación de los productos de la naturaleza y su mejoramiento para atender a nuestras necesidades ha encontrado un obstáculo en los hilos producidos por humildes insectos y arácnidos.

Una tela de araña exhibe su resistencia perlada con gotas
de rocío. (Foto CC de Tiia Monto, via Wikimedia Commons)
La tecnología ha sido capaz de sintetizar una gran cantidad de sustancias naturales, generalmente no demasiado complejas, para satisfacer necesidades que de otro modo quedarían cubiertas a medias. Algunas sustancias incluso se han mejorado, como es el caso del ácido acetilsalicílico de la aspirina, menos agresivo para el aparato digestivo que el ácido salicílico que se encuentra en la corteza del sauce.

Pero los productos mucho más complejos siguen presentando un desafío enorme para el conocimiento y la ingeniería. Las fibras artificiales que se han producido a partir de fines del siglo XIX, por ejemplo, han sido de enorme importancia en la industria del vestido y en la fabricación de productos como paracaídas, chalecos antibalas y, últimamente, en la producción incluso de carrocerías de automóviles y otros productos donde la fibra de carbono se utiliza como sustituto de metales y otros productos.

Muchas fibras artificiales, pues, han sido incluso superiores a las que tradicionalmente ha utilizado el ser humano para vestirse y otros fines, como el algodón, el lino, el yute, el ratán o el cáñamo. Pero hasta hoy no ha sido posible replicar sintéticamente de modo exacto las fibras naturales. Hay aplicaciones en las que son indispensables porque sus características siguen siendo únicas.

Las primeras fibras artificiales no eran totalmente sintéticas, ya que resultaban de procesar la madera y utilizar sus celulosa para transformarla. En el caso del rayón, es producto de la reacción del disulfuro de carbono con la celulosa, mientras que la segunda fibra artificial, el acetato, es precisamente acetato de celulosa.

Fue en 1930 cuando se desarrolló la primera fibra sintética, el nylon, que tenía por objeto sustituir a la seda en la industria del vestido, y permitió que muchas mujeres pudieran usar medias que antes estaban reservadas a las clases pudientes por estar hechas de seda. Pocos años después, sin embargo, se convertiría en un suministro importante para la Segunda Guerra Mundial utilizándose en paracaídas, cuerdas y mosquiteros, entre otras aplicaciones. Al nylon le siguieron otras fibras que hoy siguen dominando el mercado: el poliéster, el acrílico y la poliolefina.

Todas estas fibras son polímeros, es decir, se toman moléculas orgánicas y se procesan de modo que creen largas cadenas similares a las fibras naturales.

Pero la distancia entre ambas, sintéticas y naturales, sigue siendo abismal. Si las fibras vegetales presentan un desafío importante, las de origen animal han sido verdaderos acertijos. La seda, por ejemplo, que se obtiene de devanar los capullos que forma el gusano de seda para su metamorfosis, se presenta en hilos dobles, y pese a ser ligera mantiene tibio a quien la usa. El nylon, que es químicamente similar pero no igual, al microscopio sus fibras son cilindros lisos y transparentes, es susceptible de estirarse pero no es absorbente, es fresco pero húmedo. ¿Cuáles son los motivos de las diferencias? Pueden ser los componentes, los enlaces químicos, la forma de las fibras, o todos estos elementos conjuntamente.

El problema se complica aún más ante una de las fibras más asombrosas del mundo animal: la seda de las arañas. O, para ser más precisos, los distintos tipos de seda que producen algunas arañas, ya que pueden generar desde una fibra estructural enormemente resistente hasta una seda de captura pegajosa y flexible, una para envolver a sus presas u otras que utilizan para proteger sus huevos. En total se conocen siete tipos distintos de seda de araña, cada una producida por una glándula especializada y que se suministran a través de pequeños orificios llamados hileras, donde captura agua y adopta su forma final. Es un material más fuerte que el acero por peso (y más elástico que la goma de látex) y casi tan fuerte como el acero en fibras de diámetro similar, además de ser extraordinariamente resistente a la tensión.

Como señalan investigadores como Lin Römer y Thomas Scheibel, que han profundizado en la composición de la tela de araña, una de las dificultades de reproducir este extraordinario material es precisamente que es el resultado de millones de años de evolución que le dan una resistencia por encima de las más desarrolladas fibras sintéticas como el Kevlar, empleado en chalecos antibalas. Y además tiene la ventaja de ser antimicrobiana, hipoalergénica (no causa reacciones alérgicas) y es 100% biodegradable, algo que no ocurre forzosamente con las fibras sintéticas existentes. Estas solas características la harían ideal para tejer apósitos, vendas y otros materiales de curación y protección para heridas.

Su compleja estructura está formada por una solución de proteínas que el animal hila y que quedan dispuestas en distintas capas y formas responsables de sus características. Esa complejidad también es responsable de que sólo en los últimos años se haya contado con la tecnología necesaria para conocer la secuencia de los aminoácidos que forman algunos de los tipos de seda de algunas arañas. Porque, presentando una realidad aún más complicada, distintas arañas producen sedas de composiciones distintas.

La búsqueda por reproducir la seda de araña es incluso más intensa que en el caso de otras fibras naturales ya que su potencial industrial es enorme.

Si no es posible reproducir la complejidad de la seda de araña en el laboratorio, y dado que tener granjas de arañas es poco viable por la agresividad que exhiben entre ellas, una de las soluciones que se han planteado es producirla utilizando sus genes. En las últimas tres décadas, investigadores como Randy Lewis, de la Universidad de Utah, han estado transfiriendo los genes responsables de la producción de seda de araña a diversos anfitriones como gusanos de seda, bacterias E. coli como las que ya se utilizan para producir proteínas complejas como la insulina humana, alfalfa y cabras cuya leche contiene proteínas de seda de araña. Una vez teniendo cantidades adecuadas de las proteínas de la fibra, el desafío es hilarlas y procesarlas para obtener un producto similar al que consiguen las arañas sin tanta parafenalia.

Proyecto comercial o bulo?

Una empresa japonesa ha afirmado que tiene un procedimiento comercialmente viable para producir seda de araña destinada a aplicaciones tan distintas como vasos sanguíneos y ligamentos artificiales, entre otras. Su base es la fibroína, la principal proteína de la seda de araña, producida por bacterias, convertida en polvo e hilada, aunque, asegura la empresa, puede convertirse también en películas, gel, espumas y nanofibras.

El Niño, la Niña y el mar

El clima, la atmósfera y los océanos, sus temperaturas y movimiento están estrechamente relacionados a nivel mundial, y una de las más claras expresiones de esta unión son los fenómenos de El Niño y La Niña.

Tabla de temperaturas anormales de la superficie del océano
durante El Niño de 1997. (Imagen D.P. National Centers
for Environmental Prediction vía Wikimedia Commons.)
Cuenta el meteorólogo de Princeton George Philander que fueron anónimos marineros y pescadores peruanos quienes dieron el nombre de “El Niño” a una corriente de agua cálida que aparecía frente a las costas de su país, en el Océano Pacífico, hacia fines de año. El nombre se refería a la fecha de Navidad, como si la conmemoración del nacimiento de Cristo tuviera alguna influencia en las corrientes marítimas.

En 1891, la Sociedad Geográfica de Lima, Perú, publicaba un artículo de Luis Carranza señalando que se había observado esa contracorriente del Pacífico entre los puertos de Paita y Pacasmayo y especulando que el fenómeno seguramente tenía influencia en el clima de esa parte del mundo.

No fue sino hasta la década de 1960 cuando los meteorólogos tuvieron las observaciones necesarias para determinar que el fenómeno era mucho más extendido y complejo, y de alcances muchísimo mayores en la climatología del planeta.

El fenómeno es una gigantesca oscilación en la temperatura de la superficie del Pacífico en la zona del trópico, que puede variar hasta en 4 ºC, provocando cambios importantes en los patrones de vientos y lluvia del occidente de América del Sur. Este cambio ha sido mucho mejor entendido desde que en 1969

Actualmente, se conoce como “El Niño” a la fase cálida de la oscilación, aproximadamente, mientras que la fase fría ha sido llamada, por contraparte, “La Niña”. El nombre completo del evento en la actualidad es El Niño/Oscilación del Sur , o ENOS, y suele tener una duración de entre 8 y 12 meses y ocurre en períodos de entre tres y cinco años. Estas son observaciones generales, pues en ocasiones el evento puede durar años, provocando efectos mucho más agudos.

El primer y más notable efecto que tiene el aumento de la temperatura en la fase de El Niño es que la presión atmosférica disminuye en la zona oriental del Pacífico Central Ecuatorial y aumenta en la occidental, provocando una importante disminución en los vientos del Este.

El Niño afecta al Norte de América en el invierno siguiente a su aparición, provocando temperaturas más cálidas que la media en Canadá occidental y central, y por todo el oeste y el norte de los Estados Unidos. Además, ocasiona que aumenten las lluvias en la costa del Golfo de México y disminuyan en el noroeste y la zona costera de Norteamérica. La Niña provoca efectos esencialmente opuestos en el clima mundial.

Igualmente son opuestos los efectos de la fase cálida y la fría del ENOS. Durante El Niño, hay más huracanes en el Pacífico que afectan a América del Norte, principalmente Estados Unidos y México, y menos huracanes en la zona del Caribe, en la costa opuesta del continente, en el Atlántico. Al mismo tiempo, la costa del norte de Suramérica, en países como Colombia, Bolivia, Perú y Ecuador es más húmeda y propensa a inundaciones, lo que ha exigido que estos países incluso organicen el tipo de cultivos que se pueden plantar en distintas zonas para evitar la pérdida de cosechas fundamentales para la alimentación, máxime tratándose de países con elevados índices de pobreza.

En su desarrollo, el ENOS tiene efectos en el clima a nivel mundial. Durante El Niño, puede aumentar o disminuir la cantidad de lluvias igual en la India que en el África oriental o los países del norte de Europa, o seauías en Indonesia, China y Australia. Los cambios provocados por el ciclo también dependen de la estación del año, y de otros ciclos climatológicos poco conocidos fuera del mundo de la meteorología.

Las condiciones meteorológicas, por supuesto, influyen en las formas de vida del planeta. Y una de las observaciones más sugerentes es que cuando ocurre un evento ENOS cambia la incidencia de enfermedades epidémicas, lo que podría indicar que los microorganismos que las provocan y, probablemente, las personas que las padecen, podrían ser sensibles a los cambios de su entorno de una forma aún no explicada.

Así, por ejemplo, Jeffrey Shaman, científico de la Universidad de Columbia, explica cómo las separaciones y reuniones de poblaciones de aves migratorias causadas por los cambios del clima debido al ENOS favorecen la aparición de nuevas cepas de virus de la gripe o influenza, del que las aves suelen ser un vector. Si una población se divide en dos y el virus evoluciona independientemente en ambas, al reunirse aumentan la posibilidad de que los dos grupos de virus intercambien ADN, formando nuevas variedades que pueden producir pandemias impredecibles.

Aunque aún no se ha establecido una relación causa-efecto, Shaman señala como un indicio el que hubiera condiciones de La Niña (fase fría) en el mundo inmediatamente antes de la mortal epidemia de gripe de 1918, y que lo mismo pasara previo a las otras pandemias de gripe notables de los últimos 100 años, en 1957, 1968 y 2009.

De comprobarse esta hipótesis, podría predecirse la aparición de algunas pandemias, no sólo de gripe, sino de malaria, cólera, dengue y fiebre del Rift, entre otras y en lugares tan apartados como África y Australia, observando el momento en el que un evento ENSO llega a la fase de La Niña.

Lo realmente difícil es predecir cuándo se presentará un evento ENSO y qué duración y fuerza tendrá. Para poderlo hacer, es necesario que los expertos en meteorología y climatología descubran las causas que lo desencandenan. Desde el año 2000, se ha presentado en 2002–2003, 2004–2005, 2006–2007 y 2009–2010. Ninguno de ellos ha tenido la intensidad que tuvo el evento de 1997–1998, considerado el acontecimiento climatológico más importante del siglo XX, y cuya intensidad fue tal que, por ejemplo, provocó el invierno más cálido en la parte continental de los Estados Unidos desde que empezaron a llevarse registros meteorológicos.

Lo más desconcertante puede ser que, mientras trabajan para desentrañar las causas de este fenómeno, cuyo desarrollo se ha llegado a entender con enorme claridad durante los últimos 50 años, los científicos del clima están conscientes de que podría no haber una causa precisa, sino que el colosal evento ENSO sea, simplemente, un fenómeno aleatorio del complejo equilibrio de nuestro planeta.

Calentamiento global

Aunque los datos son escasos para tener una certeza suficiente, algunos científicos señalan que los eventos ENSO se están presentando con mayor frecuencia como respuesta al calentamiento global ocasionado por el efecto invernadero. Algunos científicos han propuesto un modelo según el cual las instancias extremas de El Niño podrían duplicarse, con los consecuentes problemas socioeconómicos y de salud a nivel mundial.

Mary Anning, la hija del carpintero

Los fósiles encontrados, identificados y dados a conocer por esta mujer trabajadora británica dieron forma al trabajo de la paleontología del siglo XIX.

Dura antiquior, pintura de Henry De la Beche, 1830.
(Imagen D.P. Museo de Sedgwick vía Wikimedia Commons.)
La imagen está sobrepoblada. Dos pterodáctilos se atacan en el cielo. Un ancestro de los cocodrilos está al borde del agua, donde una abigarrada colección de ictiosaurios, plesiosaurios, tortugas, peces, calamares y algunos seres prehistóricos más fantasía que reconstrucción paleontológica, se dedican principalmente a comerse unos a otros,

Se trata de una acuarela de 1830, “Duria antiquior” o “Un Dorset más antiguo”, por la región de la costa sur de la isla de Gran Bretaña. Su autor fue el pintor y geólogo Henry De la Beche y fue el primer intento de la historia en tratar de representar la vida prehistórica según la evidencia fósil disponible. Y gran parte de ella había sido encontrada, identificada, descrita, dibujada y reconstruida por Mary Anning, que ya por entonces era considerada la mayor experta en hallazgos de fósiles del mundo, pese a tener apenas 31 años de edad.

Mary Anning nació en en 1799 en la costa de Dorset, en el pueblo de Lyme Regis, hija de un carpintero de la localidad llamado Richard y de su esposa Mary, de cuyos hijos sólo sobrevivirían Mary y su hermano Joseph.

Lo que hoy es Lyme Regis estuvo, hace 200 millones de años, cerca del Ecuador, en el fondo de un mar cálido y lleno de vida. Muchos animales se vieron enterrados en el fondo lodoso y se fosilizaron mientras la zona migraba hasta su actual posición. Lyme está por tanto rodeado de los acantilados en que se convirtió ese fondo marino lodoso, verdaderas minas de fósiles.

El padre de Mary dedicaba parte de su tiempo a buscar, entre las rocas desprendidas de los acantilados, unas maravillosas “curiosidades”: los fósiles de esos seres marinos, que empezaban a dejar de ser misteriosos y a ser estudiados para tratar de saber cómo había sido la vida en el pasado y cómo habían aparecido y desaparecido esos fantásticos seres. Así la venta de fósiles era también una fuente de ingresos adicional para los Manning, que llevaban a sus hijos, desde pequeños, a buscar fósiles.

Estas habilidades serían la única forma de supervivencia de la familia cuando Richard Manning murió en 1810, dejando a su familia totalmente desprotegida. Mary y sus dos hijos emprendieron un pequeño negocio como vendedores de fósiles que les permitió escapar a la miseria, aunque con frecuencia pasarían épocas de gran escasez.

Retrato de Mary Anning circa 1841.
(Imagen D.P. del Museo de Historia Natural
de Londres, via Wikimedia Commons)
Cuando Mary tenía 12 años, la familia encontró y publicitó el hallazgo de un fósil completo de ictiosaurio, un reptil jurásico en forma de pez. El descubrimiento fue pronto adquirido por Henry Hoste Henley, un noble londinense aficionado a la geología.

Entre los hallazgos que realizó Mary Anning a lo largo de su carrera está el de los coprolitos, heces fecales fosilizadas que ofrecen importante información sobre la dieta de los animales del pasado. Fue la primera persona que identificó en Inglaterra un fósil que halló como perteneciente a un pterosaurio. Encontró también curiosidades como un fósil de sepia que aún tenía en su interior la tinta del animal.

Alrededor de 1820, Mary realizó uno de sus más importantes descubrimientos: un fósil casi completo de plesiosaurio. El animal había sido descrito a partir de restos fragmentarios, pero grandes expertos en fósiles como el francés Georges Cuvier se mostraban escépticos ante la disparidad del tamaño del reptil respecto de su pequeñísima cabeza. Al enterarse, Cuvier dejó de lado su escepticismo y declaró que el descubrimiento de Anning era de primera importancia. Comenzó entonces una correspondencia con la buscadora de fósiles que duraría hasta la muerte de ésta. El plesiosaurio de Mary aún se puede ver en el Museo de Historia Natural de Londres.

Cada vez más científicos consultaban a Mary Anning y a visitar los acantilados de Lyme Regis, no sólo por su habilidad para encontrar fósiles, sino porque la mujer, sin ninguna educación formal, había aprendido por su cuenta mucho de lo que sabían los expertos de la época y había desarrollado una habilidad propia de los palentólogos que incluso hoy puede asombrarnos: la capacidad de saber mucho acerca de un animal simplemente a partir de un fragmento.

Sobre ello, la acaudalada Harriet Silvester escribió que la joven, a la que conoció en 1824 “se ha familiarizado tan exhaustivamente con la ciencia que en el momento en que encuentra cualquier hueso sabe a qué tribu pertenece”. Y, subrayando la importancia desusada que había logrado tener Mary en una Inglaterra donde la mujer y los pobres eran considerados prácticamente desechables, señala que “tiene la costumbre de escribir y hablar con profesores y otros hombres inteligentes sobre el tema, y todos reconocen que ella entiende más de la ciencia que ninguna otra persona en el reino”.

Pero la fama y el reconocimiento no pagaban las facturas, y la familia debía depender de sus relaciones para mantenerse a flote cuando el negocio de los fósiles tenía baches, ya fuera porque no se encontraban fósiles relevantes durante un tiempo o porque no había compradores.

El coleccionista Thomas Birch, por ejemplo, que había comprado numerosos fósiles a los Anning, decidió en un momento dado subastarlos para dar a la familia lo recaudado. Tiempo después, el pintor de “Duria antiquior”, por ejemplo, mandó hacer una litografía de su acuarela y vendió copias de ella a amigos y colegas, donándole a Mary lo obtenido.

Al final de su vida, sin embargo, llegó cierto reconocimiento. Nueve años antes de su muerte, la Asociación Británica para el Avance de la Ciencia le concedió una anualidad, y la Sociedad Geológica de Londres le asignó también un ingreso periódico. Y en los últimos años de su vida pudo leer que la revista de Charles Dickens, “All Year Round” decía de ella: “la hija del carpintero se ha ganado un nombre, y se ha merecido ganarlo”. Murió en 1847 de cáncer de mama.

Al conmemorar sus 350 años de existencia, la Royal Society de Londres, que no admitió mujeres sino hasta 1945, pidió a un grupo de científicas e historiadoras de la sociedad que nombraran a las diez mujeres británicas más influyentes de la historia de la ciencia, y consideraron que una de ellas era Mary Anning, la hija del carpintero.

El nombre latino

Pese a su relevancia en la historia de la paleontología británica, y aunque numerosos científicos y coleccionistas de fósiles daban con frecuencia nombre a las especies descubiertas, no fue sino hasta 1878, 31 años después de su muerte, que alguien dio a una especie un nombre destinado a homenajear a Mary Anning, el Tricycloseris anningi, una especie de coral. Sin embargo, aún no se le ha dado el nombre de la paleontóloga a un reptil fósil británico, lo que sería el homenaje más justo.

Nuestro cambiante cerebro

Una vez más, algo que los datos parciales indicaban que era irreversible, incurable y definitivo resulta no serlo. Y entonces es posible que los ciegos vean y los paralíticos anden, entre otras cosas.

"El cirujano" de Jan Van Hemessen muestra cómo se buscaba
alterar el comportamiento extrayendo la "piedra de la locura"
una forma de charlatanería común en el siglo XV-XVI.
(Imagen D.P. Museo del Prado vía Wikimedia Commons.)
En el otoño de este 2014, los diarios dieron la noticia de que un hombre de 40 años, paralizado después de un ataque con un cuchillo, había podido caminar con ayuda de una andadera gracias a una innovadora cirugía experimental.

Las parálisis, como la que sufrió este paciente, se producen cuando se interrumpe la comunicación de nuestro sistema nervioso central con los músculos encargados del movimiento. Es decir, la persona puede pensar en moverse y puede enviar las señales necesarias para efectuar el movimiento. En condiciones normales, los impulsos nerviosos para el movimiento viajarían de hasta las neuronas motoras de la médula espinal, cuyos largos axones se extienden a lo largo de las vías nerviosas hasta tocar las células de los músculos, donde el impulso nervioso de cada neurona provoca que una célula motora se contraiga. Actuando concertadamente, las neuronas motoras consiguen que se contraigan los músculos con un control tan delicado como el de una bailarina o un neurocirujano.

Cuando hay una lesión, generalmente a nivel de la médula espinal, de donde parten los nervios que controlan todo el cuerpo, esos impulsos nerviosos no llegan a los músculos. Los nervios se han cortado y no se pueden regenerar.

Pero los nervios seccionados no sólo transmiten los impulsos del sistema nervioso central a los músculos en el caso de movimientos voluntarios... también llevan, en sentido contrario, otras fibras nerviosas que transmiten la información sensorial al sistema nervioso: posición, temperatura, dolor, tacto, etc. El miembro paralizado generalmente es además insensible, y se pierde el control de otros músculos como los esfínteres que regulan la salida de desechos del cuerpo. Parálisis e insensibilidad suelen ir de la mano.

Lo que hicieron los médicos bajo la dirección de Geoffrey Raisman, del University College London, fue trasplantar un grupo de células del bulbo olfatorio del paciente al lugar donde la médula espinal estaba seccionada. Las células de la glia envolvente del bulbo olfatorio se pueden cultivar en el laboratorio como cualquier otro tejido, para luego ser inyectadas en el lugar de la lesión. Las células siguieron regenerándose y, con ayuda de unas fibras nerviosas del tobillo del propio paciente, permitieron que se restableciera la comunicación perdida por el corte.

Lo que se hizo fue establecer un camino para que las neuronas a ambos lados del corte

Uno de los supuestos básicos de las neurociencias fue establecido precisamente por uno de los fundadores de la disciplina, el Premio Nobel Santiago Ramón y Cajal, cuando dijo: “una vez terminado el desarrollo, las fuentes de crecimiento y regeneración de los axones y dendritas se secan irrevocablemente. En los cerebros adultos las vías nerviosas son algo fijo, terminado, inmutable. Todo puede morir, nada puede regenerarse. Corresponde a la ciencia del futuro cambiar, si es posible, este cruel decreto”.

En otras palabras, el total de neuronas que va a tener un ser humano queda determinado en su niñez. El propio Ramón y Cajal adelantó que los procesos de aprendizaje de nuevas habilidades que venían después, y a lo largo de toda la vida, se realizaban mediante la creación de nuevas conexiones por el crecimiento progresivo de las dendritas de las neuronas, esas extensiones que se conectan a los axones de otras neuronas formando los circuitos de nuestro cerebro, donde cada neurona tiene un solo axón y hasta miles de dendritas.

Desde la década de 1960 empezaron a aparecer estudios que indicaban que en algunos casos las neuronas se reproducían y migraban a zonas concretas del encéfalo. Y a fines de la década de 1990 se confirmó que esta reproducción, llamada “neurogénesis”, definitivamente ocurría en el sistema nervioso central humano, al menos en pequeña medida en algunas zonas de nuestro encéfalo, como el hipocampo.

Aunque esta reproducción es demasiado escasa como para representar una esperanza de “reparar el sistema nervioso” por sí misma, indica el camino para que se obtengan neuronas nuevas de otra forma.

Entran aquí las células madre, células no diferenciadas de nuestro cuerpo que, al desarrollarse en diversas circunstancias y medios, son capaces de convertirse en células de cualquier tejido: de la piel, de los huesos, de los pulmones... y del sistema nervioso. De hecho, las responsables de la neurogénesis en el encéfalo adulto son células madre neurales.

Conocidas por el público en teneral sobre todo por el debate debido a que originalmente sólo se podían obtener de tejido fetal, abortado voluntaria o involuntariamente, hoy las células madre se pueden obtener de donantes adultos e incluso se pueden tomar células diferenciadas y someterlas a procedimientos que las hacen volver a ser “pluripotentes”. Las células madre son una esperanza no sólo para la regeneración de distintos órganos, sino en la investigación y estudio de nuevos medicamentos. Al menos en teoría, se pueden utilizar para crear órganos o tejidos para autotrasplantes que nuestro cuerpo no podría rechazar.

En el caso de las células madre neurales, la posibilidad es la de efectivamente reparar no sólo los axones y fibras nerviosas, sino sustituir neuronas para recuperar funciones perdidas en ciertas zonas del sistema nervioso o espacios concretos, como las células de la mácula de la retina, cuya degeneración lleva a numerosos casos de ceguera.

Sólo en los últimos años han conseguido los científicos producir neuronas que pueden enviar y recibir impulsos nerviosos, especialmente neuronas motoras como las que se activan para conseguir el movimiento de los músculos. Además de producir otras células nerviosas que, sin estar implicadas en la transmisión de impulsos nerviosos, son fundamentales para el funcionamiento del sistema, como los astrocitos que protegen a las neuronas.

Nuestro sistema nervioso, finalmente, no es tan rígido como postulaba Ramón y Cajal, lo que sabemos porque, como él mismo previó, la ciencia del futuro, que es nuestro presente, ese cruel decreto. Nuestro cerebro cambia, crea conexiones, produce nuevas neuronas, puede aprovechar la ayuda externa para restablecer conexiones perdidas por lesiones o enfermedades, aprende, recuerda y evoluciona día con día.

Parálisis y esperanza

En el mundo hay alrededor de tres millones de personas que viven con lesiones de la médula espinal que les impiden el movimiento en mayor o menor medida. Además de millones que padecen ceguera por degeneración macular, por lesiones en la zona de la corteza cerebral encargada de procesa la visión y otras causas que podrían ser tratadas con las terapias que se están desarrollando.

Exoplanetas

Planetas alrededor de otras estrellas. Planetas que pueden tener vida. Sin embargo, esos planetas, que hoy son una multitud que aumenta día a día, hasta hace poco eran sólo un sueño.

Interpretaciones artísticas de exoplanetas halllados por el
sistema HARPS. (Imagen D.P. European Southern
Observatory via Wikimedia Commons.)
Se han identificado casi 2 mil planetas fuera de nuestro sistema solar, además de otros 3 mil candidatos, que forman parte de sus propios sistemas solares y giran alrededor de numerosos soles, algunos parecidos al nuestro, que nos pueden enseñar mucho sobre cómo evolucionan los sistemas solares, y donde incluso podía haber vida.

Fue Giordano Bruno, fraile quemado por sus ideas heréticas, quien en 1584 propuso que en nuestro universo había “incontables soles, e incontables tierras todas girando alrededor de sus soles”. Ya los antiguos griegos especulaban sobre otros mundos donde hubiera vida y, en el siglo II, Luciano de Samosata escribió su libro Verdadera historia, según muchos la primera obra de ciencia ficción de la historia, donde viajaba a la Luna y conocía a sus habitantes.

Pero la idea especulativa de Giordano tenía por primera vez un sustento fáctico con la teoría de Copérnico. Desde entonces, escritores de ciencia ficción, científicos y personas comunes han tratado de imaginar cómo serían esos mundos y, sobre todo, cómo podría ser la vida que se desarrollara en ellos. Por eso la vida extraterrestre es uno de los temas esenciales de la ciencia ficción incluso hoy, cuando la gente se acerca a ese género principalmente a través del cine.

Esto oculta el inquietante hecho de que, hasta hace muy poco tiempo, no sabíamos si existían tales planetas.

Para empezar a buscar siquiera a otros planetas fue necesario primero demostrar que el sol era una estrella y que las estrellas eran, a su vez, soles. Sobre indicios y estudios de otros muchos astrónomos como Johannes Kepler o Christiaan Huygens, en 1838, Friedrich Bessel consiguió medir por primera vez la distancia a la que se encontraba una estrella y encontró que era enorme. Según sus observaciones, la estrella 61 Cygni se encontraba a 10,3 años luz de distancia de nosotros, un resultado muy preciso con los medios a su disposición si tenemos en cuenta que las mediciones con la tecnología actual sitúan esta estrella de la constelación del Cisne está a 11,4 años luz. Gracias al trabajo de Bessel se pudieron medir las distancias a otras estrellas y, con base en ellas, determinar su brillo real. Con base en esos datos se pudo determinar que el sol era una estrella y, sin duda alguna, las estrellas eran soles.

La especulación razonable es que al menos algunos de esos soles tendrían planetas a su alrededor. Y, si los tenían, la implicación de posible vida extraterrestre tomaba más visos de realidad que de ciencia ficción. Pero no fue sino hasta 1992 cuando por primera vez se identificó con certeza un exoplaneta.

No es fácil buscar exoplanetas. Entre los sistemas para identificarlos está el verlos directamente, algo que sólo ocurre si son muy grandes y muy calientes, así que muy pocos pueden ser detectados con este sistema. También se puede medir el cambio de velocidad radial de una estrella cuando la órbita un planeta muy masivo, ya que aunque tendemos a pensar que los planetas giran alrededor de una estrella inmóvil, en realidad ambos cuerpos giran alrededor de un centro gravitacional común, y un planeta con una gran masa puede hacer que la estrella se desplace, como si su eje estuviera desplazado fuera del centro, lo que podemos detectar con instrumentos especializados. También, si un planeta refleja gran cantidad de la luz de la estrella puede ser detectado midiendo el aumento en el brillo aparente de la estrella.

Pero el sistema más común para encontrar exoplanetas es el del tránsito.

Cuando un planeta pasa frente a su estrella, bloquea parte de la luz que ésta emite. Con mediciones muy precisas del brillo de las estrellas al paso del tiempo, es posible detectar variaciones muy, muy pequeñas que, si se repiten periódicamente, son indicativas de la presencia de un planeta, mientras que la cantidad de variación de la luminosidad es indicativa, de modo general, del tamaño del planeta. Y el período en el cual se producen los tránsitos permite también calcular el tamaño de su órbita.

Por supuesto, las mediciones tan precisas de la luminosidad se benefician del uso de telescopios espaciales, que no estén sometidos a las variaciones de luminosidad que pueden implicar las perturbaciones atmosféricas para los instrumentos situados en la superficie del planeta y que exigen complejos cálculos para compensarlas. Esto también ha determinado que la gran mayoría de los exoplanetas descubiertos hasta la fecha sean parientes de Júpiter, es decir, gigantes gaseosos con una enorme masa

En 2009 se puso en órbita el telescopio espacial Kepler, diseñado por la NASA concretamente para explorar nuestra región dentro de la galaxia en busca de planetas más o menos del tamaño del nuestro, especialmente los que están en la “zona habitable” alrededor de una estrella, es decir, donde la temperatura permite la existencia de agua líquida. El telescopio Kepler es un fotómetro o medidor de luz de enorme precisión que puede vigilar continuamente el brillo de más de 100.000 estrellas. En 2010, la misión Kepler identificó su primer planeta, y a principios de 2014 encontró el primer planeta del tamaño correcto en la zona habitable, el Kepler-186f. Esto no quiere decir, por supuesto, que el planeta tenga vida, sólo que puede tenerla. Se han encontrado también planetas con atmósferas y con indicios de presencia de agua.

La búsqueda de exoplanetas nos acerca también a realidades nunca vistas: planetas gigantescos, de casi del doble de Júpiter; un planeta relativamente cerca de nosotros, a “sólo” 10,5 años luz, llamado Epsilon Eridani b; planetas que, como el imaginario Tatooine de Star Wars, tienen dos soles, e incluso hay uno, HD 188753, que orbita alrededor de un sistema formado por tres soles, como para imaginarnos sus atardeceres; un planeta de 12.700 millones de años de existencia, casi tan antiguo como el propio universo, e incluso un planeta que gira alrededor del pulsar PSR J1719-1438 y que está hecho de diamante.

Pero un planeta con vida sería, para nosotros, mucho más valioso que uno de diamante. De hecho, el valor del diamante disminuye con su abundancia, algo que no ocurriría, al contrario, si descubrimosmás abundancia de vida en el universo.

Buscadores de planetas

Para identificar tránsitos de posibles planetas ante las miles de estrellas que está observando el telescopio Kepler, la NASA mantiene un sitio web llamado “Planet Hunters”, donde la gente común y corriente ayuda a identificar tránsitos entre la masiva cantidad de datos que aporta el telescopio todos los días... finalmente, el ser humano sigue siendo el instrumento decisivo en la exploración científica.