Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Envejecer: demasiado rápido o nunca


La vida eterna, la eterna juventud, son inquietudes filosóficas que, cada vez más, son tema de la ciencia y la medicina, y no sólo especulaciones.

Los seres unicelulares pueden inmortales. Al reproducirse por subdivisión, todos los seres unicelulares han vivido en cierto modo durante millones de años. Una célula individual, una bacteria o un protozoario, pueden morir individualmente, pero, con la misma certeza, existen gemelos suyos que siguen viviendo, renovándose a sí mismos cada vez que se subdividen.

Pero los organismos más complejos o sufrimos la llamada senescencia o envejecimiento biológico, mediante el cual experimentamos una serie de cambios que aumentan nuestra vulnerabilidad y que conduce a nuestras muertes.

El envejecimiento es uno de los grandes misterios de la biología y una de las principales preocupaciones humanas, pues prolongar su vida, de ser posible indefinidamente y con buena calidad, ha sido una aspiración que ha llevado por igual a la búsqueda de Ponce de León, que al pacto diabólico de Fausto o al sueño de la piedra filosofal.

La medicina, al conseguir aumentar la duración de la vida humana en condiciones de calidad, de modo que, diríamos, “merece ser vivida”, y al vencer o postergar eficazmente muchas causas de muerte, necesita una mejor comprensión de los procesos del envejecimiento para poder atacarlos e, idealmente, impedirlos, retardarlos o revertirlos. Y algunas afecciones humanas nos sirven para entender qué pasa cuando envejecemos.

Fue en 1886 cuando el médico y cirujano británico jonathan Hutchinson, quien describió una gran cantidad de enfermedades y afecciones, describió por primera vez una condición conocida hoy como enfermedad de Hutchinson-Gilford, pues Hastings Gilford la describió también independientemente 11 años después.

Esencialmente, se trata de una enfermedad en la cual los niños envejecen prematuramente, desarrollando al pasar la infancia una serie de síntomas como crecimiento limitado, falta de cabello, un aspecto singular con rostros y mandíbulas pequeños en relación con el cráneo, cuerpos pequeños de gran fragilidad, arrugas, ateroesclerosos y problemas cardiovasculares     que llevan a que estos niños mueran de vejez o de complicaciones relacionadas con ella a edad muy temprana, generalmente alrededor de los 13 años aunque hay casos excepcionales de supervivencia hasta cumplir más de 20 años. Desde la descripción de Hutchinson, se ha detectado únicamente un centenar de casos, de los cuales hay actualmente entre 35 y 45 en todo el mundo.

Esta afección es más conocida como “progeria”, y se ha dado a conocer en los últimos años mediante una serie de documentales donde los propios niños afectados de progeria han dado cuenta de susa alegrías y sufrimientos, en muchos casos cautivando a la opinón pública de sus países. La progeria es causada por una mutación que ocurre en la posición 1824 del gen conocido como LMNA. En el sencillo idioma de cuatro letras de nuestra herencia biológica, AGCT (adenina, guanina, citosina y timina), esta mutación provoca que una molécula de citosina (C) se vea sustituida por una de timina (T), lo que basta para causar esta cruel enfermedad.

Pero la progeria no es la única forma de envejecimiento prematuro que conocemos. Al menos otra enfermedad, la disqueratosis congénita, provoca síntomas similares entre las pocas víctimas que conocemos. En este caso, la afección parece ser producto también de una mutación, así como de alteraciones en los telómeros, series repetitivas de ADN que están en los extremos de los cromosomas y que funcionan, en palabras de una investigadora, como las puntas rígidas de las cintas de los zapatos, que impiden que se destejan. El desgaste de los telómeros al paso del tiempo se considera una de las varias causas del envejecimiento.

En el otro extremo del espectro se encontraría un caso que se dio a conocer al mundo mediante la revista científica “Mecanismos del envejecimiento y el desarrollo”, donde el doctor Richard Walker, del Colegio de Medicina de la Universidad de Florida del Sur, presentó a Brooke Greenberg, una chica que a los 16 años de edad sigue teniendo las características físicas y mentales de un bebé, con una edad mental de alrededor de un año, una estructura ósea similar a la de un niño de 10 años, y conserva sus dientes de leche.

La pregunta pertinente es por qué no envejece esta niña, que por otro lado parece un bebé feliz, que se comunica sonriendo, protestando y en general comportándose de una forma que consideraríamos normal en un niño que aún no ha aprendido a hablar. En su infancia, los médicos le administraron hormona del crecimiento, sin saber que estaban ante un caso único en la historia de la medicina, pero este tratamiento, habitualmente efectivo, no dio resultado alguno.

Los especialistas del equipo del Dr. Walker esperan poder identificar el gen, o el grupo de genes, que hacen a Brooke diferente de todos nosotros. Es una oportunidad única, dice Walker, de “responder a la pregunta de por qué somos mortales”.

Los datos que nos ofrezcan niños como los pacientes de progeria y Brooke Greenberg podrían, efectivamente, darnos la clave (o las claves) de cómo y por qué envejecemos, y qué podemos hacer para evitarlo.

La ciencia ficción ha abordado el problema del envejecimiento. Robert Heinlein creó al personaje “Lazarus Long” (Lázaro Largo) como resultado inesperado y súbito de un programa de selección artificial a largo plazo en el cual un grupo de familias emprende un proyecto para reproducir sólo a los más longevos de sus miembros.

Esto permitió a Heinlein, principalmente en su obra maestra Tiempo para amar, una de las que llevaron como protagonista a Lazarus Long, plantear qué podría significar “vivir para siempre”. Podríamos vivir muchas vidas, tener muchas familias, saborear muchos placeres y acumular enormes cantidades de conocimientos y experiencias... pero quizás, como Lazarus Long, después de uno o dos mil años de recorrer el mundo o, idealmente, el universo, vida ya no tendrá nada nuevo qué ofrecernos, y optemos por darle fin.

Tal vez no es buena idea vivir para siempre, pero sin duda, vivir nuestros 70-80 años esperados sin dejar de ser jóvenes, no es una posibilidad despreciable. Es ser “joven para siempre” o “Forever young” que cantara Bob Dylan allá por 1974, cuando era joven.


El síndrome Peter Pan


Quienes no aceptan la idea de envejecer, pese a su inevitabilidad, y pretenden ser jóvenes e inmaduros para siempre tienen lo que la cultura popular conoce como el Síndrome de Peter Pan, el personaje creado por el escritor escocés James W. Barrie en su novela Peter Pan, o el niño que no quería crecer. Quizás el “Peter Pan” más famoso haya sido, hasta ahora, el recientemente fallecido ídolo musical Michael Jackson, niño eterno.


La estrella de rock y las estrellas del cosmos

La guitarra eléctrica y el telescopio, el rock y la ciencia, pueden estar más cerca de lo que tradicionalmente podríamos pensar.

Brian May, doctor en astrofísica y
leyenda del rock.
(Foto CC de "Supermac1961"
vía Wikimedia Commons)
En octubre de 2007, los diarios dedicaban titulares a Brian May, legendario guitarrista del grupo de rock Queen, que dominó la escena musical durante casi 20 años. Pero la noticia no era sobre sus notables habilidades como guitarrista, su pasión por crear complejos arreglos vocales o sus composiciones clave en la historia del rock, sino que Brian May había obtenido el doctorado en astrofísica con una tesis sobre la nube de polvo interplanetario que tiene nuestro sistema solar en el plano de la órbita de los planetas.

El doctor Brian Harold May, comandante de la Orden del Imperio Británico, nació el 19 de julio de 1947 en Hampton, suburbio de Londres. Interesado desde niño por la música, a los 16 años, con su padre, diseñó y construyó una guitarra eléctrica que sería la que más utilizaría toda su vida, conocida como “Red Special”.

Terminó el bachillerato con notas dentro del promedio en diez asignaturas y notas altas en física, matemáticas, matemáticas aplicadas y matemáticas adicionales. Era evidente que el joven tenía talento para la ciencia, y resultó lógico que entrara a estudiar física al famoso Imperial College de Londres, la tercera universidad de Gran Bretaña después de Oxford y Cambridge. Allí, obtuvo su licenciatura en física con honores y procedió a su trabajo doctoral, orientado a la astronomía infrarroja.

Sin embargo, tenía otra pasión, la música. A los 21 años, en 1968, había formado la banda Smile, que en 1970 se convirtió en Queen. Cuando llegó el éxito, Brian May decidió suspender temporalmente sus estudios doctorales, pensando siempre que el éxito en un mundo como el de la música rock podía ser sumamente efímero.

Todavía tendría tiempo, sin embargo, para ser coautor de dos artículos de investigación científica basados en sus observaciones realizadas en el observatorio de El Teide, en Tenerife en 1971 y 1972. El primero, "Emisión de MgI en el espectro del cielo nocturno", se publicó en la notable revista Nature el 15 de diciembre de 1972, mientras que la "Investigación sobre el movimiento de las partículas de polvo zodiacal", apareció en la revista mensual de la Real Sociedad Astronómica inglesa en 1974, el mismo año en que Queen lanzaba su tercer álbum, Sheer Heart Attack, con el que se lanzó a la fama mundial, confirmada en 1975 por el histórico álbum A Night at the Opera.

El éxito y la agitada vida de la estrella de rock dominaron la vida de Brian May hasta la muerte de su amigo Freddie Mercury, el vocalista de Queen, en 1991 y un tiempo después, con proyectos diversos del grupo. Pero ya durante la época de oro del grupo, May retomó sus estudios e interés por la astronomía, y al disminuir su actividad musical se encontró colaborando con el programa de televisión más longevo de la venerable BBC: “El cielo de noche”... el programa que disparó su interés por la astronomía cuando tenía 7 u 8 años de edad, en sus propias palabras, además de asombrarlo con su tema musical, una pieza de Sibelius.

Esta legendaria emisión era presentada desde 1957 por Sir Patrick Moore, astrónomo aficionado, músico autodidacta, ajedrecista y autor de más de 70 libros sobre astronomía. Desde el año 2000 llevó como copresentador a Chris Lintott, doctor en astrofísica y apasionado de la música que produjo la ópera cómica Galileo. La colaboración de los tres en televisión dio un fruto singular en 2003, cuando Moore le propuso escribir un libro conjunto que se publicó en 2006: ¡Bang! La historia completa del universo, reeditado desde entonces en 20 idiomas.

Brian May había recibido títulos honorarios en las universidades de Hertfordshire, Exeter y John Moore de Liverpool, además de ser miembro de la Real Sociedad de Ciencias. Pero faltaba el doctorado.

Cuando el musical We Will Rock You se estrenó en Madrid en 2003, Brian May invitó a asistir a su amigo y supervisor en el observatorio de Tenerife, Francisco Sánchez, fundador del Instituto de Astrofísica de Canarias. Fue este astrofísico toledano quien le preguntó a Brian May si algún día terminaría su doctorado”. May recuerda que respondió que sí, y sintió que en ese momento su vida se reorientaba. El doctor Sánchez le ofreció además que presentara su tesis en la Universidad de La Laguna. Cuatro años después, en 2007, May volvíó al Imperial College, presentó su disertación, fue nombrado Canciller de la Universidad poco después y en 2008 se graduó y fue nombrado investigador visitante de la universidad.

“He disfrutado totalmente mis años como guitarrista y grabando con Queen”, dijo Brian May, poco después de recibir su doctorado a los 61 años de edad, “pero es extremadamente gratificante ver la publicación de mi tesis. He estado fascinado con la astronomía durante años y años.” La tesis probó por vez primera que las nubes de polvo interplanetario giran en órbita alrededor del sol en el mismo sentido que los planetas, elemento importante para entender la formación de los planetas al comienzo de la historia de nuestro sistema solar.

Sin duda alguna, para muchos, la mezcla de guitarrista de rock y astrofísico sonará extraña. Pero no tanto para quienes viven en el mundo de la física, donde las inquietudes artísticas en general, y musicales en particular, no son tan desusadas. Como no lo es la implicación en numerosas causas sociales y políticas. Brian May participa en la lucha contra el SIDA (motivada por la muerte de Freddy Mercury), contra el cáncer, por la prohibición de las trampas para animales y en favor de los niños desfavorecidos. Y aún tiene tiempo para considerar la posibilidad de que al menos una parte del polvo que invade nuestras casas sea, sí, polvo estelar.

En palabras de Brian Cox, profesor de física de la Universidad de Manchester, el doctorado de Brian May “muestra que no hay nada de nerd en la gente que estudia astronomía y física. De hecho, la motivación para hacer música y para estudiar ciencia vienen de lo mismo: una especie de curiosidad emocional sobre el mundo y lo que hace que éste, y nosotros, funcionemos”. Brian Cox lo sabe bien... como tecladista que fue del grupo D:ream.

La lección es que las fronteras no son tan rígidas como esperamos que sean, o como se nos imponen. No es necesario elegir entre la guitarra eléctrica y el telescopio. Quizá lo ideal es que en cada casa haya ambos instrumentos, pues ambos permiten a cualquiera alcanzar las estrellas.


El legado continúa

Apenas el 3 de julio de este año, Brian May comentaba en su sitio Web su orgullo de padre porque “su bebé”, su hija Emmy, había obtenido la licenciatura en biología con honores de primera clase en el propio Imperial College donde May se doctoró hace dos años.

Ciencia día a día

¿Se puede desfreír un huevo? ¿Cómo se rompe el espagueti seco? ¿Cómo funciona una pompa de jabón? Hay ciencia en donde quiera que miremos, si sabemos ser observadores.

La ciencia ocurre, ciertamente, en aparatos como el gran colisionador de hadrones, o LHC, majestuoso túnel para buscar respuestas a los más tremendos misterios de la física. Y se da en poderosos telescopios, algunos de ellos en órbita, como el Hubble que nos ha traído asombrosas visiones del universo. Y en las abstrusas, tópicas pizarras cubiertas de ecuaciones de los matemáticos.

Ciertamente también, los medios de comunicación nos traen la emoción, la curiosidad y el misterio de lo que se hace en estos lugares alejados de nuestra rutina cotidiana.

Pero conviene recordar que cuanto nos rodea es producto de la ciencia en mayor o menor medida, además de tener una explicación científica que muchas veces no es tan trivial como parece.

Un ejemplo de misterios científicos curiosos es por qué los espaguetis crudos no se rompen en dos pedazos cuando los doblamos, sino en tres o más trozos. Esto, que no parece demasiado trascendente, ha ocupado la mente de físicos como Richard Feynman, ganador del Nobel de Física de 1965. Usted puede probarlo: tome un espagueti sin cocinar, dóblelo tomándolo por los extremos y verá que en vez de romperse en dos como una rama, un lápiz o una galleta, se partirá en tres o más trozos en la gran mayoría de las ocasiones.

En 1998, los lectores de la revista New Scientist observaron que el espagueti no se rompe por la mitad, sino que, dependiendo de los defectos y diferencias dentro de la pasta, la primera rotura suele darse en el punto de menor resistencia, produciendo un trozo largo y otro corto. A continuación, el trozo largo vuelve o “latiguea” hacia atrás con tanta fuerza que se rompe nuevamente, ahora en dirección contraria a la primera rotura.

La explicación científica del fenómeno observado implica el movimiento de una onda de flexión a lo largo de los primeros dos trozos rotos y la sucesión en cascada de una serie de grietas en la pasta. Este descubrimiento fue objeto de un muy serio artículo de los físicos Basile Audoly y Sebastien Neukirch en 2006, en la prestigiosa revista Physical review letters.

Nuestra primera idea de que quizá el misterio no sería para tanto y “seguramente” su respuesta era un asunto trivial queda superada por los hechos. No sólo tardó muchos años en resolverse el enigma, sino que el trabajo de estos dos físicos ha demostrado tener relevancia para darnos información sobre cómo se rompen otras estructuras alargadas, como los huesos humanos y los arcos de los puentes, según relata Mick O’Hare en su muy recomendable libro Cómo fosilizar a tu hámster y otros experimentos asombrosos para científicos de butaca (RBA, Barcelona 2009).

Entusiasmarnos con el proceso de adquisición del conocimiento (el método científico) y sus resultados, ese cuerpo de conocimientos que llamamos ciencia es más fácil cuando observamos cómo los hechos a nuestro alrededor se explican (o no) por medio de la ciencia.

El detergente común, como su antecesor, el jabón, es fundamentalmente un agente surfactante, es decir, que actúa sobre la tensión superficial de un líquido disminuyéndola y permitiendo que se disuelvan en él sustancias comúnmente no solubles. Este ingenioso truco se consigue produciendo una molécula de dos extremos, uno de ellos que se une fácilmente al agua y se llama por ello hidrofílico, y otro extremo que rechaza el agua, o hidrofóbico y que puede disolver las moléculas de grasa. El resultado de poner este surfactante en agua es que el detergente atrapa la grasa y permite que se disuelva en agua, limpiando la superficie donde la grasa se encontraba, como un mantel o una camisa. Los detergentes biológicos contienen además enzimas que disuelven proteínas como, por ejemplo, las manchas de huevo o tomate.

La propiedad de disminuir la tensión superficial del agua no sólo sirve para limpiar objetos o prendas, sino que además es lo que permite que se hagan las pompas de jabón, inflándose sin romperse, a veces con resultados asombrosos como los de los expertos en pompología (o como se le pudiera llamar a esta disciplina). Por otra parte, la tensión superficial del agua es la que permite que algunos insectos corran sobre ella sin hundirse, pues distribuyen su peso de modo que no rompa lo que Dalí llamaría “la piel del agua”. Finalmente, la tensión superficial del agua es la responsable de que una caída al agua en posición paralela a su superficie pueda lastimarnos enormemente y, en palabras de la sabiduría popular “el agua sea como hormigón”.

Otro fenómeno aparentemente trivial que tiene una explicación compleja y que mantiene la atención de algunos científicos es el proceso de freír un humilde huevo. Las proteínas que forman la clara del huevo están formadas por largas cadenas de aminoácidos que se doblan en formas globulares tridimensionales fijadas por uniones químicas. Al calentarse, estas uniones se rompen, permitiendo que las proteínas se “desenreden”. Ya libres, las proteínas empiezan a unirse entre sí formando una gran red de proteínas interconectadas que se vuelven duras y toman un color blanco.

Hasta ahora se ha pensado que estas proteínas no pueden volver a su forma original o, en lenguaje de los físicos, “no se puede desfreír un huevo”. Pero una afirmación así es un desafío para cualquier científico curioso, y apenas este mes, los doctores Susan Linquist y John Glover, de la Universidad de Chicago informan de que han encontrado una proteína de choque de calor llamada Hsp104 que puede invertir este proceso. No se cree que haya un gran mercado para un desfreidor de huevos, siempre es más fácil sacar uno fresco de la nevera, pero el curioso desafío puede ser clave para entender muchos procesos en los que las proteínas se pliegan sobre sí mismas o se desenredan, como son el Alzheimer y la enfermedad de las vacas locas.

La explicación científica de lo que nos rodea, y los innumerables misterios que aún están esperando resolución, muchos de ellos ocultos en nuestra cocina o nuestra bañera, nos recuerda que la ciencia es una actividad eminentemente humana, que nos afecta en todo y que está, indudablemente, al alcance de cualquiera de nosotros.

Aprovechar la divulgación

En los últimos tiempos, los anaqueles de las librerías se han visto engalanados de modo creciente con títulos de divulgación científica de lo más diversos, escritos por matemáticos como John Allen Paulos o biólogos evolutivos como Richard Dawkins, o por periodistas especializados en la ciencia. Los 150 años de El origen de las especies de Darwin y los 400 años del telescopio de Galileo son una gran oportunidad para saber más sobre lo que erróneamente algunos piensan que no es para ellos.

La resistencia a los antibióticos

La aparición de las sustancias que combatían a diversos gémenes patógenos a principios del siglo XX fue una revolución de primer orden en la medicina, que hasta entonces era una práctica empírica, basada en teorías de la enfermedad nunca comprobadas.

Hasta el siglo XIX, en occidente y el mundo islámico prevalecía la teoría de Hipócrates de que el cuerpo estaba lleno de cuatro humores o  sustancias básicas, la sangre, la flema, la bilis amarilla y la bilis negra, y que la enfermedad era causada por “desequilibrios” en los humores. El objetivo del médico implicaba restablecer el equilibrio de los humores. De allí que la medicina precientífica recomendara con frecuencia extraer sangre a los pacientes, práctica que causó innumerables problemas y muertes.

Pasteur, al proponer que las enfermedades infecciosas son causadas por pequeños organismos, dio a la medicina su primera base científica, una teoría que podía comprobarse. Los organismos podían verse en el microscopio, se podía experimentar con ellos, se podían detectar en los pacientes y, finalmente, se les podía atacar. Esta teoría permitía además determinar cómo y por qué funcionaban algunos remedios tradicionales y empíricos, y por qué la mayoría de ellos no lo hacían.

La aparición de los antibióticos para combatir a los organismos causantes de enfermedades marcó la primera posibilidad de atacar enfermedades que habían sido un azote incesante. El primer antibiótico, la arsfenamina, lanzada en 1910 con el nombre de Salvarsán, se usaba contra la sífilis y la tripanosomiasis o “enfermedad del sueño”. En 1936 aparecieron las sulfonamidas o “sulfas”, más potentes, y en 1942 Alexander Fleming cambió el mundo con su descubrimiento de la penicilina.

Los antibióticos empezaron a ser utilizados intensamente por todas las personas que podían tener acceso a ellos, en ocasiones de modo excesivo y con gran frecuencia para intentar tratar enfermedades que no eran producidas por bacterias, en particular las afecciones respiratorias como las gripes, alergias y brotes de asma.

Esa utilización era, sin que nadie lo viera en el momento, una forma de provocar que las bacterias se adaptaran. Un cambio en el medio se convierte en lo que los biólogos evolutivos llaman una “presión de selección”, que favorece la reproducción de los individuos naturalmente más resistentes o mejor adaptados al cambio.

Cuando el medio se mantiene estable, las poblaciones adaptadas a él pueden vivir durante generaciones sin sufrir cambios de consideración. Cada individuo tiene, por su herencia o por la mutación de sus genes, predisposición a adaptarse mejor a distintas circunstancias. Pero si el medio no convierte esa predisposición en un beneficio para el individuo, éste no tendrá ventajar para sobrevivir. Es cuando cambia el medio que los organismos evolucionan... o desaparecen.

Así, lo que ha ocurrido es, ni más ni menos, un proceso de selección genética como el que hemos utilizado para crear, a partir de ancestros salvajes, a animales y cultivos domésticos como los cerdos, las ovejas, el trigo, el tomate, los caballos, las reses y los perros. Nosotros impusimos una regla de presión arbitraria (por ejemplo, hacemos que las vacas que dan más y mejor leche se reproduzcan y le negamos esa posibilidad a las malas productoras) y conseguimos animales especializados para sobrevivir y reproducirse en función de esas reglas: más leche, más carne, más huevos, más lana, más granos de mayor tamaño y más nutritivos, mejor sabor o compañía y lealtad.

Cuando el factor causante de la presión de selección también puede evolucionar, se establece lo que los biólogos llaman una “carrera armamentista”, una competencia donde el objetivo es mantenerse un paso por delante del adversario. El mejor ejemplo de esta carrera armamentista es la añeja competencia entre la gacela y el guepardo.

El guepardo ejerce presión para que sobrevivan mejor las gacelas más rápidas. Por ello mismo, las gacelas cada vez más rápidas ejercen presión para que el guepardo más veloz tenga mejores posibilidades de alimentarse que sus congéneres menos ágiles. Incesantemente tenemos gacelas y guepardos más rápidos, conviviendo en un delicado equilibrio.

Es lo que nos ha pasado con los organismos infecciosos.

Las primeras sustancias antibióticas como la penicilina, arrasaban las poblaciones de bacterias con enorme eficiencia, como siempre que un ejército cuenta con un arma revolucionaria. Pero al paso del tiempo, las bacterias que se salvaron y reprodujeron fueron siendo cada vez más y más resistentes a esas primeras sustancias. Uno de los patógenos más comunes, el estafilococo dorado, uno de los principales agentes de las infecciones hospitalarias tan temidas, fue el primero en el que se detectó la resistencia, apenas cuatro años después de empezar a utilizarse la penicilina.

La resistencia de los organismos patógenos nos presionó para producir antibióticos más potentes y eficaces. El estafilococo dorado ha sido atacado sucesivamente con distintas generaciones de antibióticos: meticilina, tetraciclina, eritromicina y, en la década de 1990, oxazolidinonas. En 2003 se encontraron las primeras cepas de estafilococo dorado resistentes a estos últimos antibióticos, y la carrera sigue.

Enfermedades que ya parecían erradicadas, como la tuberculosis, resurgen ahora fortalecidas con resistencia a diversos antibióticos. Las neumonías causadas por estreptococos, la salmonelosis y otras enfermedades nos exigen creatividad cada vez mayor para superar su resistencia a las armas que hemos creado contra sus causantes y salvar a sus víctimas.

Es imposible detener esta carrera entre nosotros y los microorganismos que nos enferman. Sólo podemos disminuir su vertiginoso ritmo. La recomendación continua de los médicos de llevar a su término los tratamientos con antibióticos (para eliminar a todos los agentes patógenos posibles) y de no tomar antibióticos sin necesidad (para no crear en nuestro sano organismo cepas resistentes de patógenos que viven en nosotros sin atacarnos) son las únicas formas que tenemos de aliviar las exigencias sobre los laboratorios donde se crean los antibióticos que salvarán vidas mañana.

Creacionismo y bacterias

Curiosamente, la resistencia inducida en los patógenos por la presión selectiva que imponen los antibióticos es una prueba más de las muchísimas existentes de que la evolución no sólo existe, sino que se comporta según lo descubrió Darwin hace 200 años. Por eso, dice el chiste, nadie es creacionista al usar antibióticos, pues sabe que las bacterias han evolucionado y lo recomendable es usar los antibióticos nuevos, no los antiguos.

Ver el universo visible e invisible

Telescopios del observatorio de Roque de los
Muchachos en La Palma de Gran Canaria.
(Foto de Bob Tubbs, Wikimedia Commons)
Hace 400 años, Galileo Galilei utilizó el telescopio, inventado un año antes probablemente por Hans Lippershey, para mirar a los cielos sobre Venecia, y cambió no sólo el mundo, sino todo el universo, al menos desde el punto de vista de la humanidad.

Los conceptos que el ser humano había desarrollado respecto del cosmos que lo rodea habían estado hasta entonces limitados únicamente por lo que se podía ver con el ojo desnudo en una noche despejada, lo que dejaba una enorme libertad para crear conceptos filosóficos que pudieran explicar las observaciones.

Las descripciones del cosmos cambiaban según la cultura y la época. Por ejemplo, para los indostanos, según el antiguo Rigveda, el universo vivía una eterna alternancia cíclica en la que se expandía y contraía, latiendo como un corazón. Esta idea se ajustaba a la creencia de que todo en el universo vive un ciclo permanente de nacimiento, muerte y renacimiento. Para los estoicos griegos, sin embargo, era una isla finita rodeada de un vacío infinito que sufría cambios constantes. Y para el filósofo griego Aristarco, la Tierra giraba sobre sí misma y alrededor del sol, conjunto rodeado por esferas celestiales que tienen como centro el sol, una visión heliocéntrica.

La cosmología que se había declarado oficialmente aceptada por el occidente cristiano era la de Claudio Ptolomeo, basada en el modelo de Aristóteles. En esta visión, el universo tiene como centro a nuestro planeta, inmóvil, rodeado por cuerpos celestiales perfectos que giran a su alrededor, y existe sin cambios para toda la eternidad.

Este modelo se ajustaba bien a la visión cristiana de la creación y el orden divino, y fue asumido como el aceptado en la Europa a la que Galileo sacudiría con su telescopio mediante el sencillísimo procedimiento de mirar hacia los cielos con el telescopio.

El telescopio de Galileo constaba simplemente de un tubo con dos lentes, una convexa en un extremo y una lente ocular cóncava por la que se miraba. Este telescopio se llamó “de refracción” precisamente porque refracta o redirige la luz para intensificarla y magnificarla. 59 años después, Newton erplanteaba el telescopio por medio de la reflexión de la luz, consiguiendo así un instrumento mucho más preciso.

Los telescopios de reflexión, o newtonianos, fueron la principal herramienta que tuvo la humanidad para la exploración del universo durante siglos. Permitió conocer mejor el sistema solar, ver más allá de él y comprender que ni la Tierra ni el Sol eran el centro del cosmos. La tecnología se ocupó de crear espejos cada vez más grandes y precisos para ver mejor y más lejos.

Pero hasta 1937, solamente podíamos percibir la luz visible del universo, un fragmento muy pequeño de lo que conocemos como el espectro electromagnético. En las longitudes de onda más pequeñas y de mayor frecuencia que el color violeta tenemos los rayos UV, los rayos X y los rayos gamma. En longitudes de onda más grandes que el color rojo y a frecuencias más bajas están la radiación infrarroja, las microondas y las ondas de radio.

En 1931, el físico estadounidense Karl Guthe Jansky descubrió que la Vía Láctea emitía ondas de radio, y en 1937 Grote Reber construyó el primer radiotelescopio, que era en realidad una gigantesca antena parabólica diseñada para recibir y amplificar ondas de radio provenientes del cosmos.

Lo que sobrevino entonces fue un estallido de información. El universo estaba animadamente activo en diversas frecuencias de radio, con fuentes de emisión hasta entonces desconocidas por todas partes. Surgían numerosísimos hechos que la cosmología tenía que estudiar para poder explicar.

Al descubrirse en 1964 la radiación de fondo de microondas cósmicas, empezaron a utilizarse los radiotelescopios para explorar el universo en esta frecuencia y longitud de onda. Si miramos el universo visible, el fondo es negro, sin luz, pero si lo miramos en la frecuencia de las microondas, hay un “resplandor” de microondas que es igual en todas direcciones y a cualquier distancia, asunto que resultó sorprendente.

El estudio del comportamiento del universo a nivel de microondas nos permitió saber que la radiación cósmica de fondo descubierta por Amo Penzias y Robert Wilson en 1964 era en realidad el “eco” del Big Bang, la gran explosión que dio origen al universo, y es una de las evidencias más convincentes de que nuestro cosmos tuvo un inicio hace alrededor de 13.800 millones de años.

Sin embargo, las microondas más cortas no pudieron ser estudiadas a fondo sino hasta 1989, cuando se puso en órbita el telescopio orbital Background Explorer. Las microondas más cortas son absorbidas por nuestra atmósfera, debilitándolas enormemente, mientras que en el espacio se las puede percibir y registrar con mucha mayor claridad.

La exploración espacial también permitió poner en órbita otros telescopios que detectaran niveles de radiación de los que nuestra atmósfera nos protege. Tal es el caso de los telescopios de rayos Gamma, que nos han permitido detectar misteriosas explosiones de rayos gamma que podrían ser indicación del surgimiento de agujeros negros por todo el universo.

Por su parte, los telescopios de rayos X también deben funcionar fuera de la atmósfera terrestre y nos informan de la actividad de numerosos cuerpos, como los agujeros negros, las estrellas binarias, y los restos de estrellas que hayan estallado formando una supernova.

El estudio del universo a nivel de rayos ultravioleta también debe hacerse desde órbita, mientras que los telescopios que estudian los rayos infrarrojos sí se pueden ubicar en la superficie del planeta, muchas veces utilizando los telescopios ópticos que siguen siendo utilizados por astrónomos profesionales y aficionados para conocer el universo visible.

Sin embargo, pese a la gran cantidad de información que los astrónomos obtienen de todo el espectro electromagnético, es lo visible lo que sigue capturando la atención del público en general. Cualquier explicación del universo palidece ante las extraordinarias imágenes que nos ha ofrecido el Hubble, que además de ver en frecuencia ultravioleta es, ante todo, un telescopio óptico. Liberado de la interferencia de la atmósfera, el Hubble nos ha dado no sólo información cosmológica de gran importancia para entender el universo... nos ha dado experiencias estéticas y emocionales profundas al mostrarnos cómo es nuestra gran casa cósmica.

Los telescopios espaciales europeos

Aunque el telescopio espacial Hubble es en realidad una colaboración entre la NASA y la agencia espacial europea ESA, Europa también tiene un programa propio de telescopios espaciales. Apenas en mayo, se lanzaron dos telescopios orbitales que pronto empezarán a ofrecer resultados, el Herschel, de infrarrojos, y el Planck, dedicado a las microondas de la radiación cósmica.

La barrera entre “las dos culturas”


Los medios de comunicación, la publicidad y el boca a boca de nuestros tiempos en ocasiones consagran supuestos peligros contra la salud que tal vez no merecen tanta atención.

El 7 de mayo de 1959, la tradicional “Conferencia Rede” iniciada en el siglo XVIII fue dictada en la Universidad de Cambridge por Charles Percy Snow, más conocido simplemente como C.P. Snow, novelista y físico, además de tener el título nobiliario de barón y declararse socialista.

Pese a que la Conferencia Rede había sido dictada por destacadísimas personalidades a lo largo de los años, entre ellos Richard Owen, Thomas Henry Huxley (que la utilizó para promover la teoría de la evolución de las especies) o Francis Galton, la conferencia de Snow disparó una controversia que, medio siglo después, sigue en vigor. Su título fue “Las dos culturas” y posteriormente se publicó en forma de libro como Las dos culturas y la revolución científica.

La idea esencial de la conferencia de Snow fue que existía una brecha relativamente nueva entre la cultura de la ciencia y la cultura humanística de la literatura y el arte. Para Snow, los intelectuales provenientes de las humanidades se rehúsan, en general, a entender la revolución industrial y la explosión de la ciencia, a la que temen y sobre la cual albergan graves sospechas. Por su parte, los científicos tendían a no preocuparse demasiado por la cultura literaria y el legado histórico.

Al reunir a personas de ambos mundos en actos sociales o de trabajo, lo que Snow observaba era una profunda incomprensión por ambos lados, como si los participantes fueran, en realidad, miembros de culturas humanas distintas, con distintos conjuntos de valores e, incluso, idiomas. Y esta división, en última instancia, no beneficia a nadie. Un ejemplo que Snow hallaba especialmente relevante era que no conocía a ningún escritor capaz de enunciar la segunda ley de la termodinámica (la que establece que la entropía en el universo va en aumento constante, lo que hace imposibles las máquinas de movimiento perpetuo). Como miembro de ambos mundos, científico y novelista, consideró que era su responsabilidad levantar la voz de alarma.

Y la voz de alarma disparó un debate que aún continúa sobre la exactitud de la visión de Snow, que probablemente pretendía más generar un debate que pusiera en acción las ideas que dar una visión acabada y dogmática. Y su triunfo se hace evidente en la perdurabilidad de su conferencia.

La mayoría de los escritores siguieron adelante creando novelas donde los avances científicos y tecnológicos se hacían presentes mucho más tarde que en el mundo real, generalmente mediante caricaturas imprecisas que popularizaron y eternizaron figuras como el “científico loco”, el “sabio distraído” y el “arrogante científico que se cree dios”. Como ejemplo, el primer ordenador interesante de la literatura de “corriente principal” fue Abulafia, propiedad del protagonista de la novela El péndulo de Foucault, de Umberto Eco.

Al paso de medio siglo, las dos culturas parecen no sólo seguir existiendo por separado, sino que a veces dan la idea de estar más alejadas entre sí de lo que estaban cuando C.P. Snow les puso nombre. Se espera que así como la gente se define (o es definida) como “católica o musulmana”, “europea o estadounidense”, o “del Madrid o del Barça”, sean “de ciencias o de letras”. La idea de una persona multidisciplinaria, que pueda comprender aspectos esenciales de la ciencia, así sea a nivel de divulgación, y que al mismo tiempo pueda disfrutar y crear en el mundo de las letras y las humanidades no está claramente contemplada en nuestro esquema educativo y nuestro mundo laboral. Es como si fuera impensable siquiera que alguien pueda vivir en esto que apreciamos como dos mundos cuando unidos son una sola cultura, la humana.

Quienes no tienen formación científica siguen desconfiando profundamente de la ciencia, de sus conocimientos y su método. Baste señalar la furia que muestran ciertos activistas cuando la ciencia no les da la razón. Por ejemplo, un estudio tras otro sobre la telefonía móvil determina que no parece haber efectos notables graves y estadísticamente significativos de las ondas de la telefonía móvil en las personas. Quienes creen que las antenas aumentan los casos de cáncer en una comunidad, no suelen preocuparse por realizar estudios estadísticos que demuestren si realmente han aumentado tales casos, pero sí exigen que los científicos les den la razón y, de no ser así, proceden a acusarlos de actuar no en nombre de los hechos, sino por dinero o malevolencia.

Lo mismo ocurre con algunas otras percepciones de grupos políticos, organizaciones de consumidores y otros colectivos, y con los periodistas y creadores artísticos que suelen apoyarlos con toda buena fe, aunque desencaminada.

La postura anticientífica y antitecnológica de ciertos sectores (no todos) del humanismo ha tenido como consecuencia algunas posiciones posmodernistas que pretenden que toda afirmación es un simple “discurso” social, y que todos los “discursos” son igualmente válidos, cerrando los ojos a la evidencia de que algunas afirmaciones se pueden probar objetivamente con independencia de quien las haga, como las leyes de la termodinámica.

Porque a la realidad le importan poco nuestras ideas y percepciones.

Y el hecho es que nuestro mundo está dominado por la ciencia y la tecnología. Los materiales que usamos, los diseños de los productos que consumimos, la medicina que incrementa nuestra calidad y cantidad de vida, incluso las soluciones a los problemas de destrucción del medio ambiente y alteración del equilibrio ecológico pasan por la aplicación humana, racional y ética del conocimiento científico y su método. No parece justo, ni razonable, que la mayor parte de la humanidad viva sin tener una idea de cómo se hace cuanto la rodea.

La forma de unir las dos culturas en una sola pasa por la reestructuración de nuestro sistema educativo, del concepto mismo de educación. Más allá de formar para el mercado laboral, la tarea de educar para vivir exige que enseñemos ciencia a los futuros periodistas, escritores y abogados con el mismo entusiasmo que dedicamos a intentar que nuestros futuros físicos y biomédicos sepan apreciar a Cervantes y a Velázquez, y escribir sin faltas de ortografía.

El precio a pagar, si no lo hacemos, puede ser elevadísimo.


La ciencia ficción y Snow


Los escritores de ciencia ficción en todo el mundo sintieron que la conferencia de Snow era la gran reivindicación de sus esfuerzos por utilizar el conocimiento y el método científico en la creación de ficciones literarias, especialmente en la década de 1960, cuando la exclusión de la ciencia ficción de la idea de “gran literatura” y “gran cine” era aún más acusada que en la actualidad.


Toxinas: riesgos y mitos

Los medios de comunicación, la publicidad y el boca a boca de nuestros tiempos en ocasiones consagran supuestos peligros contra la salud que tal vez no merecen tanta atención.

El veneno de la cobra (Naja naja) es una
potente toxina real.
(Foto CC-BY-2.5 de Saleem Hameed
via Wikimedia Commons)
La mordida de una víbora de cascabel, el envenenamiento por botulismo y el asesinato de un opositor búlgaro con una bola de metal impregnada en ricina y rocambolescamente disparada por un agente secreto mediante un paraguas tienen en común el que las sustancias activas que dañan a sus víctimas son, todas, producto de la actividad biológica, venenos hechos por seres vivos.

Una gran cantidad de los innumerables compuestos químicos que se encuentran a nuestro alrededor pueden alterar de modo perjudicial la actividad de nuestro cuerpo a nivel químico si los absorbemos en cantidades suficientes, son los venenos. Cuando el veneno es producido por un ser vivo, se llama “toxina”.

En sentido estricto, las toxinas son pequeñas moléculas, péptidos o proteínas producidas por acción biológica que causan daños concretos en la víctima. Una gran cantidad de seres vivos producen toxinas para su defensa o para cazar, o como resultado de sus procesos digestivos en forma de desechos y dichas toxinas pueden ser de una enorme potencia y de una refinada capacidad para atacar los órganos o procesos vitales esenciales de las víctimas.

Así, por ejemplo, la familia de las neurotoxinas ataca a la víctima alterando de manera radical el funcionamiento de su sistema nervioso. El temido tétanos, provocado por la bacteria anaerobia Clostridium tetani, es resultado de una toxina similar a la estricnina que produce esta bacteria como resultado de su actividad metabólica: la exotoxina tetanopasmina. Cuando esta toxina llega a las neuronas motoras del sistema nervioso central, inhibe o impide que produzcan algunas sustancias neurotransmisoras, lo que lleva a las temidas contracciones musculares y la parálisis que conducen a la muerte de la víctima.

De modo sorprendente, la más letal de todas las toxinas conocidas es una neurotoxina producida no por un insecto o reptil venenoso, sino por dos familias de diminutas ranas centro y sudamericanas de brillantes colores, las Phyllobates y Dendrobates, especialmente la llamada “dardo venenoso” o Phyllobates terribilis, de apenas 5 cm. La rana dardo lleva consigo aproximadamente 1 miligramo, que bastaría para matar a entre 10 y 20 seres humanos o dos elefantes machos africanos.

Existen igualmente toxinas que atacan a la sangre, impidiendo su coagulación, y destruyendo la piel, toxinas que provocan intensos dolores, las que provocan necrosis o muerte de tejidos, otras que aceleran el pulso y la presión arterial provocando asfixia, las que atacan al corazón paralizándolo y otras varias. Cada una de estas características identifica algunas de las toxinas que conocemos en el mundo viviente, desde el veneno de las abejas hasta la toxina que puede matar a quienes disfrutan de sushi preparado con el temido pez globo o quienes inadvertidamente comen una seta tóxica como la temida y mortal Amanita phalloides.

La primera línea de batalla contra las toxinas pasa por el propio cuerpo de la víctima. La acción enzimática del hígado, en nuestro caso, puede destruir, y de hecho lo hace, muchas toxinas antes de que puedan causarnos daños.

En otros casos, es necesario aplicar antitoxinas, que son anticuerpos producidos masivamente, como ocurre con los los anticrotálicos, que neutralizan el veneno de las víboras de cascabel. Se trata, en este caso, de una inmunoglobulina obtenida de suero de caballos a los que se les aplican dosis crecientes pero no perjudiciales de veneno de víbora de cascabel de modo que generen anticuerpos en grandes cantidades.

Los anticuerpos producidos en laboratorio se pueden emplear, igualmente, para generar en nosotros una inmunidad preventiva a ciertas toxinas, como en el caso de la toxina antitetánica, algo especialmente importante cuando, como ocurre con el tétanos, no existe una antitoxina para combatirlo una vez que se ha manifestado en el organismo, de modo que esta afección, como el botulismo, son ineludiblemente mortales.

La preocupación genuina por el riesgo que presentan las verdaderas toxinas, los venenos de origen viviente que conocemos, cuya estructura química podemos describir, cuya acción en nuestro organismo es conocida y cuya prevención o cura en muchos casos se ha podido desarrollar, no resulta sin embargo útil en el caso de otras toxinas más o menos misteriosas.

Los medios de comunicación, la publicidad y el boca a boca hablan con frecuencia de “toxinas” que nos amenazan y que incluso pueden acumularse en nuestro cuerpo con funestas consecuencias. Esta afirmación se encuentra, con gran frecuencia, entre los practicantes o comerciantes de diversas prácticas pseudomédicas llamadas en general “medicinas alternativas”.

Estas prácticas consideran que hay sustancias tóxicas que nuestro organismo, por alguna deficiencia no especificada, no puede eliminar y que nos ponen en grave riesgo. Por ello, recomiendan la “desintoxicación” frecuente con una serie de prácticas que van desde lo inocuo hasta lo altamente peligroso, desde la ingestión de productos hasta la práctica de violentas lavativas rebautizadas como “hidroterapia del colon”.

Sin embargo, los practicantes de estas disciplinas nunca han podido caracterizar dichas toxinas, es decir, no pueden informar dónde se encuentran, qué composición química tienen, cómo se originan, cómo se acumulan, cómo sabemos que una persona las ha acumulado o no y, mucho menos, pueden demostrar cómo las prácticas que recomiendan pudieran, efectivamente, obligar a nuestro organismo a finalmente eliminarlas.

La fisiología y la medicina nos dicen que nuestro cuerpo tiene sistemas sumamente eficaces para descartar sus desechos, desde las enzimas hepáticas hasta el sistema urinario y digestivo. Del mismo modo, nos ha demostrado que nadie acumula toxinas ni desechos salvo en casos médicamente relevantes como la diverticulitis intestinal. Quizá, entonces, valga la pena ser escépticos con quienes nos ofrecen vendernos productos, manipulaciones o sistemas más o menos mágicos para eliminar “toxinas” que ni siquiera pueden demostrar que estén allí. Si estuvieran, ciertamente nos enteraríamos con síntomas más allá de sentirnos nostálgicos e incómodos.


Las toxinas benéficas

Como en el caso de todos los venenos, una toxina no lo es a menos que exista en la cantidad o concentración suficiente para causar daño. La utilización controlada, médicamente comprobada y cuidadosamente supervisada de muchas toxinas es fuente de notables beneficios médicos, desde el uso de hemotoxinas para disminuir el índice de coagulación de la sangre hasta, más frívolamenet, la toxina botulínica usada en mínimas concentraciones para paralizar los músculos faciales, evitar arrugas y verse más joven.

El pequeño brasileño que volaba

Revista "Niva" vía Wikimedia Commons

Un improbable pionero de la aviación fue un rico heredero cafetalero brasileño que combinó de modo singular el ingenio mecánico, la generosidad y el idealismo.

Eran las 4 de la tarde en el campo aéreo de Bagatelle, París, el 23 de octubre de 1906. Un nutrido grupo de testigos vio algo que nadie nunca había visto: el despegue, vuelo y aterrizaje de una máquina más pesada que el aire, un avión, llamado simplemente el 14-bis por su diseñador, constructor y piloto, el joven brasileño Alberto Santos Dumont. Con su vuelo de 60 metros, ganaba el premio Archdeacon, instituido en julio de ese mismo año para el primer aviador que volara más de 25 metros.

Alberto Santos-Dumont era un extraño candidato al papel de “padre de la aviación”, como se le llama en Brasil. Nacido en 1873 en la plantación de café de su familia, era el sexto de ocho hijos de Francisca dos Santos y Henri Dumont, exitoso emigrante francés que llegó a ser el “rey del café” en Brasil, en parte gracias a su utilización extensiva de la tecnología de su época, máquinas que fascinaron a Alberto en su niñez.

En 1891 toda la familia emigró a Francia, y el joven pudo estudiar química, física, astronomía y mecánica. Pronto se encontró inventando motores y corriendo triciclos motorizados para luego ocuparse del gran desafío de la aeronáutica, que en aquél entonces constaba de ascensos en globos de aire caliente que, como los actuales, eran llevados a capricho por los vientos, sin que el ocupante pudiera dirigirlos en modo alguno. Alberto aprendió a construirlos y tripularlos.

Su primer ascenso en un globo creado por él fue el 4 de julio de 1898. Poco después, con su segundo globo, el “América”, ganó un premio para estudiar las corrientes atmosféricas. Muy pronto, sin embargo, se ocupó entonces del problema de dirigir al globo, y su tercer dirigible, el “Santos Dumont nº. 3”, consiguió el 13 de noviembre de 1890 sobrevolar París, dar algunas vueltas alrededor de la Torre Eiffel y dirigirse al campo aéreo de Bagatelle, donde logró aterrizar sin problemas.

El 19 de octubre de 1901, en su dirigible nº. 6, Santos Dumont ganó el premio Deutsch del Aero Club de París, que incluía 100.000 francos en efectivo. El hijo de una acaudalada familia francobrasileña, un heredero de alcurnia, procedió a repartir todo el premio entre los trabajadores de su fábrica-taller y entre los pordioseros de París. Esta munificencia sería una característica constante de su esfuerzo.

Santos Dumont abordó entonces el problema más desafiante del momento, el vuelo con una máquina autopropulsada más pesada que el aire. Era evidente que objetos más pesados que el aire podían volar, como lo demostraban todas las aves, el asunto era cómo resolver las muchas dificultades simultáneas del vuelo: crear un aparato lo bastante ligero y resistente que se pudiera propulsar, que lograra el empuje suficiente para sustentarlo en el aire, que se pudiera mantener en equilibrio dinámico durante el vuelo y que pudiera ser dirigido por su piloto. Y eran muchos los mecánicos, ingenieros, inventores y simples soñadores que trabajaban en el problema en todo el mundo.

Para el público parisino que vio al 14-bis volar el 23 de octubre de 1906, se trataba con certeza del primer avión exitoso del mundo, una máquina de unos 170 kilogramos capaz de volar. La controversia vendría después, cuando los hermanos Wilbur y Orville Wright informaron en 1908 que habían realizado un primer vuelo secreto en 1903, seguido de exhibiciones ante un reducido público en Kittyhawk, pruebas como las realizadas por Santos Dumont en septiembre de 1906. El debate continúa hasta hoy, aunque realmente no es importante saber quién fue el primero, ya que tanto los Wright como Santos Dumont resolvieron de modo independiente el problema del vuelo con aparatos más pesados que el aire, y resultan igualmente pioneros.

El 14-bis haría algunos vuelos más, pero su diseño de biplano con la cola al frente y las alas detrás, llamado “canard” o pato, carecía de futuro, y Santos Dumont se replanteó la forma y aerodinámica de su invento, creando el 15-bis experimental que nunca voló. Procedió entonces a diseñar un avión monoplano, y el resultado final fue el Demoiselle, palabra francesa que significa tanto libélula como damisela. Se trataba de un aeroplano veloz y pequeño que se considera el primer avión ligero práctico. Su éxito se multiplicó cuando Santos Dumont, en actitud característica, obsequió los planos al dominio público para que se reprodujeran sin restricciones, estimulando a los jóvenes aviadores en todo el mundo. El avión podía construirse totalmente en sólo 125 días.

En total, entre 1908 y 1910, Alberto Santos Dumont diseñó 4 modelos del Demoiselle, numerados 19, 20, 21 y 22. Sin embargo, el aviador de cuerpo poco atlético, con su estatura de un metro cincuenta y un peso de apenas 45 kilogramos, fue diagnosticado con esclerosis múltiple poco después de su último vuelo, el 4 de enero de 1910, y se retiró de la aviación, dejando París en 1911 y volviendo a Brasil en 1916, a la ciudad de Petrópolis. Allí construyó una casa “La encantada”, con numerosos dispositivos y adminículos diseñados por él mismo, además de que seguiría produciendo pequeños inventos, como un motor para ayudar a los esquiadores a ascender.

Sin embargo, el hombre que repartía sus premios y regalaba planos que tenían un gran valor como propiedad intelectual se vio sumido en la depresión por su enfermedad y por el hecho de que “su invento”, el avión que esperaba que anunciara una nueva era de tecnología y prosperidad para la humanidad, se había convertido en un arma y se había utilizado para ocasionar muerte y destrucción en la guerra. En 1926 apeló a la Sociedad de las Naciones para que se impidiera el uso de los aviones como armas de guerra, con poco éxito. Se convirtió en un hombre sin residencia fija, viajando por Europa y volviendo con frecuencia a Brasil.

En su último viaje a su país natal, en Guarujá, el 23 de junio de 1932 Alberto Santos Dumont vio a los aviones de guerra que volaban para atacar Sao Paulo durante la revolución constitucionalista contra el gobierno de Getulio Vargas. Sin decir nada, esa misma tarde puso fin a su vida ahorcándose.

La huella de Santos Dumont

La ciudad y municipio de Palmira, en el estado brasileño de Minas Gerais donde nació el aviador fue rebautizado como Santos Dumont el 1º de julio de 1932, y hoy alberga un museo en honor del pionero. “Santos Dumont” es también el nombre de un cráter lunar, del aeropuerto de vuelos nacionales de Rio de Janeiro, de una universidad y un grupo de escuelas, de un premio de periodismo aeronáutico y el avión presidencial oficial brasileño, además de numerosas calles, plazas, escuelas y monumentos que perpetúan el recuerdo del pequeño brasileño que voló.

El lugar de todos los libros

Bibliotheca Alexandrina, la heredera
de la gran biblioteca perdida.
(D.P. vía Wikimedia Commons)
Los monarcas griegos de Egipto intentaron reunir la sabiduría del mundo conocido en un solo lugar, la biblioteca de Alejandría, un sueño que antecedió a Internet.

Una de las conquistas más duraderas de Alejandro Magno fue la de Egipto, realizada al inicio de su carrera entre el 332 y el 331 antes de la Era Común. Alejandro fue visto por los egipcios como su liberador, pues estaban entonces, por segunda vez, bajo el dominio persa, y los sacerdotes lo exaltaron como Amo del Universo e Hijo de Zeus. Alejandro fundó entonces la primera, y más famosa, de las ciudades que llamaría Alejandría, en la costa mediterránea de Egipto.

Al morir Alejandro en Babilonia, su amigo y general Tolomeo, uno de sus siete guardaespaldas, llevó su cuerpo hasta Alejandría para enterrarlo en un sitio hoy desconocido y asumir el poder, que reclamó como resultado de la partición del imperio de su amigo, emprendiendo la consolidación de su poder en el reino y situando su capital en Alejandría, que vio como epicentro de la cultura helénica. Lograda la estabilidad politica como, el ahora faraón Tolomeo I Soter se ocupó de patrocinar las artes, las letras y las ciencias, y fundó una de las instituciones más ambiciosas de la historia, la Gran Biblioteca de Alejandría.

Aún si Tolomeo no fue, como creen algunos estudiosos, alumno de Aristóteles en su infancia con Alejandro,  la influencia del filósofo estuvo presente cuando la organización de la biblioteca se le encargó a Demetrio de Falerón, que la comenzó, según la leyenda, con sus propios libros traídos de Atenas, pero que contaba además con un enorme presupuesto y una misión: reunir todos en esta institución todos los libros de la tierra mediante compras y transcripciones. "Los Tolomeos deseaban que su Biblioteca fuera universal. No sólo debía contener lo fundamental del saber griego, sino escritos de todos los países, que luego habían de ser traducidos al griego” afirma Mostafá El-Abbadi, de la Universidad de Alejandría.

Construida, dicen las crónicas, al estilo del Liceo de Aristóteles, y situada junto al Musaeum o museo, la casa de las musas, dentro del palacio real, la Gran Biblioteca tenía jardínes para pasear, un comedor común, un salón de lectura, salas de conferencias y salas de reuniones, además de espacios para las adquisiciones, transcripciones y traducciones. No se trataba únicamente de un sitio de acumulación de conocimiento, sino que fue además un centro de investigaciones sostenido generosamente por la dinastía tolemaica, que sería la última del imperio egipcio terminando con Cleopatra. La Biblioteca de Alejandría producía continuamente nuevos trabajos. Entre los primeros se encuentra la Geometría de Euclides, matemático que estuvo directamente bajo la protección de Tolomeo I.

Desde su concepción, y durante los tres siglos de su crecimiento incesante, la Biblioteca de Alejandría capturó la imaginación y el entusiasmo de sus coetáneos, además de ser un elemento relevante en la economía alejandrina. Dice Wallace Matson, profesor emérito de filosofía de la Universidad de Berkeley: “La biblioteca atraía a tantos académicos visitantes que alimentarlos y alojarlos se convirtió en una importante industria alejandrina. Se proporcionaban servicios de copiado de modo que la biblioteca era de hecho, también, una editorial. De esta forma, la difusión del aprendizaje recibió una gran ayuda”.

Uno de los personajes más relevantes relacionados con la biblioteca, que ha aparecido frecuentemente en obras de ficción y que llevó a la atención pública la serie Cosmos de Carl Sagan, es ahora protagonista de la película Ágora de Alejandro Amenábar. Se trata de Hipatia de Alejandría, la sabia griega que vivió en el Egipto bajo la dominación romana entre el siglo IV y V de nuestra era. Hipatia destacó en matemáticas, astronomía y filosofía, encabezando la escuela de Platón y de Plotino en la ciudad.

Aunque Hipatia trabajó en la biblioteca, hay dudas fundadas de que fuera, como algunos afirman, su última bibliotecaria. Pero fue sin duda la encarnación del espíritu de la biblioteca, de la libre investigación, de la participación amplia en la cultura y de la capacidad multidisciplinaria, como comentarista de obras científicas, cartógrafa estelar e del hidrómetro, que se usa para determinar la densidad y gravedad relativa de los líquidos. El asesinato de la pagana Hipatia a manos de una turba cristiana que la acusaba de un problema político entre el prefecto y el obispo de Alejandría, es considerada además por algunos historiadores el fin del helenismo.

El gran misterio que dejó la biblioteca fue la historia real de su final. A lo largo de la historia, varios personajes han sido señalados como sucesivos destructores de la biblioteca, empezando por Julio César, que según Plutarco incendió la gran biblioteca accidentalmente al quemar dos de sus embarcaciones en su conquista de Egipto en el 48 a.E.C. Ciertamente esto no destruyó la biblioteca, que siguió existiendo varios siglos. Aureliano, que atacó la ciudad en el siglo III de nuestra era ha sido señalado como saqueador que llevó parte de la biblioteca a Constantinopla. En el 391, el emperador cristiano Teodosio ordenó destruir todos los templos paganos, y al parecer la biblioteca sufrió por ella.

El ya citado El-Abbadi afirma que la última referencia conocida de la biblioteca de Alejandría fue de Sinesio de Cirene, uno de los alumnos de Hipatia. Aún así, la leyenda atribuye también el fin de la biblioteca a la conquista de la ciudad por Amr ibn al ‘Aas en el año 642.

Pero ése no fue el fin.

Además de los esfuerzos por crear bibliotecas digitales en Internet como la Europeana o la Biblioteca Digital Mundial, en 2002 se inauguró en Alejandría la Bibliotheca Alexandrina, un proyecto cultural de la Universidad de Alejandría con apoyo de la UNESCO. La nueva biblioteca que pretende seguir la tradición de la fundada por Tolomeo tiene 11 niveles con espacio para ocho millones de libros, un centro de conferencias, bibliotecas especializadas para ciegos, jóvenes y niños, tres museos, cuatro galerías de arte, un planetario y, de modo muy pertinente, un laboratorio de restauración de manuscritos. Los libros que tiene han sido donados por países de todo el mundo, convirtiéndose en expresión del legado de Alejandro Magno y Tolomeo en el siglo XXI.


Las primeras bibliotecas

Originadas en Egipto alrededor del 2000 a.E.C., las bibliotecas fueron la institución científica por excelencia del mundo antiguo. Antes del 1000 a.E.C. la biblioteca de la capital de los hititas contaba con tabletas en ocho idiomas, y la biblioteca de Nínive, 400 años después, contenía desde poesía hasta libros para estudiar gramática. Se presume que tanto la Academia de Platón como el Liceo de Aristóteles tenían bibliotecas.

Las vacunas, su realidad y sus expectativas

Una de las acciones más sencillas para mejorar la salud individual y social tiene su origen en antiguas prácticas empíricas reelaboradas por la ciencia.

Vacunación contra la poliomielitis en
la India. Los bajos niveles de
vacunación son responsables de que
la polio siga siendo endémica
en ese país.
(Foto D.P. vía Wikimedia Commons)
En cuanto se supo de la aparición de una nueva cepa del virus de la gripe N1H1, las primeras preguntas que se plantearon en los medios de comunicación fueron sobre las vacunas: ¿la vacuna de gripe de este año protegía contra este virus?, ¿había vacuna? y, si no,¿la habría pronto y en cantidad suficiente?

Pocos avances de la medicina han tenido un efecto tan contundente en la sociedad y la historia como las vacunas, y por ello son fuente de esperanzas a veces excesivas por un lado y, por otro, objeto de ataques de quienes combaten a la medicina basada en evidencias y en cambio promueven distintas formas de curanderismo mágico.

El principio de la vacunación era ya conocido desde al menos el año 200 antes de la era común, en China e India, para evitar la viruela, aunque su mecanismo seguía siendo un misterio. La sistematización del conocimiento sobre las vacunas tuvo que esperar, sin embargo a que el médico rural inglés Edward Jenner abordara el problema a fines del siglo XVIII.

Entonces, la viruela era un grave problema de salud, era endémica en casi todo el mundo, y sólo en Europa se cobraba alrededor de 400.000 vidas al año. Para prevenirla, con un sistema venido de oriente, el holandés Jan Ingehaus inoculaba a personas sanas con sustancias de las pústulas de pacientes que sufrían casos poco intensos de viruela, lo cual los hacía inmunes a la viruela, pero muchos de los inoculados fallecían al ser infectados por la enfermedad con toda su fuerza.

Edward Jenner observó durante una epidemia en 1788 que pacientes suyos que habían sufrido una enfermedad mucho más ligera llamada vaccinia, que se contagiaba por el contacto con el ganado, no eran atacados por la viruela, y decidió hacer un experimento para comprobar si había una relación causa-efecto. En 1796, tomó líquido de las pústulas de una granjera aquejada de vaccinia y consiguió permiso de un granjero para inocular a su hijo contra la viruela. El joven recibió la inoculación de vaccinia y sufrió levemente la afección. Después, para probar la teoría de Jenner y en un experimento enormemente arriesgado, Jenner le inoculó viruela.

El joven no sufrió la enfermedad, demostrando que la vaccinia inmunizaba contra la viruela. En 1789, el año de la Revolución Francesa, Jenner hizo su propia revolución publicando su investigación sobre lo que llamó “vacuna”. No se sabía en ese momento que un microorganismo era el responsable de la enfermedad, pero ya se tenía una forma adecuada, eficaz y segura de evitarla.

La vacunación, en pocas palabras, implica administrar material capaz de generar una respuesta inmune (antígeno) para estimular el sistema inmune de un organismo. Pueden ser bacterias o virus patógenos debilitados, muertos o desactivados de alguna forma, o incluso sólo proteínas procedentes de ellos. El cuerpo vacunado produce anticuerpos para combatir tales antígenos y queda por tanto en condiciones de combatir exitosamente a los organismos patógenos si llega a verse atacado por ellos. Se puede decir que la vacuna “enseña” a nuestro cuerpo cómo es un microorganismo enemigo, sus características esenciales, antes de que lo ataque.

Las técnicas de vacunación se ampliaron enormemente con el trabajo de Louis Pasteur, que fue además el primero que comprendió cómo funcionaban, al enunciar la teoría de los gérmenes patógenos como responsables de muchas enfermedades antes atribuidas a entes inexistentes como los “humores” o la “fuerza vital”. Por primera vez, una teoría de la enfermedad era científicamente demostrable, replicable y permitía una serie de acciones terapéuticas eficaces basadas en conocimientos precisos.

La vacunación es la forma más barata, eficaz y sencilla de proteger a grandes poblaciones contra ciertas enfermedades, motivo por el cual prácticamente todos los gobiernos mantienen políticas de vacunación obligatoria para mejorar la sanidad pública y evitar las epidemias del pasado. La viruela fue la primera enfermedad erradicada por medio de la vacunación, a través de un amplísimo esfuerzo coordinado por la Organización Mundial de Salud en todo el planeta. El último caso de viruela en condiciones naturales ocurrió en Somalia en 1977. El segundo objetivo de la OMS fue la poliomielitis, que está próxima a ser totalmente erradicada, y se espera que el tercer objetivo sea el sarampión.

La obligatoriedad de las vacunas para ser eficaces ha provocado, sin embargo, reacciones políticas y sociales que, con frecuencia, acuden a la desinformación. La idea de que toda acción gubernamental es rechazable hace que pase a segundo plano el valor médico de ciertas acciones. Se ha afirmado que las vacunas “no sirven”, pese a la realidad de la erradicación de la viruela, y se ha llegado a sugerir, sin bases científicas, que pueden causar enfermedades en los niños. El que muchos de estos ataques provengan de grupos con claros intereses políticos no hace, sin embargo, que los medios sean más cuidadosos en su valoración del mensaje.

El Dr. Ben Goldacre, autor de la columna “Bad Science” del diario británico The Guardian recuerda cómo, con base en un solo estudio con graves fallos metodológicos y a contracorriente de docenas de estudios que concluían lo contrario, en Inglaterra se desarrolló una campaña de pánico contra la triple vacuna, dando como consecuencia la caída en el porcentaje de niños británicos vacunados y el resurgimiento de las afecciones. Hoy Gran Bretaña sufre un aumento alarmante de casos de sarampión entre niños no vacunados, y en 2005 el país sufrió su primera epidemia de paperas en muchos años. Quienes han disfrutado las ventajas de las vacunas quizá ya no recuerdan que tanto el sarampión como las paperas son, en un porcentaje de casos, afecciones muy graves e incluso mortales.

Evidentemente, lo ideal sería que las discusiones sobre acciones de salud se centraran en la evidencia médica a favor y en contra de ellas, evidencia que sólo puede surgir de los trabajos de investigación y nunca de la presión política o la promoción de la desconfianza y el temor entre la población.

Grandes expectativas


Buena parte del futuro de la salud humana depende de vacunas potenciales sobre las que se está trabajando, especialmente contra la malaria, afección que mata a casi 3 millones de personas al año, principalmente niños del Tercer mundo, y contra el VIH, causante del SIDA y una de las principales causas de muerte en África. Ambas vacunas presentan dificultades técnicas que no tuvieron otras vacunas. La del VIH, por ejemplo, enfrenta una gran variabilidad en las sustancias determinantes de la actividad antigénica de este virus, y de la gran variabilidad genética del propio virus.


Sesgos cognitivos: cuando pensamos rápido y mal

El primer paso para dejar de ser irracional es darnos cuenta de que somos, muchas veces, profundamente irracionales, como lo demuestran nuestros sesgos cognitivos.

Nuestro cerebro da credibilidad a un
entrenador de fútbol como experto
en colesterol debido al "efecto halo".
“La primera impresión es la que cuenta.” Esta frase, habitual en libros de autoayuda, cursillos de formación para comerciales y cátedras de relaciones públicas, resultó ser, intuitivamente, lo que hoy sabemos que es verdad científica: nuestra primera percepción de una persona afecta nuestro juicio general sobre ella, con frecuencia llevándonos a cometer errores de juicio que pueden ser graves. A esto se le conoce como el “efecto halo”, porque trasladamos las características positivas o negativas de parte de la personalidad de alguien a otras partes.

Un ejemplo claro de este “efecto halo” es el de las personas a las que, por ser famosos, bien parecidos o buenos actores, les damos credibilidad en áreas que nada tienen que ver con ello. ¿Acaso los deportistas son expertos en maquinillas de afeitar, los actores saben mucho sobre cafeteras o las presentadoras atractivas tienen un conocimiento singular sobre muebles? Sabemos que no, y sin embargo gran parte de la publicidad está basada en que nosotros, por la forma en que están predeterminados nuestros procesos de pensamiento, vamos a ver positivamente las opiniones de tales personalidades de un modo totalmente irracional.

El reciente caso de la cantante escocesa Susan Boyle es un buen ejemplo del efecto halo en lo negativo. El aspecto de la mujer hizo que el público inmediata e irracionalmente concluyera que debía tener una voz horrible, o que no sabría cantar, aunque si lo pensamos un momento es evidente que la capacidad de cantar y la posesión de una voz hermosa no tienen nada que ver con el aspecto o la educación de una persona. De ahí que la reacción del público ante la buena interpretación de Susan Boyle se convirtiera en un acontecimiento mundial.

Es fácil decir que no se debe juzgar un libro por su portada, pero en realidad no podemos evitar hacerlo. El efecto halo es uno de los muchos sesgos cognitivos identificados por la psicología científica. Tales sesgos cognitivos son como atajos para la emisión de juicios que utiliza nuestro cerebro para asumir una posición rápida ante ciertos estímulos, problemas o situaciones, pero que nos pueden conducir a errores que pueden ser graves. La psicología cognitiva estudia las estrategias y estructuras que utilizamos para pensar, para manejar la información, y ha identificado una gran cantidad de ellos, con frecuencia relacionados entre sí.

Así, por ejemplo, el sesgo de confirmación, o de prejuicio, es la tendencia que tenemos de buscar hechos que confirmen nuestros prejuicios, o interpretar los hechos que tenemos a mano con el mismo fin. Así, por ejemplo, el racista verá todo comportamiento reprobable de un miembro del grupo que odia como una confirmación de sus prejuicios, cerrando los ojos al mismo tiempo a evidencias que vayan contra ellos, por ejemplo, los comportamientos admirables del grupo objeto de su rechazo o los comportamientos reprobables de su propio grupo.

Por su parte, el sesgo de la ilusión de control se encuentra detrás de muchas supersticiones y comportamientos irracionales. Se trata de la tendencia que tenemos a creer que podemos controlar ciertos acontecimientos, o influir en ellos, cuando racionalmente es evidente que tal control es imposible. Así, creamos rituales y supersticiones que nos dan cierta seguridad, como los deportistas que repiten ciertas conductas esperando que condicionen cosas como su capacidad de marcar goles, que evidentemente depende de muchos otros factores objetivos.

Es imposible resumir las docenas de sesgos cognitivos que la psicología ha identificado por medio de experimentos que, por otra parte, son frecuentemente notables por el ingenio que han empeñado los experimentadores para que los sujetos no sean conscientes del tipo de estudio al que se les somete, pero hay uno que sin duda tiene una gran influencia en nuestra vida cotidiana en lo individual, lo familiar y lo social, el sesgo llamado heurística de disponibilidad. La heurística es la forma que tenemos de buscar soluciones mediante métodos no rigurosos, como el tanteo o las reglas empíricas, nos dice el diccionario de la RAE.

La heurística de disponibilidad es el sesgo que implica utilizar como elemento de juicio el dato más disponible en nuestra memoria debido a su impacto, a ser reciente o a alguna otra causa. Por ejemplo, si un amigo nos cuenta que ha tenido un problema grave con un automóvil de una marca, es frecuente que concluyamos que todos los automóviles de esa marca son poco fiables, cuando el problema podría ser simplemente de ese vehículo en particular, o de los malos hábitos de conducción de nuestro amigo.

Otro caso claro de heurística de disponibilidad se presenta cuando notamos y damos especial importancia a un suceso poco frecuente. Así, si pensamos en alguien y en ese momento nos llama por teléfono, podemos concluir que ha habido un fenómeno telepático, porque el hecho es impactante, sin pensar en los miles y miles de veces que suena el teléfono sin que tengamos idea de quién llama, y menos aún sin calcular las probabilidades de que un número determinado de ocasiones en la vida ocurrirá inevitablemente que pensemos en una persona en el momento en que nos llama.

Conocer los sesgos cognitivos, saber que nuestro cerebro, por la forma en que ha evolucionado, acudirá a ellos para hacer juicios que pueden ser profundamente irracionales, no es sólo un área de estudio de la psicología. Estar conscientes de estas limitaciones nos sirve también para realizar un esfuerzo consciente por ser racionales en ciertos casos y compensar los sesgos cognitivos que tenemos.

Ciertamente, en la sabana, cuando nuestra especie tenía fundamentalmente el destino de ser alimento de sus depredadores, una decisión rápida tomada con base en muy pocos datos tenía un gran valor de supervivencia. No había ni tiempo ni forma de analizar a fondo la situación cuando un tigre dientes de sable nos pisaba los talones. Pero hoy, cuando el hombre puede alterar profundamente su realidad, a su planeta, su vida y su futuro, no nos podemos dar el lujo, al menos en ciertas decisiones importantes, de actuar sin valorar todos los elementos y sin utilizar cuidadosamente la razón.

La memoria sesgada

El hombre siempre ha confiado en su memoria, pero hoy sabemos que, también, nuestra memoria está sujeta a sesgos y fallos que hacen que no debamos siempre fiarnos de ella. Las falsas memorias, que durante un tiempo se consideraron un mito, y otros errores de memoria, son hoy tenidas en cuenta sobre todo por los tribunales, en juicios donde el recuerdo de las personas y su testimonio puede afectar profundamente la vida de otros.


Un recuerdo de Carl Sagan

Carl Sagan, la vida de un visionario entusiasta que inició todo un movimiento de divulgación científica y varios proyectos científicos relevantes.

Sin precedente, la televisión mundial de la década de 1980 erigió como famoso a un doctor en astronomía y astrofísica, de algo más de 45 años de edad, que no solía usar corbata: el doctor Carl Sagan.

Llegó a 600 millones de espectadores en todo el mundo gracias a una serie de sólo 13 capítulos de una hora cada uno, producida con un presupuesto relativamente limitado para la cadena de televisión pública PBS. Cosmos, serie producida entre 1978 y 1979, destacó por sus efectos especiales, por la música original del griego Vangelis y, sobre todo, por la personalidad agradable y entusiasta de su presentador. Cosmos se emitió por primera vez en 1980 y se retransmitió sin cesar durante las dos décadas siguientes, convirtiendo en una figura familiar a Carl Sagan con su sentido del asombro ante el universo y la posibilidad del hombre de conocerlo mediante la ciencia.

Lo que siguió fue un éxito poco común para un astrofísico, profesión más dada al aislamiento de los laboratorios, los encerados y las cavilaciones que al glamour de los medios. Al obtener prestigiosos premios como el Emmy y el Peabody, dedicados a las mejores producciones de la radio la televisión, Cosmos marcó una época en los medios, un camino para la divulgación científica moderna y enfocó la atención sobre una serie de temas que siguen siendo considerados esenciales pese al paso de casi 30 años.

Un astrónomo vocacional

Desde que a los cinco años se preguntó qué eran las luces en el cielo, si eran pequeñas bombillas eléctricas con largos cables negros o algo distinto, Carl Sagan se empeñó en conocer el universo. Hijo de un obrero y un ama de casa, judíos de origen ruso, nació en Brooklyn, Nueva York en 1934 y desde muy pequeño, con su amigo Robert Gritz, se interesó por las estrellas. Aprendió a poner dos lentes, una frente a la otra, para ver los cráteres de la Luna (como lo había hecho Galileo) y la mancha roja de Marte, y conoció el mundo de la Biblioteca Pública de Nueva York y del Museo de Historia Natural de esa ciudad.

Era natural que al pasar del bachillerato a la universidad siguiera con su interés. En la Universidad de Chicago, donde participó en la Sociedada Astronómica Ryerson, obtuvo tres grados sucesivos de licenciatura y maestría en física entre 1954 y 1956 hasta obtener, en 1960, su doctorado en astronomía y astrofísica. Pasó como profesor a la universidad de Cornell, en el estado de Nueva York, donde obtuvo la cátedra en 1971 y realizó numerosas investigaciones.

Mucho antes de ser una personalidad mediática, Carl Sagan realizó una serie de aportaciones científicas que le dieron un lugar en el mundo de la astrofísica. Desde la década de 1950 trabajó como asesor y consultor de la NASA, y jugó un papel relevante en el programa espacial estadounidense. Fue uno de los formadores de los astronautas de las misiones Apolo antes de sus viajes a la Luna y participó como diseñador de experimentos en las expediciones robóticas Mariner, Viking, Voyager y Galileo. A principios de la década de 1960, ayudó a resolver el acertijo que presentaban las altas temperaturas de Venus al proponer al efecto invernadero como responsable de ellas, y a explicar los cambios estacionales en Marte (que algunos habían interpretado como crecimiento y disminución de zonas con vegetación) demostrando que se debían al polvo movido por el viento.

Una de sus grandes pasiones fue la búsqueda de vida e inteligencia extraterrestre, pero empleando los métodos de la ciencia y no las creencias y relatos poco confiables de personas interesadas en aparecer en los medios. Además de demostrar experimentalmente la producción de aminoácidos a partir de sustancias simples bombardeadas por radiaciones, estableció la organización conocida como SETI, siglas en inglés de Búsqueda de Inteligencia Extra Terrestre.

Sagan calculó que mucho antes de que nos pudieran visitar los extraterrestres podríamos percibir sus emisiones de radio, considerando que la radio es un desarrollo fundamental en la ciencia. De hecho, las emisiones de la Tierra sólo han salido de nuestra atmósfera desde 1936, de modo que sólo nos podrían detectar seres que vivieran a un máximo de 73 años luz. Así, SETI utiliza radiotelescopios para buscar en el ruido electromagnético del espacio una señal coherente, con la curiosa discontinuidad que la inteligencia imparte a la materia que controla.

Ciencia para todos

Sagan escribió ampliamente sobre los aspectos científicos del debate ovni, la vida extraterrestre y la comunicación con inteligencias extraterrestres, pero su primer momento de fama se dio cuando diseñó el disco fonográfico que lleva consigo –todavía— la sonda Voyager, que hoy es el objeto creado por el hombre que ha viajado más lejos desde su planeta de origen. La atención mediática sobre el proyecto llevó a que escribiera en 1978 el libro Murmullos de la tierra, relatando el proyecto de intento de comunicarnos con alguna inteligencia extraterrestre que encontrara la sonda.

En 1978, su libro Los dragones del Edén, especulaciones sobre la evolución de la inteligencia humana obtuvo el Premio Pulitzer y se convirtió en el modelo de sus posteriores obras de divulgación científica mezclando su sentido del asombro, una gran claridad en la exposición y un inagotable entusiasmo por el conocimiento. A este libro seguirían El cerebro de Broca y, en 1980, Cosmos, basado en la serie de televisión, que lo consagrarían como el hombre que puso la cosmología al alcance de todos. Seguirían ocho libros, incluida su novela Contacto, llevada al cine con Jodie Foster como protagonista, y su último libro, El mundo y sus demonios, una defensa final de la razón, el pensamiento crítico y el escepticismo frente a los vendedores de misterios, promotores de lo paranormal y negociantes de las pseudociencias.

La sola lista de los honores científicos y sociales que se le confirieron a Carl Sagan llenaría toda esta página, desde medallas de la Nasa hasta premios de ciencia ficción y reconocimientos rusos y estadounidenses. Pero quizás el principal legado que dejó atrás a su muerte en 1996, fue la invitación a que más y más científicos se comprometieran con la importante labor de hacer a la ciencia un tema accesible y emocionante para la gente común que no hace ciencia... o al menos no sabe que la hace muchas veces en su vida cotidiana.

La sociedad tecnológica

“También hemos dispuesto las cosas de modo que casi nadie entienda la ciencia y la tecnología. Esto es una receta para el desastre. Probablemente nos salgamos con la nuestra durante un tiempo, pero tarde o temprano esta mezcla combustible de ignorancia y poder va a estallarnos en la cara.” Carl Sagan.