Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

¿Usted le debe la vida a Ignaz Semmelweis?

Ignaz Semmelweis 1861
Ignaz Semmelweis
(Fotografía D.P. de "Borsos und Doctor",
vía Wikimedia Commons)
El médico apasionado hasta el tormento por combatir el dolor y las muertes que sabía evitables.

Es muy probable que usted, y yo, y muchos más tengamos una deuda impagable con un médico húngaro del siglo XIX, Ignaz Philipp Semmelweis, que a la temprana edad de 29 años hizo un descubrimiento que salvó vidas mientras amargó la suya, y quizás terminó con ella.

Nacido en 1818 en Budapest, Semmelweis estudió medicina en la Universidad de Viena, doctorándose en 1844 en la especialidad de obstetricia, el cuidado médico prenatal, durante el parto y después de éste. Dos años después entró como asistente en la Primera Clínica Obstétrica del Hospital General de Viena.

Lo que encontró allí le horrorizó. En aquel tiempo, la mayoría de las mujeres daban a luz en sus casas, con una alta tasa de mortalidad. La mitad de los fallecimientos se debían a la llamada “fiebre puerperal”, lo que hoy sabemos que es producto de una infección que a su vez provoca una inflamación generalizada, llamada sepsis. Y lo más terrible era que las mujeres que daban a luz en los hospitales, y los niños que allí nacían, tenían una mucho mayor incidencia de fiebre puerperal que las que daban a luz en sus casas.

La enfermedad se atribuía al hacinamiento en los hospitales, a la mala ventilación e incluso al comienzo de la lactancia. Aunque el británico Oliver Wendell Holmes ya había notado que la enfermedad era transmisible, y un probable vehículo eran los médicos y comadronas, no había comprobaciones experimentales.

Semmelweis observó que, en su clínica, la mortalidad era del 13,1% de las mujeres y recién nacidos, una cifra aterradora (y en los hospitales Europeos en general la cifra llegaba al 25 al 30%), mientras que en la Segunda Clínica Obstétrica del mismo hospital la mortalidad sólo era de 2,03%.

Analizando ambas clínicas, el genio húngaro observó que la única diferencia era que su clínica se dedicaba a la preparación de estudiantes de medicina y la otra se dedicaba a preparar comadronas. Y los alumnos de medicina, como en la actualidad, realizaban disecciones con cadáveres como parte fundamental de su formación, cosa que no hacían las comadronas.

En 1847, Jakob Kolletschka, profesor de medicina forense y amigo de Semmelweis, se cortó un dedo accidentalmente con el escalpelo durante una autopsia. El estudio del cuerpo de Kolletshka reveló síntomas idénticos a los de las mujeres que morían de fiebre puerperal.

Semmelweis concluyó que debía haber algo, una sustancia, un agente desconocido presente en los cadáveres y que era llevado por los estudiantes de la sala de disecciones a la de maternidad donde causaba la fiebre puerperal. Era la hipótesis del “envenenamiento cadavérico”.

En mayo de 1847 propuso que los médicos y los estudiantes se lavaran las manos con una solución de hipoclorito y cloruro de calcio entre las disecciones y la atención a las parturientas. Los estudiantes y el personal de la clínica protestaron, Semmelweis insistió y en un solo mes la mortalidad en la Primera Clínica se desplomó del 12,24% al 2,38. Para 1848, la mortalidad de las parturientas en ambas clínicas era igual, del 1,3%, y en los años siguientes se mantuvieron con mínimas diferencias.

Era una demostración contundente de que la hipótesis era sólidas, y su colega Ferdinand von Hebra escribió pronto dos artículos que explicaban las causas de la fiebre puerperal y la profilaxis propuesta para disminuir su incidencia. Y para Semelweiss, la terrible convicción de que él, con sus manos sucias, había llevado la muerte a muchas pacientes a las que deseaba servir. Esta idea lo perseguiría hasta la muerte y animaría su lucha por la profilaxis.

Los médicos que vieron los datos contundentes de Semmelweis procedieron a rechazarlos. La medicina precientífica de entonces sostenía la creencia de que la enfermedad era un desequilibrio de los cuatro supuestos humores del cuerpo humano (sangre, flema, bilis negra y bilis amarilla). Esta creencia de milenios no tenía ni una sola evidencia científica en su favor, pero se aceptaba sin titubeos, y ante los hechos, los colegas del magyar se aferraron a sus prejuicios, rechazando que una enfermedad pudiera “transmitirse” por las manos humanas y no por los “malos aires”, los “miasmas” u otros orígenes misteriosos.

De hecho, la medicina precientífica de la época, como muchas formas de pseudomedicina de la actualidad, afirmaba que no había causas comunes y enfermedades iguales, sino que cada enfermedad era única, producto de un desequilibrio integral del organismo. De hecho, pese a los datos, los médicos de la época solían afirmar que la fiebre puerperal no era una sola enfermedad, sino varias distintas, una por paciente.

El éxito del húngaro y su participación en los disturbios por los derechos civiles en 1848 le llevaron a un violento enfrentamiento con Johann Klein, el director de la clínica, que saboteó sus posibles avances. Semmelweis optó por volver a Hungría, donde pasó por diversos puestos.

Estando al frente del pabellón de maternidad del Hospital St. Rochus, Semmelweis combatió con éxito una epidemia de fiebre puerperal en 1851. Mientras en Praga y Viena morían entre 10 y 15% de las parturientas, en St. Rochus los fallecimientos cayeron al 0,85%. Con pruebas suficientes, en 1861 publicó al fin su libro sobre la etiología de la fiebre puerperal y su profilaxis. Y nuevamente sus datos y pruebas fueron rechazados.

Enfrentado a sus colegas, convencido de que era fácil salvar muchas vidas, Semmelweis empezó a dar muestras de trastornos mentales y en 1865 fue finalmente internado en un asilo para lunáticos, tan precientífico y falto de esperanza como el pabellón de maternidad al que había llegado en 1846. Si su enfermedad era grave o fue internado por presiones de quienes rechazaban sus pruebas y datos es todavía asunto de debate.

Ignaz Semmelweis murió en el asilo a sólo dos semanas de su internamiento. Según la historia más conocida, sufrió una paradójica fiebre puerperal, o septicemia, por un corte en un dedo. Otros estudiosos indican que murió después de ser violentamente golpeado por los guardias del manicomio, procedimiento por entonces común y tradicional para tranquilizar a los “locos”.

Pasteur, Líster y Koch

Mientras Semmelweis vivía el fin de su tragedia, los trabajos de Louis Pasteur ofrecían una explicación a los descubrimientos del médico húngaro: los microorganismos patógenos. En 1883, el cirujano Joseph Lister implanta al fin la idea de la cirugía estéril desinfectando personas e instrumentos. Y en 1890, Robert Koch publica los cuatro postulados que relacionan causalmente a un microbio con una enfermedad. Era el principio del fin de la superstición de los “humores”, que hoy sólo algunas pseudomedicinas sostienen, y el nacimiento de la medicina científica.

Para leer noticias sobre ciencia

Science and Mechanics Nov 1931 cover
Una de las primeras revistas de divulgación
de Hugo Gernsback
(ilustración D.P. de Frank R. Paul
vía Wikimedia Commons
En la tarea de transmitir información sobre ciencia, los lectores tienen un desafío mayor del que podríamos creer.

La ciencia es una de las actividades humanas más apasionantes.

Pero su proceso suele ser poco vistoso. Los avances raras veces son tan impactantes como la vacuna de Jenner, la gravitación de Newton, la relatividad de Einstein o el avión de los hermanos Wright. Más bien son lentos y poco impresionantes a primera vista, y se van acumulando en un goteo que puede ser desesperante.

Los detalles que apasionan a quienes viven en la labor de científica y tecnológica porque conocen las implicaciones de cada avance y su contexto, no se llevan fácilmente al público con la emoción y pasión con la que se informa de unas elecciones reñidas, un partido de fútbol o una importante acción policiaca.

Esta misma semana, la prestigiosa revista científica ‘Nature' publica cinco artículos y un editorial dedicados a las células gliales del sistema nervioso, que se creía que eran sólo la estructura de soporte de las neuronas que transmiten impulsos nerviosos. De hecho “glia” es la palabra griega para “pegamento”.

En las últimas dos décadas, varios estudios indican que estas células tienen una función más compleja. Si se confirma esto, se abriría todo un campo nuevo de más preguntas que respuestas. Un tema estremecedor para los neurocientíficos que ofrece nuevas avenidas para comprender nuestro cerebro.

Pero a nivel de calle, todos tendemos a preguntar “¿qué significa eso para mí?”, y no nos gustan mucho las respuestas que empiezan diciendo “de momento, nada, pero en un futuro...”

Queremos resultados hoy mismo, y de ser posible ayer. Vivimos una comunicación cada vez más ágil y al mismo tiempo más breve. Una nota de 140 caracteres en Twitter puede ser cuando mucho de tres minutos en televisión, un cuarto de página en un diario o tres o cuatro páginas en una revista.

Pero uno solo de los cinco artículos de investigación dedicados a las células gliales (un misterio de nuestro cerebro, 84 mil millones de células gliales junto a los 86 mil millones de neuronas que tenemos) es una serie larga de páginas sobre un tema tan arcano como “Genética del desarrollo de las células gliales de los vertebrados: especificación celular".

Por supuesto, los autores, David H. Rowitch y Arnold R. Kriegerstein, mencionan que la comprensión de la genética del desarrollo de las células llamadas macroglia “tiene un gran potencial para mejorar nuestra comprensión de diversos trastornos neurológicos en los seres humanos”.

Ese lenguaje no es muy deslumbrante, sin duda. Los científicos tienden a ser extremadamente cautos en sus artículos profesionales, llamados ‘papers’, y así se los exigen, con buenas razones, las publicaciones especializadas o ‘journals’. Deben ser precisos en su explicación sobre la metodología que siguieron, para que cualquier otro científico de su área pueda duplicar con toda exactitud sus experimentos para confirmarlos o descartarlos. Deben concretar la hipótesis que pretenden probar y mostrar todas sus cartas, sus procedimientos, sus análisis matemáticos, incluso sus posibles errores o dudas.

Para asegurarse de que así lo hagan, las revistas someten cada ‘paper’ propuesto a una revisión por científicos reconocidos de la disciplina a la que se refiere. Es lo que se llama “arbitraje por pares”, y sirve como filtro contra investigaciones defectuosas en su metodología o conclusiones. Y aún así, ocasionalmente las mejores revistas publican artículos con algún error importante.

Y, por ello mismo, las conclusiones de los ‘papers’ suelen utilizar de modo abundante construcciones como "creemos que", "los resultados sugieren", "estudios adicionales podrían revelar", "la confirmación tiene el potencial de", "es probable que" y demás formas igualmente vagas y cautelosas.

La labor del periodista con frecuencia es trasladar esto a un idioma accesible, transmitir la emoción de los científicos por haber dado “un pequeño paso” adicional y tocar al lector para que perciba que el trabajo científico es merecedor de todo nuestro apoyo, sobre todo en una época en que el conocimiento científico es una fuente de riqueza mayor que muchas actividades industriales del siglo XIX y XX.

Muchas veces, sin embargo, el lector debe leer entre líneas, sabiendo que todas las semanas se publica una enorme cantidad de ‘papers’ o artículos en todas las disciplinas imaginables, desde la física de partículas hasta la geología, desde la biología molecular hasta la gastroenterología, desde las neurociencias hasta la informática. Y muchas veces lo que llega a la atención de los medios no son los trabajos más prometedores, sino los que universidades o laboratorios quieren destacar, o los realizados por científicos más “mediáticos”, simpáticos o bien relacionados.

El lector debe añadir cautela a la información de los medios. Cuando un periodista omite las construcciones cautas y condicionales de los científicos, siempre conviene suponerlas. Especialmente en temas delicados como la investigación sobre el cáncer y otras áreas de la medicina que nos preocupan mucho. Y más especialmente cuando lo que se anuncia es tan revolucionario y tan maravilloso que suena demasiado bueno para ser cierto. Probablemente lo es.

Cuando las noticias no proceden de publicaciones científicas sino de ruedas de prensa o libros recién lanzados y en proceso de comercialización, o empresas que venden servicios de salud, estética o bienestar, hay que ser aún más cauto, pues no ha existido el útil filtro del “arbitraje por pares”. Especialmente cuando el investigador se presenta como víctima de una conspiración malévola en contra de su incomprendida genialidad.

La difusión de los logros de la ciencia requiere una implicación cada vez mayor del lector común, del no científico. Quizás no basta que tengamos información sobre los avances de la ciencia y debamos educarnos para conocer el pensamiento crítico y sus métodos, que son más accesibles que los datos de la ciencia, y son la vacuna perfecta contra la desinformación y el sensacionalismo en cualquier rama de la comunicación. Y nos permiten evaluar información que, literalmente, está cambiando el mundo en que vivimos, paso a paso.


Periodismo pseudocientífico

Una buena parte de lo que se presenta como divulgación o periodismo más o menos científico es, por el contrario, promoción de creencias y afirmaciones pseudocientíficas altamente sensacionalistas y amarillistas, echando mano de supuestos expertos (generalmente autoproclamados) para promover la anticiencia, la magia, las más diversas conspiraciones y creencias irracionales varias. Un motivo adicional para educarnos en las bases de la ciencia y estar alerta ante los negociantes de supuestos misterios presentados falsamente como ciencia.

La ciencia falsificada de Lysenko

Al pretender doblegar la ciencia a los dictados de la política, Lysenko arruinó vidas, causó hambrunas y sumió en el retraso la biología en el que era el país más grande del mundo.

Trofim Denisovich Lysenko
(imagen D.P. Sovfoto vía Wikimedia Commons)
El 20 de noviembre de 1976 moría en Kiev, Ucrania, entonces parte de la Unión Soviética, Trofim Denisovich Lysenko, cubierto de honores por sucesivos gobiernos desde Stalin y que había sido la fuerza más relevante de la agricultura soviética (y en gran medida china) durante décadas.

Hijo de campesinos ucranianos, Lysenko estudió en el Instituto Agrícola de Kiev para luego trabajar en una estación experimental agrícola. Allí, en 1927, anunció un método para obtener cosechas sin fertilizantes y dijo que podía obtener una cosecha invernal de guisantes. El diario oficial soviético Pravda elogió sin límites a este “científico campesino” como prototipo de héroe soviético.

Lysenko sabía poco de herencia y genética, pero creía que los organismos cambiaban su genética de acuerdo al medio ambiente, siguiendo la teoría lamarckiana.

Jean-Baptiste Lamarck (1744-1829) fue uno de los primeros proponentes de la evolución de las especies, pero pensaba que su mecanismo era que los caracteres adquiridos podían heredarse. Por ejemplo, cortarle las orejas a un perro adulto haría que su descendencia naciera con orejas cortas. Los experimentos demostraron que esto no ocurre, y pronto Charles Darwin propuso una teoría correcta, basada en la variación genética natural de los seres vivos.

De vuelta en Ucrania, y junto con el filósofo I. Prezent, Lysenko desarrolló sus ideas como un rechazo a la genética de Mendel, “capitalista y burguesa”. Para los dirigentes soviéticos, no era cuestión de verdad o falsedad, sino de tener bases para asegurar que los cambios que experimentara la clase trabajadora definirían fatalmente el futuro.

Las afirmaciones exageradas de Lysenko sobre su capacidad de obtener cultivos abundantes y en clima adverso, y sus afirmaciones sobre híbridos absurdos (llegó a afirmar podía hacer que plantas de trigo produjeran semillas de centeno y cebada) entusiasmaron a Stalin tanto como la capacidad retórica de Lysenko. Para los científicos, sus posiciones voluntaristas y poco rigurosas resultaban casi risibles, pero dejaron de serlo cuando se vieron acompañadas de un inmenso poder político.

En 1929, Stalin declaró que se debía privilegiar la "práctica" por sobre la "teoría", donde la visión del partido era más importante que la "ciencia", y que ir al campo y hacer cosas (aunque fueran inútiles o descabelladas) era mejor que estudiar cosas extrañas en un laboratorio. Esto se ajustaba a Lysenko como un guante, y los críticos de Lysenko empezaron a enfrentar crecientes acciones de censura.

Cuando en 1935 fue puesto al frente de la Academia de Ciencias Agrícolas de la URSS, Trofim Lysenko empezó una larga purga de científicos de ideas “incorrectas” o “perjudiciales”.

El más importante biólogo soviético y padre de la genética rusa, además de feroz crítico de Lysenko, Nikolai Vavilov, murió de hambre en las cárceles de la policía política, la NKVD, en 1943, después de tres años de confinamiento por orden de Lysenko. La genética desapareció como disciplina en la URSS y la biología, la herencia y la medicina se vieron contaminadas con las ideas descabelladas del Lysenko.

Pronto, en las escuelas soviéticas se enseñaban cosas como: el gen es una parte mítica de las estructuras vivientes que en las teorías reaccionarias, como el Mendelismo-Veysmanismo-Morganismo, determina la herencia. Los cientificos soviéticos bajo el mando de Lysenko probaron científicamente que los genes no existen en la naturaleza.

Tales pruebas eran, por supuesto, imaginarias. Las teorías de Lysenko eran producto de la filosofía política y no de la práctica de la ciencia. Y sus técnicas se aplicaban por decreto, obligatoriamente, en el campo soviético y sin haberlas probado científicamente. Esto, junto con la colectivización forzada del campo que implantó Stalin, ocasionó hambrunas varias.

Nada de esto impidió que Lysenko siguiera siendo la máxima autoridad en biología en la Unión Soviética, al menos hasta el 5 de marzo de 1953, cuando murió Joseph Stalin. Durante su reinado, más de 3000 biólogos fueron despedidos, arrestados o ejecutados.

El sucesor, Nikita Kruschev, mantuvo a Lysenko en su puesto, pero al emprender la llamada "desestalinización" para terminar con el culto a la personalidad de su predecesor, y sabiendo, como campesino que era, que pese a la propaganda oficial, las ideas de Lysenko no habían beneficiado la agricultura soviética, abrió la posibilidad de tolerar las críticas al todopoderoso agrónomo.

Mientras decaían en la URSS, las ideas de Lysenko fueron adoptadas por el gobierno chino. Mao llamó "El Gran Salto Adelante" a la implantación del lysenkoísmo y la colectivización forzosa del campo con el mismo resultado amplificado: la terrible hambruna china de 1958-1961 que mató a entre 30 y 40 millones de personas, más de los que había perdido la URSS en la Segunda Guerra Mundial.

En 1961, algunos miembros del gobierno chino se rebelaron a las ideas de Mao y ordenaron el abandono de sus políticas en diversas provincias, deteniendo la hambruna. Un año después, tres físicos soviéticos proclamaron que el trabajo de Lysenko era falsa ciencia.

Lysenko fue destituido, pero no se le criticó oficialmente sino hasta que Kruschev fue retirado del poder en 1964, y una comisión oficial fue a investigar su granja experimental, demostrando su total falta de rigor y seriedad científica.

Ese año, el físico nuclear Andrei Sakharov, hoy Premio Nobel, dijo en la Asamblea General de la Academia de Ciencias que Lysenko era: responsable del vergonzoso atraso de la biología soviética y de la genética en particular, de la divulgación de visiones seudocientíficas, de aventurerismo, de la degradación del aprendizaje y por la difamación, despido, arresto, incluso muerte, de muchos científicos genuinos.

El daño hecho por Lysenko, visto a la distancia del tiempo, fue quizá el ejemplo más aterrador del peligro que corremos todos cuando la política pretende decretar la ciencia en lugar de utilizar y entender la ciencia real.

Stanislav Lem y Lysenko

En la universidad Jagielloniana de Polonia, a fines de la década de 1940, el estudiante de medicina Stanislav Lem llegó a satirizar al agrónomo soviético en una revista. Así, cuando tuvo que presentar su examen final como médico, sus principios le impidieron dar las respuestas "correctas" consagradas por el Lysenkoísmo oficial soviético. Ya que no podía recibirse como médico sin someterse a Lysenko, Stanislav Lem procedió a convertirse en uno de los más influyentes y originales escritores de la historia de la ciencia ficción, conocido sobre todo por su novela "Solaris".

Planetas habitables

Kepler22b-artwork
Versión artística del planeta Kepler-22B,
ubicado en la zona "ricitos de oro" de
una estrella.
(imagen D.P. de NASA/Ames/JPL-Caltech,
vía Wikimedia Commons)
Pocos sueños más apasionados que el de encontrar otros planetas donde podamos vivir, extendiéndonos por el universo como en el pasado nos extendimos por toda la Tierra.

Desde que Giordano Bruno postuló la "pluralidad de los mundos habitables” (una de las ideas que le costaron ser quemado en la hoguera por la Inquisición en Roma en 1600), en occidente se empezó a popularizar una idea que ya rondaba por Oriente desde el siglo IX, en uno de los cuentos de “Las mil noches y una noche” y que también había sido planteada con seriedad por el filósofo judío aragonés Hasdai Crescas.

Tanto en la ficción como en la ciencia, a partir del Renacimiento y de la difusión de la visión copernicana del universo, se empezó a hablar de otros cuerpos del cosmos que pudieran albergar vida. En 1516, Ludovico Ariosto, en su “Orlando Furioso”, lleva a su personaje Asdolfo a visitar la Luna. En 1647, Savinien Cyrano de Bergerac escribe sus “Viajes a los imperios del sol y de la luna”, donde describe a los primeros extraterrestres, habitantes precisamente de esos dos cuerpos celestes.

A partir de entonces, y de modo desbordado durante el siglo XX, escritores con más o menos conocimientos de física, cosmología o biología postularon primero extraterrestres esencialmente humanos. A partir de mediados del siglo XIX, y estimulados por los conceptos darwinistas de evolución, variación aleatoria y selección de supervivencia, imaginaron las más diversas variedades extraterrestres: vida mineral, vida basada en silicio y no en carbono, vida tan diferente que no podríamos siquiera identificarla como tal, vida infinitamente más inteligente y vida en forma de campos de energía. E imaginaron su encuentro con seres humanos en la Tierra, sí, pero también con frecuencia en esos planetas que la lógica decía que tenían que existir.

Sin embargo, la existencia misma de esos planetas fuera de nuestro sistema solar, los “exoplanetas” o planetas extrasolares, no se confirmó sino hasta 1992, cuando dos radioastrónomos descubrieron planetas alrededor de un pulsar, lo que muy pronto fue confirmado por observadores independientes.

Curiosamente, el primer exoplaneta había sido descubierto en 1988, pero su confirmación mediante observaciones independientes no se consiguió sino hasta el siglo XXI.

A partir de ese momento, y hasta octubre de 2010, se ha anunciado la detección de casi 500 planetas extrasolares, pero la mayoría de ellos son gigantes de gas, similares a Júpiter, Saturno o Plutón, es decir, que no son habitables. Para que un planeta sea habitable para nosotros, debe ser rocoso, como la Tierra, Marte o Venus. Y debe tener una masa suficiente como para que su gravedad mantenga una atmósfera. Además debe estar en la llamada “zona habitable”, la distancia respecto de una estrella en la que un planeta puede tener agua líquida.

Esa zona es conocida como la “zona Ricitos de Oro”, por el cuento infantil en el que la niña que llega a la casa de los osos rechaza los extremos (lo muy grande y muy pequeño, lo muy frío y lo muy caliente) para ubicarse en una media confortable. Los planetas situados en esa zona son, por tanto “planetas Ricitos de Oro”.

A fines de septiembre de 2010, en el “Astrophysical Journal”, un grupo de astrónomos dirigidos por Steven S. Vogt anunció haber hallado el primer planeta “Ricitos de Oro” de la historia, orbitando alrededor de la estrella Gliese 581, llamada así por llevar ese número en el catálogo astronómico creado por el astrónomo alemán Wilhelm Gliese. Alrededor de esa estrella ya se habían descubierto otros planetas, pero ninguno de ellos en la zona habitable como, según las conclusiones de los astrónomos, sí estaba Gliese 581g, un planeta con algo más de tres veces la masa de la Tierra, situado muy cerca de su estrella y que la orbita dándole siempre la misma cara.

No obstante, no pasaron dos semanas antes de que otro grupo de astrónomos, éstos del Observatorio de Ginebra informara de que, según sus mediciones de otro conjunto de observaciones, no encontraban evidencias de la existencia de tal planeta. Se han emprendido nuevas mediciones y observaciones que, se espera, resolverán la disputa en uno o dos años.

La enorme mayoría de los exoplanetas no se descubren observándolos directamente. De hecho, hoy podemos ver (generalmente en la banda de la radiación infrarroja) a sólo diez de ellos, los más grandes. Los demás se descubren indirectamente, observando las variaciones de la estrella alrededor de la cual orbitan y calculando qué cuerpos podrían provocar esas variaciones. Son sistemas lentos, que exigen gran trabajo y extensos cálculos.

La esperanza de encontrar más exoplanetas habitables motivó el lanzamiento, en 2009, del telescopio espacial Kepler, un observatorio diseñado específicamente con el propósito de encontrar planetas similares a la Tierra orbitando alrededor de otros planetas. Con un medidor de luz extremadamente sensible, observa las variaciones de más de 145.000 estrellas para que los astrónomos puedan analizarlos en busca de planetas. Y ya se han descubierto muchos gracias a este telescopio.

Sin embargo, un planeta habitable por nosotros no es forzosamente igual a un planeta en el que pueda haber vida extraterrestre. Conocemos sólo un caso de surgimiento y evolución de la vida, el de nuestro planeta, y sabemos por tanto que en un planeta similar al nuestro puede surgir vida. Pero no podemos descartar la posibilidad de que en condiciones muy distintas no puedan surgir formas de vida totalmente distintas de las de este planeta.

Incluso, entre los autores de ciencia ficción y los cosmólogos se han lanzado especulaciones sobre la existencia de vida en planetas muy distintos al nuestro. Los propios hallazgos de formas de vida extrañas en nuestro planeta, como las bacterias capaces de metabolizar el azufre, abren enormemente el abanico de posibilidades de cómo podrían ser los seres extraterrestres.

Para muchos, la posibilidad de encontrar planetas habitables, aunque no estuvieran habitados, significa darle a la humanidad una meta qué alcanzar, un lugar a dónde ir, una misión nueva qué cumplir. Si estamos hechos del mismo material que todo el universo, es allí a donde debemos ir, dicen los más entusiastas.

La terraformación

Si no encontramos un planeta adaptado a nuestras necesidades, podemos quizá tomar un planeta ya existente y emprender una gigantesca obra de ingeniería para adaptarlo a condiciones similares a las de la Tierra... o “terraformarlo”, como lo llamó en 1942 el escritor de ciencia ficción Jack Williamson. Eso era ciencia ficción... hasta que en 1961 el astrónomo Carl Sagan propuso someter a Venus a ingeniería planetaria para que pudiéramos habitarlo. El tema sigue siendo estudiado y analizado por científicos en todo el mundo, y sigue siendo tema de la ciencia ficción.

Lo natural que no lo es tanto

Por todos lados nos bombardean las palabras “natural”, “ecológico” u “orgánico”, pero ¿tienen significado esas palabras en nuestra alimentación?

La zanahoria sólo es anaranjada desde el siglo XVI,
gracias a la selección artificial.
(foto D.P. USDA via Wikimedia Commons)
Imagínese un plato con unas cuantas tuberosas parecidas a zanahorias pequeñas pero de varios cuerpos y color morado casi negro, unos frutos globulares pequeños como uvas y de color naranja profundo, largos tallos de pasto con unas pocas semillas amarillentas y redondas y unas hojas de bordes rizados que parecen hiedra.

Parecería la pesadilla de un entusiasta opositor a la manipulación genética de los alimentos. Pero lo descrito son sólo zanahorias silvestres, tomate salvaje, maíz salvaje y una peculiar planta llamada Brassica olearacea, que da origen al brécol, las coles de bruselas, los repollos y la coliflor, entre otras variedades, todas descendientes de la misma humilde planta que aún se encuentra en lugares como los riscos de yeso de la costa inglesa.

La historia de nuestra alimentación, lo sabemos, es la historia de la domesticación de numerosas especies animales y vegetales. Pero en ocasiones no tenemos muy claro cuán distintos son los productos que encontramos en nuestros platos respecto de sus antecesores lejanos.

De hecho, los ancestros de algunos de nuestros alimentos actuales ya no existen. Hemos descrito una forma de maíz silvestre que existe en la actualidad, el teosinte, pero en la naturaleza ya no existen las mazorcas de granos de maíz como lentejas que se han encontrado en antiguos enterramientos mesoamericanos. El hombre, al llegar a América y encontrar esta planta, la modificó y la seleccionó artificialmente manipulando sus genes por ensayo y error, hasta obtener el maíz que conocemos hoy.

En casos como el de la Brassica olearacea, llamada también mostaza silvestre, pequeñas sutilezas en la selección artificial llevan a cambios verdaderamente notables en el organismo final. Sí, el brécol y las coles moradas son la misma planta, la misma especie, cuyas variaciones naturales fueron aprovechadas por los agricultores al paso de los siglos.

En ocasiones, no fueron sólo las necesidades de conveniencia del cultivo o el sabor las responsables de los cambios que sufrieron distintas especies. Al menos un caso de los que mencionamos en nuestra ensalada terrible del primer párrafo nace del deseo de complacer a los monarcas. Las zanahorias del plato bien podían haber sido negras, rojas o amarillas, además de varias tonalidades del morado.

Pero en el siglo XVII, los agricultores holandeses decidieron quedar bien con la reinante casa de Orange, palabra que significa “naranja” y “anaranjado” en varios idiomas, incluido el francés, el inglés y el holandés. Así, realizaron cruzas y selecciones hasta obtener una por entonces muy novedosa y nunca antes vista zanahoria anaranjada.

Podemos imaginar que antes del siglo XVII, la idea de una zanahoria anaranjada no sólo habría sido extraña, sino incluso rechazada por “antinatural”. Y quizá pasaría lo mismo con nuestros tomates de un furibundo rojo Ferrari, pues los primeros tomates ya domesticados que trajeron los conquistadores españoles a Europa eran más bien amarillentos, lo que explica el nombre en italiano que les dio el botánico Pietro Andrea Mattioli: “pomodoro”, manzana dorada.

En muchos casos no podemos siquiera saber cómo eran los ancestros de nuestro desayuno o cena, pero los cambios sufridos por ellos en miles y miles de años de domesticación los han convertido en formas de vida que poco tienen que ver con las que podríamos llamar “naturales”.

En cuanto a los animales, casi 7.000 años de domesticación separan a los cerdos actuales de los originarios, unos 8.000 separan a la gallina moderna de sus ancestros del sureste asiático... y hasta 10.000 años podrían mediar entre las vacas y los uros de largos cuernos domesticados, como tantas otras especies, en el creciente fértil del Medio Oriente.

¿Qué tantos cambios puede sufrir un ser vivo en un espacio de tiempo tan amplio? Quizá podemos tomar como ejemplo a nuestro compañero más cercano, el perro. Aunque lleva más de 10.000 años con nosotros, y según algunos investigadores bastante más, la gran mayoría de las “razas” o variedades de perro que conocemos hoy tienen apenas unos siglos de existencia, y las más antiguas apenas alcanzan los dos mil años, como los Rottweiler, usados por las legiones romanas para pastorear el ganado de pie con el que viajaban. Es decir, toda la asombrosa y a veces extrema variedad de los perros que conocemos fueron seleccionados artificialmente en unos pocos cientos de años.

Sería muy difícil tomar a un gran danés, un yorkshire terrier y un mastín canario y a partir de ellos extrapolar el aspecto de su ancestro salvaje, el lobo gris.

Nada de lo que un ser vivo toca se mantiene inmutable. El depredador y la presa se influyen mutuamente, se hacen cambiar, evolucionar. Las flores tienen formas y colores que atraen a las abejas, y las abejas tienen aparatos sensoriales capaces de detectar ciertas formas y colores de las flores, al grado de poder ver en la frecuencia ultravioleta, donde las flores mandan intensas señales visuales. Los animales vecinos, que compiten o cooperan o simplemente tratan de mantenerse apartados del camino del otro, también se influyen entre sí.

Eso, es bueno recordarlo, es totalmente natural. Y es lo que el ser humano ha hecho con las plantas y animales que ha utilizado para sobrevivir y tener una existencia más larga y de mejor calidad. Querámoslo o no, nos guste o no, no existen los productos “naturales” con los que algunos, muchas veces con la mejor voluntad del mundo, suelen soñar.

Pero si somos el animal que más ha afectado a su entorno y a las especies con las que interactuamos, también es cierto que somos la única especie viva que está consciente de su impacto sobre el entorno y que tiene tanto la voluntad como los medios tecnológicos para moderar ese impacto, impedir que sea demasiado dañino y reorientar diversas actividades en favor de la conservación de la biodiversidad, el equilibrio ecológico y el mantenimiento de espacios amables para la vida silvestre.

Lo cual, después de todo, sería lo más natural que podemos hacer.

La ingeniería genética por lo natural

Lo que el hombre ha hecho a ciegas, por ensayo y error, durante los últimos 10.000 años al domesticar diversas especies lo podemos hacer ahora con precisión, inteligencia y conocimiento de causa gracias a la ingeniería genética. La presión política, con pocos fundamentos científicos, contra el uso de la tecnología genética está interfiriendo con un análisis racional de las mejores soluciones. Como le dijo la bioquímica Pilar Carbonero a Luis Alfonso Gámez en 2006: “Todos los riesgos achacados a los transgénicos existen desde que la agricultura es agricultura, hace unos 10.000 años".

La toxicología y su padre menorquín

Mathieu Orfila
(Litografía D.P. de Alexandre Colette via
Wikimedia Commons)
El suicidio de Cleopatra en el año 30 antes de la era común es, en cierto modo, un resumen de la relación del ser humano con los venenos, un conocimiento peligroso de utilidad funesta. De hecho, el geógrafo e historiador griego Strabo nos ofrece dos versiones, una, la más conocida, según la cual la emperatriz de Egipto se hizo morder por una víbora venenosa; según la otra, se aplicó un ungüento venenoso, con lo que sólo cambia el modo de administración de la letal sustancia.

El veneno consumido accidentalmente o utilizado voluntariamente para el suicidio o el asesinato ha capturado tradicionalmente la imaginación popular. No sólo porque como arma homicida es difícil de identificar y más de relacionar con el asesino, sino porque, paradójicamente, los venenos pueden tener propiedades curativas, medicinales o deseables en dosis inferiores a las letales. Esto fue astutamente resumido por el peculiar Paracelso, mezcla renacentista de precientífico y charlatán, quien observó: “la dosis hace al veneno".

Un ejemplo de lo atinado de este comentario de Paracelso lo tenemos actualmente con la aplicación de una peligrosa toxina. La toxina botulínica es una potente proteína neurotóxica producida por la bacteria anaerobia Clostridium botulinum que puede causar la muerte con una dosis de 1 nanogramo (una milmillonésima de gramo) por kilogramo de peso de la víctima provocando debilidad muscular en la cabeza, brazos y piernas, hasta paralizar los músculos respiratorios y causar la muerte.

Dosis minúsculas cuidadosamente calculadas de toxina botulínica, o botox, se empezaron a usar en la década de 1980 para tratar casos de estrabismo, relajando el músculo paralizado que fija al globo ocular en su posición. Desde 1989 se usa además con fines estéticos, al impedir que se contraigan los músculos que provocan algunas arrugas, especialmente en la frente y el entrecejo.

En la historia del veneno, el gran unificador, el encargado de compendiar el conocimiento reunido a lo largo de la historia y de empezar el camino para comprender cómo es que actúan esas mortales sustancias fue Mateo Orfila, nacido en 1787 en Mahón, Menorca, y que luchó durante toda su juventud por estudiar medicina. Su familia quiso orientarlo hacia la marina, pero él insistió en estudiar medicina primero en Valencia y luego en Barcelona, donde fue becado para estudiar química en Madrid primero y después en París.

Llevado a la química por su capacidad y relaciones, se quedó en París trabajando como asistente del laboratorio del químico Antoine François Fourcroy, pero siguió estudiando medicina decididamente y finalmente se doctoró en 1811 con una tesis sobre la orina de los pacientes de ictericia. Se veía en esa tesis ya al médico químico que desde ese mismo año se dedicaría intensamente a estudiar los venenos y sus mecanismos.

Las investigaciones de Orfila eran difíciles y, parecería hoy, algo crueles, pues implicaron más de cinco mil experimentos de venenos con perros. El conocimiento derivado de estos experimentos se vio resumido en el libro Tratado de los venenos (o Toxicología general) de 1813, considerado el texto fundacional de la toxicología científica.

La gran novedad de este tratado científico nacía de la convicción de Orfila de que los venenos sólo podían identificarse en las evacuaciones de los pacientes, considerando que podían ser absorbidos por el organismo y por tanto no llegar a ser evacuados. Su principal misión fue identificarlos en los tejidos de sus sujetos experimentales por medio de exámenes anatomopatológicos en autopsias.

Esta labor le permitió a Orfila determinar que la difusión de los venenos por el organismo se daba mediante la sangre y no, como se había creído antes, por medio de las fibras nerviosas.

Igualmente, Mateo Orfila estableció el concepto de antitóxico, una sustancia que actúa directamente contra un tóxico, como el proverbial antídoto, y no contra la enfermedad. Una forma de antitóxico es cualquiera que provoque el vómito para expulsar el veneno del organismo antes de que se absorba más por vía sanguínea. Otra forma es la neutralización de la acción del veneno, como el ácido dimercaptosuccínico que se utiliza en casos de envenenamiento por metales pesados.

El éxito de su libro, traducido a varios idiomas, se vio seguido cuatro años después por otro volumen, Elementos de química médica, que también atrajo gran atención en toda Europa. Con un prestigio bien ganado en su edspecialidad, en 1819 obtuvo el puesto de profesor de medicina legal de la Facultad de Medicina de París, puesto que le exigió adoptar la nacionalidad francesa, que mantuvo hasta su muerte.

En los años siguientes pasaría a ser profesor de química médica reconocido por su gran capacidad didáctica, autor de numerosos libros más sobre química, tratamiento de envenenamientos, medicina legal y otros temas, y fundador de la Sociedad de Química Médica (1824) encargada de la publicación de la revista científica Anales de química médica, farmacéutica y toxicológica, además de crear el Museo de Anatomía Patológica (Museo Dupuytren) y el Museo de Anatomía Comparada (Museo Orfila) que aún existen hoy en día en París. En 1834 sería nombrado Caballero de la Legión de Honor Francesa.

Entre 1838 y 1841, Orfila se vería implicado igualmente en la creación de la toxicología forenese, primero determinando que en su estado normal el cuerpo humano no contiene arsénico, lo cual asegura que la presencia de arsénico es producto de un envenenamiento accidental o intencionado, y como experto en casos de envenenamiento.

En 1850 sería nombrado Presidente de la Academia de Medicina y, después de un enfrentamiento con Luis Napoleón, debido al acendrado conservadurismo del genio, moriría al fin en 1853 y sería inhumado en el famoso cementerio de Montparnasse.

En su testamento, el genio menorquín dejó instrucciones y fondos para la creación de diversas instituciones científicas y de beneficencia. Y en un gesto hacia los alumnos a los que dedicó sus esfuerzos durante gran parte de su vida, dispuso que se hiciera su autopsia en presencia de sus estudiantes, para que aprendieran de él ya en la muerte un poco más de lo que habían aprendido del Orfila vivo.

La envenenadora que no lo fue

El asesinato por envenenamiento está íntimamente ligado, en la percepción general, con Lucrecia Borgia, la femme fatale del Renacimiento, usada por su familia como peón en bodas de conveniencia. Sin embargo, podría ser que Lucrecia Borgia fuera una víctima simple del machismo, de una reacción encendida y airada a su libre sexualidad y a su percibida impudicia, pues, para sorpresa de muchos, no existe ni una sola prueba histórica de que esta hija ilegítima del Papa Alejandro VI hubiera cometido siquiera un asesinato, no digamos ya por medio del envenenamiento.

Las maravillosas máquinas de Herón de Alejandría

El legado de uno de los grandes inventores antiguos nos recuerda cuán fácil es olvidar el conocimiento que hemos reunido.

Réplica de la eolípila
creada por Katie Crisalli
(foto D.P. via Wikimedia
Commons)
Seguramente usted ha escuchado decir que “quizá los antiguos tenían conocimientos superiores a los que actualmente creemos”, lo cual con frecuencia sólo quiere decir que quien habla no está muy bien informado, pero cree que su ignorancia es compartida por toda la humanidad y que lo que él (o ella) no conoce, no lo conoce nadie más. Afortunadamente no es así.

Que los antiguos griegos habían desarrollado el odómetro o cuentakilómetros, y que fue probablemente usado para calcular las distancias recorridas en el desenfrenado viaje de conquistas de Alejandro Magno, que las romanas sabían teñirse de rubias o que el genio chino Zhang Heng inventó un sismógrafo primitivo, son datos que nos muestran, sobre todo, la profundidad de nuestra ignorancia sobre el pasado, que nos gusta imaginar mucho más oscuro y brutal de lo que ya era de por sí.

Quizá la diferencia entre los logros de las culturas precientíficas y los avances logrados por la humanidad desde que desarrolló el método científico alrededor del siglo XV-XVI es que, por una parte, nosotros contamos con explicaciones demostrables de los principios del funcionamiento de ciertas cosas, y, por otra, que el conocimiento y sus productos tecnológicos no son patrimonio de una élite, sino de toda la humanidad.

Esto último puede ser el secreto para que no se pierda.

En el pasado, los principios que hoy están al alcance de todos quienes asistan a la escuela, podían ser un bien guardado secreto, y es fácil imaginar cómo provocaban el asombro entre el pueblo llano, no sólo incapaz de entender, sino sin los medios (información, escuela, medios) para llegar a entender lo que parecía magia.

Tal fue el caso de Herón, inventor que en el siglo I de la era común asombró a su natal Alejandría con una caudalosa sucesión de máquinas, aparatos, ideas, propuestas que iban desde la matemática pura hasta la aplicación tecnológica de los conocimientos de entonces. Sus trabajos le ganaron el mote de Michanikos, el hombre mecánico.

Como tantos científicos de su época, Herón realizó su trabajo en el Musaeum, el museo anexo a la legendaria Biblioteca de Alejandría, donde era profesor. Este Musaeum, donde Hipatia enseñaría e investigaría tres siglos después, se había concebido como heredero del Liceo de Aristóteles, lugar religioso de culto a las musas y espacio de enseñanza y debate.

Quizá el aparato por el que es más conocido Herón es la eolípila, una primitiva máquina de vapor que, sin embargo, no hacía más que hacer girar una bola que recibía vapor de un caldero y lo expulsaba mediante dos tubos acodados en su ecuador.

Sin embargo, la falta de aplicación práctica de este invento contrasta con el resto de la enorme cantidad de invenciones prácticas, incluso económicamente rentables, que logró Herón, muchas de ellas para los templos, donde es muy posible que los fieles no conocieran los principios que hacían moverse a los aparatos de Herón, como la máquina dispensadora de agua bendita operada con monedas, o las puertas del templo que se abrían y cerraban al parecer milagrosamente.

Era la aportación de Herón a la promoción de sus creencias paganas en una Alejandría que era un punto de encuentro de todas las religiones, y donde todas buscaban fieles y limosnas para ser más poderosas e influyentes.

Herón dejó un legado de al menos una docena de libros, pero quizá varios más, que conocemos en griego, copias medievales y traducciones al árabe. En unos se ocupa de la geometría y las matemáticas aplicadas para calcular el área y el volumen de distintos cuerpos. En otros estudia la propagación de la luz y el uso de espejos para objetivos tan prácticos como medir longitudes desde la distancia, el dispositivo dióptrico antecesor del teodolito que siguen utilizando los agrimensores y topógrafos.

En sus libros nos da también con su descripción de diversos autómatas: objetivos que giran, ruidos producidos automáticamente, sus famosas puertas y una colección de unos 80 aparatos mecánicos que funcionan con aire, vapor o presión hidráulica, entre ellos la eolípila, una bomba de dos pistones utilizada para extinguir incendios y una famosa máquina expendedora.

Un libro más estaba dedicado a máquinas de guerra y tres más al arte de mover objetos pesados, recordándonos que la capacidad de mover grandes piedras que exhibieron los antiguos no era sino expresión de sus conocimientos, es decir, tecnología.

Para los modernos historiadores, las máquinas maravillosas de Herón lo son aún más por ser el creador de los dispositivos de control por realimentación, que es el principio de lo que hoy conocemos como cibernética y que no se refiere únicamente a la informática, sino a todas las máquinas o dispositivos autorregulados. Por ejemplo, Herón diseñó un cuenco de vino que se llenaba solo, o eso parecía. El ingenioso diseño contaba con un flotador que, al bajar a cierto nivel del líquido, como los de nuestras cisternas de baño, abría una válvula y suministraba vino hasta que el flotador la cerraba nuevamente.

Eran las primeras máquinas que, así fuera primitivamente, tomaban decisiones con base en su diseño sin necesidad de la supervisión de un ser humano: un órgano de agua que usaba una corriente para interpretar música, un dispensador de agua bendita en el que una moneda depositada por el fiel levantaba una palanca que surtía agua hasta que la moneda, por su propio peso, se deslizaba, caía y cerraba la válvula.

No fue sino hasta el siglo XVII cuando volvieron a crearse dispositivos de realimentación, los hornos e incubadoras controlados por termostatos.

La historia de cómo se olvidaron algunos de esos conocimientos puede enseñarnos mucho de frente a grupos fundamentalistas, anticientíficos y con motivaciones religiosas. Los conocimientos reunidos por varias culturas fueron olvidados con relativa facilidad ya dos veces (una en el occidente cristiano y otra en el oriente islámico). Es difícil subir una montaña, requiere habilidad, preparación y gran esfuerzo, pero caer de ella al abismo es rápido, sencillo y no requiere más que un tropezón

El teatro mágico

Uno de los grandes logros de Herón fue su “teatro mágico”, desarrollado a partir de las ideas de Filón de Bizancio, ilustre científico y mecánico que antecedió trescientos años a Herón. De modo totalmente automático, el dispositivo desplegaba su escenario y en él se desarrollaba una historia con diminutos muñecos humanos, delfines, dioses, barcos y hasta efectos de sonido y llamas producidos automáticamente. Muchas máquinas de Herón se han recreado gracias a sus descripciones, pero de ésta sólo tenemos el relato de lo que hacía y el asombro que causaba.

Realidad y ficción del espectro electromagnético

Espectro electromagnético
(imagen CC de Horst Frank via Wikimedia Commons)
La “radiación" no se refiere solamente a la radiación nuclear, sino a una gran variedad de ondas que son, en gran medida, responsables de nuestra tecnología.

La luz visible, los rayos ultravioleta, los rayos X, las ondas de radio, las microondas, los rayos gamma, las ondas usadas para transmitir televisión (VHF, “frecuencia muy alta” y UHF, “frecuencia ultra alta”, esta última usada hoy para la televisión digital, son todas ondas electromagnéticas, parte de un continuo que apenas conocimos en el último siglo y medio.

El físico escocés James Maxwell desarrolló a mediados del siglo XIX la teoría electromagnética básica, demostrando que un grupo de fenómenos independientemente observados en la electricidad, el magnetismo y la óptica eran en realidad manifestaciones de un mismo fenómeno, el campo electromagnético, formado por ondas que viajan a la velocidad de la luz. Estas ondas se def¡nen por su longitud de onda y su frecuencia, que son inversamente proporcionales.

El paardigma de las ondas que se provocan al lanzar una piedra en un estanque tranquilo se aplica perfectamente a las ondas electromagnéticas. Todas las ondas que conocemos, como las del sonido o acústico, las sísmicas, las que se dan en cuerdas y otras, tienen un comportamiento similar.

Las ondas electromagnéticas, ordenadas de la mayor a la menor longitud de onda (y, consecuentemente, de la menor a la mayor frecuencia), forman el espectro electromagnético. La frecuencia se mide en hertzios, que son ciclos por segundo. Así, por ejemplo, las ondas del extremo inferior del espectro, las de frecuencia extremadamente baja tienen una frecuencia de 3 hertzios, o sea que ocurren tres veces cada segundo, una longitud de onda de 100 megametros (millones de metros) y transmiten muy poca energía.

Al otro extremo del espectro o continuo están los rayos gamma, con una frecuencia de 300 exahertzios, lo que significa que ocurren 300.000.000.000.000.000.000 de veces por segundo, tienen una longitud de onda minúscula, de tan solo 0,000.000.000.001 de metro (menores que un átomo), y transmiten una enorme cantidad de energía.

Entre estos dos extremos el continuo va, de menor a mayor frecuencia, de las ondas utilizadas por la telefonía común, las de la radiofonía y la televisión y las microondas, que incluyen la radiación electromagnética empleada en el radar. A continuación viene la radiación infrarroja, de hasta y sigue la estrecha franja que conocemos como "luz visible" y que va del rojo (menor frecuencia) al violeta (mayor frecuencia).

La luz visible es la única parte de todo el espectro electromagnético que podemos percibir con nuestros sentidos, aunque otros animales como algunas serpientes y reptiles pueden percibir las frecuencias infrarrojas y algunos insectos como las abejas pueden “ver” también ondas de mayor frecuencia, las ultravioleta.

La radiación ultravioleta marca una frontera extremadamente importante en el espectro electromagnético, porque ya tiene suficiente energía como para alterar a la materia expuesta a ella. Es decir, puede arrancarle un electrón a un átomo, convirtiéndolo en un ión positivo (ionizándolo). A partir de allí hablamos de radiación ionizante.

En términos de la vida de la Tierra, esto significa que esta radiación puede causar cáncer y problemas genéticos impredecibles. Es por ello que al exponernos al sol debemos utilizar un protector solar: junto con la luz y el calor que emite el sol, emite también rayos ultravioleta. Una parte de ellos es absorbida por la capa de ozono que está en la parte superior de nuestra atmósfera, pero otra parte llega hasta nosotros, y una exposición demasiado prolongada o frecuente a ellos implica riesgos.

A continuación, con aún más energía, están los “rayos X”, que además de llegar naturalmente desde el espacio como parte de la llamada “radiación natural de fondo” a la que estamos expuestos estemos donde estemos sobre el planeta, son producidos en nuestras máquinas radiológicas para generar imágenes médicas, y llegamos así a los rayos gamma, que pueden causar daño incluso mortal con exposiciones relativamente cortas. Es por ello que los rayos gamma se utilizan entre otras aplicaciones para esterilizar equipo médico y eliminar bacterias de productos alimenticios.

Es importante señalar que los rayos gamma, como el resto de la radiación electromagnética, no “permanecen" en el equipo médico o los alimentos ni los vuelven “radiactivos” después de exponerse a ellos. Hacen su trabajo y se van como se va la luz cuando apagamos una bombilla.

De la luz visible hacia abajo, en el reino de las ondas de radio y las microondas, la radiación electromagnética es no ionizante, es decir, no tiene suficiente energía para afectar nuestro ADN. Sin embargo, ciertos grupos han afirmado, sin aportar pruebas sólidas, que existe una vinculación entre ciertas enfermedades y la radiacíón no ionizante proveniente de la radiodifusión, las líneas de alta tensión, las pantallas de televisión y ordenador, la telefonía móvil e incluso los hornos de microondas.

Los estudios llevados a cabo durante décadas, sin embargo, no han conseguido demostrar que exista tal correlación, sobre todo con las medidas de simple precaución que se utilizan para regular estos dispositivos y, muy especialmente, la telefonía móvil. Estos resultados reiterados en estudios de diversos grupos y países sugiere que, en el peor de los casos, si hay un riesgo es tan pequeño que resulta muy difícil detectarlo, a diferencia del riesgo de otros cancerígenos bien identificados.

De hecho, las más importantes agencias de lucha contra el cáncer de todo el mundo, entre ellas la Asociación Española contra el Cáncer coinciden en que "los niveles de emisión no son perjudiciales para la población” aún cuando recomiendan una precaución razonable y vigilante.

Los más recientes estudios, que incluyen seguimiento durante 12 años y la evaluación de más de 5.000 afectados por el cáncer y 7.000 controles sanos en numerosos países, confirman que no hay datos que sustenten la idea de que la radiación no ionizante implica riesgos para la salud, algo que por desgracia no tiene la difusión que muchos medios suelen dar a visiones sensacionalistas y alarmantes.

El negocio del miedo

Numerosos negocios sin base científica florecen promoviendo el miedo a la radiación electromagnética no ionizante, vendiéndonos protectores más o menos mágicos que supuestamente "absorben" las radiaciones u ofreciendo asesoría sobre la indemostrada “contaminación electromagnética”, con frecuencia echando mano al mismo tiempo de rituales mágicos como el feng shui o distintas formas de la adivinación para promover un miedo irracional que les rinda beneficios económicos. Una lamentable forma de explotación de la ignorancia.

La ciencia ante la belleza

Fotografía ©Mauricio-José Schwarz
El profundo tema de la belleza está siendo enfrentado por la ciencia, con la certeza de que saber objetivamente cómo nos afecta no hará menos intensos nuestros sentimientos subjetivos.

Ciertas cosas nos parecen bellas y otras no. Dado lo intensa que resulta nuestra reacción ante la belleza (y ante su opuesto, lo feo), el tema ha sido apasionadamente estudiado por la filosofía. Y también por la ciencia. Así, Pitágoras impulsó el desarrollo de la música al descubrir que los intervalos musicales no son sino subdivisiones matemáticas de las notas.

Grecia también nos dio el descubrimiento de la proporción áurea, también tema de Pitágoras y de Euclides, y que es cuando dos cantidades tienen un cociente de 1.618, la constante denotada con la letra griega “fi”. Esta proporción resulta especialmente atractiva a la vista, y los artistas la han usado en sus obras, desde los templos griegos, como el Partenón, que al parecer está construido sobre una serie de rectángulos dorados, hasta una gran parte de la pintura, arquitectura y escultura renacentista.

La proporción áurea, como se descubrió después, está también presente en la naturaleza, en elementos tan diversos como la concha del cefalópodo arcaico llamado nautilus o las espirales que forman las semillas de los girasoles (o pipas).

Pero nada de esto nos dice qué es lo bello y, menos aún, por qué nos lo parece.

Tuvo que llegar la psicología del siglo XX para empezar a analizar experimentalmente nuestras percepciones y tendencias y abrir el camino a la explicación científica de por qué algo nos parece bello.

La ciencia del arte

Uno de los más importantes neurocientíficos, Vilayanur S. Ramachandran de la Universidad de California, junto con el filósofo William Hirstein, se propuso disparar el estudio neurológico del arte con un artículo publicado en 1999 en el que proponía entender el arte a través, tentativamente, de ocho “leyes de la experiencia artística”, basado en sus estudios del cerebro y, especialmente, de alteraciones neurológicas como las que padecen los savants, que suelen tener una gran facilidad para la creación artística, tanto musical como gráfica.

Para Ramachandran y Hirstein, en la percepción del arte influye ante todo el “efecto de desplazamiento del pico”, que es fundamentalmente nuestra tendencia a la exageración. Si se entrena a un animal para diferenciar un cuadrado y un rectángulo de proporción 2:3, premiándolo por responder ante el rectángulo, la respuesta será aún más intensa ante un rectángulo más alargado, digamos de proporción 4:1. Es lo que hace un caricaturista al destacar los rasgos distintivos y eliminar o reducir los demás, provocando en nosotros el reconocimiento. O lo que hace el artista al destacar unos elementos placenteros y obviar otros.

Entre los aspectos propuestos por Ramachandran y Hirstein, uno de los más apasionantes es el de la metáfora. Cuando se hace una comparación metafórica como “Julieta es el sol”, tenemos que entender (y nos satisface hacerlo) que Julieta es tibia y protectora, no que sea amarilla y llameante. El proceso de comprensión de la analogía es en sí un misterio, pero más aún lo es el por qué, sobre todo desde un punto de vista evolutivo, nos resulta gratificante hacerlo.

Según estos estudiosos, el arte incluye aspectos como el aislamiento de un elemento de entre muchos al cual prestarle atención, la agrupación de elementos y algo que la psicología cognitiva tiene muy en cuenta en el estudio de la belleza humana: la simetría.

El rostro humano

Los estudios sobre la belleza humana también demuestran que la simetría es uno de los requisitos esenciales de la belleza, y esto ocurre en todas las culturas humanas y a todas las edades. Los bebés prefieren observar objetos o rostros simétricos en lugar de los que no lo son.

Otro de los descubrimientos asombrosos sobre el rostro humano es que un “promedio” informático de una gran cantidad de fotografías tiende a ser apreciado como más hermoso que los rostros que le dieron origen. Al menos en cierta medida, consideramos bello lo que tiende a la media.

Las características “infantiles” de las crías de los animales con cuidados paternos (grandes ojos, nariz y boca pequeñas, gran cabeza), disparan en nosotros reacciones de ternura y cuidado. Los estudios han determinado que estos rasgos son también un componente de la belleza, especialmente la femenina. El rostro de la mujer adulta retiene ciertos rasgos infantiles que el hombre pierde con la madurez sexual. Aunque cierta feminidad en el rostro del hombre tambíen es apreciada como un componente de belleza por las mujeres.

A fines de los años 90, los psicólogos Víctor Johnston y Juan Oliver-Rodríguez consiguieron observar al cerebro humano reaccionando ante la belleza, al analizar electroencefalogramas de sujetos que habían visto una serie de rostros. Unas ondas, llamadas “potenciales relacionados con acontecimientos” aumentaban cuando los sujetos observaban rostros que consideraban hermosos.

Aunque no conocemos aún el mecanismo paso a paso, sabemos que la sensación placentera que nos provoca la contemplación de la belleza surge de la activación del sistema límbico, una serie de estructuras en lo más profundo de nuestro cerebro donde residen las sensaciones de placer y de anticipación ante la posibilidad del placer.

Todos los elementos que contribuyen a que una persona sea considerada hermosa o no (y dejamos fuera muchos, como el de la estatura) son independientes de la cultura. Aunque cada cultura realizan sus peculiares variaciones sobre los temas básicos, ninguna considera especialmente bellos la asimetría, la piel defectuosa, los extremos apartados de la media o los rostros femeninos duros, angulosos y sin rasgos infantiles.

Queda por averiguar, por supuesto, qué valor evolutivo tiene nuestra apreciación de la belleza, cómo surgió en nuestra historia, por qué y, sobre todo, cómo funciona paso a paso.

Los biólogos evolutivos proponen que quizá la belleza comunica a los demás la calidad y deseabilidad de su portador. Así parece funcionar en todas las especies que tienen rasgos decorativos para atraer a sus potenciales parejas mostrando su salud, fuerza y capacidades, aunque esto no tenga, en nuestra sociedad tecnológica, el valor que pudo tener hace cien o doscientos mil años.

Esclavos de la belleza

Los estudios demuestran que las personas guapas tienen mejores oportunidades en nuestra sociedad, en la vida profesional y personal. Si queremos allanar el campo de juego debemos entender el mecanismo de este hecho, que hoy parece que no es, como se quiso creer en las últimas décadas, un asunto meramente cultural. Porque finalmente, como dice Ulrich Renz, autor de La ciencia de la belleza, si existiera una píldora para hacernos más bellos... ¿quién no la tomaría?

La muerte organizada de las células

Celldeath
Dos dedos de los pies han quedado unidos debido
a una mutación que ha inhibido la apoptosis
(foto GDFL pschemp via
Wikimedia Commons)
Una parte curiosa del desarrollo de los organismos a lo largo de toda su vida es la destrucción de algunas de sus células con un objetivo determinado, células que están dañadas, envejecidas o han tenido una utilidad y han dejado de tenerla.

Por ejemplo, en el desarrollo del feto humano, como podemos ver en las fotografías tomadas dentro del útero, todos tuvimos manos y pies palmeados, con los dedos unidos por una membrana. En un momento del desarrollo, es necesario que las células de esas membranas se eliminen, que mueran para liberar a los dedos.

Otro ejemplo es el colapso del endometrio en el útero femenino, que comienza por la muerte de las células que lo unen al útero y disparar el período menstrual. O las células que representan un riesgo para el organismo, han sido atacadas por virus, están envejecidas, tienen daños en su ADN o problemas de otro tipo, y deben morir para ser sustituidas por células nuevas, jóvenes e íntegras.

La muerte de una célula puede tener un grave impacto sobre su entorno. Cuando dicha muerte se debe a un problema patológico, la célula se descompone por acción de enzimas, ácidos, agentes patógenos u otros elementos, y al degradarse libera a su entorno varias sustancias tóxicas que disparan la reacción inflamatoria de las células circundantes. Cuando ocurre esta muerte traumática y, por usar una metáfora, involuntaria, se desarrolla este proceso de degradación que los biólogos conocen como necrosis.

Construir un cuerpo durante la gestación y el crecimiento, o mantenerlo vivo y sano serían procesos muy difíciles si todas las muertes celulares provocaran los devastadores efectos de la necrosis, pues el cuerpo humano, por usar un ejemplo que nos resulta entrañablemente cercano, experimenta la muerte de alrededor de un millón de células cada minuto que pasa, renovando nuestros tejidos, creciendo, atacando a las enfermedades.

El suicidio

Por fortuna, muy temprano en la historia evolutiva de los seres pluricelulares, apareció un procedimiento de eliminación ordenado, mediante el cual la célula, de nuevo metafóricamente, “se suicida” mediante un proceso genéticamente controlado que permite que muera sin causar los problemas de la necrosis.

A este proceso de autodestrucción se le conoce como apoptosis, o muerte celular programada, es un proceso codificado en los genes de todas las células con núcleo de nuestro organismo.

El científico alemán Karl Vogt, influyente personaje de la biología, la zoología y la fisiología, descubrió el proceso de la muerte celular programada en 1872 durante sus estudios sobre la metamorfosis de los anfibios, en la que la apoptosis juega un importante papel, y fue el primero en describirlo. Aunque otros estudiosos se ocuparon de la muerte de las células, la biología estaba más centrada en entender la vida de la célula que su muerte, y el concepto pasó bastante desapercibido hasta la década de 1960.

En 1964, el biólogo celular Richard A. Lockshin y su director de tesis Carroll Williams publicaron un artículo sobre el gusano de seda y lo que llamaron “muerte celular programada”. Un año después, en 1965, John Kerr observó una clara distinción entre la muerte traumática y lo que llamó, por primera vez, “apoptosis” en 1972. La palabra procede del griego antiguo y significa la caída de los pétalos de una flor o de las hojas en el otoño.

A partir de entonces, el interés general de las ciencias de la vida sobre la apoptosis ha ido creciendo notablemente, igual que los conocimientos sobre sus mecanismos y utilidad para el organismo.

En una descripción muy general, el proceso de muerte programada en la célula comienza con una reducción de su volumen. Su citoplasma se condensa en porciones o vesículas rodeadas de membrana celular, su cromatina o material genético se fracciona en varias masas relativamente grandes que son engullidos por las células circundantes, y se forma una serie de burbujas o cuerpos apoptóticos que contienen en su interior los organelos de la célula que son absorbidos por las células circundantes y por las células llamadas macrófagos.

Patologías y apoptosis

Cuando una célula experimenta una mutación, suele activar el proceso de apoptosis, salvo si la mutación afecta también a los genes responsables de la apoptosis, en cuyo caso la célula afectada sobrevive y puede multiplicarse descontroladamente como un proceso canceroso. Es decir, la desactivación de la apoptosis es un elemento clave en el desarrollo de esta enfermedad.

Igualmente, muchos virus tienen la capacidad de codificar o crear moléculas que inhiben el programa de apoptosis, evitando que la célula muera cuando se lo indican las células del sistema inmune y permitiendo la proliferación del virus.

Del lado contrario, el de la apoptosis acelerada o descontrolada, tenemos numerosas enfermedades degenerativas, como el mal de Parkinson o el Alzheimer, en las cuales mueren células que no deberían hacerlo y que por lo tanto no son sustituidas por otras más jóvenes a velocidad suficiente, dando como resultado una pérdida en las funciones de las que son responsables dichas células.

Adicionalmente, la apoptosis no sólo puede ser desencadenada por los mecanismos interiores de la célula, sino que puede ser resultado de señales enviadas por otras células, muy especialmente las del sistema inmune, que indican químicamente a algunas células que deben autodestruirse.

Estos ejemplos, apenas unos cuantos de entre las muchas patologías en las que juega un papel relevante el control del mecanismo de la apoptosis, bastan para darnos cuenta de por qué las ciencias de la vida están hoy estudiando tan intensamente la apoptosis. Poderla disparar o inhibir a voluntad en zonas determinadas de nuestro organismo podría ayudar tanto a reducir los daños del cáncer, los procesos virales (desde la gripe común hasta el SIDA), las enfermedades degenerativas y otras afecciones, atacando un aspecto de las patologías que no ha sido considerado hasta hoy por nuestro arsenal médico.

La muerte, vista siempre como una tragedia, es sin embargo un requisito esencial de la vida, una forma de contar con organismos sanos y, al final, una necesidad en el peculiar universo de nuestro organismo.

La evolución de la apoptosis

Entre los organelos de la célula, las mitocondrias son especialmente interesantes porque, al parecer, se originaron en bacterias que fueron absorbidas por células primitivas hace miles de millones de años, creando una peculiar simbiosis. Conocidas popularmente por tener su propio ADN, el de la línea materna, tema recurrente en algunas historias televisuales de investigación criminal, las mitocondrias también parecen haberse adaptado para ser las disparadoras del proceso de la apoptosis en las células, una especie de mecanismo de seguridad adquirido.

El pirata científico William Dampier

William Dampier - Project Gutenberg eText 15675
William Dampier
(pintura de T. Murray, D.P.
via Wikimedia Commons)
Un pirata sin estudios pero con una curiosidad insaciable y la decisión de observar cuidadosamente su mundo se convirtió en uno de los pilares de la ciencia moderna.

Resulta difícil menospreciar la enorme influencia y valor de William Dampier, y por lo mismo resulta igualmente difícil aceptar que sea uno de los grandes desconocidos de la historia.

William Dampier nació en 1651, en el cenit de la era de la exploración. Quedaba aún mucho mundo por descubrir para Europa, y las grandes potencias enviaban a sus capitanes a hallarlo y beneficiarse de ello. Motivado por una gran curiosidad, Dampier, hijo de un granjero y huérfano a temprana edad, decidió dedicarse a la mar.

Aventurero precoz, viajó a Terranova y a la Indias Occidentales, hoy las islas del Caribe, peleó en la tercera guerra angloholandesa en 1673, luego regenteó una hacienda en Jamaica y poco después alternaba la piratería con el trabajo de leñador en Campeche, México. En 1679 baja hasta Panamá, cruza el Istmo del Darién y llega a Perú para dedicarse a la piratería en la costa oeste de América, desde Chile hasta California, y después al otro lado del Pacífico, en Filipinas, China y Australia, donde, mientras se realizaban labores de reparación de su barco, tomó abundantes notas sobre la flora, la fauna y los habitantes aborígenes.

Después de fracasar como empresario en Sumatra y volver a la piratería, volvió a Inglaterra en 1691 como aventurero curtido y con numerosas notas y diarios cuidadosamente reunidos.

En 1697 Dampier publicó su primer libro Nuevo viaje alrededor del mundo, que sigue reeditándose hoy en día, pues logró llevar a la imaginación de sus lectores de fines del siglo XVII un mundo de aventuras y de hazañas variadas, erigiéndose en el fundador de la narrativa inglesa moderna gracias a su estilo, descrito como exento de toda afectación y de toda apariencia de invención o fantasía. El poeta Samuel Taylor Coleridge lo consideraba “un hombre con una mente exquisita” y recomendaba a los escritores de viajes que lo leyeran e imitaran.

El éxito del libro llevó a que escribiera el segundo volumen, Viajes y descripciones, publicado en 1699, que incluía un tratado sobre los vientos y la hidrografía, o medición de las aguas navegables. Dampier se revelaba allí como la primera persona que correlacionaba los vientos y las corrientes marítimas, y el primero que hizo mapas integrados de los vientos.

Si a ojos del público común había triunfado como un narrador extraordinario, los datos contenidos en sus libros lo situaron también como un verdadero experto de los mares del sur ante el almirantazgo británico, que lo llamó para consultarle sobre la forma más eficaz de explorar esas aguas, llenas de promesas. Como consecuencia, ese mismo año de 1699 se le dio el mando del pequeño buque Roebuck y se le encargó la exploración de la costa oriental de Australia al mando del velero Saint George.

Dampier exploró y bautizó Shark Bay, la Bahía del Tiburón, y las zonas costeras adyacentes a ella, incluidas las islas del Archipiélago Dampier. Después navegó hacia Nueva Guinea, donde descubrió un grupo de islas, entre ellas Nueva Bretaña, y el Estrecho de Dampier que la separa de la isla principal de Nueva Guinea. En el viaje de regreso, en abril de 1701, su barco naufragó en la Isla Ascensión, en el Atlántico. A su regreso a Gran Bretaña, un tribunal militar lo inhabilitó para comandar los barcos de Su Majestad porque, pese a ser un maestro navegante, era un comandante inepto para su tripulación, de temperamento difícil y dado a la bebida.

Dampier se dio tiempo entonces para escribir un libro sobre su fallido viaje a Australia, Un viaje a Nueva Holanda, cuya primera parte se publicó en 1703, el mismo año en que, sin importar su corte marcial de 1701, se le designaba para encabezar una expedición corsaria con los buques St. George, comandado por el propio Dampier, y Cinque Ports, a cargo del teniente Thomas Stradling. Un marinero de este último barco, el escocés Alexander Selkirk optó por quedarse en la isla deshabitada de Más a Tierra, en el archipiélago chileno de Juan Fernández, frente a la costa chilena, por desconfiar de la integridad del barco.

Pese a circunnavegar el planeta, por segunda ocasión en el caso de Dampier, la expedición fue un fracaso económico y volvió a Inglaterra en 1707 para escribir tanto la Reivindicación del Capitán Dampier sobre su viaje a los mares del sur en el buque St. George, publicado ese mismo año, como la segunda parte de Un viaje a Nueva Holanda, que se publicaría en 1709.

Entre 1708 y 1711, Dampier se unió a un nuevo emprendimiento como piloto del velero Duke capitaneado por Woodes Rogers y con el que daría su tercera vuelta al planeta, convirtiéndose en el primer hombre en conseguirlo. En 1709 fondearon frente a Más a Tierra (hoy Isla Robinson Crusoe) y rescataron a Selkirk. La historia del marinero contada a su vuelta a Inglaterra inspiraría a Daniel Defoe su Robinson Crusoe, publicado en 1719.

Sin embargo, Dampier no conseguiría disfrutar el premio de esa, la primera expedición exitosa en la que participara y que rindió beneficios por 200.000 libras esterlinas, pues murió en 1715 en la más absoluta miseria, cuatro años antes de que los patrocinadores de la expedición pagaran a los tripulantes su parte.

Sus obras siguieron ejerciendo una poderosa influencia. Charles Darwin llevó consigo, en su legendario viaje en el Beagle, los libros de Dampier, a los que llamaba “una mina de información". El uso del concepto de "subespecie" que inició Dampier y su descripción de las islas Galápagos ayudaron a guiar sus observaciones.

El naturalista alemán Alexander Von Humboldt era otro admirador que acudió a la obra de Dampier como trampolín para su trabajo, y Benjamin Franklin elogió la precisión de las observaciones meteorológicas del pirata británico.

Por su parte, las innovadoras tecnologías de navegación de William Dampier fueron estudiadas y aplicadas por sucesores como el explorador James Cook y el almirante Horatio Nelson, la víctima más famosa de la batalla de Trafalgar. Las cartas de navegación que confeccionó son de tal calidad que fueron utilizadas por la armada británica hasta bien entrado el siglo XX.

Más del tesoro del pirata

La descripción de Dampier del árbol del pan motivó el viaje a Tahití del Bounty, capitaneado por William Bligh, en 1787, cuando ocurrió el famoso motín. Jonathan Swift, en sus Viajes de Gulliver, inspirados en parte en las aventuras de Dampier, lo menciona como gran marinero y “primo” de Lemuel Gulliver; los salvajes “yahoos” de la parte cuatro del libro están basados en la descripción de Dampier de los aborígenes australianos. Gabriel García Márquez también menciona a Dampier en su cuento El último viaje del buque fantasma.

La sociedad sexual de los bonobos

Bonobo en el zoológico de Cincinatti
(foto CC Kabir Bakie via Wikimedia Commons)
El sexo puede ser más que una estrategia reproductiva. Puede ser, de modo acaso incómodo, un elemento clave de la estabilidad social, como ocurre con los bonobos.

Al hablar de nuestros más cercanos parientes evolutivos, solemos pensar en el chimpancé común, la especie a la que pertenecía Chita, segunda de a bordo de Tarzán. A esta especie, de nombre científico Pan troglodytes, han pertenecido individuos mundialmente famosos como Congo, el chimpancé pintor uno de cuyos cuadros fue comprado por un rendido Picasso, o Washoe, que aprendió a comunicarse utilizando el lenguaje de los signos.

Sin embargo, existe otra especie de chimpancés, que también sobrevive a duras penas separada de estos tan conocidos seres por el Río Congo, mucho menos extendida, pues sólo existe en la República del Congo. Son los bonobos o chimpancés pigmeos, que llevan el nombre científico de Pan paniscus.

Lo que más llama la atención de la sociedad de los bonobos es su práctica del sexo, de modo continuo, en todas las variantes y posiciones imaginables, con todo tipo de compañeros, y con prácticas que hasta hace poco se consideraban exclusivamente humanas, como el beso de lengua, la cópula cara a cara, la masturbación propia y del compañero, contactos homosexuales, bisexuales, tríos, sexo en grupo... y además todo de una manera sencilla y despreocupada.

Quizá este absoluto sosiego sexual ha ayudado a que los bonobos sean el miembro menos estudiado de la familia de los homínidos, y pueda parecer que están evolutivamente más lejos de nosotros que el chimpancé. Pero los bonobos y los chimpancés comunes se separaron de un antepasado común hace sólo unos dos millones de años, mientras que el ser humano y dicho ancestro se apartaron de su último antepasado común hace siete millones de años. Desde el punto de vista genético, tanto el chimpancé común como el bonobo tienen un 98,4% de ADN idéntico al del ser humano.

Los bonobos no fueron descubiertos sino hasta 1928 por el anatomista alemán Ernst Schwarz, se les reconoció como especie en 1933 y el nombre de “bonobo” no se acuñó sino hasta 1954. Así, la investigación sobre la especie comenzó muy tardíamente respecto de la realizada sobre gorilas, orangutanes y chimpancés, identificados desde 3 siglos antes.

El bonobo tiene un aspecto marcadamente distinto del chimpancé: rostro negro y labios internos muy rojos, cabello largo que parece peinado de raya al medio y llega a cubrirles las orejas, piernas largas, tronco más largo, brazos más cortos, capacidad de agarre de precisión con el pulgar y el índice de los pies y, de modo muy notable, los genitales de las hembras están rotados hacia adelante, algo que también ocurrió en nuestra propia especie de modo independiente, y que favorece la cópula cara a cara.

En términos de comportamiento, el bonobo, como el chimpancé, puede utilizar herramientas, aprender el lenguaje de signos de los sordomudos, cazar y comer a otros animales (incluidos otros primates) y es tan inteligente como su pariente al otro lado del río. La diferencia más notable es que los bonobos exhiben menos agresiones entre los miembros del grupo que los chimpancés comunes, cometen infanticidio y canibalismo de modo menos frecuente y no se les ha visto emprender guerras contra otros grupos como lo hacen los chimpancés.

La intensa sexualidad del bonobo parece ser uno de los elementos clave de su sociedad. Al no saberse de cuál macho puede ser una cría, por ejemplo, eliminan lucha por la supervivencia de los genes propios frente a los de otros machos competidores (causa principal del infanticidio), más crías sobreviven, y todo el grupo cuida a todas las crías y a los genes de todos, lo que sin duda tiene una ventaja evolutiva.

El bonobo tiende a una dominancia de las hembras, donde los machos alfa o dominantes están ligeramente por debajo de las hembras alfa. Las hembras en general establecen estrechos lazos emocionales entre sí, en hermandades sólidas que conducen al grupo. Además, los inevitables enfrentamientos al interior del grupo suelen resolverse mediante un intercambio sexual, sin importar si ambos contendientes pertenecen o no al mismo sexo, ni su edad, siendo sexualmente maduros. Tal intercambio puede implicar únicamente el frotamiento de genitales entre sí de diversas y creativas formas, el masaje manual de los genitales del otro, incluir ardientes besos o llegar a las cópulas frontales o traseras.

La aproximación informal, relajada y abierta de los bonobos a la sexualidad, que para el ser humano es con frecuencia culturalmente tensa y reprimida, ha llevado a muchas personas a buscar interpretaciones humanas, en lo que los etólogos llaman "antropomorfización”, un error que implica suponer en otras especies valores peculiarmente humanos. Ni el bonobo es la representación del mal y del desenfreno sexual que horroriza a muchas religiones, ni es tampoco una especie de primate hippie que hace el amor y no la guerra.

Ni la sexualidad plácida del pacífico bonobo ni la agresión del chimpancé comùn tienen nada que ver con el ser humano. Evolucionaron en respuesta a diferentes entornos mucho después de que se separaran del ser humano. El chimpancé común, más abundante, comparte hábitat con los gorilas y debe luchar por sus alimentos, mientras que el bonobo tuvo la suerte de no contar con competidores relevantes en la zona en que se desarrolla. Las diferencias, pues, no son morales, sino evolutivas.

Esto no significa que no podamos aprender de los bonobos. Buena parte de nuestra especie haya buscado una sexualidad no reproductiva mientras otra parte (con frecuencia relacionada con el poder político, financiero o religioso) ha intentado evitarla. Y la sociedad de los bonobos ha evolucionado de tal modo que el 75% de su actividad sexual es no reproductiva y tiene un efecto social medible y demostrable. Material de sobra para que los filósofos y sociólogos realicen reflexiones sobre nuestra propia sociedad, sus represiones y desarrollo, mientras los bonobos en los bosques del Congo continúan con su intensa, amable e inocente orgía continua.

El desconocido en peligro

El bonobo es probablemente la especie en mayor peligro de extinción de los cuatro grandes simios. Con una población que se calcula entre 10.000 y 100.000 individuos, habitan en los bosques bajos congoleses centrales, cerca de la frontera entre Ruanda y la República del Congo (antes Zaire), y por ello han sido además víctimas colaterales de las guerras y masacres que han asolado a la zona desde 1996. Aunque hay diversas iniciativas para su conservación, la inestabilidad política, la necesidad de orientar recursos primero a las personas victimizadas por las guerras y la cacería furtiva, permanece el riesgo de que la especie se extinga antes de que siquiera la hayamos podido conocer a fondo.