Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La ciencia ante la belleza

Fotografía ©Mauricio-José Schwarz
El profundo tema de la belleza está siendo enfrentado por la ciencia, con la certeza de que saber objetivamente cómo nos afecta no hará menos intensos nuestros sentimientos subjetivos.

Ciertas cosas nos parecen bellas y otras no. Dado lo intensa que resulta nuestra reacción ante la belleza (y ante su opuesto, lo feo), el tema ha sido apasionadamente estudiado por la filosofía. Y también por la ciencia. Así, Pitágoras impulsó el desarrollo de la música al descubrir que los intervalos musicales no son sino subdivisiones matemáticas de las notas.

Grecia también nos dio el descubrimiento de la proporción áurea, también tema de Pitágoras y de Euclides, y que es cuando dos cantidades tienen un cociente de 1.618, la constante denotada con la letra griega “fi”. Esta proporción resulta especialmente atractiva a la vista, y los artistas la han usado en sus obras, desde los templos griegos, como el Partenón, que al parecer está construido sobre una serie de rectángulos dorados, hasta una gran parte de la pintura, arquitectura y escultura renacentista.

La proporción áurea, como se descubrió después, está también presente en la naturaleza, en elementos tan diversos como la concha del cefalópodo arcaico llamado nautilus o las espirales que forman las semillas de los girasoles (o pipas).

Pero nada de esto nos dice qué es lo bello y, menos aún, por qué nos lo parece.

Tuvo que llegar la psicología del siglo XX para empezar a analizar experimentalmente nuestras percepciones y tendencias y abrir el camino a la explicación científica de por qué algo nos parece bello.

La ciencia del arte

Uno de los más importantes neurocientíficos, Vilayanur S. Ramachandran de la Universidad de California, junto con el filósofo William Hirstein, se propuso disparar el estudio neurológico del arte con un artículo publicado en 1999 en el que proponía entender el arte a través, tentativamente, de ocho “leyes de la experiencia artística”, basado en sus estudios del cerebro y, especialmente, de alteraciones neurológicas como las que padecen los savants, que suelen tener una gran facilidad para la creación artística, tanto musical como gráfica.

Para Ramachandran y Hirstein, en la percepción del arte influye ante todo el “efecto de desplazamiento del pico”, que es fundamentalmente nuestra tendencia a la exageración. Si se entrena a un animal para diferenciar un cuadrado y un rectángulo de proporción 2:3, premiándolo por responder ante el rectángulo, la respuesta será aún más intensa ante un rectángulo más alargado, digamos de proporción 4:1. Es lo que hace un caricaturista al destacar los rasgos distintivos y eliminar o reducir los demás, provocando en nosotros el reconocimiento. O lo que hace el artista al destacar unos elementos placenteros y obviar otros.

Entre los aspectos propuestos por Ramachandran y Hirstein, uno de los más apasionantes es el de la metáfora. Cuando se hace una comparación metafórica como “Julieta es el sol”, tenemos que entender (y nos satisface hacerlo) que Julieta es tibia y protectora, no que sea amarilla y llameante. El proceso de comprensión de la analogía es en sí un misterio, pero más aún lo es el por qué, sobre todo desde un punto de vista evolutivo, nos resulta gratificante hacerlo.

Según estos estudiosos, el arte incluye aspectos como el aislamiento de un elemento de entre muchos al cual prestarle atención, la agrupación de elementos y algo que la psicología cognitiva tiene muy en cuenta en el estudio de la belleza humana: la simetría.

El rostro humano

Los estudios sobre la belleza humana también demuestran que la simetría es uno de los requisitos esenciales de la belleza, y esto ocurre en todas las culturas humanas y a todas las edades. Los bebés prefieren observar objetos o rostros simétricos en lugar de los que no lo son.

Otro de los descubrimientos asombrosos sobre el rostro humano es que un “promedio” informático de una gran cantidad de fotografías tiende a ser apreciado como más hermoso que los rostros que le dieron origen. Al menos en cierta medida, consideramos bello lo que tiende a la media.

Las características “infantiles” de las crías de los animales con cuidados paternos (grandes ojos, nariz y boca pequeñas, gran cabeza), disparan en nosotros reacciones de ternura y cuidado. Los estudios han determinado que estos rasgos son también un componente de la belleza, especialmente la femenina. El rostro de la mujer adulta retiene ciertos rasgos infantiles que el hombre pierde con la madurez sexual. Aunque cierta feminidad en el rostro del hombre tambíen es apreciada como un componente de belleza por las mujeres.

A fines de los años 90, los psicólogos Víctor Johnston y Juan Oliver-Rodríguez consiguieron observar al cerebro humano reaccionando ante la belleza, al analizar electroencefalogramas de sujetos que habían visto una serie de rostros. Unas ondas, llamadas “potenciales relacionados con acontecimientos” aumentaban cuando los sujetos observaban rostros que consideraban hermosos.

Aunque no conocemos aún el mecanismo paso a paso, sabemos que la sensación placentera que nos provoca la contemplación de la belleza surge de la activación del sistema límbico, una serie de estructuras en lo más profundo de nuestro cerebro donde residen las sensaciones de placer y de anticipación ante la posibilidad del placer.

Todos los elementos que contribuyen a que una persona sea considerada hermosa o no (y dejamos fuera muchos, como el de la estatura) son independientes de la cultura. Aunque cada cultura realizan sus peculiares variaciones sobre los temas básicos, ninguna considera especialmente bellos la asimetría, la piel defectuosa, los extremos apartados de la media o los rostros femeninos duros, angulosos y sin rasgos infantiles.

Queda por averiguar, por supuesto, qué valor evolutivo tiene nuestra apreciación de la belleza, cómo surgió en nuestra historia, por qué y, sobre todo, cómo funciona paso a paso.

Los biólogos evolutivos proponen que quizá la belleza comunica a los demás la calidad y deseabilidad de su portador. Así parece funcionar en todas las especies que tienen rasgos decorativos para atraer a sus potenciales parejas mostrando su salud, fuerza y capacidades, aunque esto no tenga, en nuestra sociedad tecnológica, el valor que pudo tener hace cien o doscientos mil años.

Esclavos de la belleza

Los estudios demuestran que las personas guapas tienen mejores oportunidades en nuestra sociedad, en la vida profesional y personal. Si queremos allanar el campo de juego debemos entender el mecanismo de este hecho, que hoy parece que no es, como se quiso creer en las últimas décadas, un asunto meramente cultural. Porque finalmente, como dice Ulrich Renz, autor de La ciencia de la belleza, si existiera una píldora para hacernos más bellos... ¿quién no la tomaría?

La muerte organizada de las células

Celldeath
Dos dedos de los pies han quedado unidos debido
a una mutación que ha inhibido la apoptosis
(foto GDFL pschemp via
Wikimedia Commons)
Una parte curiosa del desarrollo de los organismos a lo largo de toda su vida es la destrucción de algunas de sus células con un objetivo determinado, células que están dañadas, envejecidas o han tenido una utilidad y han dejado de tenerla.

Por ejemplo, en el desarrollo del feto humano, como podemos ver en las fotografías tomadas dentro del útero, todos tuvimos manos y pies palmeados, con los dedos unidos por una membrana. En un momento del desarrollo, es necesario que las células de esas membranas se eliminen, que mueran para liberar a los dedos.

Otro ejemplo es el colapso del endometrio en el útero femenino, que comienza por la muerte de las células que lo unen al útero y disparar el período menstrual. O las células que representan un riesgo para el organismo, han sido atacadas por virus, están envejecidas, tienen daños en su ADN o problemas de otro tipo, y deben morir para ser sustituidas por células nuevas, jóvenes e íntegras.

La muerte de una célula puede tener un grave impacto sobre su entorno. Cuando dicha muerte se debe a un problema patológico, la célula se descompone por acción de enzimas, ácidos, agentes patógenos u otros elementos, y al degradarse libera a su entorno varias sustancias tóxicas que disparan la reacción inflamatoria de las células circundantes. Cuando ocurre esta muerte traumática y, por usar una metáfora, involuntaria, se desarrolla este proceso de degradación que los biólogos conocen como necrosis.

Construir un cuerpo durante la gestación y el crecimiento, o mantenerlo vivo y sano serían procesos muy difíciles si todas las muertes celulares provocaran los devastadores efectos de la necrosis, pues el cuerpo humano, por usar un ejemplo que nos resulta entrañablemente cercano, experimenta la muerte de alrededor de un millón de células cada minuto que pasa, renovando nuestros tejidos, creciendo, atacando a las enfermedades.

El suicidio

Por fortuna, muy temprano en la historia evolutiva de los seres pluricelulares, apareció un procedimiento de eliminación ordenado, mediante el cual la célula, de nuevo metafóricamente, “se suicida” mediante un proceso genéticamente controlado que permite que muera sin causar los problemas de la necrosis.

A este proceso de autodestrucción se le conoce como apoptosis, o muerte celular programada, es un proceso codificado en los genes de todas las células con núcleo de nuestro organismo.

El científico alemán Karl Vogt, influyente personaje de la biología, la zoología y la fisiología, descubrió el proceso de la muerte celular programada en 1872 durante sus estudios sobre la metamorfosis de los anfibios, en la que la apoptosis juega un importante papel, y fue el primero en describirlo. Aunque otros estudiosos se ocuparon de la muerte de las células, la biología estaba más centrada en entender la vida de la célula que su muerte, y el concepto pasó bastante desapercibido hasta la década de 1960.

En 1964, el biólogo celular Richard A. Lockshin y su director de tesis Carroll Williams publicaron un artículo sobre el gusano de seda y lo que llamaron “muerte celular programada”. Un año después, en 1965, John Kerr observó una clara distinción entre la muerte traumática y lo que llamó, por primera vez, “apoptosis” en 1972. La palabra procede del griego antiguo y significa la caída de los pétalos de una flor o de las hojas en el otoño.

A partir de entonces, el interés general de las ciencias de la vida sobre la apoptosis ha ido creciendo notablemente, igual que los conocimientos sobre sus mecanismos y utilidad para el organismo.

En una descripción muy general, el proceso de muerte programada en la célula comienza con una reducción de su volumen. Su citoplasma se condensa en porciones o vesículas rodeadas de membrana celular, su cromatina o material genético se fracciona en varias masas relativamente grandes que son engullidos por las células circundantes, y se forma una serie de burbujas o cuerpos apoptóticos que contienen en su interior los organelos de la célula que son absorbidos por las células circundantes y por las células llamadas macrófagos.

Patologías y apoptosis

Cuando una célula experimenta una mutación, suele activar el proceso de apoptosis, salvo si la mutación afecta también a los genes responsables de la apoptosis, en cuyo caso la célula afectada sobrevive y puede multiplicarse descontroladamente como un proceso canceroso. Es decir, la desactivación de la apoptosis es un elemento clave en el desarrollo de esta enfermedad.

Igualmente, muchos virus tienen la capacidad de codificar o crear moléculas que inhiben el programa de apoptosis, evitando que la célula muera cuando se lo indican las células del sistema inmune y permitiendo la proliferación del virus.

Del lado contrario, el de la apoptosis acelerada o descontrolada, tenemos numerosas enfermedades degenerativas, como el mal de Parkinson o el Alzheimer, en las cuales mueren células que no deberían hacerlo y que por lo tanto no son sustituidas por otras más jóvenes a velocidad suficiente, dando como resultado una pérdida en las funciones de las que son responsables dichas células.

Adicionalmente, la apoptosis no sólo puede ser desencadenada por los mecanismos interiores de la célula, sino que puede ser resultado de señales enviadas por otras células, muy especialmente las del sistema inmune, que indican químicamente a algunas células que deben autodestruirse.

Estos ejemplos, apenas unos cuantos de entre las muchas patologías en las que juega un papel relevante el control del mecanismo de la apoptosis, bastan para darnos cuenta de por qué las ciencias de la vida están hoy estudiando tan intensamente la apoptosis. Poderla disparar o inhibir a voluntad en zonas determinadas de nuestro organismo podría ayudar tanto a reducir los daños del cáncer, los procesos virales (desde la gripe común hasta el SIDA), las enfermedades degenerativas y otras afecciones, atacando un aspecto de las patologías que no ha sido considerado hasta hoy por nuestro arsenal médico.

La muerte, vista siempre como una tragedia, es sin embargo un requisito esencial de la vida, una forma de contar con organismos sanos y, al final, una necesidad en el peculiar universo de nuestro organismo.

La evolución de la apoptosis

Entre los organelos de la célula, las mitocondrias son especialmente interesantes porque, al parecer, se originaron en bacterias que fueron absorbidas por células primitivas hace miles de millones de años, creando una peculiar simbiosis. Conocidas popularmente por tener su propio ADN, el de la línea materna, tema recurrente en algunas historias televisuales de investigación criminal, las mitocondrias también parecen haberse adaptado para ser las disparadoras del proceso de la apoptosis en las células, una especie de mecanismo de seguridad adquirido.

El pirata científico William Dampier

William Dampier - Project Gutenberg eText 15675
William Dampier
(pintura de T. Murray, D.P.
via Wikimedia Commons)
Un pirata sin estudios pero con una curiosidad insaciable y la decisión de observar cuidadosamente su mundo se convirtió en uno de los pilares de la ciencia moderna.

Resulta difícil menospreciar la enorme influencia y valor de William Dampier, y por lo mismo resulta igualmente difícil aceptar que sea uno de los grandes desconocidos de la historia.

William Dampier nació en 1651, en el cenit de la era de la exploración. Quedaba aún mucho mundo por descubrir para Europa, y las grandes potencias enviaban a sus capitanes a hallarlo y beneficiarse de ello. Motivado por una gran curiosidad, Dampier, hijo de un granjero y huérfano a temprana edad, decidió dedicarse a la mar.

Aventurero precoz, viajó a Terranova y a la Indias Occidentales, hoy las islas del Caribe, peleó en la tercera guerra angloholandesa en 1673, luego regenteó una hacienda en Jamaica y poco después alternaba la piratería con el trabajo de leñador en Campeche, México. En 1679 baja hasta Panamá, cruza el Istmo del Darién y llega a Perú para dedicarse a la piratería en la costa oeste de América, desde Chile hasta California, y después al otro lado del Pacífico, en Filipinas, China y Australia, donde, mientras se realizaban labores de reparación de su barco, tomó abundantes notas sobre la flora, la fauna y los habitantes aborígenes.

Después de fracasar como empresario en Sumatra y volver a la piratería, volvió a Inglaterra en 1691 como aventurero curtido y con numerosas notas y diarios cuidadosamente reunidos.

En 1697 Dampier publicó su primer libro Nuevo viaje alrededor del mundo, que sigue reeditándose hoy en día, pues logró llevar a la imaginación de sus lectores de fines del siglo XVII un mundo de aventuras y de hazañas variadas, erigiéndose en el fundador de la narrativa inglesa moderna gracias a su estilo, descrito como exento de toda afectación y de toda apariencia de invención o fantasía. El poeta Samuel Taylor Coleridge lo consideraba “un hombre con una mente exquisita” y recomendaba a los escritores de viajes que lo leyeran e imitaran.

El éxito del libro llevó a que escribiera el segundo volumen, Viajes y descripciones, publicado en 1699, que incluía un tratado sobre los vientos y la hidrografía, o medición de las aguas navegables. Dampier se revelaba allí como la primera persona que correlacionaba los vientos y las corrientes marítimas, y el primero que hizo mapas integrados de los vientos.

Si a ojos del público común había triunfado como un narrador extraordinario, los datos contenidos en sus libros lo situaron también como un verdadero experto de los mares del sur ante el almirantazgo británico, que lo llamó para consultarle sobre la forma más eficaz de explorar esas aguas, llenas de promesas. Como consecuencia, ese mismo año de 1699 se le dio el mando del pequeño buque Roebuck y se le encargó la exploración de la costa oriental de Australia al mando del velero Saint George.

Dampier exploró y bautizó Shark Bay, la Bahía del Tiburón, y las zonas costeras adyacentes a ella, incluidas las islas del Archipiélago Dampier. Después navegó hacia Nueva Guinea, donde descubrió un grupo de islas, entre ellas Nueva Bretaña, y el Estrecho de Dampier que la separa de la isla principal de Nueva Guinea. En el viaje de regreso, en abril de 1701, su barco naufragó en la Isla Ascensión, en el Atlántico. A su regreso a Gran Bretaña, un tribunal militar lo inhabilitó para comandar los barcos de Su Majestad porque, pese a ser un maestro navegante, era un comandante inepto para su tripulación, de temperamento difícil y dado a la bebida.

Dampier se dio tiempo entonces para escribir un libro sobre su fallido viaje a Australia, Un viaje a Nueva Holanda, cuya primera parte se publicó en 1703, el mismo año en que, sin importar su corte marcial de 1701, se le designaba para encabezar una expedición corsaria con los buques St. George, comandado por el propio Dampier, y Cinque Ports, a cargo del teniente Thomas Stradling. Un marinero de este último barco, el escocés Alexander Selkirk optó por quedarse en la isla deshabitada de Más a Tierra, en el archipiélago chileno de Juan Fernández, frente a la costa chilena, por desconfiar de la integridad del barco.

Pese a circunnavegar el planeta, por segunda ocasión en el caso de Dampier, la expedición fue un fracaso económico y volvió a Inglaterra en 1707 para escribir tanto la Reivindicación del Capitán Dampier sobre su viaje a los mares del sur en el buque St. George, publicado ese mismo año, como la segunda parte de Un viaje a Nueva Holanda, que se publicaría en 1709.

Entre 1708 y 1711, Dampier se unió a un nuevo emprendimiento como piloto del velero Duke capitaneado por Woodes Rogers y con el que daría su tercera vuelta al planeta, convirtiéndose en el primer hombre en conseguirlo. En 1709 fondearon frente a Más a Tierra (hoy Isla Robinson Crusoe) y rescataron a Selkirk. La historia del marinero contada a su vuelta a Inglaterra inspiraría a Daniel Defoe su Robinson Crusoe, publicado en 1719.

Sin embargo, Dampier no conseguiría disfrutar el premio de esa, la primera expedición exitosa en la que participara y que rindió beneficios por 200.000 libras esterlinas, pues murió en 1715 en la más absoluta miseria, cuatro años antes de que los patrocinadores de la expedición pagaran a los tripulantes su parte.

Sus obras siguieron ejerciendo una poderosa influencia. Charles Darwin llevó consigo, en su legendario viaje en el Beagle, los libros de Dampier, a los que llamaba “una mina de información". El uso del concepto de "subespecie" que inició Dampier y su descripción de las islas Galápagos ayudaron a guiar sus observaciones.

El naturalista alemán Alexander Von Humboldt era otro admirador que acudió a la obra de Dampier como trampolín para su trabajo, y Benjamin Franklin elogió la precisión de las observaciones meteorológicas del pirata británico.

Por su parte, las innovadoras tecnologías de navegación de William Dampier fueron estudiadas y aplicadas por sucesores como el explorador James Cook y el almirante Horatio Nelson, la víctima más famosa de la batalla de Trafalgar. Las cartas de navegación que confeccionó son de tal calidad que fueron utilizadas por la armada británica hasta bien entrado el siglo XX.

Más del tesoro del pirata

La descripción de Dampier del árbol del pan motivó el viaje a Tahití del Bounty, capitaneado por William Bligh, en 1787, cuando ocurrió el famoso motín. Jonathan Swift, en sus Viajes de Gulliver, inspirados en parte en las aventuras de Dampier, lo menciona como gran marinero y “primo” de Lemuel Gulliver; los salvajes “yahoos” de la parte cuatro del libro están basados en la descripción de Dampier de los aborígenes australianos. Gabriel García Márquez también menciona a Dampier en su cuento El último viaje del buque fantasma.

La sociedad sexual de los bonobos

Bonobo en el zoológico de Cincinatti
(foto CC Kabir Bakie via Wikimedia Commons)
El sexo puede ser más que una estrategia reproductiva. Puede ser, de modo acaso incómodo, un elemento clave de la estabilidad social, como ocurre con los bonobos.

Al hablar de nuestros más cercanos parientes evolutivos, solemos pensar en el chimpancé común, la especie a la que pertenecía Chita, segunda de a bordo de Tarzán. A esta especie, de nombre científico Pan troglodytes, han pertenecido individuos mundialmente famosos como Congo, el chimpancé pintor uno de cuyos cuadros fue comprado por un rendido Picasso, o Washoe, que aprendió a comunicarse utilizando el lenguaje de los signos.

Sin embargo, existe otra especie de chimpancés, que también sobrevive a duras penas separada de estos tan conocidos seres por el Río Congo, mucho menos extendida, pues sólo existe en la República del Congo. Son los bonobos o chimpancés pigmeos, que llevan el nombre científico de Pan paniscus.

Lo que más llama la atención de la sociedad de los bonobos es su práctica del sexo, de modo continuo, en todas las variantes y posiciones imaginables, con todo tipo de compañeros, y con prácticas que hasta hace poco se consideraban exclusivamente humanas, como el beso de lengua, la cópula cara a cara, la masturbación propia y del compañero, contactos homosexuales, bisexuales, tríos, sexo en grupo... y además todo de una manera sencilla y despreocupada.

Quizá este absoluto sosiego sexual ha ayudado a que los bonobos sean el miembro menos estudiado de la familia de los homínidos, y pueda parecer que están evolutivamente más lejos de nosotros que el chimpancé. Pero los bonobos y los chimpancés comunes se separaron de un antepasado común hace sólo unos dos millones de años, mientras que el ser humano y dicho ancestro se apartaron de su último antepasado común hace siete millones de años. Desde el punto de vista genético, tanto el chimpancé común como el bonobo tienen un 98,4% de ADN idéntico al del ser humano.

Los bonobos no fueron descubiertos sino hasta 1928 por el anatomista alemán Ernst Schwarz, se les reconoció como especie en 1933 y el nombre de “bonobo” no se acuñó sino hasta 1954. Así, la investigación sobre la especie comenzó muy tardíamente respecto de la realizada sobre gorilas, orangutanes y chimpancés, identificados desde 3 siglos antes.

El bonobo tiene un aspecto marcadamente distinto del chimpancé: rostro negro y labios internos muy rojos, cabello largo que parece peinado de raya al medio y llega a cubrirles las orejas, piernas largas, tronco más largo, brazos más cortos, capacidad de agarre de precisión con el pulgar y el índice de los pies y, de modo muy notable, los genitales de las hembras están rotados hacia adelante, algo que también ocurrió en nuestra propia especie de modo independiente, y que favorece la cópula cara a cara.

En términos de comportamiento, el bonobo, como el chimpancé, puede utilizar herramientas, aprender el lenguaje de signos de los sordomudos, cazar y comer a otros animales (incluidos otros primates) y es tan inteligente como su pariente al otro lado del río. La diferencia más notable es que los bonobos exhiben menos agresiones entre los miembros del grupo que los chimpancés comunes, cometen infanticidio y canibalismo de modo menos frecuente y no se les ha visto emprender guerras contra otros grupos como lo hacen los chimpancés.

La intensa sexualidad del bonobo parece ser uno de los elementos clave de su sociedad. Al no saberse de cuál macho puede ser una cría, por ejemplo, eliminan lucha por la supervivencia de los genes propios frente a los de otros machos competidores (causa principal del infanticidio), más crías sobreviven, y todo el grupo cuida a todas las crías y a los genes de todos, lo que sin duda tiene una ventaja evolutiva.

El bonobo tiende a una dominancia de las hembras, donde los machos alfa o dominantes están ligeramente por debajo de las hembras alfa. Las hembras en general establecen estrechos lazos emocionales entre sí, en hermandades sólidas que conducen al grupo. Además, los inevitables enfrentamientos al interior del grupo suelen resolverse mediante un intercambio sexual, sin importar si ambos contendientes pertenecen o no al mismo sexo, ni su edad, siendo sexualmente maduros. Tal intercambio puede implicar únicamente el frotamiento de genitales entre sí de diversas y creativas formas, el masaje manual de los genitales del otro, incluir ardientes besos o llegar a las cópulas frontales o traseras.

La aproximación informal, relajada y abierta de los bonobos a la sexualidad, que para el ser humano es con frecuencia culturalmente tensa y reprimida, ha llevado a muchas personas a buscar interpretaciones humanas, en lo que los etólogos llaman "antropomorfización”, un error que implica suponer en otras especies valores peculiarmente humanos. Ni el bonobo es la representación del mal y del desenfreno sexual que horroriza a muchas religiones, ni es tampoco una especie de primate hippie que hace el amor y no la guerra.

Ni la sexualidad plácida del pacífico bonobo ni la agresión del chimpancé comùn tienen nada que ver con el ser humano. Evolucionaron en respuesta a diferentes entornos mucho después de que se separaran del ser humano. El chimpancé común, más abundante, comparte hábitat con los gorilas y debe luchar por sus alimentos, mientras que el bonobo tuvo la suerte de no contar con competidores relevantes en la zona en que se desarrolla. Las diferencias, pues, no son morales, sino evolutivas.

Esto no significa que no podamos aprender de los bonobos. Buena parte de nuestra especie haya buscado una sexualidad no reproductiva mientras otra parte (con frecuencia relacionada con el poder político, financiero o religioso) ha intentado evitarla. Y la sociedad de los bonobos ha evolucionado de tal modo que el 75% de su actividad sexual es no reproductiva y tiene un efecto social medible y demostrable. Material de sobra para que los filósofos y sociólogos realicen reflexiones sobre nuestra propia sociedad, sus represiones y desarrollo, mientras los bonobos en los bosques del Congo continúan con su intensa, amable e inocente orgía continua.

El desconocido en peligro

El bonobo es probablemente la especie en mayor peligro de extinción de los cuatro grandes simios. Con una población que se calcula entre 10.000 y 100.000 individuos, habitan en los bosques bajos congoleses centrales, cerca de la frontera entre Ruanda y la República del Congo (antes Zaire), y por ello han sido además víctimas colaterales de las guerras y masacres que han asolado a la zona desde 1996. Aunque hay diversas iniciativas para su conservación, la inestabilidad política, la necesidad de orientar recursos primero a las personas victimizadas por las guerras y la cacería furtiva, permanece el riesgo de que la especie se extinga antes de que siquiera la hayamos podido conocer a fondo.

El debate de la homeopatía en el Reino Unido

Ningún preparado homeopático ha podido
demostrar eficacia curativa bajo condiciones
científicas satisfactorias.
(foto D.P. Wikidudeman, via Wikimedia Commons)
¿Debe la sanidad pública financiar una supuesta terapia que en más de 200 años no ha conseguido dar una sola prueba de su eficacia y que además rechaza toda la ciencia?

El Comité de Ciencia y Tecnología de la Cámara de los Comunes británica realizaba audiencias sobre la homeopatía, práctica a la que el servicio nacional de salud británico destina alrededor de 4 millones de libras esterlinas y bajo fuertes críticas por parte de médicos, científicos y defensores de los derechos de los pacientes.

El 25 de noviembre de 2009 estalló la bomba informativa, el director de estándares profesionales de Boots, la mayor cadena farmacéutica de la Gran Bretaña, confesaba a los parlamentarios: “Ciertamente hay una demanda de los consumidores por estos productos. No tengo ninguna evidencia de que sean eficaces”.

Como en tantos otros escándalos farmacéuticos, se descubría que el negocio valía más que la ciencia. Bennet añadió: “Para nosotros es cuestión de elección del consumidor, y un gran número de nuestros clientes creen que son eficaces”.

La respuesta la dio el Dr. James Thallon, director médico del grupo de atención primaria de West Kent del NHS: "Si se le receta un medicamento a los pacientes que sabemos que no tiene eficacia, en una base que es esencialmente deshonesta con dicho paciente, personalmente considero que es poco ético”.

Es verdad que un gran número de personas creen que los amuletos, el agua bendita o las velas negras con encantamientos son medicamentos eficaces. ¿Acaso esto justificaría que estos productos se expendan en las farmacias sin dar ni una prueba de ser realmente eficaces? Más aún, si para comercializar un producto se demanda a las farmacéuticas cumplir con numerosas exigencias científicas sobre seguridad, eficacia, pruebas clínicas, estudios de laboratorio, etc., ¿por qué la homeopatía debe estar exenta de tales exigencias?

Las críticas

Una y otra vez se han expresado críticas inquietantes a la homeopatía: sus supuestos medicamentos no contienen ningún principio activo, dadas las tremendas diluciones utilizadas por sus procedimientos; que los mecanismos que postula contravienen cuanto conocemos del universo en lo referente a la física, la química y la biología; que las enfermedades no son causadas por “miasmas” sino por gérmenes patógenos o trastornos anatómicos, fisiológicos o genéticos, etc.; pero sobre todo y de manera fundamental, que nunca ha habido estudios que demuestren que la homeopatía funciona. Si hubiera pruebas sólidas de su eficacia, toda crítica sería irrelevante.

Quienes utilizan la homeopatía, suelen defenderla porque “les funciona”, sin admitir que podrían no estar interpretando los hechos correctamente. ¿Cómo saber si el preparado homeopático fue responsable de la curación o la enfermedad siguió su curso normal, o el tratamiento médico concurrente fue el responsable, o simplemente el cuerpo se curó solo como hace las más de las veces?

El método que utilizamos para conocer la respuesta a esta pregunta es una variante del método experimental llamada “de doble ciego”, en la que se mantienen estrictos controles sobre el entorno de los pacientes, algunos de los cuales reciben el medicamento bajo estudio, otros reciben un placebo con el mismo aspecto, sabor, etc. que el medicamento. Los pacientes no saben si están recibiendo el medicamento o el placebo. El concepto “doble ciego” se refiere a que el médico que administra el tratamiento tampoco sabe qué está administrando, de modo que sus expectativas, opiniones (favorables o desfavorables) y actitudes personales no afecten a los pacientes, como ha demostrado la psicología que pueden hacerlo.

Si el medicamento tiene una eficacia estadísticamente superior a la del placebo, tenemos una certeza razonable de que es, efectivamente, el responsable de los efectos. Si es igual al placebo, es razonable suponer que dicho medicamento es ineficaz.

La homeopatía ha luchado por no someterse a estudios con una serie de pretextos y coartadas incomprensibles a la luz de sus afirmaciones sobre su eficacia superior a la de la medicina basada en evidencias. Cuando tales estudios se han realizado, el resultado, una y otra vez, es que la homeopatía no es más eficaz que un placebo, al grado que la prestigiosa revista médica The Lancet editorializó en 2005 que había llegado el fin de la homeopatía.

Las conclusiones

El 22 de febrero de 2010, el comité del parlamento publicó su informe sobre la evidencia respecto de la homeopatía” y pidió al gobierno que retirara la financiación estatal de la homeopatía, y que la agencia reguladora de los medicamentos y productos de salud del Reino Unido no permitiera que las etiquetas de los productos homeopáticos hicieran afirmaciones médicas o aseguraran su capacidad terapéutica si no presentaban evidencia de su eficacia. El comité señaló además que recetar placebos sin que el paciente lo sepa es incompatible con los derechos de libre elección del consumidor.

Como resumió el presidente del comité, Phil Willis, buscaban determinar “si las políticas del gobierno sobre la homeopatía están basadas en la evidencia actual, y no lo están".

Los médicos jóvenes de la Asociación Médica Británica, declararon en mayo que la homeopatía no es distinta de la brujería y se unieron a la solicitud de quitarle el subsidio público en medio de la actual crisis económica que ha afectado profundamente al NHS.

Sin embargo, el 28 de julio 2010, el nuevo ministro de salud conservador, Andrew Lansley, decidió ignorar la evidencia y las recomendaciones de los parlamentarios y de los médicos, y declaró que el NHS seguiría financiando esta práctica. De hecho, abrió la puerta al incremento de los fondos dedicados a la homeopatía y se negó a restringir las afirmaciones no probadas que hace la publicidad homeopática.

Si bien esta decisión no cierra el debate, es un ejemplo muy claro de qué puede pasar cuando un gobierno, un grupo de políticos, deciden no normar sus criterios mediante la mejor evidencia científica disponible. La duda que queda, adicionalmente, es si en la misma lógica se deben financiar los cientos de autoproclamadas medicinas alternativas y prácticas religiosas que tampoco tienen evidencias de su eficacia pero cuentan con partidarios encendidos que creen en ellas. ¿Cuál debe ser el criterio para gestionar la salud de un país moderno?

La favorita del reino

En el mes de agosto, el NHS de Tayside, escocia, anunció que buscaba a un homeópata al que ofrecía un salario de entre 37 mil y 68 mil euros al año por sólo 8 horas a la semana para atender a un máximo de 16 pacientes. Numerosos científicos y médicos han solicitado el puesto como forma de protesta, entre ellos el columnista de The Guardian Simon Singh, uno de los principales divulgadores científicos ingleses. El NHS no ha comentado.

Cómo conservamos nuestros alimentos

Nicholas Appert, inventor de las conservas
(imagen D.P. via Wikimedia Commons)
El ser humano ha luchado durante toda su historia por mantener sus alimentos a salvo de bacterias, hongos y otros factores dañinos.

El problema de la conservación de los alimentos ha sido preocupación principal del ser humano durante toda su existencia, porque... ¿de qué sirve acumular comida, ser previsores y llenar nuestras despensas si la comida se echa a perder, se pudre, se enmohece, se arrancia, se endurece, pierde color y sabor y finalmente resulta imposible de comer? Una buena cosecha o una cuantiosa cacería, no son de abundancia a largo plazo si no se conservan.

La conservación de los alimentos tuvo una importancia capital para la supervivencia y el desarrollo de nuestra especie, facilitando el paso del nomadismo al sedentarismo, el comercio de alimentos a gran distancia, que más gente tuviera acceso a mejores alimentos, reduciendo las enfermedades transmitidas por los alimentos y, por supuesto, permitió la supervivencia al ofrecer suministros para enfrentar los inviernos y los tiempos de mala cacería o bajos rendimientos agrícolas.

La lucha por la conservación de los alimentos se da en dos frentes. El primero busca combatir, inhibir o dejar fuera a las bacterias que producen la descomposición. El segundo busca mantener o aumentar incluso las características que percibimos de los alimentos (su color, sabor, aspecto, aroma, etc., que es lo que los expertos conocen como sus “propiedades organolépticas”.

En las sociedades prehistóricas, el método más común para preservar los alimentos era cocinarlos de diversas formas. Este proceso mata a los microorganismos responsables de la descomposición y los mantiene a raya más tiempo. Además, nuestros ancestros crearon procedimientos para conservar la carne que seguimos usando, como el ahumado, que es antimicrobiano y antioxidante; el curado con sal, que impide la proliferación de bacterias al deshidratarlas cuando entran en contacto con la sal, y el secado mediante el sol, que al eliminar la humedad del alimento dificulta igualmente la proliferación bacteriana.

Otro procedimiento tradicional para conservar los alimentos es la fermentación, como la del vino, los quesos o la cerveza, en la que se somete al alimento a la acción de unos microorganismos concretos (levaduras y mohos) que ocupan el lugar que de otro modo tendrían organismos que descomponen los alimentos. Precisamente este medio ambiente tóxico es el que crean los hongos del genus o grupo de especies Penicillium, al producir la sustancia que llamamos penicilina, un potente antibiótico, y que son los responsables de la preservación de los quesos azules, el camembert, el brie y otros.

Las conservas en salmuera, vinagre, alcohol o aceites vegetales, que son líquidos comestibles, funcionan inhibiendo el crecimiento de las bacterias o matándolas, mientras que la conserva de productos cocinados en líquidos con alto contenido de azúcar (como las mermeladas) evita las bacterias porque tiene una presión osmótica tan elevada que no permite que vivan casi microbios en su interior.

Estos sistemas fueron los básicos de la conservación de alimentos hasta el siglo XVIII, cuando la tecnología empezó a desarrollar nuevas opciones. En 1810, el confitero francés Nicholas Appert dio a conocer su invención de la conservación hermética de los alimentos, que colocaba en frascos de vidrio que sellaba con corcho y lacre, y posteriormente colocaba en agua hirviendo. Cambiando los frascos de vidrio por latas metálicas se obtiene el moderno sistema de enlatado.

Enfriar o congelar los alimentos fue un método marginal usado en zonas donde se podía recoger hielo o nieve, pero no se pudo utilizar ampliamente sino hasta la creación de la refrigeración artificial en 1756, que llevó a la producción artificial de hielo y, finalmente, a las neveras mecánicas domésticas, que empezaron a llegar a los hogares en 1911.

A este arsenal de métodos de conservación se han añadido otros en los últimos años, que van desde sustancias con propiedades conservantes hasta sistemas como la irradiación de los alimentos con rayos X, gamma o electrones de gran energía; la aplicación de pulsos de un potentísimo campo eléctrico, o el empacado al vacío o con una atmósfera baja en oxígeno.

Al eliminar el oxígeno de los alimentos se presenta el riesgo del botulismo, es decir, el envenenamiento frecuentemente mortal con la toxina producida por la bacteria Clostridium botulinum, que es anaeróbica, lo que significa que vive y se reproduce sin necesidad de oxígeno. Para evitar también la proliferación de esta bacteria se utilizan otras sustancias, como las sales llamadas nitritos.

Entre las sustancias que inhiben la actividad de bacterias y hongos se encuentra el benzoato de sodio, una sal que se presenta de modo natural en algunos alimentos, y que se añade a otros, especialmente si tienen un pH ácido. La misma función la realizan sustancias como el sorbato de potasio. Los propionatos, por su parte, inhiben el crecimiento de moho en los alimentos horneados, destacadamente el pan y las galletas.

Algunas personas y grupos tienen la preocupación de que las sustancias conservantes que se utilizan en la actualidad tengan peligros desconocidos para la salud. Los estudios que se llevan a cabo con estas sustancias tienen por objeto determinar si existe este riesgo y en qué medida, teniendo presente que nada de lo que consumimos, nada de lo que hay en el universo, está totalmente exento de riesgo, y todo depende de cantidades, dosis, y la delicada relación entre el beneficio y los peligros.

Finalmente, los procesos tradicionales de conservación tampoco están exentos de peligros. Consumidos en exceso, los productos ahumados, curados o salados aumentan el riesgo de cáncer estomacal, además de que el exceso de sal es un riesgo para las enfermedades cardiacas, y ciertamente las personas con diabetes no pueden consumir productos conservados con azúcar, jarabes o miel.

Si bien debemos estar alerta a los posibles peligros, no podemos olvidar que los sistemas de conservación, tanto los actuales como los que podamos desarrollar, serán esenciales no sólo en la lucha contra el hambre, sino en una nutrición de calidad para todos los seres humanos. Nuestra especie no habría prosperado si no hubiera aprendido a preservar sus alimentos, lo cual también jugará un papel en su éxito futuro, su desarrollo o su extinción.

Una víctima del frío

En 1626, uno de los padres del método científico, Sir Francis Bacon, se propuso experimentar la posibilidad de conservar un ave rellenándola de nieve, mismo que, escribió Bacon “triunfó excelentemente bien”. Sin embargo, en el proceso, contrajo una pulmonía que unas semanas después lo llevaría a la muerte, como mártir de la ciencia... y de la conservación de los alimentos.

Las contradicciones del petróleo

Torres de petróleo en Orange County, 1928
(CC Orange County Archives
via Wikimedia Commons)
El petróleo es por igual oro negro, motor de la economía y la vida moderna, contaminante peligroso, motivo de guerras y salvador de vidas. Una muy humana colección de contradicciones.

El petróleo que hoy es preocupación cotidiana fue una curiosidad poco relevante durante la mayor parte de la historia humana. Manaba naturalmente de la tierra o se filtraba a lagos y ríos, un material con pocos usos.

Cierto, se podía quemar, con un olor bastante peor que el de otros aceites, como el de oliva. Pero el petróleo –el “aceite de piedra”– se empleaba principalmente como remedio, y la brea se usaba para calafatear o impermeabilizar embarcaciones. La Biblia cuenta que el alquitrán se usaba cemento en la antigua Babilonia, y ateniéndonos a lo que relata el libro del Génesis en su capítulo 11, el alquitrán fue el adhesivo o cemento usado en la supuesta construcción de la Torre de Babel.

Heródoto menciona en el 450 antes de la era común un pozo en Babilonia que producía sal, betún y petróleo, mientras que Alejandro Magno usó antorchas empapadas en alquitrán petróleo para asustar a sus enemigos. Alrededor del año 100 de nuestra era, Plutarco habla de petróleo que sale burbujeando de la tierra cerca de Kirkurk, en lo que hoy es Irak, país desolado por una guerra en la que el petróleo juega un papel relevante. Y en China, en el siglo IV de nuestra era, se utilizó para quemarlo y evaporar agua salada para obtener sal. Allí se perforaron los primeros pozos, de hasta 250 metros, para obtenerlo.

El petróleo ni siquiera protagonizó la revolución industrial de los siglos XVIII y XIX, sino que lo hizo el carbón, otro combustible fósil que sustituyó a la madera para obtener el vapor que movió la naciente industria. El carbón se procesó también para gasificarlo y purificarlo, permitiendo que se usara en la iluminación con gas que a principios del siglo XX permitía la vida nocturna en las grandes ciudades de Europa y EE.UU.

El petróleo por su parte empezaba a desarrollarse a partir de 1853, cuando el científico polaco Ignacy Lukasiewicz creó la destilación del petróleo para obtener queroseno, que antes se obtenía del carbón. Lukasiewicz inventó además la lámpara de queroseno, que era limpia, fácil de usar y de poco olor comparada con sus antecesores. Ambos avances impulsaron la aparición de explotaciones petroleras en todo el mundo, junto con las grandes fortunas y los grandes monopolios.

Desde mediados del siglo XIX hasta el siglo XX, los productos obtenidos del petróleo mediante la destilación fraccionada se multiplicaron: combustibles gaseosos como el propano, combustibles líquidos (desde el gasavión y la gasolina hasta el diesel, los lubricantes, el ácido sulfúrico, el alquitrán, el asfalto y el coque de petróleo, hasta los productos petroquímicos).

El salto del petróleo a la primera fila de la atención mundial fue el desarrollo del motor de combustión interna o motor a explosión. En 1886, Karl Benz patentó el motor de cuatro tiempos con el que empezaría a producir sus automóviles, seguido por numerosos ingenieros que perfeccionaron, ampliaron y desarrollaron la idea del automóvil y el motor.

Y de la mano del automóvil, el avión nacido en 1905 y las refinerías, el petróleo empezó a apoderarse, literalmente, del mundo. Los autos exigían carreteras en condiciones (asfaltadas... con petróleo), y gasolina y aceite (del petróleo), así como los aviones que demandaban igualmente combustibles procedentes del petróleo, nace la petroquímica.

Los productos no combustibles del petróleo, como el propileno, el etileno, el benceno y el tolueno dieron origen a la industria petroquímica y multiplicaron el valor comercial del petróleo y el hambre del mismo que fue desarrollando nuestro mundo. El petróleo se convirtió así en plásticos de gran utilidad, fibras artificiales como el nylon, el rayon o el poliéster que sustituyen al menos en parte al algodón, el lino y otras fibras naturales, empaques baratos y multitud de productos más.

Las desventajas, sin embargo, siempre estuvieron presentes. La contaminación ocasionada por la combustión de la gasolina, el diesel y otros combustibles del petróleo, así como por los desechos de los lubricantes, ha sido uno de los principales problemas de los últimos 100 años, exigiendo mejores fórmulas y diseños para paliar el daño que causan.

Los maravillosos plásticos, a su vez, tienen también su lado oscuro. Además de que su biodegradación puede tardar siglos, su combustión puede emitir emanaciones sumamente venenosas, y los procesos de producción conllevan también la emisión de contaminantes nocivos para el ambiente y la salud de personas y animales.

Sin embargo, el problema no durará mucho, porque el petróleo se agotará en algún momento determinado. Según distintos cálculos, esto podría pasar ya en 2057 o hasta 2094, dependiendo de nuestra capacidad de conservar este recurso y del descubrimiento o no de nuevas reservas. Hoy en día, las reservas mundiales de petróleo se calculan entre 1,4 y 2 billones de barriles (millones de millones), mientras el consumo diario de petróleo en el mundo es de alrededor de 84 millones de barriles.

Nosotros, o nuestros descendientes inmediatos, deberemos enfrentar el fin de la era del petróleo en nuestro planeta. Lo que pueda pasar entonces está totalmente abierto a especulaciones, desde las de los más pesimistas, que esperan un desastre apocalíptico al abatirse la producción y transporte de alimentos, hasta los optimistas que confían en que algo pasará que resuelva el problema, ya sea un aumento en la conciencia pública o un avance de la ciencia.

Sin embargo, sabemos que el petróleo se agotará, y en el momento en que la producción diaria sea menor que el consumo diario (lo que significaría que día a día se iría creando una escasez de petróleo) empezará un largo proceso de destete. En él, esperamos que el desarrollo de formas de energía más limpias, renovables y accesibles, jugará un papel fundamental.

Pero no lo sabemos. Y por ello todos los esfuerzos de conservación son útiles y recomendables. La humanidad ha vivido más de un siglo sin precedentes sumida en las contradicciones del petróleo. Y tendrá que hacerse a la idea de que esta fiesta, cuando menos, tiene horario de cierre.

El fósil que nos mueve

Solemos referirnos al petróleo y al carbón como “combustibles fósiles" debido a que eso son precisamente. El petróleo se ha formado a partir de los cuerpos y restos orgánicos de plantas y animales que vivieron hace millones de años y que se hundieron en el fondo del mar. Enterrados bajo kilómetros de arena y sedimentos, atrapados en roca no porosa y sometidos a enormes presiones y temperaturas, un pequeño porcentaje de estos restos orgánicos se desintegró en compuestos formados por átomos de hidrógeno y carbono, los hidrocarburos.

El padre de la neurocirugía moderna

Harvey Cushing
(foto D.P. de Doris Ulmann via
Wikimedia Commons)
Durante la mayor parte de la historia humana no hubo nada que pudiéramos llamar estrictamente "neurocirugía". Los avances que hoy salvan vidas comenzaron con un médico de Cleveland.

De entre todos los misterios del cuerpo humano, probablemente el más enigmático es el que se guarda dentro de nuestro cráneo, como un tesoro dentro de un cofre hermético, sólido, inexpugnable.

No es de extrañarse, somos una especie curiosa, que desde los albores de la historia el hombre abriera el cráneo de sus semejantes para ver lo que hay dentro... o para intentar curar alguna afección, como creen los arqueólogos que han encontrado numerosos casos de trepanación que se remontan hasta los 6.500 años antes de nuestra era.

Trepanar significa hacer un agujero. Numerosos cráneos prehistóricos muestran agujeros de distintos tamaños que se les practicaron con herramientas especializadas. Y que sobrevivieron, como lo revela la cicatrización ósea, es decir, el crecimiento de nuevo hueso en los bordes del agujero, y en algunos casos la oclusión total del mismo.

Algunas pinturas rupestres parecen indicar que la trepanación se practicaba con objeto de curar afecciones tales como los ataques epilépticos, las migrañas y los trastornos mentales, aunque también para realizar la limpieza de heridas como las causadas por piedras y porras. La operación fue común en la América precolombina, desde el centro de México hasta Los Andes. Y se siguió practicando en Europa durante la era clásica, la edad media y el renacimiento, como la única práctica quirúrgica relacionada con el cráneo y el cerebro junto con las reparaciones de lesiones óseas..

La aparición de la medicina científica a mediados del siglo XIX y el desarrollo de los métodos antisépticos y la anestesia, estimularon el interés por realizar intervenciones quirúrgicas eficaces en el cerebro.

En 1884, En el Hospital Epiléptico de Regent’s Park, Rickman John Godlee, cirujano británico y sobrino de Joseph Lister, llevó a cabo la que podría considerarse la primera cirugía cerebral moderna, practicada para extirpar un tumor cerebral de su paciente. Godlee trabajó bajo las indicaciones de Lister, quien a la luz de los descubrimientos de Louis Pasteur sobre los microorganismos patógenos y la consecuente teoría de que éstos eran los causantes de las infecciones, propuso procedimientos antisépticos y el establecimiento de un entorno estéril para la cirugía, bajo la hipótesis de que ello reduciría las infecciones postoperatorias que tantas vidas costaban y permitiría cirugías que antes nadie se atrevía a intentar.

El éxito de la intervención provocó que más y más médicos se atrevieran a realizar cirugías cerebrales, y el nuevo campo empezó a avanzar. El cirujano Victor Horsley se convirtió muy pronto en el primer cirujano que dedicaba buena parte de su práctica a la neurocirugía como disciplina quirúrgica. En 1887 extirpó por primera vez un tumor de la médula espinal.

Pero la disciplina necesitaba su Edison, su Pasteur, su Cristóbal Colón, el que definiera claramente la especialidad de la neurocirugía... Ese papel le estaba reservado al médico estadounidense Harvey Cushing.

Nacido en Cleveland, Ohio, en 1869, el espíritu innovador y adelantado de Cushing se hizo evidente ya desde sus años de formación. En 1894, un año antes de recibir su título de la Universidad de Harvard, Cushing vio morir a un paciente durante una operación debido a una sobredosis de éter, el anestésico de uso común por entonces. Con su colega Ernest Codman, Cushing creó la primera tabla de anestésicos diseñada para ayudar al médico y al anestesiólogo a vigilar el pulso, la respiración y la temperatura... todo eso que hoy sigue bajo supervisión a cargo de sensores automatizados.

Como resultado, se redujeron notablemente las muertes debidas al mal uso de la anestesia.

El mismo año en que Cushing obtuvo su título como médico, 1895, Ernst Roentgen descubrió los rayos X, y un año después ya Cushing y Codman estaban utilizando esta nueva tecnología para hacer diagnósticos radiográficos mientras continuaban su educación especializada en neurocirugía.

Cushing empezó a realizar intervenciones quirúrgicas en 1902. A lo largo de la carrera que seguiría durante los siguientes 37 años desarrolló sus propios avances y técnicas, como el electrocauterizador que ayudó a desarrollar para obturar los vasos sanguíneos durante las intervenciones, además de estudiar numerosas enfermedades y afecciones hasta entonces no descritas en la literatura médica.

En particular le interesó la glándula pituitaria, que estudió tan intensamente que durante su vida se le consideró el máximo experto en esta glándula. Uno de los trastornos que identificó, la "enfermedad de Cushing", causada por un tumor en el lóbulo anterior de la pituitaria y que se puede tratar principalmente con cirugía.

Además, Harvey Cushing fue promotor y defensor de técnicas y procedimientos nuevos, no creados por él, pero que consideraba esenciales para realizar mejor su trabajo.

Entre las técnicas de las que fue pionero se encuentran muchas que son práctica común en la actualidad, como el uso de la irrigación con solución salina para limpiar la zona de la cirugía y permitir al médico una mejor visión del campo quirúrgico.

De gran importancia fue su promoción de la monitorización continua de la tensión arterial durante las intervenciones quirúrgicas, primero con un esfigmomanómetro que sólo medía la presión sistólica (el momento de la contracción del corazón) y después con el tensiómetro de Korsakoff, que también medía la presión diastólica (el momento de la relajación del músculo).

Como el principal formador de neurocirujanos durante muchos años, muchos consideran a Cushing el padre de la neurocirugía como la entendemos, estudiamos y practicamos en la actualidad con el sueño de conseguir lo que Cushing: salvar vidas. Y el ejemplo de este médico es alentador: en sus más de 2.000 intervenciones quirúrgicas para extirpar tumores, consiguió el extraordinario logro de llevar a sus pacientes de un 90% de probabilidades de morir a sólo un 8%, multipicando la calidad y cantidad de vida de miles de personas directa e indirectamente.

Un nombre omnipresente

El nombre de Harvey Cushing está presente en diversas formas en el mundo de la medicina, pues lo llevan el clip de Cushing, un dispositivo de sujeción; tres distintos síndromes (Cushing I, II y III), la tríada de Cushing, la úlcera Rokitansky-Cushing, el sinfalangismo de Cushing (una afección en la que se fusonan las articulaciones de las falanges), el síndrome Bailey-Cushing, el síndrome Neurath-Cushing y, por supuesto, la ley de Cushing, que indica que el aumento de la presión intracraneal comprime los vasos sanguíneos y causa la isquemia, o falta de riego sanguíneo, cerebral.

Júpiter, ¿una estrella fallida?

Imagen de Júpiter captada por la sonda
Cassini-Huygens
(Foto D.P de NASA/JPL/University of
Arizona, via Wikimedia Commons)
Es el mayor planeta de nuestro sistema solar, uno de los más intensa y apasionadamente estudiados y un gigante de gas que algunos sueñan que pudo ser nuestro segundo sol.

El planeta más grande de nuestro sistema solar, Júpiter, es una presencia destacada en los cielos de la Tierra, pues aparece como el cuarto objeto más brillante que hay en la esfera celeste, después del Sol, la Luna y Venus, salvo en algunas ocasiones en que Marte tiene un mayor brillo aparente.

Ya los astrónomos babilónicos se ocuparon de este singular cuerpo celeste, y varias culturas se interesaron en lo que era evidentemente un planeta muy grande. Los astrónomos hindús del siglo V de nuestra era calcularon que Júpiter tenía un diámetro de unos 67.000 kilómetros, mientras que la astronomía islámica del siglo VIII lo estimaba en 97.000 kilómetros. Ninguno se acercó al asombroso tamaño de este gigante, que es de 143.000 kilómetros, bastante más de diez veces el diámetro de la Tierra (12.700 km).

El interés por Júpiter aumentó a principios del siglo XVII, cuando Galileo Galilei descubrió las cuatro mayores lunas de Júpiter –Io, Europa, Ganímedes y Calisto– hoy conocidas precisamente como "lunas galileicas". Las implicaciones astronómicas y cosmológicas de sus descubrimientos fueron, por desgracia, menor evidentes en el momento que las de orden religioso, con los resultados ya conocidos.

Mayores y mejores telescopios que el construido por Galileo permitieron estudiar más a fondo el planeta. En la década de 1660, Giovanni Cassini descubrió las manchas y bandas del planeta, junto con el curioso hecho de que las bandas giran a velocidades diferentes y notó su forma achatada en los polos. Muy poco después, Robert Hooke y el propio Cassini descubrirían independientemente una de las características más distintivas del planeta, la Gran Mancha Roja, un óvalo que hoy sabemos que es una tormenta anticiclónica persistente que ha durado al menos 180 años, pero probablemente tiene muchos más.

No fue sino hasta 1892 cuando se descubrió un quinto satélite de Júpiter. Los demás miembros de la corte de 63 lunas que siguen al planeta fueron descubiertos por sucesivas misiones de sondas robóticas. Muchas de esas lunas surgieron cuando se formó el planeta, mientras que otras fueron capturadas por su campo gravitacional.

Júpiter tarda casi 12 años terrestres en dar la vuelta al sol, y sin embargo tiene el día más corto del sistema solar, pues da una vuelta sobre su eje cada 9 horas y 55 minutos, lo que influye en la intensa actividad de los gases en su superficie.

Al ser un planeta tan grande, y estar formado por materia gaseosa, sin un suelo donde se pudiera “aterrizar” como lo soñó la ciencia ficción primigenia, no era extraño que tarde o temprano alguien se preguntara si Júpiter no podría ser una estrella, un segundo sol cuya ignición incluso podría provocar el hombre.

Estrellas binarias

La estrella más cercana al sol, nuestra vecina cósmica, es en realidad una estrella triple, que conocemos como Alfa Centauri. El sistema esté formado por una enana roja llamada Proxima Centauri y dos estrellas visibles, alfa Centauri A y B, que giran alrededor una de otra o, para ser exactos, alrededor de un centro de masa común. Son un sistema binario, concepto usado por primera vez por el astrónomo británico Sir William Herschel en 1802 para diferenciar a las estrellas dobles que simplemente estaban cerca una de otra de las parejas de estrellas gravitacionalmente unidas.

En el caso de Alfa Centauri, la estrella A es la más brillante y es por tanto la estrella primaria, mientras que la B es la acompañante. Hasta hoy no se ha podido determinar si Proxima Centauri también está gravitacionalmente unida a las otras dos.

La existencia de los sistemas binarios es muy útil para los astrónomos, que utilizan el cálculo de sus órbitas para determinar la masa de las estrellas con gran precisión, lo que les permite estimar con mayor exactitud la masa de estrellas similares que no están en sistemas binarios.

Las estrellas binarias no son tan desusadas como podríamos pensar. Aunque no se descarta la probabilidad, aunque baja, de que algunas se hayan formado por una “captura gravitacional”, donde una estrella grande captura a otra más pequeña en su campo gravitacional, los astrónomos consideran que la mayoría son resultado de los propios procesos de formación de las estrellas, y el enorme número de sistemas binarios descubiertos hace pensar que se trata de un acontecimiento bastante común.

¿Podría Júpiter ser una estrella? Su tamaño no es mucho menor que el de nuestra ya mencionada vecina, Proxima Centauri, pero la masa de ésta es mucho mayor a la de Júpiter. ¿Qué se necesitaría para convertir a Júpiter en un segudo sol de nuestro sistema?

Fundamentalmente, más masa.

En realidad, y pese al nombre común de “gigantes gaseosos”, la materia que forma a Júpiter está en un estado en el que lo gaseoso y lo líquido no se diferencian, y sería más exacto llamarlos planetas fluidos. En su centro, Júpiter tiene hidrógeno en estado sólido, metálico, pero la mayor parte de su volumen consta de hidrógeno y helio, con vestigios de otros gases.

Si le añadiéramos masa a Júpiter, más hidrógeno o helio, su diámetro prácticamente no variaría debido a su potente campo gravitacional. Sólo tendríamos que añadir 50 veces más masa a Júpiter (es decir, sumar 50 planetas fluidos del tamaño de Júpiter) para que su gravedad y su masa desencadenaran el proceso de fusión de núcleos de hidrógeno que convertiría al planeta en una semiestrella de las conocidas como “enanas marrones”. Para que fuera una verdadera estrella, una enana roja, su masa debería ser 80 veces mayor.

Aunque la idea es tremendamente seductora, y la imagen de un cielo con dos soles sin duda tiene un poderoso atractivo, nuestro sistema solar nunca estuvo siquiera cerca de tenerlos, de contar con un sistema binario de estrellas. Tenemos un sol, un único sol que nos basta y nos sobra, y un vecino gigantesco que aún tiene muchas historias por contarnos.

Que no es poca cosa.

Las misiones a Júpiter

Desde 1973, cuando la Pioneer 10 sobrevoló Júpiter, otras siete misiones han visitado al gigante y a sus lunas: Pioneer 11 en 1974, que observó por primera vez los polos jovianos; Voyager 1 y 2 en 1979, que descubrieron los anillos de Júpiter, invisibles desde la Tierra; Galileo, que quedó en órbita alrededor de Júpiter durante ocho años desde diciembre de 1995; Ulises, misión conjunta NASA- ESA, que observó Júpiter en 1992 y 2003-2004 en su órbita alrededor del sol; Cassini, que pasó por Júpiter en 2000 camino a su misión principal en Saturno, y New Horizons, que visitó el planeta en 2007. A futuro, en 2011 está prevista la misión Juno y, para 2020, la Europa-Júpiter, donde volverá a participar la ESA.

Los asombrosos lémures

Sifaka de Coquerel
(Foto CC-BY-2.0 Frank Vassen, via Wikimedia Commons)
Extraños fantasmas vivientes que posiblemente guardan el secreto del surgimiento de los primates, el primer paso evolutivo hacia el ser humano.

Seres que sólo se encuentran en Madagascar. Habitantes de la noche con ojos gigantescos que brillan en la oscuridad. Ágiles cuerpos que parecen enormes gatos con colas erguidas y pulgares oponibles. Animales que avanzan a saltos sobre sus patas traseras mientras las delanteras muestran manos exquisitamente formadas. Todo un arcoiris de más de 50 especies bajo un solo nombre: lémures.

El nombre lémur, palabra latina para los “espectros de la noche”, lo asignó el fundador de la moderna nomenclatura taxonómica, Carl Linnaeus al loris esbelto rojo, pero pronto se aplicó a todos los primates de Madagascar, una alargada isla de Madagascar, la cuarta mayor del mundo, situada en el océano índico, frente a la costa este del sur de África. En ella encontramos una asombrosa variedad de formas de vida. Como ocurre con Australia, el aislamiento permite que se encuentre allí gran cantidad de especies que no existen en ningún otro lugar del mundo, entre ellos los lémures y algunas especies de baobab, el árbol inmortalizado en El principito.

Los lémures son primates strepsirrinos (los tarseros, monos y antropoides –lo que nos incluye– pertenecemos al orden de los haplorrinos), y forman dos superfamilias con una gran diversidad de especies. No se trata de los primates primigenios como algunos creen, pero nos permiten atisbar cómo fueron esos primates que comenzaron el camino evolutivo hacia los monos modernos.

Todo ese camino evolutivo hacia las especies humanas pasa por tres elementos que están presentes en los lémures. Primero está el bipedalismo, que se encuentra parcialmente en algunas especies de lémures como el sifaka o el indri, pero que no ha sido favorecido por el entorno de selva pluvial en el que viven estos animales. En segundo lugar está la conversión de la pata delantera en mano con pulgar oponible, rasgo de la mayoría de los lémures. Y en tercer lugar está el desarrollo de la capacidad craneal, permitiendo la existencia de un cerebro mayor.

Esto hace de los lémures un importante recurso en la reconstrucción de la evolución humana. Un recurso que sin embargo está en grave peligro por la destrucción de su hábitat. Para la Unión Internacional para la Conservación de la Naturaleza, organización conservacionista científica y democrática, casi la totalidad de los lémures de Madagascar están en la lista de especies en peligro de extinción inmediato o cercano.

Entre ellos está el aye-aye, el único representante sobreviviente de una gran familia de lémures, un animal nocturno misterioso, elusivo, y conocido como la versión mamífera del pájaro carpintero. Tiene un huesudo y alargado dedo medio que utiliza para golpear la corteza de los árboles y escuchar dónde hay huecos que puedan revelar la presencia de larvas. Una vez hallado el hueco, usa sus afilados incisivos para roer la madera, encontrar el hueco y extraer su alimento con el largo dedo.

El peligro de extinción del aye-aye no se debe sólo a la destrucción de su hábitat, sino también a las supersticiones locales que lo consideran animal de mal agüero y símbolo de la muerte, y se cree que si nos señala con su largo dedo buscador de larvas, nos concena a muerte. Por todo esto, es costumbre en gran parte de Madagascar matar a cualquier aye-aye que se descubra.

Otro lémur en riesgo de extinción es el indri, el mayor de todos los lémures con un peso de hasta 8 kg. Es un animal estrictamente diurno, que come plantas, flores y frutas, vive en grupos de hasta 5 individuos y es famoso por sus cantos colectivos. En este caso, las supersticiones locales protegen al indri como animal sagrado y bondadoso, pero la agricultura de roza y quema, necesaria en las escuálidas condiciones económicas de Madagascar es la responsable de la reducción de su hábitat.

El genus sifaka incluye al menos 8 especies distintas, y todas ellas también están en peligro. Estos herbívoros sociales que viven en grupos de hasta 13 individuos y que asombran por su bipedalismo cuando están en tierra, aunque su hábitat normal son los árboles. Los riesgos que sufre son igualmente variados, desde ser cazado como alimento hasta la agricultura que invade su hábitat, incendios forestales y la tala de árboles para hacer carbón.

Finalmente, está igualmente en peligro el más conocido de la familia, el lémur de cola anillada, popularizado por la película llamada, precisamente Madagascar, en la figura del rey Julien. Esta especie altamente agresiva y matriarcal, que vive en bandas de hasta 30 individuos, se reproduce con facilidad. Por ello, pese al riesgo de extinción por todas las causas ya señaladas, se le encuentra muy extendida en los zoos del mundo.

El enorme tamaño de Madagascar (mayor que toda Francia), su accidentada geografía, sus convulsiones políticas y su extrema pobreza han dificultado tradicionalmente la exploración de su biodiversidad, tanto que año tras año se informa del descubrimiento de nuevas especies de lémures.

Apenas en marzo de 2010 se anunció que había sido observada una variedad de lémur de Coquerel que, por el lugar donde se vio y por sus características físicas, podría ser una nueva especie, distinta de los dos lémures ratones gigantes ya conocidos.

Un mes después, en abril, se descubría una población viva de lémures enanos de Sibree, una especie descubierta en 1896 pero que no se estudió en su momento. La destrucción de la pluviselva que era su hábitat hizo creer que se había extinguido por completo, de modo que el descubrimiento de una colonia de unos mil individuos era, sin duda, una buena noticia.

En noviembre de 2005 una especie de lémur recibió un nombre singular, Avahi cleesei, en honor a John Cleese, popular ex miembro de la troupe de Monty Python. Pero la distinción no fue por la comedia de Cleese ni la imagen entre misteriosa y cómica que tienen los lémures a nuestros ojos, sino a la labor del actor británico en pro de la conservación a través de diversas acciones, entre otras un documental sobre los peligros que amenazan la singular población de lémures de Madagascar.

Madagascar

Hace 170 millones de años, Madagascar se separó de lo que hoy son el sur de África y de América manteniéndose unido a la India, hasta que hace unos 88 millones de años se desgajó de ésta. La India siguió su camino hasta chocar de nuevo con el continente euroasiático (accidente que provocó el plegamiento de la corteza terrestre que llamamos la cordillera del Himalaya, mientras que Madagascar comenzó su vida en un aislamiento que permitió que sobrevivieran y siguieran evolucionando incluso especies que se extinguieron en África y América, como los lémures.

El hereje que amplió el universo

Adalid de la libertad de pensar y cuestionar, y de las actitudes políticamente incorrectas, Giordano Bruno fue quien por primera vez imaginó un universo infinito.

Estatua de Giordano Bruno en la plaza
de Campo de Fiori, Roma
(fotografía D.P. David Olivier
vía Wikimedia Commons)
La estatua que ocupa el centro de la plaza Campo de Fiori en Roma, a dos calles del Río Tíber, es un tanto siniestra: un monje dominico con la capucha hacia adelante, sombreando el rostro mira hacia el frente con la cabeza ligeramente inclinada, tiene ante sí las manos cruzadas por las muñecas, como si estuviera maniatado y sostiene contra su cuerpo uno de sus libros.

El hombre representado en esa estatua de 1889, Giordano Bruno, murió quemado el 17 de febrero de 1600 en esa misma plaza, que ya era, como hoy, un concurrido mercado romano, acusado de muchos y muy graves crímenes de herejía, sostener opiniones contrarias a la fe católica, tener opiniones “equivocadas” según la Inquisición y, especialmente, por afirmar que en un universo infinito y eterno había innumerables mundos habitados.

El miedo a sus palabras era tal que se le condujo al quemadero con la boca torturada por pinchos de hierro para evitar que hablara.

Filippo Bruno nació en Nola, Campania, en 1548 y asumió el nombre Giordano al ingresar a la orden de los dominicos donde se ordenó sacerdote a los 24 años. Sólo cuatro años después, habiendo llamado la atención por su libre pensamiento y su gusto por los libros prohibidos por la iglesia, optó por abandonar la orden y la ciudad. Emprendió interminables viajes dando clases de matemáticas y de métodos de memorización que le valieron el interés de poderosos mecenas que, finalmente, acababan echándolo de su lado por sus opiniones escandalosas y su gusto por el debate.

De Génova a París y a Londres, donde daría clases en Oxford. Después de vuelta a París, Marburgo, Wittenberg, Praga, Helmstedt y Frankfurt lo acogieron mientras escribía y publicaba poco a poco sus obras, entre ellas Del universo infinito y los mundos, de 1584.

Su filosofía sería una expresión de la floreciente revolución científica, asumiendo una duda sistemática y buscando que no sólo la filosofía respondiera a las grandes preguntas. En su original visión, las ideas eran sólo sombras de la verdad, no la verdad misma.

El filósofo era uno de los frentes de batalla de la ruptura con la autoridad de los textos antiguos, considerada el camino hacia el conocimiento durante siglos. ¿Por qué era verdad algo si lo decía Aristóteles? Y más aún, ¿por qué preferir a Aristóteles cuando la experiencia nos muestra que Aristóteles está equivocado?

Durante siglos, las disputas sobre el conocimiento se zanjaban acudiendo a lo dicho por Aristóteles, o a la interpretación de algún pasaje aristotélico. Nadie se atrevió en siglos, tal es la fuerza de la imposición de la verdad social, a señalar que las moscas no tenían cuatro patas, como creía el filósofo de Estagira, pues bastaba atrapar una mosca y contarle las patas para ver que en realidad tenían seis. O que, en un famoso ejemplo destacado por Bertrand Russell en el siglo XX, las mujeres no tenían menos dientes que los hombres.

Ante el aristotelismo, Bruno asume la posición de Copérnico, la nueva astronomía, y la defiende con pasión en su libro La cena del miércoles de ceniza. Durante diez años, de 1582 a 1592, sería prácticamente el único filósofo dedicado a difundir esta visión, adicionada con sus propias conclusiones que le llevan incluso a atisbar la relatividad cuando observó que no hay un arriba y abajo absolutos como creía Aristóteles, sino que “la posición de un cuerpo es relativa a la de otros cuerpos. En todo lugar hay un cambio relativo incesante de la posición por todo el universo”.

Pero el principal delito de Bruno a ojos de su encausador, el cardenal Belarmino (que años después lanzaría su furia contra Galileo), era aplicar el razonamiento a los misterios de la religión, rechazando así la virginidad de María, la divinidad de Cristo y, en general, las enseñanzas de la Biblia, hasta acabar asumiendo una visión panteísta, donde todo era una manifestación de dios.

Pero, sobre todo, Giordano Bruno es recordado por imaginar un concepto totalmente novedoso: Libertes Philosophica, lo que hoy llamamos la libertad de pensar, de soñar, de filosofar sin ataduras impuestas exteriormente. La libertad de investigar el mundo a nuestro alrededor y alcanzar conclusiones independientes.

Y una de las conclusiones independientes de Giordano Bruno desafiaba las creencias prevalecientes más directamente que incluso la visión copernicana del universo. Escribió Bruno: "Hay un solo espacio general, una sola vasta inmensidad que libremente podemos llamar el vacío, en ella hay innumerables orbes como éste, sobre el que vivimos y crecemos, y declaramos que este espacio es infinito, pues ni la razón ni la conveniencia, la percepción de los sentidos ni la naturaleza le asignan un límite".

En la visión de Bruno, el hombre como cumbre de la creación, según la narración del Génesis, perdía su posición central. Si Copérnico quitaba a la Tierra del centro del universo para colocar en él al sol, Giordano Bruno simplemente se imaginaba infinitos mundos con otros seres vivos, iguales a los seres humanos, quizá con sus adanes, quizá incluso sin pecado original. La idea era un abismo para sus contemporáneos. Para Bruno, el panteísta, dios “es glorificado no en uno, sino en incontables soles; no en una sola tierra, un solo mundo, sino en miles y miles, diría una infinidad, de mundos”.

El universo que constaba de la tierra rodeada de la esfera celeste, tras la cual transcurría el paraíso, se convertía bajo la intuición de Giordano Bruno en un espacio sin límites, tan grande como la propia deidad.

Acusado de hereje por uno de sus mecenas, Zuane Mocenigo, decepcionado porque Bruno le enseñaba filosofía y no secretos del ocultismo mágico, como esperaba, sus libros y opiniones obraron en su contra. Detenido en 1592, el filósofo habría de padecer siete años de prisión, torturas, interrogatorios y exigencias de una total retractación de todas sus ideas, algo que Bruno no pudo hacer. Su último recurso, ante el papa Clemente VIII, fue inútil. Para el Papa también era culpable y su único camino era el de la hoguera.

Le siguieron sus libros. Toda su obra fue incluida en el Índice de Libros Prohibidos en 1603.

Interrogado

En uno de sus últimos interrogatorios, sabiendo que la sentencia de muerte le esperaba, Bruno respondió, según documentos del Vaticano: “... las teorías sobre el movimiento de la tierra y la invmovilidad del firmamento o el cielo son producidas por mí sobre bases razonadas y seguras, que no minan la autoridad de las Sagradas Escrituras [...] Respecto del sol, digo que no sale ni se pone, ni lo vemos salir ni ponerse, porque si la Tierra gira sobre su eje, ¿qué queremos decir con salir o ponerse?”

50 años de la píldora anticonceptiva

Margaret Sanger (1879-1966) en 1922
(Foto D.P. de Underwood & Underwood,
via Wikimedia Commons)
Separar las relaciones sexuales de la procreación siempre fue sencillo para los hombres. Pero las mujeres tuvieron que esperar a la llegada de un sistema simplemente conocido como "la píldora".

Desde que el ser humano comprendió que las relaciones sexuales causaban el embarazo, se inició una prolongada lucha por conseguir el disfrute sexual sin la reproducción, ya para ocultar relaciones inaceptables (sexo prematrimonial o extramatrimonial) o por causas económicas o de salud de la mujer.

Esto implicaba problemas: en muchas sociedades, los hijos se consideran "propiedad" del padre, y las religiones tienen visiones distintas respecto de la sexualidad, además de que todas favorecen la reproducción. Este contexto cambia, además, según el método anticonceptivo usado: coitus interruptus (o “marcha atrás”), pesarios, distintas pócimas herbales, abortos quirúrgicos, etc.

Hace 50 años, en 1960, apareció un nuevo procedimiento de control natal que era seguro y altamente eficaz: la píldora anticonceptiva, cuya influencia en nuestra cultura ha sido tal que, en 1999, la revista The Economist declaró que era el invento más importante del siglo XX

La gran promotora de la píldora anticonceptiva fue la enfermera y defensora de la planificación familiar Margaret Sanger. Habiendo visto los resultados de los embarazos no deseados entre las mujeres pobres de Nueva York, decidió oponerse a las leyes estadounidenses a partir de 1912, escribiendo artículos de salud reproductiva y estableciendo clínicas de control natal que la llevarían más de una vez a la cárcel.

En la década de 1930 se descubrió que las hormonas evitaban la ovulación en conejos. ¿Un medicamento a base de hormonas podría evitar la ovulación en las mujeres? Para 1940, los científicos habían entendido el ciclo reproductivo femenino y establecieron que una vez que la mujer se embaraza, su fertilidad se suspende porque sus ovarios secretan estrógeno, que hace que la glándula pituitaria no libere las hormonas necesarias para la ovulación, y progesterona, que suprime la producción de la hormona luteinizante.

Pero la progesterona obtenida de animales era prohibitivamente costosa. Hubo de llegar Russell Marker, que en 1943 descubrió un procedimiento para extraer progesterona de fuentes vegetales y encontró en México un árbol cuya raíz tenía grandes cantidades de progesterona natural, el llamado “cabeza de negro”. Esto permitió avanzar las investigaciones mientras se encontraba la forma de sintetizar esta sustancia.

En 1951, el químico mexicano Luis Ernesto Miramontes, del equipo del Dr. Carl Djerassi, consiguió sintetizar la 19-noretisterona, una forma de progesterona. Poco después, Frank Colton desarolló otra forma sintética llamada noretinodrel. Estos químicos no pensaban en anticonceptivos, sino en conocer las hormonas, por entonces una rama de la investigación en plena efervescencia.

Ese mismo año, Margaret Sanger conoció al endocrinólogo Gregory Pincus, el pionero que había logrado la primera fertilización in vitro de conejos en 1937. Con ya más de 80 años de edad, se lanzó a una campaña de recaudación de fondos para apoyar las investigaciones del pequeño laboratorio de Pincus, reuniendo más de 150.000 dólares.

Pincus y Min Chueh Chang emprendieron el estudio de la noretisterona en animales, y el Dr. John Rock se ocupño de los estudios en seres humanos, empezando con la seguridad de la sustancia. Más difícil era hacer los estudios clínicos en cuanto a la capacidad anticonceptiva de la píldora, pues apoyar siquiera la anticoncepción era un delito en Massachusets, donde trabajaba Rock.

Por ello, las pruebas tuvieron que trasladarse a Puerto Rico, donde ya había clínicas de control de la natalidad. Un dato curioso fue que algunos de los informes de efectos secundarios que hicieron las mujeres participantes en el experimento permitieron descubrir que los placebos también podían causar los mismos efectos, abriendo la puerta a la moderna medicina basada en evidencias. Las pruebas siguieron con más voluntarias en México, Haití y Los Ángeles.

La píldora Enovid fue autorizada en 1957 por la Administración de Alimentos y Medicamentos de los EE.UU.como un medicamento para los trastornos de la mensturación, y el laboratorio luchó hasta que el 23 de junio de 1960 obtuvo la aprobación de su producto como anticonceptivo, aunque sólo para mujeres casadas.

Por primera vez, la mujer tenía una forma controlable sólo por ella (a diferencia del condón o la marcha atrás, que requerían la participación activa de su pareja) para evitar el embarazo como consecuencia de las relaciones sexuales. Se iniciaba la “revolución sexual”.

En la mayoría de los países estaba prohibida la venta y uso de toda forma de anticoncepción, pero el impulso de la píldora y su significado social y psicológico para las mujeres fue derribando muros. Los gobiernos se vieron forzados a autorizar la píldora anticonceptiva y con ella otras formas de evitar embarazos no deseados, como el dispositivo intrauterino, la píldora del día después

Y esto significaba que la mujer, como el hombre, podía tener una vida sexual sin necesidad de comprometerse a largo plazo con el matrimonio y la reproducción. Más aún, podía posponer ambos acontecimientos para ajustarlos a una visión más amplia de su vida y su rol en la sociedad.

A Estados Unidos siguieron la aprobación para su venta en Australia, el Reino Unido y Alemania (Occidental) en 1961, Francia en 1967, Canadá en 1969 e Italia en 1971. España tendría que esperar hasta 1978.

Al paso del tiempo, las distintas presentaciones de la píldora anticonceptiva se han refinado, necesitando cantidades menores de hormonas, lo cual también ha disminuido los efectos secundarios sobre las usuarias. El más reciente estudio citado por la revista Time en abril, un seguimiento de 46.000 mujeres durante casi 40 años, demostró que las mujeres que toman la píldora no experimentan los riesgos más frecuentemente citados y, de hecho, tienen menos probabilidades de morir prematuramente por cualquier enfermedad, incluidos el cáncer y las enfermedades cardiacas.

Pero su efecto sobre la sociedad, sobre la libertad y autoafirmación de la mujer, sobre la cultura humana sigue siendo profundo, tanto que a los 50 años de su primera autorización, sigue siendo más que un medicamento, un símbolo de una nueva era.

Las religiones y la píldora

Para muchas iglesias cristianas, la píldora es simplemente inaceptable por considerarse que va contra los dictados de la Biblia. El judaísmo, por su parte, considera más aceptable la píldora que los condones o la marcha atrás, pero la mujer sólo puede usarla después de haber parido al menos una vez. El hinduísmo, el islam (con algunas excepciones) y el budismo no tienen prohibiciones concretas contra la píldora.