Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La extraña forma de andar a dos pies

Somos el único primate completamente bípedo, característica que adquirimos de modo relativamente reciente y de la cual aún queda mucho por saber.

Reproducción del esqueleto de "Lucy" y reconstrucción
en el Museo Nacional de Naturaleza y Ciencia de Tokio.
(Foto CC de Momotarou2012, vía Wikimedia Commons) 
Durante largo tiempo se vivió un debate intenso intentando determinar si, en la evolución que ha llevado hasta los humanos modernos, había aparecido primero una gran capacidad craneal o el bipedalismo, nuestra curiosa forma de locomoción. Los especialistas comparaban datos, especulaban con base a la evidencia existente y cotejaban puntos de vista.

Ambas adaptaciones, son esenciales para lo que nos hace humanos. La gran capacidad craneal implica un mayor cerebro en relación al cuerpo, permitiendo la aparición de funciones cerebrales que todo parece indicar que sólo tiene el ser humano, como el cuestionamiento de la realidad y un lenguaje conceptual capaz de transmitir conocimientos de una generación a la siguiente. Pero el bipedalismo a su vez era fundamental para liberar nuestras extremidades superiores, permitiendo que se desarrollaran capacidades como la de hacer y manipular herramientas complejas con un control muy fino, del que son incapaces nuestros más cercanos parientes primates, que aún utilizan las extremidades superiores para la locomoción, como el gorila, el chimpancé o el orangután.

A principios del siglo XX, los pocos fósiles que se tenían de homininos (es decir, de las especies que se separaron de los chimpancés abriendo una nueva línea que desembocó en las varias especies humanas que conocemos) tenían cerebros relativamente grandes, al menos en comparación con los otros primates. Esto apoyaba la idea de que la gran capacidad craneal había sido el primer paso hacia la humanización: la inteligencia había forjado al cuerpo.

Pero en 1924, en una cantera sudafricana, se encontraron algunos fragmentos de un fósil nuevo, un joven de unos 2,5 millones de años de antigüedad al que se bautizó como el Niño de Taung, por la zona donde fue descubierto. Era una nueva especie y un nuevo genus, el Australopitecus africanus. La reconstrucción que se hizo sugería que, pese a tener un cerebro de tamaño comparable al de los chimpancés modernos, parecía tratarse de un ser que se había trasladado sobre dos pies. El debate seguía, pero con nuevos datos.

En 1974, el paleoantropólogo Donald Johanson encontró lo que es un sueño para cualquiera de sus colegas: un esqueleto muy completo de una hembra de la especie Australopithecus afarensis, con una antigüedad de 3,2 millones de años a la que es bautizó como “Lucy” porque en la celebración de su hallazgo los miembros del grupo de Johanson estuvieron escuchando la canción de Los Beatles “Lucy in the sky with diamonds”.

Y la cadera, los huesos de las piernas, las vértebras y el cráneo de Lucy no dejaban lugar a dudas: era un pequeño ser de 1,1 metros de estatura, con una capacidad craneal apenas mayor que la de un chimpancé de su tamaño, pero claramente bípeda.

Antes de usar herramientas, antes de poder hacer arte o filosofía, nuestra estirpe había caminado sobre dos pies. El debate estaba zanjado. Primero fue el bipedalismo. Y descubrimientos posteriores han confirmado esta conclusión de modo clarísimo, indicando que nuestra línea es bípeda al menos desde hace 7 millones de años.

Pero la respuesta obtenida por la ciencia abría nuevas preguntas. ¿Por qué nuestro linaje se volvió bípedo?

De una parte, la aparición de esta característica coincidió con un evento climático de súbita disminución de la temperatura, aumento de los hielos de la Antártida y descenso del nivel del mar. Es posible que al hacerse menos densos los bosques, el medio favoreciera que nuestros ancestros arborícolas cambiaran su forma de locomocion, siendo más eficientes en la sabana y, de paso, más capaces de ver a su alrededor para protegerse de los depredadores. Además, esto les permitía llevar en los brazos comida en distancias más largas, era más eficiente que el cuadrupedalismo de otros primates y daba lugar a una característica singular del ser humano: la capacidad de correr a lo largo de enormes distancias.

Son pocos los animales que pueden competir con el ser humano en las largas distancias. Nuestra capacidad de desprender calor mediante el sudor y gracias a la falta de pelo corporal nos pone en una liga muy selecta de animales capaces de correr más de 30 kilómetros a una velocidad sostenida, como los perros, lobos, caballos, camellos y avestruces. Esto eventualmente permitió a los primeros cazadores seguir a una presa hasta conseguir agotarla sin tener que correr más rápido que ella, simplemente a base de persistencia.

Andar del modo peculiar en que lo hacemos permitió a los australopitecinos manejar mejor su medio ambiente y convertirse, eventualmente, en cazadores capaces de usar herramientas y armas. Los desafíos y la mejor alimentación del recolector-cazador desembocaron en lo que somos nosotros.

Y sin embargo, hay muchas indicaciones de que caminar sobre dos pies es un acontecimiento novedoso en términos de la evolución y su lento decurso, y que buena parte del diseño de nuestro cuerpo es el resultado de compromisos entre el bipedalismo y otras funciones. El parto difícil de la hembra humana, por poner el ejemplo más conocido, es resultado del rediseño de la columna vertebral y la pelvis, que hizo del canal de parto un recorrido difícil y peligroso para el hijo y para la madre, donde el bebé debe hacer un giro de 90 grados para poder salir por un espacio estrecho y curvado. Distintas presiones de selección en distintos momentos llevaron a un resultado satisfactorio, pero ciertament eno perfecto. Y ello lo vivimos también en nuestros problemas de espalda, la aparente fragilidad de nuestras rodillas, la propensión al pie plano.

Pero todo ello es el resultado de un cambio fundamental y revolucionario que en el fondo resulta una maravilla de la ingeniería. Y para recordarlo, basta tener presente lo difícil que ha sido para los más avezados diseñadores de robots hacer un autómata bípedo que camine como nosotros. Ni siquiera el más avanzado robot es capaz de recuperarse de un empujón y, mucho menos, de dar los pasos de danza de una bailarina profesional con los que nuestra forma de locomoción se convierte en medio para crear belleza y emoción.

Una nueva hipótesis

Un reciente estudio de la Universidad de York sugiere que nuestro peculiar modo de locomoción puede haber tenido su origen no en la expulsión de nuestros ancestros de los bosques por motivos climatológicos, sino por su migración hacia los terrenos abruptos del oriente y sur de África, zonas rocosas a las que se habrían visto atraídos tanto por el refugio que ofrecían como por tener mejores oportunidades de atrapar a sus presas allí, un terreno que pudo contribuir a desarrollar nuestras habilidades cognitivas.

La técnica y la ética de la clonación

Clonar seres nos permite conocer mejor la transmisión genética y, sobre todo, de cómo el medio ambiente determina si nuestros genes se activan o no. Un conocimiento que aún provoca temores.

La oveja Dolly, el primer mamífero superior clonado está
expuesta actualmente en el Museo de Edimburgo.
(Foto CC de Tony Barros, vía Wikimedia Commons) 
Si dos animales tienen la misma carga genética, como los gemelos, trillizos, cuatrillizos o quintillizos idénticos, son clones. No son siquiera fotocopias, sino que son como dos grabados producidos a partir de la misma plancha. Y pese a ser muy comunes, los clones nos siguen pareciendo desusados.

En el mundo de la agricultura, la clonación es una técnica ordinaria y no precisamente una tecnología de vanguardia. Consta en cortar un brote de una planta e injertarlo en otra, de modo que la segunda dé exactamente los mismos frutos que la primera, con exactamente la misma composición genética.

El injerto es la mejor forma de obtener un producto de una calidad, sabor, aroma, color y tamaño razonablemente uniformes. Cien manzanos procedentes de cien semillas pueden tener frutos muy distintos. Por ello, cuando tenemos un árbol con manzanas muy deseables, se injertan sus brotes en otros manzanos, y en poco tiempo tendremos un huerto uniforme donde todos los árboles nos dan manzanas iguales. Es el caso de la variedad Granny Smith: manzanas genéticamente idénticas que se remontan, todas, a un único árbol del que tomó sus primeros injertos, en 1868, María Ann Smith en Australia.

Así podemos productos agrícolas al gusto del consumidor sin sorpresas desagradables. Y, sabiéndolo o no, todos consumimos grandes cantidades de clones vegetales.

Si hay clones vegetales procedentes de manipulaciones humanas, los clones animales suelen ocurrir sin intervención del ser humano. Las camadas de animales idénticos, organismos como la planaria, pequeño gusano plano con frecuencia plaga de los acuarios, y que para clonarlo basta cortarlo cuidadosamente en dos, y cada mitad regenerará su otro lado, dejándonos con dos clones. Y reptiles que se reproducen por partenogénesis, que es una forma de clonación.

Sin embargo, cuando la gente se refiere al proceso de clonación no está pensando en un campesino injetando un brote. Piensa en un proceso más complejo para crear un nuevo ser viviente a partir de otro, al estilo del thriller de Michael Crichton Parque jurásico.

La complejidad de la clonación

La teoría detrás de la clonación es bastante simple: tomamos una célula de una persona, le extraemos el núcleo, donde está toda la información genética e introducimos ese núcleo en un óvulo cuyo núcleo propio haya sido destruido. El núcleo toma el control y el óvulo se desarrolla normalmente hasta que tengamos un bebé genéticamente idéntico al donante del núcleo original, un gemelo nacido muchos años después.

Pero no es necesario plantear la clonación de seres completos. Clonar únicamente nuestros pulmones, hígado, riñones, páncreas y otros órganos podría, se ha especulado, permitirnos trasplantes sin problemas de rechazo, salvando muchas vidas.

La posibilidad de llevar a cabo este proceso se empezó a hacer realidad en 1901, cuando Hans Spemann dividió un embrión de salamandra de dos células y vio que ambas se convertían en salamandras completas y sanas, indicando que ambas células tenían toda la información genética necesaria para crear un nuevo organismo. Poco después, Speman consiguió transferir un núcleo de una célula a otra y en 1938 publicó sus experimentos y propulo lo que llamó un “experimento fantástico” para transferir el núcleo de una célula a otra que no lo tuviera.

Apenas empezábamos a saber cómo funcionaba el ADN cuando, en 1962, John Gurdon afirmó que había clonado ranas sudafricanas. En 1963, el excéntrico biólogo J.B.S. Haldane usó el término “clonar” en una conferencia y, en 1964, F.E. Steward produjo una zanahoria completa a partir de una célula de la raíz.

Conforme los descubrimientos científicos iban avanzando claramente y a velocidad acelerada hacia la posibilidad de clonar mamíferos superiores y, eventualmente, al ser humano, se empezaban a formular las cuestiones éticas que representaba la clonación. Las distintas corrientes religiosas en general expresaban su rechazo a la idea basados en su concepción del origen excepcional del ser humano. Pero aún fuera de la religión las dudas las resume la Asociación Médica estadounidense en cuatro puntos que merecen atención: la clonación puede causar daños físicos desconocidos, daños psicosociales desconocicos que incluyen la violación de la privacidad, efectos imprevisibles en las relaciones de familia y sociedad, y efectos posibles sobre la reserva genética humana.

El debate se hizo más urgente en febrero de 1997, cuando el embriólogo Ian Wilmut de Escocia anunció la clonación exitosa del primer mamífero superior: la oveja Dolly, que de inmediato entró en la historia y el debate dentro y fuera del mundo científico.

Y los problemas también se hicieron evidentes muy pronto. En vez de vivir los 12 años normales de una oveja, Dolly murió a los seis afectada de enfermedades propias de ovejas de mucha mayor edad, como artritis y enfermedad pulmonar progresiva. Una de las peculiaridades que se observó en el material genético de Dolly es que los extremos de sus cadenas de ADN tenían telómeros demasiado cortos. Los telómeros son variedades de ADN que se van acortando al paso del tiempo y se utilizan como indicadores de la edad de un ser vivo. Desde entonces, se estudian intensamente los telómeros y otros aspectos que pueden obstaculizar el que un ser clonado tenga una vida larga y normal.

El debate volvió a encenderse en mayo de 2013, cuando un grupo de científicos anunció que había conseguido producir embriones humanos a partir de células de piel y óvulos. El proceso está muy lejos de generar finalmente un ser humano clonado completo, y no tiene ese objetivo, es más bien una forma de obtener células madre para el tratamiento de distintas enfermedades a través de la medicina genómica personalizada, donde el material genético del propio paciente se usa para producir las sustancias o elementos necesarios para su curación.

¿Tiene sentido clonar a un ser humano? Muchos científicos consideran que la única razón para intentarlo es todo lo que podemos aprender en el proceso, pero el fin último de la investigación en esta área no es crear seres humanos idénticos entre sí. Después de todo, parece ser que el procedimiento que hemos empleado para crear nuevos seres humanos hasta hoy es bastante eficiente, sencillo y, claro, divertido.

Antiguas clonaciones

La primera referencia histórica que tenemos de la clonación procede del diplomático chino Feng Li, que en el año 5000 antes de nuestra era ya clonaba melocotones, almendras, caquis, peras y manzanas como un emprendimiento comercial. Aristóteles, en el 300 antes de nuestra era, escribió ampliamente sobre la técnica.

Chris Hadfield: la emoción del espacio

La aventura espacial sigue siendo uno de los más relevantes emprendimientos del ser humano. Simplemente, al parecer, lo habíamos olvidado.

Chris Hadfield en su histórica interpretación de
Space Oddity en la Estación Espacial Internacional
Desde fines del siglo XIX, la posibilidad real de salir de los límites de la atmósfera terrestre disparó un duradero entusiasmo por los viajes al espacio, alimentado por la primera obra de ficción que trató la posibilidad con seriedad: “De la Tierra a la Luna” de Jules Verne.

En 1903, el ruso Konstantin Tsiolkovsky publicó dos monografías sobre la exploración espacial y, basado en sus ecuaciones, propuso el uso de cohetes de varias etapas para alcanzar una órbita alrededor del planeta. Poco después, en Estados Unidos, Robert Goddard presentó en 1919 sus teorías sobre viajes en cohetes y las llevó a la práctica en 1926, lanzando el primero de muchos cohetes de combustible líquido.

Los viajes al espacio se empezaron a hacer realidad como parte de la “guerra fría” entre Estados Unidos y la Unión Soviética. Y el entusiasmo por ellos era universal, ya estuviera uno en la órbita soviética o en la estadounidense: era una gran aventura, con el añadido de la competencia que le daba mayor emoción, una gran carrera espacial, como se conoció.

Pero una vez alcanzada la Luna, el objetivo que los contendientes se habían planteado como premio de su enfrentamiento, el entusiasmo empezó a decaer junto con los presupuestos. Después de la llegada a la Luna, las siguientes seis misiones a la Luna (de las que llegaron cinco y fracasó la Apolo XIII) fueron cada vez menos interesantes para el público, sin importar los beneficios que el proyecto espacial estaba empezando a entregar “en tierra” (por mencionar sólo uno, la microminiaturización de componentes forzada por el coste de envío al espacio de cada gramo, que desembocó en los ordenadores personales y la revolución que provocaron).

Mientras la NASA sufría recortes continuos desde 1970, sus adversarios se ocuparon de los viajes orbitales... hasta que la Unión Soviética se desmoronó en 1991. Los entusiastas del espacio siguieron teniendo motivos de alegría, pero para el público en general la exploración espacial pasó a ser algo que estaba allí, con científicos y técnicos, astronautas de una glacial seriedad y tan poco emocionante como un trabajo de fontanería.

Y llegó el canadiense

Cierto, se había intentado suavizar la imagen de los astronautas. En abril de 2011, la astronauta Candy Coleman en el espacio y el mítico líder de Jethro Tull, Ian Anderson, hicieron un dueto de flauta celebrando los 50 años del vuelo orbital de Yuri Gagarin. José Hernández, “Astro_José”, el astronauta de origen mexicano, alcanzó cierta relevancia en Twitter. Pero siempre dejaban la impresión de que todo estaba demasiado coreografiado, que estaban haciendo relaciones públicas para la NASA. Eran como dijo Kevin Fong, director del centro de medicina espacial del University College de Londres, “una orden monástica silenciosa”.

Incluso el hecho mismo de que existiera un grupo de rock formado exclusivamente por astronautas, llamado Max Q, era asunto que sabían muy pocas personas, pese a que la banda ya tiene 26 años de existencia y por ella han pasado 19 hombres y mujeres que han estado en el espacio.

Todo cambió cuando Chris Hadfield, bajista y vocalista de Max Q, fue nombrado como tripulante de la Estación Espacial Internacional.

Durante cinco meses, pero especialmente durante los tres en los que fue comandante de la Expedición 35 de la ISS, Hadfield se convirtió en el astronauta que humanizó el espacio y devolvió a muchos, especialmente a los jóvenes, el entusiasmo por lo que pasa más allá de los confines de nuestro planeta.

Y no lo hizo asombrándonos con los elementos técnicos más desarrollados, sino llevando a tierra, mediante vídeos, fotos y sus cuentas en las redes sociales, la cotidianidad del espacio, a veces lo más simple, lo cotidiano.

Así, explicó lo que pasa si uno llora en el espacio (se crea una bola de agua en el ojo, acumulando las lágrimas, por lo que debe quitarse con un pañuelo desechable, las lágrimas no caen), por qué los astronautas no pueden llevar pan a la estación (las migas que se desprenden del pan flotan e incluso pueden aspirarse por la nariz, en vez de ello comen tortitas mexicanas, llamadas allá “tortillas”), cómo lavarse los dientes, cómo afeitarse, cómo dormir... la vida diaria compartida por un comunicador entusiasta, eficaz, con carisma y capaz de hacer que la gente, como dijo en una sesión de preguntas y respuestas de la red social Reddit “experimentara un poco más directamente cómo es la vida a bordo de una nave de investigación en órbita”.

Pero además de las fotografías y momentos ligeros, como su conversación con William Shatner, actor canadiense que dio vida al Capitán James Kirk en la serie original de televisión Star Trek y en las primeras 6 películas de la franquicia, también llevó a quienes lo seguían en las redes sociales a las emociones reales de la vida en órbita, como una fuga de amoníaco que puso en riesgo el suministro de electricidad de la estación, cuya reparación contó por Twitter mientras la preparaban, o un paseo espacial de emergencia de dos de los astronautas bajo su mando.

La culminación de la estancia del comandante Hadfield fue, sin duda, su interpretación, como guitarrista y cantante que es, de la canción “Space Oddity” de David Bowie, a modo de despedida. Poco después de subir el vídeo, las redes sociales hervían comentándolo.

Lo que se supo después es que primero Hadfield tuvo que se convencido por sus hijos de que sería buena idea llevar su misión a las redes sociales, y luego él tuvo que convencer a la agencia espacial canadiense y a la NASA de darle los medios y el tiempo para hacerlo.

Gracias a ello, y a su forma de responder preguntas, a sus explicaciones, su buen humor y su evidente entusiasmo por su trabajo, muchos jóvenes que no habían prestado demasiada atención a las evoluciones de los astronautas han recuperado el entusiasmo por la exploración del espacio, por las posibilidades que ofrece, por grandes desafíos como el mítico viaje a Marte que algunas agencias espaciales, como la de China, se están planteando seriamente.

Y si hay el entusiasmo necesario, se podrá hacer realidad la sentencia de Tsiolkovsky: “La Tierra es la cuna de la humanidad, pero uno no puede vivir para siempre en una cuna”.

En el aire y en el espacio

Chris Hadfield nació en Ontario, Canadá, en 1959 y estudió ingeniería mecánica al tiempo que era piloto de la Real Fuerza Aérea canadiense. Al espacio en 1995, en la misión 74 del transbordador espacial y en 2001 en la número 100. Fue enlace de la NASA con todos sus astronautas y su representante en el centro Yuri Gagarin. En diciembre de 2012 subió a la ISS, de la que fue comandante del 13 de marzo al 12 de mayo de 2013.

El juego del gato

La que hoy es la mascota más popular del mundo fue considerada maligna y diabólica durante cientos de años.

El gato salvaje africano, Felis silvestris lybica, ancestro
del gato común.
(Foto CC de Rute Martins (www.leoa.co.za),
vía Wikimedia Commons)
Si una proverbial civilización extraterrestre tuviera acceso a Internet, bien podría concluir que los gatos juegan un papel absolutamente esencial en la sociedad humana viendo el número de imágenes de gatos que pueblan de modo desbordante la red mundial.

Sin llegar a tanto, lo cierto es que el gato, junto con el perro, han formado con los seres humanos una relación entre especies que no tiene paralelo en el mundo vivo. A partir de una relación mutuamente beneficiosa en términos de alimentos, protección y seguridad, se desarrolló otra que satisface necesidades más subjetivas, emocionales, de compañía y amistad.

Si el perro comenzó su relación con el hombre, hasta donde sabemos, rondando a los grupos de cazadores para aprovecharse de sus sobrantes alimenticios y después integrándose a las partidas de caza, el gato entró en escena mucho tiempo después, probablemente atraído por otro animal que se adaptó al ser humano: el ratón.

Según el arqueólogo J.A. Baldwin, el proceso de domesticación del gato se produjo a raíz del desarrollo de la agricultura por parte de los seres humanos. Cuando aún no había formas de conservar frutas y verduras, los cereales se añadieron a la dieta humana y se domesticaron por lo relativamente sencillo que es secarlos y almacenarlos en grandes cantidades sin que pierdan sus propiedades alimenticias o se pudran como otros productos agrícolas. Pero un granero era una tentación para los ratones, una fuente de alimento para los duros meses de invierno y una protección de sus depredadores habituales. La abundancia de grano trajo la abundancia de ratones, como lo demuestran, según los estudios, las grandes cantidades de esqueletos de ratones encontrados en los sótanos de las viviendas del neolítico en el Oriente medio. Y eso era a su vez una invitación a sus depredadores, para los cuales un granero era en realidad un almacén de ratones, un coto de caza. Y los principales eran unos gatos salvajes.

Un estudio genético de 979 gatos domésticos, publicado en la revista Science en 2007, concluyó que la domesticación del gato coincidió efectivamente con la aparición de las primeros poblados agrícolas en el creciente fértil de oriente medio. Y determinó que todos los gatos domésticos de hoy, (cuyo nombre científico es Felis sylvestris catus) proceden del gato salvaje de Oriente Medio o gato salvaje africano, Felis sylvestris lybica, aunque en distintos momentos ha habido cruzas con las otras cuatro subespecies de gatos silvestres: el europeo, el de Asia central, el de Sudáfrica y el del desierto de China.

La primera evidencia de la domesticación data de unos 10.000 años, en un enterramiento humano neolítico de Chipre estaba acompañado de un gato y de una escultura que mezclaba rasgos gatunos y humanos.

Uno de los científicos del estudio genético, Carlos Driscoll, sugirió que los gatos de hecho se domesticaron a sí mismos. Entraron por su cuenta en la vida humana y, al paso del tiempo, los seres humanos fueron alimentándolos y favoreciendo rasgos más dóciles y más amables, como ocurrió con el perro. Esto habría implicado prolongar la duración de algunos rasgos y comportamientos infantiles, lo que los biólogos evolutivos conocen como “neotenia”, proceso responsable de que perros y gatos adultos aún gusten de jugar. Implicó también la reducción del tamaño del animal, de sus secreciones hormonales y de su cerebro, haciéndolo más tolerante a la convivencia con humanos.

Un proceso difícil porque el lobo al que convertimos en perro ya era un animal gregario, acostumbrado a la estructura de la manada y la vida ordenada de una sociedad, pero el gato silvestre era (y es) un depredador solitario, como la mayoría de sus parientes de mayor tamaño.

La primera época de gran popularidad de los gatos se vivió en el Antiguo Egipto a partir del año 2000 antes de nuestra era, cuando empezaron a aparecer en el arte y en enterramientos. Se les consideraba valiosos por el control de distintas plagas y se les consideraba parte de la familia. En el panteón de dioses con cabezas animales de la religión egipcia, Bastet, diosa de los gatos, del calor del sol y, según algunos, del amor, tenía cabeza de león cuando estaba en guerra o de gato en sus advocaciones más amables, estableciendo la relación de los felinos con la sensualidad.

Hacia el año 900, la ciudad dedicada a la diosa, que hoy es la ciudad de Zagazig, se convirtió en capital de Egipto y por tanto la adoración de los egipcios por la diosa Bastet creció enormemente. Locales y peregrinos visitaban el gran templo de Bastet, donde merodeaban numerosos gatos, considerados reencarnaciones o ayudantes de la diosa, y le presentaban como ofrenda gatos momificados. En él se han encontrado más de 300.000 de estas momias y se calcula que debe haber millones más, resultado de cientos de años de adoración a la diosa. Para abastecer a los peregrinos, se establecieron los primeros criaderos de gatos, que además los sacrificaban y momificaban para su venta a los fieles.

En los siglos siguientes, el gato se fue extendiendo por el mundo como mascota, apreciado por su utilidad o por su belleza. Pero a partir del siglo XI empezó a identificarse con la maldad, con el diablo y con las brujas que dominaron el imaginario tardomedieval. Diversos herejes (entre ellos los templarios) fueron acusados de adorar al diablo, que se aparecía como un gran gato negro. En 1232, el papa Gregorio IX emitió una bula que describía el uso de gatos en rituales satánicos, lo cual azuzó el rechazo popular a los gatos, y alentó la práctica de cazar y matar gatos, especialmente mediante el fuego, que se mantuvo durante 500 años.

Pero, después de siglos de tristezas y mala publicidad, a partir del siglo XVIII los gatos volvieron a ser considerados compañeros útiles y apreciados, apareciendo primero como mascotas en París. De allí en adelante, la explosión demográfica de los gatos se ha desarrollado sin cesar hasta convertirlos en las mascotas más populares del mundo. Hoy existen más de 50 razas de gatos y se calcula que existen más de 200 millones de gatos que la gente mantiene como mascotas en todo el mundo, y un número indeterminado de gatos asilvestrados.

Y, dicen algunos, parece que casi todos ellos aparecen en alguna foto o vídeo en Internet.

Los gatos y la peste negra

Algunos estudiosos especulan que la práctica del sacrificio de gatos por sus rasgos diabólicos fue un factor responsable, al menos en parte, de la gran epidemia de peste negra de 1348-1350. De haber habido más gatos, no habrían proliferado tanto las ratas que diseminaron a las pulgas que transmitían la peste, y que fue responsable de entre 75 y 200 millones de muertes en Europa.

El universo químico

¿Usted se preocupa por las sustancias químicas en nuestros alimentos, productos y ambiente? Quizá convenga recordar qué son esas sustancias y dónde podemos encontrarlas.

Un libro de 1938 ya resumía la composición química del cuerpo
humano y fijaba el precio de todos los elementos intervinientes
en 90 céntimos de dólar de la época.
Los medios de comunicación, la publicidad y los mensajes distribuidos en las redes sociales sugieren continuamente que las sustancias químicas son malas y debemos rechazarlas. Y, ocasionalmente, recibimos mensajes sin origen claro ni fuentes fiables que advierten contra tal o cual sustancia o producto, por efectos para la salud que no han detectado los encargados de garantizar la seguridad de los productos en sociedades como la europea o la estadounidense.

Esta actitud ha sido objeto de atención de los psicólogos, que han definido como “quimiofobia” al sentimiento irracional de rechazo o temor a la química y las sustancias químicas, tendiendo a considerarlas como venenosas.

La publicidad aprovecha para ofrecer productos como “naturales”, que “no tienen químicos” y sugiriendo que, por tanto, son mejores que su competencia.

E incluso hay la idea de que una misma sustancia química de origen “natural” es mejor que la misma sustancia química sintetizada en una fábrica o en un laboratorio, como si nuestro cuerpo pudiera identificar si una molécula de, por ejemplo, niacina (vitamina B3) proviene de una planta o no, algo que sería una verdadera hazaña.

¿Hay alguna base para pensar así?

El universo está formado por materia y energía, que son manifestaciones intercambiables de un mismo fenómeno, y la materia, esta formada de partículas que se unen en los átomos de los elementos.

Todos los elementos están organizados en la tabla periódica de los elementos. 94 pueden encontrarse en la naturaleza, algunos en mínimas cantidades, y hemos producido más de 20 sintéticos, todos ellos radiactivos, inestables y generalmente en pequeñísimas cantidades.

Así, nuestra realidad está hecha, toda, básicamente de 90 elementos químicos, que se unen según reglas que hemos descubierto en los últimos 350 años para formar compuestos químicos. Y los compuestos químicos se unen o ensamblan a su vez formando moléculas complejas.

Así, la madera, los bebés, el sol, los diamantes, las abejas y los ordenadores son todos mezclas de sustancias químicas. Lo que ahora el lenguaje popular llama “químicos” imitando al idioma inglés. Usted mismo, como seguramente sabe, está hecho principalmente de agua, la sustancia química fundamental para la vida. Pero el agua está formada por hidrógeno y oxígeno, así que podemos decir que el cuerpo humano es principalmente oxígeno.

El 65% de la masa de nuestro cuerpo es oxígeno, de hecho. 18% es carbono, 10% es hidrógeno, 3% es nitrógeno, 1,5% es calcio, 1,2% fósforo, 0,35% potasio, 0,2 azufre, 0,2% cloro, 0,2% sodio, 0,1 magnesio, 0,05% hierro y cantidades muy, muy pequeñas pero muy importantes de otros elementos como cobato, cobre, zinc, yodo, selenio y flúor.

Así que es imposible que exista ningún objeto, alimento, limpiador, cosmético o producto alguno “sin químicos” porque... ¿de qué estaría hecho, entonces?

El conocimiento de la química nos ha permitido no sólo entender las sustancias que están a nuestro alrededor, sino también reproducirlas o incluso crear nuevas sustancias. Esto no es un fenómeno nuevo. El beneficio y transformación de los metales, el curtido de pieles y la elaboración de vino y cerveza ya implicaban importantes transformaciones químicas. Pero a partir de la revolución científica, las posibilidades se multiplicaron.

Como era de esperarse, el hombre ha usado de modo incorrecto algunas sustancias de origen natural, no sabiendo que eran dañinas. La gota, afección prevaleciente en las articulaciones de los ricos romanos, era producida por el altísimo consumo de plomo, un metal que hoy sabemos que es venenoso, y que se usaba igual para fabricar las cañerías de agua (debido a su gran ductilidad) que en forma de azúcar de plomo para endulzar el vino.

Lo mismo ha ocurrido con otras sustancias sintéticas desarrolladas en los últimos 200 años. Aunque gracias a un conocimiento cada vez más amplio de los procesos químicos en el interior de nuestro organismo, y a los procedimientos de prueba de las sustancias que llegan al consumidor, los riesgos de efectos desconocidos de diversas sustancias naturales o no son cada vez menores.

Porque, pese a la propaganda quimiofóbica, lo que debe preocuparnos es el efecto de cada sustancia y la cantidad que podemos –o debemos, incluso– consumir de cada una.

No todo lo natural es bueno y no todo lo sintético es malo, como parecen creer algunas personas. De hecho, las tres sustancias más venenosas que conocemos, es decir, as que pueden matarnos con las dosis más pequeñas, son de origen natural. La bacteria del botulismo es mortal debido a que produce la toxina botulínica, una potente mezcla de siete neurotoxinas que pueden provocar la parálisis y la muerte. La bacteria del tétanos provoca la rigidez de los músculos y la muerte con la toxina tetánica, y es la segunda sustancia más venenosa. La tercera es la toxina que produce la bacteria que causa la difteria, y que nos puede matar provocando la destrucción del tejido del hígado y del corazón.

La química en muchas ocasiones ha producido sustancias sintéticas basadas en otras naturales. Un ejemplo bien conocido es el ácido acetilsalicílico, mejor conocido como aspirina. Era ya conocido por los sumerios hace 4.000 años que la corteza del sauce y el mirto tenían alguna sustancia capaz de aliviar los dolores. Esta sustancia es la salicina, que el cuerpo metaboliza convirtiéndola en ácido salicílico. A mediados del siglo XIX ya se podía obtener ácido salicílico como analgésico. Pero tenía un grave problema pese a su eficacia: era tremendamente agresivo para el estómago. En 1897, el químico Félix Hoffman alteró esta sustancia agregándole un radical llamado acetilo, desarrollando el ácido acetilsalicílico, un medicamento enormemente útil y que gracias a esta alteración prácticamente no tiene efectos secundarios.

Como ocurre con la utilización de todas las tecnologías que conocemos, desde el cuchillo, que puede hacer mucho daño o salvarnos en forma de escalpelo y en la mano de un cirujano hábil, lo más conveniente es pensar en las sustancias químicas en términos de sus ventajas y riesgos, para utilizarlas como mejor nos convenga de modo demostrable.

Todo es veneno

Absolutamente todas las sustancias químicas son venenosas en función de la cantidad que consumamos y de las condiciones de nuestro cuerpo. “La dosis hace el veneno” observó agudamente Paracelso, sabio renacentista que fundó la toxicología. Incluso el agua o el oxígeno en exceso pueden matarnos o causarnos graves daños. Todo lo que en cantidades correctas puede resultarnos benéfico, alimenticio, curativo o, cuando menos, inocuo, en dosis elevadas puede causarnos problemas.

Las conexiones cerebrales hackeadas

Estamos habituados a que nuestras percepciones nos den una representación fiable del mundo. Pero en algunos casos podemos perder hasta la capacidad de percibir nuestro propio rostro.

Un intento por representar cómo ve a la gente una persona
con prosopagnosia, la incapacidad de reconocer los rostros.
(Foto CC de Krisse via Wikimedia Commons)
Es común decir que no vemos con los ojos, sino que vemos con el cerebro (o, más precisamente, el encéfalo, que incluye a otras estructuras además del cerebro). Es decir: la luz efectivamente es detectada en nuestra retina por receptores llamados conos y bastones, que la convierten en impulsos que viajan a través del nervio óptico cruzando el área visual del tálamo antes de llegar a la parte de la corteza cerebral que se llama precisamente “corteza visual”, ubicada en la parte posterior de nuestra cabeza, arriba de la nuca. Pero en todo ese proceso aún no hemos “visto” nada. Sólo cuando la corteza visual registra e interpreta los impulsos nerviosos se produce el fenómeno de la visión, es decir, la representación mental de la realidad visible.

Lo mismo se puede aplicar, por supuesto, a los demás sentidos. Todos los impulsos viajan hasta llegar al encéfalo pero es allí donde se produce el proceso de interpretación.

Y cuando ese centro de interpretación falla, por trastornos físicos, fisiológicos o de otro tipo, nuestra percepción y comprensión del mundo puede verse profundamente alterada.

Una de las formas más conocidas de estas alteraciones de la percepción es la sinestesia, una condición neurológica que no es una enfermedad o un trastorno patológico, en la que la estimulación de un sentido o una percepción conceptual dispara percepciones en otros sentidos que normalmente no serían estimulados por ella.

Por ejemplo, al olfatear algún alimento o bebida, la mayoría de las personas sólo perciben el aroma, pero alguien con sinestesia, al percibir un aroma, puede ver determinados colores. Un catador sinestésico, por ejemplo, dice que el sabor de ciertos vinos blancos le evoca un color azul aguamarina. Otros sinestetas pueden experimentar sabores al escuchar sonidos o, alternativamente escuchar sonidos al ver ciertos objetos. Algunas personas con gran capacidad de realizar cálculos mentalmente “ven” los números como si tuvieran un color determinado, y en las operaciones matemáticas manipulan colores más que trabajar con los números.

Aunque la sinestesia fue descrita ya por Francis Galton, primo de Charles Darwin, a fines del siglo XIX, no empezó a ser estudiada científicamente sino hasta 1980 por el neurólogo Richard E. Cytowic, que eventualmente escribió el libro “El hombre que saboreaba las formas” explicando el trastorno. Aunque se sabe por tanto poco de esta condición, algunos estudios indican que en los sinestetas las conexiones neurales entre distintas áreas sensoriales del encéfalo tienen más mielina, sustancia que recubre las neuronas permitiendo que los impulsos nerviosos viajen más rápidamente. Esto podría ser parte de la explicación de esta curiosa unión de los sentidos en nuestro cerebro, comunicando zonas que generalmente estarían aisladas entre sí.

Las inquietantes agnosias

Otras alteraciones mucho más inquietantes y claramente patológicas son las diversas agnosias. La palabra “agnosia” significa ausencia de conocimiento, y se usa para denotar a las afecciones en las cuales la persona no puede reconocer ciertos objetos, sonidos, formas, aromas, personas o conceptos pese a que su sistema sensorial esté intacto. El problema se origina habitualmente con una lesión o enfermedad neurológicas.

Así, por ejemplo, una persona con agnosia del color puede reconocer el color verde y diferenciarlo de otros colores distintos, pero no distinguirlo y nombrarlo, de modo que puede parecerle perfectamente normal el proverbial perro verde.

Hay más de 25 formas de agnosia reconocidas, principalmente de tres tipos: visuales, auditivas y táctiles. Algunas sencillas como la sordera cortical, en la que los sonidos simplemente no son percibidos. Otras se expresan de modo más complejo, como la prosopagnosia o ceguera a los rostros, en la que los pacientes no pueden reconocer rostros que les deberían ser familiares. Incluso pueden no reconocer su propio rostro. Al verse en un espejo saben que ese rostro les pertenece, pero es como si lo vieran por primera vez. Igualmente, al ver una fotografía de una persona conocida o un familiar pueden describir el rostro, decir si es hombre o mujer, su edad aproximada y otras características, pero sin reconocer que pertenece a una persona que conocen previamente. Otra forma de agnosia visual hace que no se puedan reconocer ciertos objetos más que en su función general: un paciente puede identificar que un tenedor es una herramienta que sirve para comer, pero lo puede confundir con una cuchara o un cuchillo, que también sirven para comer, sin ser capaz de distinguirlos entre sí.

La negligencia es una de las más extrañas formas de agnosia en la que el afectado no reconoce nada que esté de uno de los lados: se peinan o afeitan o maquillan sólo un lado del rostro, pueden sólo ver un lado de un corredor o un cuadro e incluso comer sólo la comida que está en un lado del plato, como si todo lo que estuviera del otro lado simplemente no existiera.

Los trastornos pueden tener una expresión opuesta y en vez de afectar a las percepciones pueden alterar las acciones de las personas, la llamada “apraxia” o incapacidad de realizar c ciertos movimientos o acciones. Si en las agnosias el sistema de percepción está intacto, en las apraxias los afectados no tienen problemas musculares, pero su encéfalo es incapaz de ordenar, por ejemplo, que se muevan correctamente para crear expresiones faciales, mover uno o más miembros o incluso no poder hablar.

Las distintas formas de la agnosia y la apraxia, junto con la identificación de las lesiones encefálicas a las que está asociada cada una de ellas, han permitido ir haciendo un mapa que indica en qué punto se procesa determinada información, ayudando a la comprensión de nuestro cerebro, su estructura, organización y funcionamiento, mientras al mismo tiempo se indagan formas de diagnosticar correctamente las agnosias conseguir la curación de los afectados por la agnosia, o al menos una recuperación parcial que les permita funcionar en su vida cotidiana reduciendo los efectos del trastorno.

Oliver Sacks y las agnosias

El neurólogo Oliver Sacks, conocido por su trabajo con las víctimas de encefalitis letárgica relatado en la película “Despertares”, con Robin Williams en el papel de Sacks, también ha estudiado las agnosias. Sus casos más apasionantes están reunidos en el libro “El hombre que confundió a su mujer con un sombrero”, título referido a un paciente con agnosia visual un día tomó la cabeza de su mujer intentando calársela como un sombrero, incapaz de distinguir distintas cosas salvo por estar relacionadas con la cabeza.

Nuestro mundo por dentro

Vivimos, sin siquiera darnos cuenta, en la superficie de un planeta turbulento, en el que operan fuerzas colosales de presión, temperatura y movimiento.

Ilustración a partir de un original GNUFDL de Matts Haldin
(vía Wikimedia Commons)
Es muy probable que allí, donde quiera que usted esté, no sepa que se encuentra sobre un material tan caliente como la superficie del sol. Justo debajo de sus pies.

Incluso quizá más caliente.

Para su fortuna, usted está aislado de ese calor, que los científicos calculan hoy en alrededor de los 6.000 grados centígrados. Porque ésa sería la temperatura del núcleo más interno de la Tierra, el centro, del que nos separan unos 5.300 kilómetros de capas de distintos materiales que conforman un planeta que nos resulta casi un desconocido.

Aún no conocemos todos los rincones de la superficie del planeta, y mucho menos sus océanos, como decía Jacques-Yves Cousteau, sabemos más del espacio exterior que de los océanos que cubren más del 70% de la Tierra. Y aún más preguntas encierra el interior del planeta, que sólo conocemos indirectamente.

Los antiguos imaginaron la Tierra como una masa sólida de roca con un interior hueco o, cuando menos, con una enorme cantidad de espacio en su interior, que pudiera albergar ciudades, reinos y mundos enteros: el inframundo griego, el infierno cristiano, la mítica ciudad de Shambalah de los tibetanos o el tenebroso Mictlán o tierra de los muertos de los aztecas, creencias sustentadas en la existencia de cavernas que parecían estar a gran profundidad. Pero no lo estaban. La más profunda conocida es la de Krubera, en la República de Georgia, con unos 2.190 metros de profundidad.

Aunque para fines del siglo XVIII ya los geólogos consideraban inviable que nuestro planeta tuviera espacios vacíos en su interior, la fantasía siguió considerando la posibilidad, como en la novela “Viaje al centro de la Tierra” de Julio Verne, publicada en 1864.

Como las capas de una cebolla

Hoy sabemos que la Tierra tiene un radio medio de unos 6.370 kilómetros, que sería la longitud del pozo que necesitaríamos para llegar a su mítico centro. Mucho más que el pozo más profundo jamás perforado para investigación científica, el llamado Kola SG-3, en la península de Kola, en Rusia que en 1989 superó los 12 kilómetros. Desde entonces, algunos pozos destinados a la explotación petrolera han llegado un poco más hondo... pero no más de 0,187% del radio del planeta

Este agujero, perforado con tantos esfuerzos, es minúsculo incluso en la capa más superficial de la Tierra, la corteza, en la cual vivimos todos los seres terrestres. Tiene un espesor de entre 10 kilómetros en las cuencas océanicas y 70 kilómetros en suelo seco. Pero, además, no es una superficie uniforme, sino que está dividida en diversas placas que, como piezas de un rompecabezas en movimiento, “flotan” sobre la astenosfera, que es la parte más superior del manto terrestre, la siguiente capa viajando hacia el centro. Estas placas tectónicas están en constante, aunque muy lento movimiento, chocando entre sí, a veces hundiéndose una debajo de otra hacia el manto (un proceso llamado subducción), y provocando terremotos. Este movimiento ha sido además el responsable de los cambios que los continentes han experimentado a lo largo de la historia del planeta.

La astenosfera es una capa muy caliente y, por tanto, suave, viscosa y flexible, de unos 180 kilómetros de espesor. Es parte del manto superior, que en conjunto mide 600 kilómetros. Debajo de él está el manto inferior, con unos 2.700 kilómetros de espesor. Contrario a lo que se cree comúnmente, el manto no es líquido, sino fundamentalmente sólido, formado por rocas calientes suaves con una textura como la de una plastilina más viscosa. Estas rocas están formadas principalmente por óxidos de silicio (sílice, la arena común) y de magnesio, además de pequeñas cantidades de hierro, calcio y aluminio. En el manto hay algunas bolsas de roca totalmente fundida, el magma, que en determinadas circunstancias puede salir a la superficie en forma de lava en las erupciones volcánicas.

Debajo del manto se encuentra el núcleo, que también se divide en dos secciones, el núcleo exterior y el interior. El núcleo exterior tiene unos 2.200 kilómetros de espesor y está formado por níquel y hierro líquidos a una temperatura de entre 4.500 y 6.000 grados. Las diferencias en presión, temperatura y composicion de este océano metálico provocan corrientes de convexión, es decir, movimientos del material hacia arriba y hacia abajo, del mismo modo en que lo hace el agua en una olla de agua en ebullición. Estas corrientes en ocasiones podemos verlas en el movimiento circular entre la superficie del agua y el fondo de la olla que exhiben algunos ingredientes.

El flujo del hierro líquido en las corrientes de convexión del núcleo exterior genera corrientes eléctricas que, a su vez, son los que generan el campo magnético de la Tierra en un proceso que se conoce como “geodinamo”. El campo magnético producido por el núcleo exterior nos protege del viento solar y es, por tanto, responsable en gran medida de que pueda haber vida en el planeta.

Por debajo se encuentra el núcleo interior, formado principalmente por hierro sólido. Esta aparente paradoja se debe a las colosales presiones a las que está sometido el centro del planeta, calculadas en unas 3,5 millones de veces la presión atmosférica a nivel del mar. Debido a ellas, el hierro del núcleo no puede fluir como un líquido. De hecho, hay estudios que indican que es al menos plausible que el núcleo interno del planeta sea un gran cristal de hierro que gira dentro del núcleo exterior a una velocidad ligeramente mayor que la del resto del planeta.

La realidad es, sin embargo, que no sabemos cómo se puede comportar un elemento como el hierro a esas presiones y temperaturas. Para darnos una idea, los científicos hacen por igual experimentos donde ejercen gran presión sobre materiales calentados con láseres hasta cálculos que utilizan los conocimientos de la mecánica cuántica. Es una forma de conocer el mundo en el que vivimos y al que no podemos acceder directamente. Es más fácil, lo hemos demostrado seis veces, ir a la Luna.

El laboratorio de los terremotos

La mejor forma que tienen los geólogos de estudiar el interior de nuestro hogar es por medio de las ondas que provocan los terremotos. Al estudiar y comparar los registros de sismógrafos situados en distintos puntos del planeta que capturan los mismos movimiento, pueden calcular las diferentes densidades y, por tanto, la composición y estado de las capas por las que pasan –o se absorben– los componentes de movimiento de un terremoto, las ondas S, horizontales, y las ondas P, verticales. El movimiento más rápido o más lento de las ondas a diferentes distancias del epicentro se interpreta para ir mirando la Tierra por dentro, como en una ecografía.

Los animales y la investigación

El delicado tema del uso de animales en la indagación científica, la valoración de los beneficios que pueden dar y el esfuerzo por encontrar otras formas de investigar.

El virus de la poliomielitis se aisló en monos de
laboratorio. El resultado fue la vacuna que ha
salvado a millones de sufrir la enfermedad.
(Foto D.P. Charles Farmer, CDC
vía Wikimedia Commons) 
El estudio de los animales quizá comenzó cuando el Homo habilis empezó a utilizar herramientas para cazarlos y destazarlos, hace alrededor de 2,3 millones de años. Esta especie antecesora, y las que le siguieron hasta llegar a la nuestra (que apenas existe hace unos 200.000 años) tuvo que aprender al menos algunas cosas sobre los órganos internos de los animales con que se alimentaba para hacer de modo eficiente el trabajo de carnicería.

En algún momento, a través de observaciones diversas, el ser humano se hizo consciente de sus similitudes con los demás animales, en especial los mamíferos: cuatro miembros, dos ojos, dos oídos, dos fosas nasales y una boca, más la correspondencia de muchos órganos internos. Y en el siglo IV antes de nuestra era, Aristóteles hizo experimentos con animales como sus observaciones de huevos fertilizados de gallina en distintas etapas del desarrollo que dieron origen a la embriología.

Décadas después, Erisístrato realizó en Alejandría disecciones de animales y humanos con las que describió las estructuras del cerebro y especuló (correctamente) que las circunvoluciones de la corteza se relacionan con la inteligencia. Galeno, en el siglo II de nuestra era hizo los últimos experimentos con animales en 1000 años por la presión religiosa, hasta que en el siglo XII, Avenzoar, en la España morisca, empezó a probar sus procedimientos quirúrgicos en animales antes de aplicarlos a pacientes humanos.

Más allá del interés de la biología por conocer a los seres vivos, fue al desarrollarse la medicina científica a partir de los trabajos de Koch y Pasteur (quien demostró cómo inmunizar a los animales experimentando con ovejas a las que les inoculó ántrax, principio de su vacuna para la rabia), cuando los modelos animales empezaron a emplearse ampliamente en la investigación.

Las pruebas en animales para medicamentos se implantaron por una tragedia acontecida en 1937 en Estados Unidos. Un laboratorio mezcló sulfanilamida (un antibacteriano anterior a la penicilina) con glicol dietileno, producto que no sabían que era venenoso. La comercialización del medicamento provocó la muerte de un centenar de personas.

El escándalo público llevó a promulgar la Ley Federal de Alimentos, Medicamentos y Cosméticos de 1938, que dispuso que no se comercializara ninguno de estos productos si no se probaba primero su seguridad en estudios con animales.

Y así han sido probados absolutamente todos los medicamentos producidos después de la Segunda Guerra Mundial, cuando se generalizó el protocolo de investigación farmacéutica, que requiere primero pruebas en células en el laboratorio, después en animales y, si todo está bien, estudios clínicos con voluntarios.

Hay así dos tipos de investigación que utiliza animales. Una es la investigación básica dedicada a obtener conocimientos y técnicas nuevos en diversas áreas (fisiología, genética, anatomía, bioquímica, cirugía, etc.) y la otra es la prueba de medicamentos, alimentos y cosméticos para garantizar al público una mayor seguridad, reduciendo la frecuencia y gravedad de acontecimientos como el de 1937.

Prácticamente todos los avances de la medicina y gran cantidad de conocimientos de las ciencias de la vida han sido resultado de la experimentación animal, desde los anestésicos hasta los corazones artificiales, desde el aprendizaje y el condicionamiento de la conducta hasta los viajes espaciales. La vacuna para la difteria comenzó protegiendo a conejillos de indias de la enfermedad. Los estudios en perros permitieron descubrir la función de la insulina dándolele una vida mejor y más larga a los diabéticos. Antibióticos como la estreptomicina se usaron primero en animales de laboratorio. El virus de la polio se aisló en monos rhesus (los mismos monos en los que se identificó el factor Rh de la sangre) abriendo la puerta a la casi erradicación de la enfermedad en el mundo desarrollado. Y los primeros antibióticos para la lepra se desarrollaron en armadillos, animales que pueden albergar la bacteria sin ser afectados. Los experimentos con animales nos han permitido descubrir, por ejemplo, que los monos tienen una comprensión de la equidad y la solidaridad, que diversos animales pueden cooperar o que ciertos comportamientos innatos son tan inamovibles como algunas condiciones físicas determinadas genéticamente.

Al paso del tiempo, la preocupación ética por el bienestar de los animales que se utilizan para la experimentación ha llevado a cambios y reducciones drásticos en la experimentación animal, con una creciente atención a evitar todo el sufrimiento evitable y a utilizar otros modelos cuando sea posible.

Sin embargo, en este momento no contamos con modelos para reemplazar a la totalidad de los animales utilizados en investigación. Un caso ilustra esta situación por estar relacionado con nuestros más cercanos parientes evolutivos, los chimpancés. Precisamente por esa cercanía y similitud genética, son los únicos animales que se pueden infectar con el virus de la hepatitis C y por tanto siguen siendo utilizados en investigaciones.

El ideal a alcanzar es que finalmente dejen de usarse animales en la investigación científica. Para ello se ha acordado el modelo de las tres “R”, para el reemplazo de animales con otros modelos, la reducción del uso de animales y el refinamiento de las prácticas para hacerlas más humanitarias. Gracias a este esfuerzo, en 2012, según el periodista científico Michael Brooks, sólo el 2% de todos los procedimientos científicos realizados en animales en Estados Unidos podían causar una incomodidad o daño a los sujetos.

Y esos trabajos de investigación se hacen hoy en día bajo la vigilancia de comités éticos que determinan que sean absolutamente necesarios y se desarrollen en las mejores condiciones posibles... todo mientras nuestros conocimientos de genética, cultivo de tejidos, clonación y otras técnicas permiten prescindir de este tipo de estudios sin quitarle la esperanza a las personas que dependen de estos avances para el alivio a su dolor, sufrimiento y discapacidad.

El problema de la seguridad

En una carta al British Medical Journal, un farmacólogo explicaba el problema de la seguridad y el riesgo y beneficio: si tenemos 4 posibles medicamentos contra el VIH, pero el primero mata a 4 tipos de animales, el segundo a tres de ellos, el tercero a uno solo y el cuarto no mata a ninguno de los animales, aún administrado en grandes dosis, ¿cuál de ellos debemos probar en un pequeño grupo de voluntarios humanos? La respuesta es sencilla: el cuarto. La pregunta más difícil es ¿cómo lo sabríamos de otro modo?

La invasión de los cuadricópteros

Juguetes, armas, herramientas de investigación, las máquinas volantes de cuatro o más rotores son también vanguardia en la investigación robótica.

Cuadricóptero Aeyron Scout en vuelo
(Foto D.P. de Dkroetsch, vía Wikimedia Commons)
Felipe tiene una empresa dedicada a realizar panorámicas fotográficas y recorridos virtuales como los que seguramente todos hemos visto en Internet con los cuales podemos visitar museos, sitios históricos e incluso casas en venta a través de nuestra pantalla. A fines del año pasado empezó a hacer panorámicas aéreas de 360 grados con una inversión realmente mínima. Lo que antes se podía hacer únicamente con un helicóptero y una multitud de permisos para volar a baja altura, lo ha hecho con tres cámaras digitales fijadas a un juguete volador de control remoto con cuatro hélices, un cuadricóptero o cuadrirrotor.

El cuadricóptero es una aeronave de varios rotores que, a diferencia de un helicóptero, que utiliza una hélice vertical (o a veces dos en el mismo eje, que giran en direcciones opuestas), utiliza dos o más rotores para conseguir volar, suspenderse en el aire y realizar complejas maniobras aéreas ya sea mediante mando a distancia o como robots.

Y pueden ser pequeños. Extremadamente pequeños. Los llamados “nanocópteros”, que hoy se pueden adquirir comercialmente como juguetes por menos de cien euros, caben en la palma de la mano. Y los más grandes, que pueden ser más potentes, están controlados por exactamente los mismos elementos de hardware y software.

Son los descendientes más desarrollados de uno de los sueños de Leonardo Da Vinci.

Suspendidos en el aire

Una máquina capaz de despegar verticalemente y quedar suspendida en el aire es un desafío mucho mayor que una que simplemente vuele. El primero en imaginarla fue Leonardo Da Vinci en 1480, su “tornillo de aire”, que, decía, si girara a suficiente velocidad desplazaría el aire como un tornillo de Arquímedes lo hace con el agua.

La palabra “helicóptero” (del griego “helikos”, espiral y “pteron”, ala) antecedió a la primera aeronave capaz de hacer lo que preveía Leonardo. Fue acuñada en 1861 por Gustave de Ponton d'Amécourt, entusiasta del vuelo y amigo de Julio Verne, cuya idea de una aeronave movida por dos hélices verticales fue utilizada por el pionero de la ciencia ciencia ficción en su novela Robur el conquistador.

El primer aparato capaz de lograr la hazaña fue probado en 1870 en Milán por Enrico Forlanini. Sus rotores estaban movidos por una máquina de vapor y consiguió mantenerse inmóvil en el aire unos 20 segundos aunque sólo avanzaba si soplaba el aire. Sin embargo, antes de que Igor Sikorsky consiguiera el primer helicóptero viable tal como los conocemos hoy en día, el experto en aerodinámica George de Bothezat, creó y voló con éxito para el ejército estadounidense una nave dotada de cuatro hélices verticales. Durante 1922 y 1923, el aparato de Bothezat realizó más de 100 vuelos, alcanzando alturas de hasta 9 metros y consiguiendo mantenerse en el aire hasta 2 minutos y 45 segundos. Pero el ejército norteamericano prefirió orientar sus esfuerzos primero al autogiro y después al helicóptero de Sikorsky, que empezó a utilizarse en la Segunda Guerra Mundial.

El cuadricóptero resuelve el principal problema del helicóptero: el giro de la hélice vertical en un sentido hace que el cuerpo de la aeronave tienda a girar en sentido contrario. Para evitarlo, se utiliza un rotor trasero horizontal que impulsa al aparato en sentido contrario al de la hélice. A cambio, presenta otro problema: las cuatro hélices deben estar sincronizadas con enorme precisión o el aparato se desestabilizará rápidamente.

Los cuadricópteros radiocontrolados de juguete llegaron al mercado a principios de los 90 en Japón, aunque su auge comenzó a fines de esa década, dado que sus más apasionantes capacidades dependen de elementos de la más moderna tecnología.

Estas aeronaves están controladas por una pequeña placa madre que contiene una unidad central de procesamiento o CPU, giroscopios, un acelerómetro, controladores de los motores e incluso un GPS.

La estabilidad se la dan sus sensores. Tiene giroscopios que corresponden a los tres ejes que describen un espacio tridimensional y que en aeronáutica se conocen como cabeceo, alabeo y guiñada. Estando de pie, el cabeceo sería el ángulo que tenemos al inclinarnos hacia adelante o hacia atrás, el alabeo sería la inclinación a izquierda o derecha y la guiñada sería el ángulo creado al girar el cuerpo mirando hacia un lado u otro. Con estos tres ejes se puede describir cualquier posición. Mientras, el acelerómetro permite conocer el movimiento en cualquiera de esos tres ejes. Juntos, estos elementos permiten que la CPU sepa cuánto se ha movido, a qué velocidad y en qué dirección, y hacer ajustes delicadísimos a la velocidad de los cuatro rotores para mantener la estabilidad y la dirección de vuelo.

El mismo conjunto de giroscopios y acelerómetros está en los smartphones actuales, permitiéndoles girar la pantalla según la posición del teléfono, usarse como niveles para ajustar ángulos rectos o jugar juegos donde la posición sirve como control. Estos giroscopios y acelerómetros son diminutos aparatos microelectromecánicos (MEMS) en los cuales delicados sensores registran el movimiento de minúsculos trozos móviles de silicio.

Si a estos sensores se añade un GPS, la CPU puede saber su posición exacta en la superficie del planeta. Con sensores de proximidad puede evitar chocar contra objetos que estén en su camino. Y puede tener otros muchos sensores que, junto con la velocidad de procesamiento de la CPU y una programación adecuada permiten que los cuadricópteros se muevan con una exactitud literalmente milimétrica.

Dotados con cámaras, los cuadricópteros pueden permitir una experiencia de vuelo “en primera persona” para quien ve la pantalla, pero también pueden reunir información en lugares inaccesibles para personas, animales u otros aparatos. Esto los ha ido convirtiendo en herramientas útiles para cuerpos de policía y de rescate, para la supervisión industrial en áreas de acceso difícil o riesgoso, como plataformas de fotografía y videografía y, también como herramientas de vigilancia y, algo que inquieta a muchas personas pese a ser inevitable dadas las características de estos dispositivos, el espionaje y vigilancia militares.

Los robots volantes

En la Arena de Máquinas Voladoras del Instituto Federal Suizo de Tecnología se trabaja con enjambres de cuadricópteros controlados de modo inalámbrico por un ordenador central que decide sus movimientos basado en la realimentación de los sensores de las máquinas. Los drones suizos pueden volar en formación, recorrer laberintos y, en una exhibición que se volvió rápidamente viral, construyeron una torre de 6 metros de altura colocando con exquisita precisión 1.500 cubos de espuma.

Cecilia, ¿de qué está hecho el universo?

El “techo de cristal” que sufrían las mujeres en el siglo XX fue roto por figuras monumentales de la investigación como Marie Curie y Cecilia Payne.

Cecilia Payne-Gaposchkin en el observatorio
de la Universidad de Harvard.
(Foto D.P. Acc. 90-105 - Science Service, Records, 1920s-1970s,
Smithsonian Institution Archives, vía Wikimedia Commons)
En 1924 Cecilia Payne estaba trabajando en el observatorio de la Universidad de Harvard, en Massachustes, EE.UU., cuando su profesor, el astrónomo Harlow Shapley, le sugirió que escribiera una tesis doctoral.

La idea no le entusiasmaba a Cecilia. Le dijo a Shapley que ya tenía un título de Cambrige. “Es el título más alto del mundo. No quiero ningún otro”, afirmó. Pero Shapley, famoso por haber conseguido calcular el tamaño de la Vía Láctea y el lugar de nuestro sistema solar en ella, insistió. Él se había arriesgado invitando a la brillante astrónoma británica a cruzar el océano para convertirse en su alumna, en una época en la que pocas mujeres estaban activas en la ciencia, y quería que el resultado de sus esfuerzos se plasmara en un título de doctorado.

Cecilia finalmente cedió e investigó y escribió una disertación doctoral con el sobrio título de “Atmósferas estelares, una contribución al estudio observacional de altas temperaturas en las capas de inversión de las estrellas” que presentó en 1925. En ella, utilizaba la aún novedosa mecánica cuántica para demostrar que el espectro luminoso de las estrellas estaba determinado únicamente por sus temperaturas y no por los elementos que las componían, porque los elementos estaban presentes en proporciones esencialmente iguales en toda la galaxia: el sol tiene tanto silicio y carbono proporcionalmente como la tierra.

Pero había una excepción: el helio y, especialmente el hidrógeno, eran mucho, muchísimo más abundantes en las estrellas. El hidrógeno, de hecho, era del orden de un millón de veces más abundante en las estrellas. En todas las estrellas de toda la galaxia. La conclusión era tan revolucionaria que el asesor de tesis de Cecilia la convenció de suavizar la presentación de los datos indicando que eran una anomalía que probablemente era un error.

De corroborarse esta conclusión que se desprendía inevitablemente de los cálculos de la astrónoma, significaría que el universo estaría formado por hidrógeno en un 99%, algo que iba contra todas las suposiciones de la astrofísica de la época. Y un descubrimiento cuando menos asombroso para una joven de apenas 25 años de edad.

Sucesivas observaciones y cálculos confirmaron en los tres años siguientes las conclusiones de Cecilia Payne y el propio Russell retiró sus objeciones y le dio todo el crédito correspondiente. El universo estaba hecho de hidrógeno, uno de los más trascendentes descubrimientos de la historia de la astronomía.

De la botánica a las estrellas

Conocida por su apellido compuesto de casada, Cecilia Payne-Gaposchkin nació el 10 de mayo de 1900 en Wendover, Inglaterra e hizo sus primeros estudios en la escuela para niñas de St. Paul’s, en Londres, y lo habitual habría sido que allí terminara su escolarización, pues su madre viuda prefería invertir en la educación de su hermano. Sin embargo, Cecilia consiguió una beca para el Colegio de Newnham, en Cambridge, donde se matriculó con objeto de estudiar botánica.

Sus proyectos se vieron alterados cuando pasó por Cambridge Sir Arthur Eddington, el célebre astrónomo. Eddington había registrado en África el eclipse solar del 29 de mayo de 1919, y sus fotografías, publicadas un año después, eran la primera demostración firme de que la teoría de la relatividad de Einstein era correcta: mostraban cómo el campo gravitacional del sol había curvado la luz de estrellas cuando pasaba cerca de él desde nuestro punto de vista, haciendo parecer que estaban en una posición distinta. Con este antecedente, Eddington se embarcó en una serie de conferencias de divulgación sobre esta investigación y sobre la relatividad. Cecilia asistió a la que dictó en Cambridge y, como comentó en una entrevista: “Fue el día después de la conferencia cuando fui con mi director de estudios y dije que iba a cambiar mis estudios de la botánica a la física”.

Como única mujer que estudiaba física en Cambridge, sin embargo, provocó algunas suspicacias. Un caso que también cambiaría el rumbo de su vida fue el del legendario físico Ernest Rutherford, padre de la física nuclear y por entonces ya Premio Nobel de química que sentía que su alumna era demasiado ambiciosa en la ciencia. Cecilia se hizo amiga de la hija del Rutherford, Eillen Mary, él le dijo a su heredera “No le interesas, querida, ella sólo está interesada en mí”.

Cuando Eileen Mary se lo comentó a Cecilia, ésta se enfureció y, relata, “decidí que no seguiría en la física, sino que me orientaría a la astronomía en cuanto pudiera”. Y así lo hizo, obteniendo su licenciatura, maestría y doctorado en astronomía en 1923.

Fue entonces cuando, viendo que en Inglaterra no tenía futuro como investigadora, aceptó la invitación de Harlow Shapley, director del Observatorio Universitario de Harvard para entrar al recientemente inaugurado programa de postgrado de astronomía. Dos años después producía la disertación doctoral que fue descrita como “la tesis de doctorado más brillante jamás escrita en la astronomía” por Otto Struve, uno de los más prolíficos astrónomos de la historia y que descubrió, entre otras cosas, el hidrógeno interestelar.

Después de presentar su tesis, Cecilia Payne adoptó la ciudadanía estadounidense y en 1933, durante un viaje por Europa ya como una de las astrónomas más distinguidas del momento, conoció al astrofísico Sergei I. Gaposchkin, a quien ayudó a salir de la Alemania nazi a Estados Unidos, donde se casaron y tuvieron tres hijos: Edward, astrofísico; Katherine, astrónoma e historiadora de la ciencia, y Peter Arthur, programador analista y físico.

Durante los años siguientes, Cecila y Sergei se dedicaron a diversos trabajos astronómicos, como la observación de las estrellas de gran magnitud y las estrellas variables, que les permitieron establecer los caminos de la evolución de las estrellas. En 1956, mientras continuaba su trabajo de investigación, se convirtió en la primera mujer en obtener una cátedra en la Universidad de Harvard y la primera en encabezar un departamento académico en esa universidad, el de astronomía.

Cuando murió, en 1979, había acumulado una de las más impresionantes carreras de la astronomía del siglo XX.

Si quieres estudiar ciencia

Además de su legado científico, Cecilia Payne-Gaposchkin dejó estas palabras para quienes quieren estudiar ciencia: “No emprendas una carrera científica en busca de la fama o el dinero. Hay formas más sencillas y mejores de alcanzarlos. Empréndela sólo si nada más te puede satisfacer, porque lo que probablemente recibirás es nada. Tu recompensa será la ampliación del horizonte conforme escalas. Y si logras esa recompensa, no pedirás ninguna otra".

Los corsarios de las células

Los virus, organismos en el límite entre lo vivo y lo inanimado, son importantes enemigos de nuestra salud contra los que seguimos siendo incómodamente vulnerables.

Virus de la gripe de 1918 recreado para su estudio.
(Foto D.P. Cynthia Goldsmith, CDC/ Dr. Terrence
Tumpey, TimVickers, via Wikimedia Commons)
En la última década del siglo XIX se descubrió que el agente infeccioso responsable de la enfermedad del mosaico del tabaco era más pequeño de lo que podía ser una bacteria, pues atravesaba exitosamente filtros de porcelana con poros tan pequeños que no dejarían pasar ninguna bacteria. O bien era parte del propio líquido o tenía un tamaño tan diminuto que no se podía ver en los microscopios de la época.

Fue Edward Jenner, el creador de la vacuna contra la viruela, quien llamó a estos agentes “virus”, palabra latina que significaba veneno o sustancia dañina y que aplicó a la “sustancia venenosa” causante de la viruela.

En 1898, el microbiólogo holandés Martinus Beijerinck publicó que este virus no se podía cultivar como otros organismos y sólo se reproducía infectado a las plantas, es decir, que era necesariamente un parásito. Tuvieron que pasar años y descubrimientos hasta que en 1939 se confirmara que los virus eran partículas y no un veneno líquido.

Hoy sabemos que un virus es un agente infeccioso formado por una molécula de un ácido nucleico (ARN o ADN), rodeada por un recubrimiento proteínico y una capa grasa o de lípidos, con un tamaño de entre 20 y 300 nanómetros, es decir, milésimas de millonésimas de metro) que sólo se puede reproducir dentro de las células de sus anfitriones vivos.

El surgimiento de los antibióticos a principios del siglo XX, arma eficaz para combatir las infecciones bacterianas, fue inútil contra las virales. Esto demostraba que quedaba un largo camino en la lucha contra la infección, pues las causadas por virus son el 90% de todas las infecciones que podemos sufrir, entre ellas, por ejemplo, la gastroenteritis infantil, la mononucleosis, la hepatitis A y B, los herpes, la meningitis, el SIDA, la poliomielitis, la rabia, la neumonía, la rubéola, el sarampión, la varicela y, claro, la gripe, entre otras muchas.

Estas partículas orgánicas se encuentran además en el límite entre el mundo vivo y el inanimado. O, por decirlo de otro modo, sólo podemos decir si están o no vivas según la definición que elijamos de “vida”. Su mecanismo de reproducción implica secuestrar la maquinaria de las células que sirven como sus anfitrionas. Y cuando las células son nuestras, nos provocan enfermedades.

En algunos casos, el malestar dura un breve tiempo y nuestro cuerpo “aprende” a combatir a los virus por medio de los antígenos del virus. Es lo que ocurre con la gripe, que al cabo de más o menos una semana es vencida por nuestro sistema inmune. En otros casos, la enfermedad se puede volver crónica, o seguir avanzando hasta provocarnos graves problemas o la muerte.

El ataque se realiza cuando un virus se fija a la membrana de una célula sana e inyecta su material genético en ella e invadiendo su ADN para obligarla a producir copias del virus. La propia célula enferma, controlada por el material genético del virus, crea nuevos virus y los libera para que puedan infectar a otras células. Otra forma de ataque es la de los retrovirus, que insertan su mensaje genético en la célula atacada pero éste se mantiene inactivo. Cuando la célula se reproduce, lo hace con el segmento de ADN ajeno. Al darse ciertas condiciones medioambientales, el ADN viral se activa en todas las células para hacer también copias de sí mismo.

Hasta hoy, las formas que tenemos de combatir las infecciones virales son muy limitadas. Sustancias químicas que estimulan al sistema inmunitario como las interleukinas o los interferones, o antivirales y antirretrovirales que interfieren con el funcionamiento, infección y reproducción de los virus; e incluso medicamentos que destruyen las células infectadas para impedir que reproduzcan copias del virus. Ninguno de estos medicamentos, desafortunadamente, tiene la efectividad que tienen los antibióticos contra las infecciones bacterianas.

Por ello, la primera línea de batalla contra las infecciones virales es la prevención, lo que implica cuarentenas para alejar a quienes ya tienen enfermedades contagiosas, prácticas que impidan la entrada de los virus (como lavarse las manos con frecuencia en temporada de gripe) y, sobre todo, el procedimiento descubierto por Edward Jenner, las vacunas.

Ninguna otra intervención médica ha sido tan eficaz, en toda la historia humana, que las vacunas. Han conseguido erradicar por completo enfermedades tan terribles como la viruela y liberar a muchas regiones de azotes históricos como la polio, la terrible tos ferina o la varicela (cuyo virus permanece en el cuerpo ocasionando daños y molestias a lo largo de toda la vida). Una vacuna es una forma inocua de “mostrarle” a nuestro sistema inmune los antígenos de un virus para que esté preparado y pueda combatirlos exitosamente en caso de una infección del virus real. Es por ello que la gran esperanza contra afecciones virales como el dengue o el SIDA es el desarrollo de sus respectivas vacunas.

La capacidad que tienen los virus de evolucionar rápidamente implica que algunas vacunas, como la de la gripe, deban adaptarse continuamente para mantener un nivel razonable de eficacia. Entender el funcionamiento, la adaptación y, por supuesto, las debilidades de los virus, se trabaja continuamente en el conocimiento de la composición genética de los virus y la secuenciación de sus cadenas de ARN o ADN. La tarea es colosal, porque existen más especies de virus que de todos los demás seres vivos juntos.

Los virus, sin embargo, no son sólo una amenaza. Pueden utilizarse como coadyuvantes de los antibióticos, infectando bacterias y debilitándolas para que sean más susceptibles a la acción de los antibióticos. Los mecanismos de invasión de los virus se pueden también modificar mediante ingeniería genética para transportar medicamentos a células enfermas o cancerosas, para atacar plagas reduciendo el uso de pesticidas o para llevar genes nuevos a otras células como herramientas de la propia ingeniería genética para mejorar todo tipo de especies. Una promesa envuelta en la aterradora capa de una de las peores amenazas a nuestra salud.

Los riesgos de epidemia

Una de las peores epidemias de la historia humana fue la de la gripe de 1918-1920, que infectó a 500 millones de personas y mató a 100 millones. El virus era, hasta donde sabemos, un parásito de las aves que se trasladó a los cerdos que se mantenían en el frente de la Primera Guerra Mundial y sufrió una letal mutación. Debido a este antecedente, existe una alerta intensa ante cualquier brote viral que pudiera convertirse en otro azote similar, como ha ocurrido con la gripe aviar y la gripe A, que afortunadamente no han evolucionado según las menos optimistas predicciones. Hasta hoy.

Nuestro cerebro y el alcohol

Es una de las drogas más consumidas en el mundo junto con la cafeína, y objeto de los elogios y furias de grupos contrapuestos por sus efectos, contradictorios y cada vez mejor comprendidos.

"Restaurant La Mie", óleo de Henri de Toulouse-Lautrec
(vía Wikimedia Commons)
Hace al menos diez mil años el hombre ha producido bebidas con contenido alcohólico, lo que sabemos por el descubrimiento de jarras de cerveza de la era neolítica. Prácticamente todas las culturas han producido bebidas alcohólicas, admitiendo y hasta recomendando su consumo moderado al tiempo que condenaban y desaconsejaban la ebriedad.

Estas bebidas contienen alcohol etílico o etanol, una molécula pequeña cuya fórmula es CH3-CH2-OH y que se disuelve fácilmente en el agua. Se obtiene dejando fermentar productos como frutas, bayas, cereales, miel y otros, que atraen naturalmente a bacterias y levaduras (hongos unicelulares) que al alimentarse de ellos convierten sus carbohidratos y azúcares en etanol. Éste es el proceso que se conoce como fermentación. La gran revolución alcohólica se dio en el siglo XIII, cuando los alquimistas descubrieron la destilación, convirtiendo las bebidas fermentadas en aguardientes o bebidas espirituosas.

La solubilidad del etanol en agua es la responsable de que sus efectos sean tan rápidos y generalizados. Al consumir una bebida alcohólica, las moléculas de etanol se absorben rápidamente, un 20% del alcohol en el estómago, y el resto en el intestino delgado, pasando directamente al torrente sanguíneo, que las lleva a todos los tejidos del cuerpo, afectando especialmente a los tejidos que requieren un abundante riego sanguíneo, como el cerebro. El etanol se mueve por el cuerpo hasta que tiene la misma concentración en todos los tejidos, y parte de él se evapora mediante la respiración. Por ello, la medición del porcentaje de alcohol en el aliento es un indicador razonablemente preciso de la concentración de alcohol en el tejido pulmonar y, por tanto, en el torrente sanguíneo.

El alcohol afecta directamente nuestro sistema nervioso, y lo hace de distintas formas según la cantidad de esta sustancia que tengamos en sangre. Pequeñas cantidades de alcohol son estimulantes para muchos órganos, y con un nivel en sangre entre 0,03% y 0,12% nos sentimos relajados, libera tensión, aumenta nuestra confianza en nosotros mismos y reduce nuestra ansiedad y algunas inhibiciones comunes, facilitando la interacción social. Esto explica por qué las reuniones sociales se “lubrican” o facilitan con el consumo de alcohol. Esto ocurre porque se deprimen los centros inhibitorios de la corteza cerebral, donde ocurren los procesos del pensamiento y la conciencia. El tímido habla con más confianza, el temeroso puede sentirse más valiente, se cuentan confidencias que en otras condiciones se reservarían y se hacen comentarios impulsivos.

Pero al aumentar la concentración de alcohol en nuestra sangre, obstaculiza más ampliamente la neurotransmisión interrumpiendo la comunicación nerviosa, por ejemplo, con los músculos, provocando descoordinación en los movimientos, problemas de equilibrio y hablar arrastrando las palabras. Este efecto se debe a la acción del alcohol en el cerebelo, que es el centro del movimiento y el equilibrio.

Entre 0,09 y 0,25% de contenido de alcohol en sangre la estimulación se vuelve depresión, sentimos sueño, se dificulta la comprensión de las palabras y la memoria, los reflejos se ralentizan o desaparecen. También se obstaculizan los impulsos nerviosos de entrada desde el exterior y hay visión borrosa y disminución de la percepción de sabor, tacto y dolor (por lo cual antes de la invención de los anestésicos se solía emborrachar a los pacientes para realizar intervenciones, desde extracciones de piezas dentales hasta amputaciones). El sueño se debe a la acción del alcohol en el tallo cerebral, que además disminuye el ritmo respiratorio y reduce la temperatura corporal.

Cuando la concentración de alcohol está entre el 0,18 y el 0,30% aparece la confusión y siguen desactivándose mecanismos de nuestro cerebro. Podemos no saber dónde estamos y perder fácilmente el equilibrio; las emociones se desbordan y nos podemos comportar con agresividad o con afectuosidad excesiva. Y cuando los niveles llegan a entre 0,25% y 0,40%, el bebedor ya no puede moverse, apenas responde a los estímulos, no puede caminar y puede perder el sentido por momentos. Un 0,50% de alcohol en sangre implica un coma etílico, con pérdida de conciencia, depresión de los reflejos y ralentización de la respiración. Por encima de 0,50% la respiración se deprime tanto que la persona deja de respirar y muere.

Todo esto se debe a que el alcohol tiene efectos contradictorios en el sistema nervioso. Por un lado, obstaculiza la liberación del glutamato, un neurotransmisor excitador que aumenta la actividad del cerebro y aumenta los efectos del ácido gamma amino butírico o GABA, transmisor que tranquiliza la actividad cerebral (medicamentos contra la ansiedad como el diazepam precisamente aumentan la presencia de GABA en el sistema nervioso).

El alcohol también aumenta la liberación de la dopamina, responsable de controlar los centros de recompensa y placer del cerebro. A mayor presencia de dopamina, mejor nos sentimos. El centro de recompensa del cerebro es una serie de áreas que se estimulan con todas las actividades que hallamos placenteras, sea ver una película, estar con gente que queremos, consumir drogas o escuchar música. Beber alcohol altera el equilibrio químico de nuestro cerebro haciéndonos sentir bien, y es el factor esencial para que un 10% de los hombres y un 5% de las mujeres que beben desarrollen dependencia respecto del alcohol.

Esta acción contradictoria es responsable de un efecto común: al disminuir las inhibiciones aumentan los pensamientos sexuales, pero se deprimen los centros nerviosos del hipotálamo responsables de la excitación y la capacidad de tener relaciones sexuales. Se quiere más y se puede menos.

El alcohol es metabolizado convirtiéndolo primero en acetaldehído, un potente veneno responsable de muchos de los síntomas de la resaca, y después en radicales de ácido acético o vinagre. El resto de la temida resaca se debe al metabolismo de los ésteres y aldehídos que dan a algunas bebidas alcohólicas su aroma, sabor y color peculiares.

Animales bebedores

Apenas en 2008 se descubrió el primer caso de animales que buscan una bebida alcohólica natural. Algunos primates de Malasia como la tupaya y el loris lento, suelen beber el néctar de una palmera local que fermenta hasta tener un contenido alcohólico similar al de la cerveza. La planta aprovecha esta afición para utilizarlos como sus polinizadores. Sin embargo, pese a beber el equivalente a 9 chupitos, los lémures no muestran un comportamiento de ebriedad, convirtiéndolos en la envidia de muchos bebedores.