Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Izar, levantar, elevar

La capacidad de mover eficazmente objetos de un peso enorme ha sido fundamental en la civilización humana.

Representación de una grúa del siglo XIII en el proceso
de construcción de una fortaleza.
(Via Wikimedia Commons)
La marca mundial de peso levantado por un ser humano podrían ser los 2.840 kilogramos que se dijo que había conseguido el estadounidense Paul Anderson, levantándolos sobre sus hombros (no desde el suelo). Pero hubo dudas y el libro Guinness de récords mundiales decidió borrarlo de sus páginas hace algunos años.

Compárese con los más de 2 millones de kilogramos que puede levantar “Taisun”, que es como se llama a la mayor grúa puente del mundo, utilizada en los astilleros de Yantai, en China para la fabricación de plataformas petroleras semisumergibles y barcos FPSO.

Para la evolución de la civilización humana un requisito fundamental ha sido la capacidad de levantar grandes pesos, mucho mayores que los que puede levantar un grupo grande de seres humanos. A fin de conseguirlo, desde la antigüedad se desarrollaron las llamadas “máquinas simples” o básicas: la palanca, la polea, la rueda con eje, el plano inclinado, la cuña y el tornillo. Lo que consiguen estas máquinas es darnos una ventaja mecánica, multiplicando la fuerza que les aplicamos para hacer un trabajo más fácilmente. No es que “cree” energía, sino que la utiliza de manera más eficiente. Si la fuerza viaja una distancia más larga (por ejemplo, de la palanca de un gato que accionamos), será mayor a una distancia más corta, el pequeño ascenso que tiene el auto a cambio de nuestro amplio movimiento.

El plano inclinado nos permite, por ejemplo, subir un peso más fácilmente que izándolo de modo vertical. Mientras mayor es la inclinación, mayor esfuerzo nos representará negociarlo, algo que ejemplifican muy bien algunas etapas de montaña de las vueltas ciclistas. Es la máquina simple que, según los indicios que tenemos, usaron los egipcios junto con la planca para mover los bloques de piedra utilizados en la construcción no sólo de sus pirámides, sino de sus obeliscos y templos impresionantes como el de Abu Simbel.

La grúa hizo su aparición alrededor del siglo VI antes de la Era Común, en Grecia, basada en las poleas que desde unos 300 años antes se empleaban para sacar agua de los pozos. Las poleas compuestas ofrecen una gran ventaja mecánica y, junto con la palanca, permitieron el desarrollo de las grúas y con él la construcción de edificios de modo más eficiente y rápido.

Si la cuerda utilizada para izar se une a un cabrestante o cilindro al que se de vuelta mediante palancas, se va creando un mecanismo más complejo y capaz de elevar mayores pesos más alto y con menos esfuerzo.

Una consecuencia directa de esta idea fue la creación de cabrestantes accionados por animales o por la fuerza humana. Quizá resulte curioso pensar que ya los antiguos romanos utilizaban grandes ruedas caminadoras, como ruedas para hámsters, con objeto de accionar las grúas con las que construyeron las grandes maravillas de la ingeniería del imperio. Y esas mismas grúas accionadas por seres humanos caminando en su interior fueron las que permitieron construir todas las maravillas de la arquitectura gótica y renacentista, además de cargar y descargar barcos conforme el comercio internacional se iba desarrollando, entre otras muchas aplicaciones. Mezclas de máquinas simples formando mecanismos más complejos pero que, en el fondo, se basan en los mismos principios conocidos desde el inicio de la civilización.

El gran cambio en estas máquinas se dio al aparecer la máquina de vapor. Según los expertos, en teoría no hay límite a la cantidad de peso que puede moverse con una grúa accionada por una rueda movida por la fuerza humana, pero accionarla con una energía como la del vapor o la electricidad permite hacerlo más rápido y usando maquinaria más pequeña.

Con estos elementos se han creado varios tipos de grúas, desde las móviles en diversos tipos de vehículos, las carretillas elevadores, las grúas puente en forma de pórtico que se usan en la construcción naval y naves industriales, las grúas Derrick y las más conocidas en el panorama urbano, las grúas torre utilizadas para la construcción de edificios.

Elevar personas

Construir edificios más altos implica, por supuesto, llevar a seres humanos a los pisos superiores. Se dice que Arquímedes ya construyó el primer ascensor o elevador en el 236 a.E.C. pero estos aparatos empiezan realmente a ser parte de la vida cotidiana de los mineros en el siglo XIX, cuando se usan para llevarlos y traerlos de las plantas, cada vez más profundas, de las minas, especialmente de carbón.

Es en 1852 cuando Elisha Otis desarrolla el diseño de ascensor que, esencialmente, seguimos utilizando hoy en día, con características de seguridad que permitieran la máxima tranquilidad al usuario, y que permite la aparición de lo que se llamaría el “rascacielos”.

Y los rascacielos fueron cada vez más arriba. El ascensor común de un edificio de 10 pisos se mueve a una velocidad de más o menos 100 metros por minuto, una velocidad poco práctica para subir a edificios como la torre Taipei 101, con sus 509 metros de altura, pues tardaríamos 5 minutos en llegar del piso más bajo al más alto, cuando los fabricantes tienen como norma que el recorrido sin paradas entre el piso más bajo y el más alto de un edificio debe ser de unos 30 segundos. En un edificio de más de medio kilómetro de altura esto exige ascensores capaces de una velocidad media de 1 kilómetro por minuto o 60 kilómetros por hora.

Pero no es una velocidad continua. Debe acelerarse y desacelerarse de modo tolerable para los pasajeros. Si uno va del piso 1 de la torre al 101, acelerará de 0 a 60 kilómetros por hora en 14 segundos, viajará a la velocidad máxima durante tan sólo 9 segundos y después desacelerará de regreso hasta detenerse en otros 14 segundos. Y todo ello con una tecnología que reduce al mínimo las vibraciones y el malestar de los viajeros.

Finalmente, la tecnología ha tenido que tener en cuenta el diferencial de presión atmosférica entre el piso inferior y el superior, y usar un original sistema de control de presión como el de los aviones para equilibrarla y darle las menos incomodidades posibles a los pasajeros.

Un largo camino que empezó con un plano inclinado, una polea y la decisión de ir más alto.

En la ciencia ficción

En 1979, el legendario autor de ciencia ficción Arthur C. Clarke publicó Las fuentes del paraíso, una novela en la cual un ingeniero propone crear un ascensor capaz de llevar carga y gente al espacio, situado entre la cima de una montaña y un satélite en órbita (Clarke fue el proponente original del satélite geoestacionario). La trama de la novela gira alrededor del rechazo al ascensor por parte de un monasterio budista que ocupa la montaña. Un clásico que merece relectura.

El planeta flotante

Las muchas sorpresas que no sigue ofreciendo Saturno, el miembro de nuestro sistema solar al que algunos llaman “el señor de los anillos”, y sus numerosos satélites.

La Tierra (abajo, derecha) vista desde los anillos de
Saturno por la sonda Cassini en julio de 2013.
(Fotografía D.P. NASA)
En 1610, Galileo Galilei dirigía su sencillo telescopio a Saturno, uno de los cinco planetas “clásicos”, llamado así por ser visibles a simple vista y por tanto conocidos por todas las culturas desde la prehistoria, junto con Marte, Mercurio, Júpiter y Venus. El astrónomo italiano ya había sacudido las bases de la cosmología renacentista con su descubrimiento de las lunas de Júpiter, y ahora el segundo mayor planeta del sistema solar le ofrecía nuevas sorpresas.

En el mes de julio le escribió con entusiasmo a su protector, Cosme II de Médici para informarle de “una muy extraña maravilla”, que le pedía que mantuviera en secreto hasta que el astrónomo publicara su obra. “La estrella de Saturno”, le contaba Galileo al mecenas, “no es una sola estrella, sino que está compuesta de tres que casi se tocan entre sí, nunca cambian ni se mueven en relación con las otras y están organizadas en fila a lo largo del zodiaco”. Señalaba además que la estrella de en medio era tres veces mayor que las otras dos.

Galileo había sido víctima de la poca resolución de su telescopio, que hacía que los anillos de Saturno, vistos en ángulo, parecieran dos lunas a los lados del planeta, dos orejas o asas. Dos años después, para su perpleijdad, Galileo observó que tales lunas habían desaparecido, sólo para volver a ser visiblesdos años después. No fue sino hasta 1659 cuando el astrónomo holandés Christiaan Huygens descifró el enigma determinando que el gran planeta estaba rodeado de anillos.

Aunque hoy sabemos que también Júpiter, Urano y Neptuno son planetas rodeados de anillos, menos conspicuos que el de Saturno, esa característica distintiva es sólo una de las muchas que lo convierten en un cuerpo singular en el sistema solar.

Saturno es el más achatado de todos los planetas. Aunque los llamados gigantes gaseosos están todos achatados por los polos, Saturno es el que mayor diferencia tiene entre su diámetro ecuatorial y el de polo a polo, alrededor de un 10%. Esto se debe a las enoremes fuerzas que operan en su interior, formado principalmente por gases y un núcleo rocoso, y a la gran velocidad de su rotación, pues su “día”, el tiempo que tarda en girar una vez alrededor de su eje, dura apenas 10 horas y media. Por contraste, el año saturniano, el tiempo que tarda en dar una vuelta completa alrededor del sol, es de casi 30 años terrestres.

Es, además, el planeta más tenue de todos, el único cuya densidad es menor que la del agua, lo que quiere decir que si se pusiera a Saturno en un gran recipiente de agua, flotaría sobre ella.

Saturno tiene en órbita a su alrededor una gran cantidad de satélites. Se le han descubierto más de 60 lunas, y 53 de ellas ya tienen nombre, una cantidad apenas superada por las 66 lunas de Júpiter. Sin embargo, el problema para decidir quién tiene más lunas es determinar desde qué tamaño se puede considerar que un objeto en órbita es una luna, pues los anillos de Saturno, finalmente, están formados de innumerables trozos de hielo y roca cubierta de hielo, que van desde algunos centímetros de diámetro hasta varios metros, e incluso es posible que los haya de varios kilómetros de circunferencia. Si todos ellos son lunas, entonces Saturno es el campeón sin discusión posible.

Las lunas que pueden tener vida

Fue el propio Huygens, gran estudioso del planeta, quien descubrió, en 1655, la mayor luna de Saturno, Titán, que es a su vez la segunda más grande del sistema solar después de Ganímedes, luna de Júpiter. Titán tiene un tamaño de 1,48 veces la Luna de nuestro planeta, y exhibe la apasionante peculiaridad de ser la única luna del sistema solar que tiene una atmósfera real, no sólo una tenue capa de gas a su alrededor. Esa atmósfera es rica en nitrógeno, lo que la hace similar a la de nuestro planeta. De hecho, las primeras sondas humanas que visitaron Saturno, las Voyager 1 y 2 en 1980 y 1981, descubrieron que es mucho más densa que la de la Tierra; la presión en la superficie del satélite es de 1,45 atmósferas terrestres. La misma a la que está sometido un buceador a una profundidad de 5 metros en el mar.

La atmósfera de Titán tiene, además, una bruma anaranjada que impide la observación directa de su superficie, que no pudimos ver sino hasta que en 2005 la sonda apropiadamente llamada Huygens fue lanzada hacia Titán por la misión Cassini. En su superficie hay mares formados no por agua, sino por por metano y etano, hidrocarburos que forman parte del gas natural en la Tierra. Estas características, junto con la presencia de moléculas orgánicas formadas por carbono, hidrógeno y oxígeno, hacen pensar a los científicos que Titán tiene condiciones similares a las que presentaba la Tierra al principio de su historia, condiciones que pueden ser conducentes al surgimiento de la vida.

Pero Titán no es la única interesante de las muchas acompañantes de Saturno. La misión Cassini, que continúa hoy observando a Saturno y sus lunas, ha descubierto otras maravillas en los alrededores del planeta anillado, como los géiseres en la luna Enceladus, que arrojan agua líquida, parte de la cual vuelve al satélite en forma de lluvia y parte se une a los anillos del planeta. El agua está en estado líquido gracias al calor interno de Enceladus, que junto con su tenue atmósfera lo hace que se plantee la posibilidad de que albergue vida.
Enceladus y Titán son los mejores candidatos en nuestro sistema solar, junto con Marte, para encontrar en ellos la mítica primera forma de vida extraterrestre, así sea peculiar, extraña y simple. O al menos eso esperan algunos científicos. Recientes descubrimientos en la Tierra de organismos llamados “extremófilos” por su capacidad de sobrevivir en condiciones, precisamente, extremas, alimentan esta especulación.

Además de estas dos lunas, otras como Rhea resultan de interés por estar compuestas de hielo de agua, por sus cráteres e incluso por su origen e influencia sobre Saturno.

La misión Cassini, lanzada en 2005, continúa hoy estudiando a Saturno y a su entorno, e incluso realizando inéditas fotografías de la Tierra vista desde el espacio profundo. Los anteriores visitantes del planeta, las sondas Voyager, están viajando fuera del sistema solar.

Las tormentas desveladas

Saturno experimenta una gigantesca tormenta cada treinta años, produciendo el fenómeno llamado la “gran mancha blanca”, observada por primera vez en 1876. Los mecanismos de cómo se producen estas tormentas en la atmósfera de Saturno eran un misterio hasta 2013, cuando un grupo de investigadores de la Universidad del País Vasco encabezados por Enrique García Melendo desarrolló un modelo informático de la tormenta saturniana.

El comparador de huesos

Uno de los grandes opositores a la idea de la evolución en el siglo XIX fue también uno de los científicos que más sólidas pruebas encontró a favor de este proceso.

Georges Cuvier
(imagen CC vía Wikimedia Commons)
Una de las hazañas más impresionantes de paleontólogos y paleoantropólogos consiste en la reconstrucción de un animal a partir de restos muy escasos, tanto que muchas personas llegan a pensar que los científicos sólo están especulando ciegamente.

Pero este logro es posible, y ello gracias al estudio de la anatomía comparada y al conocimiento de que cada órgano o hueso está modelado por su función y por el lugar que ocupa, de modo que un observador informado puede saber con sólo verlo, por ejemplo, si un diente pertenece a un ser humano, a un primate, a un herbívoro o a un depredador. Y, si es de un herbívoro, por ejemplo, su tamaño y detalles, y su parecido con los de otras especies ya conocidas, le permiten saber el tamaño del animal, su aspecto aproximado e incluso qué tipo de dieta empleaba como alimentación.

El primer científico que pudo hacer esto gracias a sus desubrimientos, Georges Cuvier, decía: “Si los dientes de un animal son como deben ser para que se alimente de carne, podemos estar seguros, sin más exámenes, que el sistema completo de su órgano digestivo es adecuado para ese tipo de alimento”.

Este científico francés, considerado una de las mentes más capaces de su época, era también un personaje mezquino, racista y rencoroso, lo cual en todo caso confirma la idea de que el conocimiento científico es válido consígalo quien lo consiga. Y, según sus contemporáneos, Georges Cuvier lo era, pero sin perder el favor de los poderosos, siempre indispensable para que los científicos tengan los recursos necesarios para su estudios.

El defensor de los hechos

Jean Léopold Nicolas Frédéric Cuvier nació en 1769 en la familia de un oficial militar de bajo rango. Su ciudad natal, Montbéliard, está hoy en Francia, cerca de la frontera con Suiza, pero en aquél entonces era parte del ducado Württemberg, en la Suavia alemana, donde la educación era obligatoria, algo desusado para la época, pero que permitió al joven asistir a la escuela después de que su madre, tenaz creyente en las capacidades de su hijo y en el valor de la educación, ya le hubiera enseñado a leer para los 4 años de edad y lo apoyó continuamente con libros.

En la escuela, Cuvier se encontró con los trabajos de Georges-Louis Leclerc de Buffon, botánico, matemático, uno de los enciclopedistas y figura de la ilustración francesa, y ello lo dirigió hacia lo que entonces se llamaba “naturalismo” y que implicaba a numerosas disciplinas actuales como la biología, la geología, la antropología y la paleontología. A los 12 años había leído los 36 volúmenes de la monumental “Historia natural” de Buffon.

Al salir de la escuela empezó a trabajar como tutor de una familia en Normandía y empezó a forjarse una reputación como naturalista serio, que lo llevaría a la prestigiosa Academia de Ciencias francesa, a ser miembro de la Royal Society y a convertirse en una especie de árbitro de la ciencia.

Su principal aportación, que impulsaría el estudio de la evolución y daría bases sólidas para las conclusiones a las que llegaría Darwin algunos años después de la muerte de Cuvier. A diferencia de algunos pioneros de la evolución como su compatriota Jean-Baptiste Lamarck, Cuvier creía que los seres vivos no cambiaban gradualmente al paso del tiempo. Sin embargo, los hechos le demostraban algo indiscutible: los seres vivos sí se extinguían, idea que presentó en un artículo cuando tenía tan sólo 26 años de edad.

Muchos de sus contemporáneos creían que los fósiles eran restos de especies vivientes conocidas o, incluso, desconocidas que con el tiempo se descubrirían en lugares lejanos del mundo que se estaba apenas explorando. Así, llegaron a considerar los fósiles de mamut hallados en Italia como restos de los elefantes con los que Aníbal cruzó los Alpes en su invasión de la península itálica. Contrario a ellos, Cuvier determinó mediante la comparación de restos fósiles que algunas especies se habían extinguido para siempre de la faz de la tierra. Sus estudios de la anatomía de los elefantes demostraron que los elefantes africanos y asiáticos pertenecían a dos especies distintas, y que ambos eran distintos a los mamuts hallados en Europa y Siberia. Así consiguió demostrar la existencia de animales extintos como el perezoso gigante. En el proceso, fundó la moderna paleontología de vertebrados y la anatomía comparativa.

Además, sus investigaciones en geología, como las que realizó en los alrededores de París, le permitieron determinar que ciertos fósiles sólo aparecen en ciertos estratos geológicos, y que en los propios estratos geológicos había evidencias de glaciaciones y catástrofes diversas. Tratando de conciliar los hechos desarrolló la teoría de que la vida se había extinguido varias veces en la historia del planeta, y que había habido, por tanto, sucesivas creaciones de la vida a partir de cero. Sus evidencias, sin embargo, demuestran que la creciente diferenciación de los seres vivos conforme más antiguos son los estratos geológicos se debe al proceso de la evolución.

Si bien se equivocaba en la conclusión, los hechos eran incuestionables. Y los hechos eran los que consideraba fundamentales.

Su idea de que los animales eran unidades funcionales donde todos los órganos actúan enc concordancia, apoyándose entre sí, le permitió la hazaña de identificar ciertas especies sólo a partir de un hueso determinado, aunque también le hizo rechazar la idea de la evolución, pues argumentaba que un cambio en un solo órgano alteraría el equilibrio del todo, incluso de modo peligroso.

Entre sus otras, abundantes aportaciones, Cuvier amplió el sistema de clasificación de los seres vivos de Linneo reuniéndo a las clases en filos, y afirmando que los animales estaban divididos en cuatro ramificaciones: los vertebrados, los moluscos, los articulados (insectos y crustáceos) y los radiados (seres con simetría radial como la estrella o el erizo de mar).

Cuvier murió de cólera en 1832, habiendo sostenido su prestigio como científico durante la revolución francesa, el régimen napoleónico y la restauración de la monarquía, que le confirió el título de barón poco antes de su muerte.

El espectáculo de la ciencia

Además de promover la educación en Francia, Cuvier hacía demostraciones públicas de sus conocimientos como un moderno divulgador. En algunos casos, se le mostraba una roca que contenía un fósil y, viendo la composición de la roca, podía decir qué animal estaba encerrado en ella. Unos trabajadores rompían la roca cuidadosamente durante largas horas hasta que descubrían el fósil, demostrando que Cuvier estaba en lo correcto y provocando los aplausos de la concurrencia.

Los posibles ordenadores del mañana

Es habitual imaginar lo que podrían hacer los ordenadores del mañana, pero sus capacidades dependerán de la forma que asuman esos ordenadores. Y serán muy distintos de los de hoy.

El primer ordenador cuántico comercial
(Foto de D-Wave Systems, Inc.) 
Imagine un ordenador de sobremesa cuyo procesador estuviera formado por células vivientes, que antes que electricidad requiriera nutrientes, o por moléculas de ADN, el transmisor de la información genética de los seres vivos, o que funcionara a nivel cuántico, en el espacio subatómico donde ocurren cosas que desafían nuestro sentido común (y que, hay que recordarlo, no ocurren a nivel macroscópico).
Ésas son algunas de las posibilidades que se plantean quienes están trabajando para desarrollar los ordenadores del mañana. No de un futuro vagamente lejano, sino razonablemente cercano e inmediato.

Un ordenador es un dispositivo capaz de compartir y almacenar datos, y realizar con ellos operaciones lógicas, correlacionarlos, interpretarlos o procesarlos de alguna otra forma. A eso se reduce cuanto hacen nuestros ordenadores, sea enviar correos electrónicos o reproducir música, procesar fotos o crear textos. Cada acción de un ordenador está programada, paso a paso, para llegar al resultado que observamos sin exigirnos casi ningún esfuerzo a nosotros.

Aunque los ordenadores tienen su origen conceptual en las máquinas que diseñó Charles Babbage y los primeros programas para ellas que diseñó Ada Lovelace, el concepto actual del ordenador surgió en 1946 con ENIAC, una máquina electrónica diseñada para calcular trayectorias balísticas para el ejército estadounidense, lo que en la Segunda Guerra Mundial hacían a mano grupos de mujeres llamadas, precisamente, “computadoras”.

Lo que siguió fue, principalmente, un proceso de miniaturización de los ordenadores y sus componentes, en un momento dado impulsada por la carrera espacial entre EE.UU. y la URSS. De los tubos de vacío para manejar corrientes eléctricas se pasó a los transistores y luego a los microcircuitos integrados de semiconductores, cada vez más pequeños, cada vez más rápidos y cada vez más potentes.

Un smartphone o teléfono inteligente de hoy en día tiene una potencia increíblemente superior a ENIAC. El primer ordenador podía realizar 5.000 instrucciones por segundo, mientras que el aparato que probablemente tiene en el bolsillo puede realizar 5 mil millones de instrucciones por segundo. Y en cuanto a almacenamiento, el primer disco duro que hizo IBM, de 5 megas, pesaba más de una tonelada. Hoy es fácil tener 64 gigabytes (64 mil megabytes) en una tarjeta SD de apenas dos gramos de peso.

Sin embargo, hay un límite a la miniaturización física de los componentes de un ordenador. En 2008, Gilles Thomas, director de investigación de una de las más importantes firmas productoras de semiconductores, calculaba que alrededor de 2023 llegaríamos a un punto en el que ya no será económicamente rentable hacer más pequeños los componentes de un microcircuito.

La forma que adoptará el futuro

Un entretenimiento común es imaginar qué podrán hacer los ordenadores del futuro... y la imaginación es el único límite. Pero todas las especulaciones parten de que vamos a tener máquinas capaces de funcionar a mucha mayor capacidad, con mucho mayor almacenamiento de datos. El problema es cómo conseguirlo.

Quizá las moléculas vivientes, como el ADN, puedan ser las sucesoras del ordenador electrónico que ha dominado nuestra vida desde la década de 1970. Ya en 2003, el científico israelí Ehud Shapiro consiguió crear un “ordenador” biomolecular en el que moléculas de ADN y enzimas que hacen que el ADN produzca determinadas proteínas podrían resolver problemas como la identificación de ciertos tumores en sus etapas más tempranas. Un ordenador que utilizara cadenas de ADN para realizar las operaciones de proceso de datos podría ser, en teoría, miles de veces más poderoso y rápido que los mejores procesadores electrónicos de hoy en día, al menos en ciertos tipos de procesos.

En el terreno de los posibles ordenadores biológicos, también se trabaja en uno formado por neuronas, es decir, las células del sistema nervioso de los animales. En 1999 se desarrolló el primero, formado por una serie de neuronas procedentes de sanguijuelas, donde cada neurona representaba un número y las operaciones se realizaban conectando a las neuronas entre sí. Uno de los atractivos de los ordenadores de neuronas es, según Bill Ditto, creador de este sistema pionero, que hipotéticamente pueden alcanzar soluciones sin tener todos los datos, a diferencia de los ordenadores electrónicos. Al poder realizar sus propias conexiones, en cierto modo estas neuronas podrían “pensar” de modo análogo, a grandes rasgos, a como pensamos nosotros cuando tratamos de resolver un problema sin datos suficientes.

Pero el área de trabajo más intenso como alternativa al ordenador electrónico es la informática cuántica, que trabaja a niveles subatómicos.

En el mundo a nuestra escala, los ordenadores trabajan con un lenguaje binario, es decir, que cada elemento de su lógica o “bit” sólo puede tener uno de dos valores: 1 o 0. Las operaciones de proceso de datos van transformando cada bit hasta que llega a un valor final que es la solución del problema.

Pero en un ordenador cuántico no tenemos bits sino qbits (bits cuánticos), que debido a las propiedades de las partículas elementales que describe la mecánica cuántica, pueden tener un valor de 0, de 1 o de una“superposición” de esos dos valores, es decir, ambos a la vez. Pero si tomamos un par de qbits, pueden estar cualquier superposición de cuatro estados. Así, la cantidad de qbits para representar la información en un ordenador cuántico es mucho menor que la cantidad de bits en uno electrónico y la cantidad de procesos que puede realizar es mucho mayor y a mayor velocidad, explorando diversas opciones para cada problema.

Los primeros ordenadores cuánticos comerciales han sido ya adquiridos por una empresa aeroespacial y por el gigante de las búsquedas en Internet, Google. La decisión se tomó después de constatar que el ordenador cuántico resolvía en medio segundo un problema que le tomaba media hora a uno de los más poderosos ordenadores industriales existentes.

Por más que nos pueda asombrar cuánto ha avanzado la informática desde sus inicios en 1946, es posible que apenas estemos por salir de la infancia de los ordenadores. Y el futuro será todo, menos predecible.

La “ley” de Moore

En 1965, Gordon Moore, uno de los fundadores de Intel, observó que el número de transistores en un circuito integrado, y por tanto aproximadamente el poder de cómputo, se duplicaba más o menos cada dos años. Sin ser una ley, esta aguda observación se ha mantenido válida durante 48 años, pero los expertos de la industria calculan que esta velocidad empezará a disminuir en poco tiempo.

La extraña forma de andar a dos pies

Somos el único primate completamente bípedo, característica que adquirimos de modo relativamente reciente y de la cual aún queda mucho por saber.

Reproducción del esqueleto de "Lucy" y reconstrucción
en el Museo Nacional de Naturaleza y Ciencia de Tokio.
(Foto CC de Momotarou2012, vía Wikimedia Commons) 
Durante largo tiempo se vivió un debate intenso intentando determinar si, en la evolución que ha llevado hasta los humanos modernos, había aparecido primero una gran capacidad craneal o el bipedalismo, nuestra curiosa forma de locomoción. Los especialistas comparaban datos, especulaban con base a la evidencia existente y cotejaban puntos de vista.

Ambas adaptaciones, son esenciales para lo que nos hace humanos. La gran capacidad craneal implica un mayor cerebro en relación al cuerpo, permitiendo la aparición de funciones cerebrales que todo parece indicar que sólo tiene el ser humano, como el cuestionamiento de la realidad y un lenguaje conceptual capaz de transmitir conocimientos de una generación a la siguiente. Pero el bipedalismo a su vez era fundamental para liberar nuestras extremidades superiores, permitiendo que se desarrollaran capacidades como la de hacer y manipular herramientas complejas con un control muy fino, del que son incapaces nuestros más cercanos parientes primates, que aún utilizan las extremidades superiores para la locomoción, como el gorila, el chimpancé o el orangután.

A principios del siglo XX, los pocos fósiles que se tenían de homininos (es decir, de las especies que se separaron de los chimpancés abriendo una nueva línea que desembocó en las varias especies humanas que conocemos) tenían cerebros relativamente grandes, al menos en comparación con los otros primates. Esto apoyaba la idea de que la gran capacidad craneal había sido el primer paso hacia la humanización: la inteligencia había forjado al cuerpo.

Pero en 1924, en una cantera sudafricana, se encontraron algunos fragmentos de un fósil nuevo, un joven de unos 2,5 millones de años de antigüedad al que se bautizó como el Niño de Taung, por la zona donde fue descubierto. Era una nueva especie y un nuevo genus, el Australopitecus africanus. La reconstrucción que se hizo sugería que, pese a tener un cerebro de tamaño comparable al de los chimpancés modernos, parecía tratarse de un ser que se había trasladado sobre dos pies. El debate seguía, pero con nuevos datos.

En 1974, el paleoantropólogo Donald Johanson encontró lo que es un sueño para cualquiera de sus colegas: un esqueleto muy completo de una hembra de la especie Australopithecus afarensis, con una antigüedad de 3,2 millones de años a la que es bautizó como “Lucy” porque en la celebración de su hallazgo los miembros del grupo de Johanson estuvieron escuchando la canción de Los Beatles “Lucy in the sky with diamonds”.

Y la cadera, los huesos de las piernas, las vértebras y el cráneo de Lucy no dejaban lugar a dudas: era un pequeño ser de 1,1 metros de estatura, con una capacidad craneal apenas mayor que la de un chimpancé de su tamaño, pero claramente bípeda.

Antes de usar herramientas, antes de poder hacer arte o filosofía, nuestra estirpe había caminado sobre dos pies. El debate estaba zanjado. Primero fue el bipedalismo. Y descubrimientos posteriores han confirmado esta conclusión de modo clarísimo, indicando que nuestra línea es bípeda al menos desde hace 7 millones de años.

Pero la respuesta obtenida por la ciencia abría nuevas preguntas. ¿Por qué nuestro linaje se volvió bípedo?

De una parte, la aparición de esta característica coincidió con un evento climático de súbita disminución de la temperatura, aumento de los hielos de la Antártida y descenso del nivel del mar. Es posible que al hacerse menos densos los bosques, el medio favoreciera que nuestros ancestros arborícolas cambiaran su forma de locomocion, siendo más eficientes en la sabana y, de paso, más capaces de ver a su alrededor para protegerse de los depredadores. Además, esto les permitía llevar en los brazos comida en distancias más largas, era más eficiente que el cuadrupedalismo de otros primates y daba lugar a una característica singular del ser humano: la capacidad de correr a lo largo de enormes distancias.

Son pocos los animales que pueden competir con el ser humano en las largas distancias. Nuestra capacidad de desprender calor mediante el sudor y gracias a la falta de pelo corporal nos pone en una liga muy selecta de animales capaces de correr más de 30 kilómetros a una velocidad sostenida, como los perros, lobos, caballos, camellos y avestruces. Esto eventualmente permitió a los primeros cazadores seguir a una presa hasta conseguir agotarla sin tener que correr más rápido que ella, simplemente a base de persistencia.

Andar del modo peculiar en que lo hacemos permitió a los australopitecinos manejar mejor su medio ambiente y convertirse, eventualmente, en cazadores capaces de usar herramientas y armas. Los desafíos y la mejor alimentación del recolector-cazador desembocaron en lo que somos nosotros.

Y sin embargo, hay muchas indicaciones de que caminar sobre dos pies es un acontecimiento novedoso en términos de la evolución y su lento decurso, y que buena parte del diseño de nuestro cuerpo es el resultado de compromisos entre el bipedalismo y otras funciones. El parto difícil de la hembra humana, por poner el ejemplo más conocido, es resultado del rediseño de la columna vertebral y la pelvis, que hizo del canal de parto un recorrido difícil y peligroso para el hijo y para la madre, donde el bebé debe hacer un giro de 90 grados para poder salir por un espacio estrecho y curvado. Distintas presiones de selección en distintos momentos llevaron a un resultado satisfactorio, pero ciertament eno perfecto. Y ello lo vivimos también en nuestros problemas de espalda, la aparente fragilidad de nuestras rodillas, la propensión al pie plano.

Pero todo ello es el resultado de un cambio fundamental y revolucionario que en el fondo resulta una maravilla de la ingeniería. Y para recordarlo, basta tener presente lo difícil que ha sido para los más avezados diseñadores de robots hacer un autómata bípedo que camine como nosotros. Ni siquiera el más avanzado robot es capaz de recuperarse de un empujón y, mucho menos, de dar los pasos de danza de una bailarina profesional con los que nuestra forma de locomoción se convierte en medio para crear belleza y emoción.

Una nueva hipótesis

Un reciente estudio de la Universidad de York sugiere que nuestro peculiar modo de locomoción puede haber tenido su origen no en la expulsión de nuestros ancestros de los bosques por motivos climatológicos, sino por su migración hacia los terrenos abruptos del oriente y sur de África, zonas rocosas a las que se habrían visto atraídos tanto por el refugio que ofrecían como por tener mejores oportunidades de atrapar a sus presas allí, un terreno que pudo contribuir a desarrollar nuestras habilidades cognitivas.

La técnica y la ética de la clonación

Clonar seres nos permite conocer mejor la transmisión genética y, sobre todo, de cómo el medio ambiente determina si nuestros genes se activan o no. Un conocimiento que aún provoca temores.

La oveja Dolly, el primer mamífero superior clonado está
expuesta actualmente en el Museo de Edimburgo.
(Foto CC de Tony Barros, vía Wikimedia Commons) 
Si dos animales tienen la misma carga genética, como los gemelos, trillizos, cuatrillizos o quintillizos idénticos, son clones. No son siquiera fotocopias, sino que son como dos grabados producidos a partir de la misma plancha. Y pese a ser muy comunes, los clones nos siguen pareciendo desusados.

En el mundo de la agricultura, la clonación es una técnica ordinaria y no precisamente una tecnología de vanguardia. Consta en cortar un brote de una planta e injertarlo en otra, de modo que la segunda dé exactamente los mismos frutos que la primera, con exactamente la misma composición genética.

El injerto es la mejor forma de obtener un producto de una calidad, sabor, aroma, color y tamaño razonablemente uniformes. Cien manzanos procedentes de cien semillas pueden tener frutos muy distintos. Por ello, cuando tenemos un árbol con manzanas muy deseables, se injertan sus brotes en otros manzanos, y en poco tiempo tendremos un huerto uniforme donde todos los árboles nos dan manzanas iguales. Es el caso de la variedad Granny Smith: manzanas genéticamente idénticas que se remontan, todas, a un único árbol del que tomó sus primeros injertos, en 1868, María Ann Smith en Australia.

Así podemos productos agrícolas al gusto del consumidor sin sorpresas desagradables. Y, sabiéndolo o no, todos consumimos grandes cantidades de clones vegetales.

Si hay clones vegetales procedentes de manipulaciones humanas, los clones animales suelen ocurrir sin intervención del ser humano. Las camadas de animales idénticos, organismos como la planaria, pequeño gusano plano con frecuencia plaga de los acuarios, y que para clonarlo basta cortarlo cuidadosamente en dos, y cada mitad regenerará su otro lado, dejándonos con dos clones. Y reptiles que se reproducen por partenogénesis, que es una forma de clonación.

Sin embargo, cuando la gente se refiere al proceso de clonación no está pensando en un campesino injetando un brote. Piensa en un proceso más complejo para crear un nuevo ser viviente a partir de otro, al estilo del thriller de Michael Crichton Parque jurásico.

La complejidad de la clonación

La teoría detrás de la clonación es bastante simple: tomamos una célula de una persona, le extraemos el núcleo, donde está toda la información genética e introducimos ese núcleo en un óvulo cuyo núcleo propio haya sido destruido. El núcleo toma el control y el óvulo se desarrolla normalmente hasta que tengamos un bebé genéticamente idéntico al donante del núcleo original, un gemelo nacido muchos años después.

Pero no es necesario plantear la clonación de seres completos. Clonar únicamente nuestros pulmones, hígado, riñones, páncreas y otros órganos podría, se ha especulado, permitirnos trasplantes sin problemas de rechazo, salvando muchas vidas.

La posibilidad de llevar a cabo este proceso se empezó a hacer realidad en 1901, cuando Hans Spemann dividió un embrión de salamandra de dos células y vio que ambas se convertían en salamandras completas y sanas, indicando que ambas células tenían toda la información genética necesaria para crear un nuevo organismo. Poco después, Speman consiguió transferir un núcleo de una célula a otra y en 1938 publicó sus experimentos y propulo lo que llamó un “experimento fantástico” para transferir el núcleo de una célula a otra que no lo tuviera.

Apenas empezábamos a saber cómo funcionaba el ADN cuando, en 1962, John Gurdon afirmó que había clonado ranas sudafricanas. En 1963, el excéntrico biólogo J.B.S. Haldane usó el término “clonar” en una conferencia y, en 1964, F.E. Steward produjo una zanahoria completa a partir de una célula de la raíz.

Conforme los descubrimientos científicos iban avanzando claramente y a velocidad acelerada hacia la posibilidad de clonar mamíferos superiores y, eventualmente, al ser humano, se empezaban a formular las cuestiones éticas que representaba la clonación. Las distintas corrientes religiosas en general expresaban su rechazo a la idea basados en su concepción del origen excepcional del ser humano. Pero aún fuera de la religión las dudas las resume la Asociación Médica estadounidense en cuatro puntos que merecen atención: la clonación puede causar daños físicos desconocidos, daños psicosociales desconocicos que incluyen la violación de la privacidad, efectos imprevisibles en las relaciones de familia y sociedad, y efectos posibles sobre la reserva genética humana.

El debate se hizo más urgente en febrero de 1997, cuando el embriólogo Ian Wilmut de Escocia anunció la clonación exitosa del primer mamífero superior: la oveja Dolly, que de inmediato entró en la historia y el debate dentro y fuera del mundo científico.

Y los problemas también se hicieron evidentes muy pronto. En vez de vivir los 12 años normales de una oveja, Dolly murió a los seis afectada de enfermedades propias de ovejas de mucha mayor edad, como artritis y enfermedad pulmonar progresiva. Una de las peculiaridades que se observó en el material genético de Dolly es que los extremos de sus cadenas de ADN tenían telómeros demasiado cortos. Los telómeros son variedades de ADN que se van acortando al paso del tiempo y se utilizan como indicadores de la edad de un ser vivo. Desde entonces, se estudian intensamente los telómeros y otros aspectos que pueden obstaculizar el que un ser clonado tenga una vida larga y normal.

El debate volvió a encenderse en mayo de 2013, cuando un grupo de científicos anunció que había conseguido producir embriones humanos a partir de células de piel y óvulos. El proceso está muy lejos de generar finalmente un ser humano clonado completo, y no tiene ese objetivo, es más bien una forma de obtener células madre para el tratamiento de distintas enfermedades a través de la medicina genómica personalizada, donde el material genético del propio paciente se usa para producir las sustancias o elementos necesarios para su curación.

¿Tiene sentido clonar a un ser humano? Muchos científicos consideran que la única razón para intentarlo es todo lo que podemos aprender en el proceso, pero el fin último de la investigación en esta área no es crear seres humanos idénticos entre sí. Después de todo, parece ser que el procedimiento que hemos empleado para crear nuevos seres humanos hasta hoy es bastante eficiente, sencillo y, claro, divertido.

Antiguas clonaciones

La primera referencia histórica que tenemos de la clonación procede del diplomático chino Feng Li, que en el año 5000 antes de nuestra era ya clonaba melocotones, almendras, caquis, peras y manzanas como un emprendimiento comercial. Aristóteles, en el 300 antes de nuestra era, escribió ampliamente sobre la técnica.

Chris Hadfield: la emoción del espacio

La aventura espacial sigue siendo uno de los más relevantes emprendimientos del ser humano. Simplemente, al parecer, lo habíamos olvidado.

Chris Hadfield en su histórica interpretación de
Space Oddity en la Estación Espacial Internacional
Desde fines del siglo XIX, la posibilidad real de salir de los límites de la atmósfera terrestre disparó un duradero entusiasmo por los viajes al espacio, alimentado por la primera obra de ficción que trató la posibilidad con seriedad: “De la Tierra a la Luna” de Jules Verne.

En 1903, el ruso Konstantin Tsiolkovsky publicó dos monografías sobre la exploración espacial y, basado en sus ecuaciones, propuso el uso de cohetes de varias etapas para alcanzar una órbita alrededor del planeta. Poco después, en Estados Unidos, Robert Goddard presentó en 1919 sus teorías sobre viajes en cohetes y las llevó a la práctica en 1926, lanzando el primero de muchos cohetes de combustible líquido.

Los viajes al espacio se empezaron a hacer realidad como parte de la “guerra fría” entre Estados Unidos y la Unión Soviética. Y el entusiasmo por ellos era universal, ya estuviera uno en la órbita soviética o en la estadounidense: era una gran aventura, con el añadido de la competencia que le daba mayor emoción, una gran carrera espacial, como se conoció.

Pero una vez alcanzada la Luna, el objetivo que los contendientes se habían planteado como premio de su enfrentamiento, el entusiasmo empezó a decaer junto con los presupuestos. Después de la llegada a la Luna, las siguientes seis misiones a la Luna (de las que llegaron cinco y fracasó la Apolo XIII) fueron cada vez menos interesantes para el público, sin importar los beneficios que el proyecto espacial estaba empezando a entregar “en tierra” (por mencionar sólo uno, la microminiaturización de componentes forzada por el coste de envío al espacio de cada gramo, que desembocó en los ordenadores personales y la revolución que provocaron).

Mientras la NASA sufría recortes continuos desde 1970, sus adversarios se ocuparon de los viajes orbitales... hasta que la Unión Soviética se desmoronó en 1991. Los entusiastas del espacio siguieron teniendo motivos de alegría, pero para el público en general la exploración espacial pasó a ser algo que estaba allí, con científicos y técnicos, astronautas de una glacial seriedad y tan poco emocionante como un trabajo de fontanería.

Y llegó el canadiense

Cierto, se había intentado suavizar la imagen de los astronautas. En abril de 2011, la astronauta Candy Coleman en el espacio y el mítico líder de Jethro Tull, Ian Anderson, hicieron un dueto de flauta celebrando los 50 años del vuelo orbital de Yuri Gagarin. José Hernández, “Astro_José”, el astronauta de origen mexicano, alcanzó cierta relevancia en Twitter. Pero siempre dejaban la impresión de que todo estaba demasiado coreografiado, que estaban haciendo relaciones públicas para la NASA. Eran como dijo Kevin Fong, director del centro de medicina espacial del University College de Londres, “una orden monástica silenciosa”.

Incluso el hecho mismo de que existiera un grupo de rock formado exclusivamente por astronautas, llamado Max Q, era asunto que sabían muy pocas personas, pese a que la banda ya tiene 26 años de existencia y por ella han pasado 19 hombres y mujeres que han estado en el espacio.

Todo cambió cuando Chris Hadfield, bajista y vocalista de Max Q, fue nombrado como tripulante de la Estación Espacial Internacional.

Durante cinco meses, pero especialmente durante los tres en los que fue comandante de la Expedición 35 de la ISS, Hadfield se convirtió en el astronauta que humanizó el espacio y devolvió a muchos, especialmente a los jóvenes, el entusiasmo por lo que pasa más allá de los confines de nuestro planeta.

Y no lo hizo asombrándonos con los elementos técnicos más desarrollados, sino llevando a tierra, mediante vídeos, fotos y sus cuentas en las redes sociales, la cotidianidad del espacio, a veces lo más simple, lo cotidiano.

Así, explicó lo que pasa si uno llora en el espacio (se crea una bola de agua en el ojo, acumulando las lágrimas, por lo que debe quitarse con un pañuelo desechable, las lágrimas no caen), por qué los astronautas no pueden llevar pan a la estación (las migas que se desprenden del pan flotan e incluso pueden aspirarse por la nariz, en vez de ello comen tortitas mexicanas, llamadas allá “tortillas”), cómo lavarse los dientes, cómo afeitarse, cómo dormir... la vida diaria compartida por un comunicador entusiasta, eficaz, con carisma y capaz de hacer que la gente, como dijo en una sesión de preguntas y respuestas de la red social Reddit “experimentara un poco más directamente cómo es la vida a bordo de una nave de investigación en órbita”.

Pero además de las fotografías y momentos ligeros, como su conversación con William Shatner, actor canadiense que dio vida al Capitán James Kirk en la serie original de televisión Star Trek y en las primeras 6 películas de la franquicia, también llevó a quienes lo seguían en las redes sociales a las emociones reales de la vida en órbita, como una fuga de amoníaco que puso en riesgo el suministro de electricidad de la estación, cuya reparación contó por Twitter mientras la preparaban, o un paseo espacial de emergencia de dos de los astronautas bajo su mando.

La culminación de la estancia del comandante Hadfield fue, sin duda, su interpretación, como guitarrista y cantante que es, de la canción “Space Oddity” de David Bowie, a modo de despedida. Poco después de subir el vídeo, las redes sociales hervían comentándolo.

Lo que se supo después es que primero Hadfield tuvo que se convencido por sus hijos de que sería buena idea llevar su misión a las redes sociales, y luego él tuvo que convencer a la agencia espacial canadiense y a la NASA de darle los medios y el tiempo para hacerlo.

Gracias a ello, y a su forma de responder preguntas, a sus explicaciones, su buen humor y su evidente entusiasmo por su trabajo, muchos jóvenes que no habían prestado demasiada atención a las evoluciones de los astronautas han recuperado el entusiasmo por la exploración del espacio, por las posibilidades que ofrece, por grandes desafíos como el mítico viaje a Marte que algunas agencias espaciales, como la de China, se están planteando seriamente.

Y si hay el entusiasmo necesario, se podrá hacer realidad la sentencia de Tsiolkovsky: “La Tierra es la cuna de la humanidad, pero uno no puede vivir para siempre en una cuna”.

En el aire y en el espacio

Chris Hadfield nació en Ontario, Canadá, en 1959 y estudió ingeniería mecánica al tiempo que era piloto de la Real Fuerza Aérea canadiense. Al espacio en 1995, en la misión 74 del transbordador espacial y en 2001 en la número 100. Fue enlace de la NASA con todos sus astronautas y su representante en el centro Yuri Gagarin. En diciembre de 2012 subió a la ISS, de la que fue comandante del 13 de marzo al 12 de mayo de 2013.

El juego del gato

La que hoy es la mascota más popular del mundo fue considerada maligna y diabólica durante cientos de años.

El gato salvaje africano, Felis silvestris lybica, ancestro
del gato común.
(Foto CC de Rute Martins (www.leoa.co.za),
vía Wikimedia Commons)
Si una proverbial civilización extraterrestre tuviera acceso a Internet, bien podría concluir que los gatos juegan un papel absolutamente esencial en la sociedad humana viendo el número de imágenes de gatos que pueblan de modo desbordante la red mundial.

Sin llegar a tanto, lo cierto es que el gato, junto con el perro, han formado con los seres humanos una relación entre especies que no tiene paralelo en el mundo vivo. A partir de una relación mutuamente beneficiosa en términos de alimentos, protección y seguridad, se desarrolló otra que satisface necesidades más subjetivas, emocionales, de compañía y amistad.

Si el perro comenzó su relación con el hombre, hasta donde sabemos, rondando a los grupos de cazadores para aprovecharse de sus sobrantes alimenticios y después integrándose a las partidas de caza, el gato entró en escena mucho tiempo después, probablemente atraído por otro animal que se adaptó al ser humano: el ratón.

Según el arqueólogo J.A. Baldwin, el proceso de domesticación del gato se produjo a raíz del desarrollo de la agricultura por parte de los seres humanos. Cuando aún no había formas de conservar frutas y verduras, los cereales se añadieron a la dieta humana y se domesticaron por lo relativamente sencillo que es secarlos y almacenarlos en grandes cantidades sin que pierdan sus propiedades alimenticias o se pudran como otros productos agrícolas. Pero un granero era una tentación para los ratones, una fuente de alimento para los duros meses de invierno y una protección de sus depredadores habituales. La abundancia de grano trajo la abundancia de ratones, como lo demuestran, según los estudios, las grandes cantidades de esqueletos de ratones encontrados en los sótanos de las viviendas del neolítico en el Oriente medio. Y eso era a su vez una invitación a sus depredadores, para los cuales un granero era en realidad un almacén de ratones, un coto de caza. Y los principales eran unos gatos salvajes.

Un estudio genético de 979 gatos domésticos, publicado en la revista Science en 2007, concluyó que la domesticación del gato coincidió efectivamente con la aparición de las primeros poblados agrícolas en el creciente fértil de oriente medio. Y determinó que todos los gatos domésticos de hoy, (cuyo nombre científico es Felis sylvestris catus) proceden del gato salvaje de Oriente Medio o gato salvaje africano, Felis sylvestris lybica, aunque en distintos momentos ha habido cruzas con las otras cuatro subespecies de gatos silvestres: el europeo, el de Asia central, el de Sudáfrica y el del desierto de China.

La primera evidencia de la domesticación data de unos 10.000 años, en un enterramiento humano neolítico de Chipre estaba acompañado de un gato y de una escultura que mezclaba rasgos gatunos y humanos.

Uno de los científicos del estudio genético, Carlos Driscoll, sugirió que los gatos de hecho se domesticaron a sí mismos. Entraron por su cuenta en la vida humana y, al paso del tiempo, los seres humanos fueron alimentándolos y favoreciendo rasgos más dóciles y más amables, como ocurrió con el perro. Esto habría implicado prolongar la duración de algunos rasgos y comportamientos infantiles, lo que los biólogos evolutivos conocen como “neotenia”, proceso responsable de que perros y gatos adultos aún gusten de jugar. Implicó también la reducción del tamaño del animal, de sus secreciones hormonales y de su cerebro, haciéndolo más tolerante a la convivencia con humanos.

Un proceso difícil porque el lobo al que convertimos en perro ya era un animal gregario, acostumbrado a la estructura de la manada y la vida ordenada de una sociedad, pero el gato silvestre era (y es) un depredador solitario, como la mayoría de sus parientes de mayor tamaño.

La primera época de gran popularidad de los gatos se vivió en el Antiguo Egipto a partir del año 2000 antes de nuestra era, cuando empezaron a aparecer en el arte y en enterramientos. Se les consideraba valiosos por el control de distintas plagas y se les consideraba parte de la familia. En el panteón de dioses con cabezas animales de la religión egipcia, Bastet, diosa de los gatos, del calor del sol y, según algunos, del amor, tenía cabeza de león cuando estaba en guerra o de gato en sus advocaciones más amables, estableciendo la relación de los felinos con la sensualidad.

Hacia el año 900, la ciudad dedicada a la diosa, que hoy es la ciudad de Zagazig, se convirtió en capital de Egipto y por tanto la adoración de los egipcios por la diosa Bastet creció enormemente. Locales y peregrinos visitaban el gran templo de Bastet, donde merodeaban numerosos gatos, considerados reencarnaciones o ayudantes de la diosa, y le presentaban como ofrenda gatos momificados. En él se han encontrado más de 300.000 de estas momias y se calcula que debe haber millones más, resultado de cientos de años de adoración a la diosa. Para abastecer a los peregrinos, se establecieron los primeros criaderos de gatos, que además los sacrificaban y momificaban para su venta a los fieles.

En los siglos siguientes, el gato se fue extendiendo por el mundo como mascota, apreciado por su utilidad o por su belleza. Pero a partir del siglo XI empezó a identificarse con la maldad, con el diablo y con las brujas que dominaron el imaginario tardomedieval. Diversos herejes (entre ellos los templarios) fueron acusados de adorar al diablo, que se aparecía como un gran gato negro. En 1232, el papa Gregorio IX emitió una bula que describía el uso de gatos en rituales satánicos, lo cual azuzó el rechazo popular a los gatos, y alentó la práctica de cazar y matar gatos, especialmente mediante el fuego, que se mantuvo durante 500 años.

Pero, después de siglos de tristezas y mala publicidad, a partir del siglo XVIII los gatos volvieron a ser considerados compañeros útiles y apreciados, apareciendo primero como mascotas en París. De allí en adelante, la explosión demográfica de los gatos se ha desarrollado sin cesar hasta convertirlos en las mascotas más populares del mundo. Hoy existen más de 50 razas de gatos y se calcula que existen más de 200 millones de gatos que la gente mantiene como mascotas en todo el mundo, y un número indeterminado de gatos asilvestrados.

Y, dicen algunos, parece que casi todos ellos aparecen en alguna foto o vídeo en Internet.

Los gatos y la peste negra

Algunos estudiosos especulan que la práctica del sacrificio de gatos por sus rasgos diabólicos fue un factor responsable, al menos en parte, de la gran epidemia de peste negra de 1348-1350. De haber habido más gatos, no habrían proliferado tanto las ratas que diseminaron a las pulgas que transmitían la peste, y que fue responsable de entre 75 y 200 millones de muertes en Europa.

El universo químico

¿Usted se preocupa por las sustancias químicas en nuestros alimentos, productos y ambiente? Quizá convenga recordar qué son esas sustancias y dónde podemos encontrarlas.

Un libro de 1938 ya resumía la composición química del cuerpo
humano y fijaba el precio de todos los elementos intervinientes
en 90 céntimos de dólar de la época.
Los medios de comunicación, la publicidad y los mensajes distribuidos en las redes sociales sugieren continuamente que las sustancias químicas son malas y debemos rechazarlas. Y, ocasionalmente, recibimos mensajes sin origen claro ni fuentes fiables que advierten contra tal o cual sustancia o producto, por efectos para la salud que no han detectado los encargados de garantizar la seguridad de los productos en sociedades como la europea o la estadounidense.

Esta actitud ha sido objeto de atención de los psicólogos, que han definido como “quimiofobia” al sentimiento irracional de rechazo o temor a la química y las sustancias químicas, tendiendo a considerarlas como venenosas.

La publicidad aprovecha para ofrecer productos como “naturales”, que “no tienen químicos” y sugiriendo que, por tanto, son mejores que su competencia.

E incluso hay la idea de que una misma sustancia química de origen “natural” es mejor que la misma sustancia química sintetizada en una fábrica o en un laboratorio, como si nuestro cuerpo pudiera identificar si una molécula de, por ejemplo, niacina (vitamina B3) proviene de una planta o no, algo que sería una verdadera hazaña.

¿Hay alguna base para pensar así?

El universo está formado por materia y energía, que son manifestaciones intercambiables de un mismo fenómeno, y la materia, esta formada de partículas que se unen en los átomos de los elementos.

Todos los elementos están organizados en la tabla periódica de los elementos. 94 pueden encontrarse en la naturaleza, algunos en mínimas cantidades, y hemos producido más de 20 sintéticos, todos ellos radiactivos, inestables y generalmente en pequeñísimas cantidades.

Así, nuestra realidad está hecha, toda, básicamente de 90 elementos químicos, que se unen según reglas que hemos descubierto en los últimos 350 años para formar compuestos químicos. Y los compuestos químicos se unen o ensamblan a su vez formando moléculas complejas.

Así, la madera, los bebés, el sol, los diamantes, las abejas y los ordenadores son todos mezclas de sustancias químicas. Lo que ahora el lenguaje popular llama “químicos” imitando al idioma inglés. Usted mismo, como seguramente sabe, está hecho principalmente de agua, la sustancia química fundamental para la vida. Pero el agua está formada por hidrógeno y oxígeno, así que podemos decir que el cuerpo humano es principalmente oxígeno.

El 65% de la masa de nuestro cuerpo es oxígeno, de hecho. 18% es carbono, 10% es hidrógeno, 3% es nitrógeno, 1,5% es calcio, 1,2% fósforo, 0,35% potasio, 0,2 azufre, 0,2% cloro, 0,2% sodio, 0,1 magnesio, 0,05% hierro y cantidades muy, muy pequeñas pero muy importantes de otros elementos como cobato, cobre, zinc, yodo, selenio y flúor.

Así que es imposible que exista ningún objeto, alimento, limpiador, cosmético o producto alguno “sin químicos” porque... ¿de qué estaría hecho, entonces?

El conocimiento de la química nos ha permitido no sólo entender las sustancias que están a nuestro alrededor, sino también reproducirlas o incluso crear nuevas sustancias. Esto no es un fenómeno nuevo. El beneficio y transformación de los metales, el curtido de pieles y la elaboración de vino y cerveza ya implicaban importantes transformaciones químicas. Pero a partir de la revolución científica, las posibilidades se multiplicaron.

Como era de esperarse, el hombre ha usado de modo incorrecto algunas sustancias de origen natural, no sabiendo que eran dañinas. La gota, afección prevaleciente en las articulaciones de los ricos romanos, era producida por el altísimo consumo de plomo, un metal que hoy sabemos que es venenoso, y que se usaba igual para fabricar las cañerías de agua (debido a su gran ductilidad) que en forma de azúcar de plomo para endulzar el vino.

Lo mismo ha ocurrido con otras sustancias sintéticas desarrolladas en los últimos 200 años. Aunque gracias a un conocimiento cada vez más amplio de los procesos químicos en el interior de nuestro organismo, y a los procedimientos de prueba de las sustancias que llegan al consumidor, los riesgos de efectos desconocidos de diversas sustancias naturales o no son cada vez menores.

Porque, pese a la propaganda quimiofóbica, lo que debe preocuparnos es el efecto de cada sustancia y la cantidad que podemos –o debemos, incluso– consumir de cada una.

No todo lo natural es bueno y no todo lo sintético es malo, como parecen creer algunas personas. De hecho, las tres sustancias más venenosas que conocemos, es decir, as que pueden matarnos con las dosis más pequeñas, son de origen natural. La bacteria del botulismo es mortal debido a que produce la toxina botulínica, una potente mezcla de siete neurotoxinas que pueden provocar la parálisis y la muerte. La bacteria del tétanos provoca la rigidez de los músculos y la muerte con la toxina tetánica, y es la segunda sustancia más venenosa. La tercera es la toxina que produce la bacteria que causa la difteria, y que nos puede matar provocando la destrucción del tejido del hígado y del corazón.

La química en muchas ocasiones ha producido sustancias sintéticas basadas en otras naturales. Un ejemplo bien conocido es el ácido acetilsalicílico, mejor conocido como aspirina. Era ya conocido por los sumerios hace 4.000 años que la corteza del sauce y el mirto tenían alguna sustancia capaz de aliviar los dolores. Esta sustancia es la salicina, que el cuerpo metaboliza convirtiéndola en ácido salicílico. A mediados del siglo XIX ya se podía obtener ácido salicílico como analgésico. Pero tenía un grave problema pese a su eficacia: era tremendamente agresivo para el estómago. En 1897, el químico Félix Hoffman alteró esta sustancia agregándole un radical llamado acetilo, desarrollando el ácido acetilsalicílico, un medicamento enormemente útil y que gracias a esta alteración prácticamente no tiene efectos secundarios.

Como ocurre con la utilización de todas las tecnologías que conocemos, desde el cuchillo, que puede hacer mucho daño o salvarnos en forma de escalpelo y en la mano de un cirujano hábil, lo más conveniente es pensar en las sustancias químicas en términos de sus ventajas y riesgos, para utilizarlas como mejor nos convenga de modo demostrable.

Todo es veneno

Absolutamente todas las sustancias químicas son venenosas en función de la cantidad que consumamos y de las condiciones de nuestro cuerpo. “La dosis hace el veneno” observó agudamente Paracelso, sabio renacentista que fundó la toxicología. Incluso el agua o el oxígeno en exceso pueden matarnos o causarnos graves daños. Todo lo que en cantidades correctas puede resultarnos benéfico, alimenticio, curativo o, cuando menos, inocuo, en dosis elevadas puede causarnos problemas.

Las conexiones cerebrales hackeadas

Estamos habituados a que nuestras percepciones nos den una representación fiable del mundo. Pero en algunos casos podemos perder hasta la capacidad de percibir nuestro propio rostro.

Un intento por representar cómo ve a la gente una persona
con prosopagnosia, la incapacidad de reconocer los rostros.
(Foto CC de Krisse via Wikimedia Commons)
Es común decir que no vemos con los ojos, sino que vemos con el cerebro (o, más precisamente, el encéfalo, que incluye a otras estructuras además del cerebro). Es decir: la luz efectivamente es detectada en nuestra retina por receptores llamados conos y bastones, que la convierten en impulsos que viajan a través del nervio óptico cruzando el área visual del tálamo antes de llegar a la parte de la corteza cerebral que se llama precisamente “corteza visual”, ubicada en la parte posterior de nuestra cabeza, arriba de la nuca. Pero en todo ese proceso aún no hemos “visto” nada. Sólo cuando la corteza visual registra e interpreta los impulsos nerviosos se produce el fenómeno de la visión, es decir, la representación mental de la realidad visible.

Lo mismo se puede aplicar, por supuesto, a los demás sentidos. Todos los impulsos viajan hasta llegar al encéfalo pero es allí donde se produce el proceso de interpretación.

Y cuando ese centro de interpretación falla, por trastornos físicos, fisiológicos o de otro tipo, nuestra percepción y comprensión del mundo puede verse profundamente alterada.

Una de las formas más conocidas de estas alteraciones de la percepción es la sinestesia, una condición neurológica que no es una enfermedad o un trastorno patológico, en la que la estimulación de un sentido o una percepción conceptual dispara percepciones en otros sentidos que normalmente no serían estimulados por ella.

Por ejemplo, al olfatear algún alimento o bebida, la mayoría de las personas sólo perciben el aroma, pero alguien con sinestesia, al percibir un aroma, puede ver determinados colores. Un catador sinestésico, por ejemplo, dice que el sabor de ciertos vinos blancos le evoca un color azul aguamarina. Otros sinestetas pueden experimentar sabores al escuchar sonidos o, alternativamente escuchar sonidos al ver ciertos objetos. Algunas personas con gran capacidad de realizar cálculos mentalmente “ven” los números como si tuvieran un color determinado, y en las operaciones matemáticas manipulan colores más que trabajar con los números.

Aunque la sinestesia fue descrita ya por Francis Galton, primo de Charles Darwin, a fines del siglo XIX, no empezó a ser estudiada científicamente sino hasta 1980 por el neurólogo Richard E. Cytowic, que eventualmente escribió el libro “El hombre que saboreaba las formas” explicando el trastorno. Aunque se sabe por tanto poco de esta condición, algunos estudios indican que en los sinestetas las conexiones neurales entre distintas áreas sensoriales del encéfalo tienen más mielina, sustancia que recubre las neuronas permitiendo que los impulsos nerviosos viajen más rápidamente. Esto podría ser parte de la explicación de esta curiosa unión de los sentidos en nuestro cerebro, comunicando zonas que generalmente estarían aisladas entre sí.

Las inquietantes agnosias

Otras alteraciones mucho más inquietantes y claramente patológicas son las diversas agnosias. La palabra “agnosia” significa ausencia de conocimiento, y se usa para denotar a las afecciones en las cuales la persona no puede reconocer ciertos objetos, sonidos, formas, aromas, personas o conceptos pese a que su sistema sensorial esté intacto. El problema se origina habitualmente con una lesión o enfermedad neurológicas.

Así, por ejemplo, una persona con agnosia del color puede reconocer el color verde y diferenciarlo de otros colores distintos, pero no distinguirlo y nombrarlo, de modo que puede parecerle perfectamente normal el proverbial perro verde.

Hay más de 25 formas de agnosia reconocidas, principalmente de tres tipos: visuales, auditivas y táctiles. Algunas sencillas como la sordera cortical, en la que los sonidos simplemente no son percibidos. Otras se expresan de modo más complejo, como la prosopagnosia o ceguera a los rostros, en la que los pacientes no pueden reconocer rostros que les deberían ser familiares. Incluso pueden no reconocer su propio rostro. Al verse en un espejo saben que ese rostro les pertenece, pero es como si lo vieran por primera vez. Igualmente, al ver una fotografía de una persona conocida o un familiar pueden describir el rostro, decir si es hombre o mujer, su edad aproximada y otras características, pero sin reconocer que pertenece a una persona que conocen previamente. Otra forma de agnosia visual hace que no se puedan reconocer ciertos objetos más que en su función general: un paciente puede identificar que un tenedor es una herramienta que sirve para comer, pero lo puede confundir con una cuchara o un cuchillo, que también sirven para comer, sin ser capaz de distinguirlos entre sí.

La negligencia es una de las más extrañas formas de agnosia en la que el afectado no reconoce nada que esté de uno de los lados: se peinan o afeitan o maquillan sólo un lado del rostro, pueden sólo ver un lado de un corredor o un cuadro e incluso comer sólo la comida que está en un lado del plato, como si todo lo que estuviera del otro lado simplemente no existiera.

Los trastornos pueden tener una expresión opuesta y en vez de afectar a las percepciones pueden alterar las acciones de las personas, la llamada “apraxia” o incapacidad de realizar c ciertos movimientos o acciones. Si en las agnosias el sistema de percepción está intacto, en las apraxias los afectados no tienen problemas musculares, pero su encéfalo es incapaz de ordenar, por ejemplo, que se muevan correctamente para crear expresiones faciales, mover uno o más miembros o incluso no poder hablar.

Las distintas formas de la agnosia y la apraxia, junto con la identificación de las lesiones encefálicas a las que está asociada cada una de ellas, han permitido ir haciendo un mapa que indica en qué punto se procesa determinada información, ayudando a la comprensión de nuestro cerebro, su estructura, organización y funcionamiento, mientras al mismo tiempo se indagan formas de diagnosticar correctamente las agnosias conseguir la curación de los afectados por la agnosia, o al menos una recuperación parcial que les permita funcionar en su vida cotidiana reduciendo los efectos del trastorno.

Oliver Sacks y las agnosias

El neurólogo Oliver Sacks, conocido por su trabajo con las víctimas de encefalitis letárgica relatado en la película “Despertares”, con Robin Williams en el papel de Sacks, también ha estudiado las agnosias. Sus casos más apasionantes están reunidos en el libro “El hombre que confundió a su mujer con un sombrero”, título referido a un paciente con agnosia visual un día tomó la cabeza de su mujer intentando calársela como un sombrero, incapaz de distinguir distintas cosas salvo por estar relacionadas con la cabeza.

Nuestro mundo por dentro

Vivimos, sin siquiera darnos cuenta, en la superficie de un planeta turbulento, en el que operan fuerzas colosales de presión, temperatura y movimiento.

Ilustración a partir de un original GNUFDL de Matts Haldin
(vía Wikimedia Commons)
Es muy probable que allí, donde quiera que usted esté, no sepa que se encuentra sobre un material tan caliente como la superficie del sol. Justo debajo de sus pies.

Incluso quizá más caliente.

Para su fortuna, usted está aislado de ese calor, que los científicos calculan hoy en alrededor de los 6.000 grados centígrados. Porque ésa sería la temperatura del núcleo más interno de la Tierra, el centro, del que nos separan unos 5.300 kilómetros de capas de distintos materiales que conforman un planeta que nos resulta casi un desconocido.

Aún no conocemos todos los rincones de la superficie del planeta, y mucho menos sus océanos, como decía Jacques-Yves Cousteau, sabemos más del espacio exterior que de los océanos que cubren más del 70% de la Tierra. Y aún más preguntas encierra el interior del planeta, que sólo conocemos indirectamente.

Los antiguos imaginaron la Tierra como una masa sólida de roca con un interior hueco o, cuando menos, con una enorme cantidad de espacio en su interior, que pudiera albergar ciudades, reinos y mundos enteros: el inframundo griego, el infierno cristiano, la mítica ciudad de Shambalah de los tibetanos o el tenebroso Mictlán o tierra de los muertos de los aztecas, creencias sustentadas en la existencia de cavernas que parecían estar a gran profundidad. Pero no lo estaban. La más profunda conocida es la de Krubera, en la República de Georgia, con unos 2.190 metros de profundidad.

Aunque para fines del siglo XVIII ya los geólogos consideraban inviable que nuestro planeta tuviera espacios vacíos en su interior, la fantasía siguió considerando la posibilidad, como en la novela “Viaje al centro de la Tierra” de Julio Verne, publicada en 1864.

Como las capas de una cebolla

Hoy sabemos que la Tierra tiene un radio medio de unos 6.370 kilómetros, que sería la longitud del pozo que necesitaríamos para llegar a su mítico centro. Mucho más que el pozo más profundo jamás perforado para investigación científica, el llamado Kola SG-3, en la península de Kola, en Rusia que en 1989 superó los 12 kilómetros. Desde entonces, algunos pozos destinados a la explotación petrolera han llegado un poco más hondo... pero no más de 0,187% del radio del planeta

Este agujero, perforado con tantos esfuerzos, es minúsculo incluso en la capa más superficial de la Tierra, la corteza, en la cual vivimos todos los seres terrestres. Tiene un espesor de entre 10 kilómetros en las cuencas océanicas y 70 kilómetros en suelo seco. Pero, además, no es una superficie uniforme, sino que está dividida en diversas placas que, como piezas de un rompecabezas en movimiento, “flotan” sobre la astenosfera, que es la parte más superior del manto terrestre, la siguiente capa viajando hacia el centro. Estas placas tectónicas están en constante, aunque muy lento movimiento, chocando entre sí, a veces hundiéndose una debajo de otra hacia el manto (un proceso llamado subducción), y provocando terremotos. Este movimiento ha sido además el responsable de los cambios que los continentes han experimentado a lo largo de la historia del planeta.

La astenosfera es una capa muy caliente y, por tanto, suave, viscosa y flexible, de unos 180 kilómetros de espesor. Es parte del manto superior, que en conjunto mide 600 kilómetros. Debajo de él está el manto inferior, con unos 2.700 kilómetros de espesor. Contrario a lo que se cree comúnmente, el manto no es líquido, sino fundamentalmente sólido, formado por rocas calientes suaves con una textura como la de una plastilina más viscosa. Estas rocas están formadas principalmente por óxidos de silicio (sílice, la arena común) y de magnesio, además de pequeñas cantidades de hierro, calcio y aluminio. En el manto hay algunas bolsas de roca totalmente fundida, el magma, que en determinadas circunstancias puede salir a la superficie en forma de lava en las erupciones volcánicas.

Debajo del manto se encuentra el núcleo, que también se divide en dos secciones, el núcleo exterior y el interior. El núcleo exterior tiene unos 2.200 kilómetros de espesor y está formado por níquel y hierro líquidos a una temperatura de entre 4.500 y 6.000 grados. Las diferencias en presión, temperatura y composicion de este océano metálico provocan corrientes de convexión, es decir, movimientos del material hacia arriba y hacia abajo, del mismo modo en que lo hace el agua en una olla de agua en ebullición. Estas corrientes en ocasiones podemos verlas en el movimiento circular entre la superficie del agua y el fondo de la olla que exhiben algunos ingredientes.

El flujo del hierro líquido en las corrientes de convexión del núcleo exterior genera corrientes eléctricas que, a su vez, son los que generan el campo magnético de la Tierra en un proceso que se conoce como “geodinamo”. El campo magnético producido por el núcleo exterior nos protege del viento solar y es, por tanto, responsable en gran medida de que pueda haber vida en el planeta.

Por debajo se encuentra el núcleo interior, formado principalmente por hierro sólido. Esta aparente paradoja se debe a las colosales presiones a las que está sometido el centro del planeta, calculadas en unas 3,5 millones de veces la presión atmosférica a nivel del mar. Debido a ellas, el hierro del núcleo no puede fluir como un líquido. De hecho, hay estudios que indican que es al menos plausible que el núcleo interno del planeta sea un gran cristal de hierro que gira dentro del núcleo exterior a una velocidad ligeramente mayor que la del resto del planeta.

La realidad es, sin embargo, que no sabemos cómo se puede comportar un elemento como el hierro a esas presiones y temperaturas. Para darnos una idea, los científicos hacen por igual experimentos donde ejercen gran presión sobre materiales calentados con láseres hasta cálculos que utilizan los conocimientos de la mecánica cuántica. Es una forma de conocer el mundo en el que vivimos y al que no podemos acceder directamente. Es más fácil, lo hemos demostrado seis veces, ir a la Luna.

El laboratorio de los terremotos

La mejor forma que tienen los geólogos de estudiar el interior de nuestro hogar es por medio de las ondas que provocan los terremotos. Al estudiar y comparar los registros de sismógrafos situados en distintos puntos del planeta que capturan los mismos movimiento, pueden calcular las diferentes densidades y, por tanto, la composición y estado de las capas por las que pasan –o se absorben– los componentes de movimiento de un terremoto, las ondas S, horizontales, y las ondas P, verticales. El movimiento más rápido o más lento de las ondas a diferentes distancias del epicentro se interpreta para ir mirando la Tierra por dentro, como en una ecografía.

Los animales y la investigación

El delicado tema del uso de animales en la indagación científica, la valoración de los beneficios que pueden dar y el esfuerzo por encontrar otras formas de investigar.

El virus de la poliomielitis se aisló en monos de
laboratorio. El resultado fue la vacuna que ha
salvado a millones de sufrir la enfermedad.
(Foto D.P. Charles Farmer, CDC
vía Wikimedia Commons) 
El estudio de los animales quizá comenzó cuando el Homo habilis empezó a utilizar herramientas para cazarlos y destazarlos, hace alrededor de 2,3 millones de años. Esta especie antecesora, y las que le siguieron hasta llegar a la nuestra (que apenas existe hace unos 200.000 años) tuvo que aprender al menos algunas cosas sobre los órganos internos de los animales con que se alimentaba para hacer de modo eficiente el trabajo de carnicería.

En algún momento, a través de observaciones diversas, el ser humano se hizo consciente de sus similitudes con los demás animales, en especial los mamíferos: cuatro miembros, dos ojos, dos oídos, dos fosas nasales y una boca, más la correspondencia de muchos órganos internos. Y en el siglo IV antes de nuestra era, Aristóteles hizo experimentos con animales como sus observaciones de huevos fertilizados de gallina en distintas etapas del desarrollo que dieron origen a la embriología.

Décadas después, Erisístrato realizó en Alejandría disecciones de animales y humanos con las que describió las estructuras del cerebro y especuló (correctamente) que las circunvoluciones de la corteza se relacionan con la inteligencia. Galeno, en el siglo II de nuestra era hizo los últimos experimentos con animales en 1000 años por la presión religiosa, hasta que en el siglo XII, Avenzoar, en la España morisca, empezó a probar sus procedimientos quirúrgicos en animales antes de aplicarlos a pacientes humanos.

Más allá del interés de la biología por conocer a los seres vivos, fue al desarrollarse la medicina científica a partir de los trabajos de Koch y Pasteur (quien demostró cómo inmunizar a los animales experimentando con ovejas a las que les inoculó ántrax, principio de su vacuna para la rabia), cuando los modelos animales empezaron a emplearse ampliamente en la investigación.

Las pruebas en animales para medicamentos se implantaron por una tragedia acontecida en 1937 en Estados Unidos. Un laboratorio mezcló sulfanilamida (un antibacteriano anterior a la penicilina) con glicol dietileno, producto que no sabían que era venenoso. La comercialización del medicamento provocó la muerte de un centenar de personas.

El escándalo público llevó a promulgar la Ley Federal de Alimentos, Medicamentos y Cosméticos de 1938, que dispuso que no se comercializara ninguno de estos productos si no se probaba primero su seguridad en estudios con animales.

Y así han sido probados absolutamente todos los medicamentos producidos después de la Segunda Guerra Mundial, cuando se generalizó el protocolo de investigación farmacéutica, que requiere primero pruebas en células en el laboratorio, después en animales y, si todo está bien, estudios clínicos con voluntarios.

Hay así dos tipos de investigación que utiliza animales. Una es la investigación básica dedicada a obtener conocimientos y técnicas nuevos en diversas áreas (fisiología, genética, anatomía, bioquímica, cirugía, etc.) y la otra es la prueba de medicamentos, alimentos y cosméticos para garantizar al público una mayor seguridad, reduciendo la frecuencia y gravedad de acontecimientos como el de 1937.

Prácticamente todos los avances de la medicina y gran cantidad de conocimientos de las ciencias de la vida han sido resultado de la experimentación animal, desde los anestésicos hasta los corazones artificiales, desde el aprendizaje y el condicionamiento de la conducta hasta los viajes espaciales. La vacuna para la difteria comenzó protegiendo a conejillos de indias de la enfermedad. Los estudios en perros permitieron descubrir la función de la insulina dándolele una vida mejor y más larga a los diabéticos. Antibióticos como la estreptomicina se usaron primero en animales de laboratorio. El virus de la polio se aisló en monos rhesus (los mismos monos en los que se identificó el factor Rh de la sangre) abriendo la puerta a la casi erradicación de la enfermedad en el mundo desarrollado. Y los primeros antibióticos para la lepra se desarrollaron en armadillos, animales que pueden albergar la bacteria sin ser afectados. Los experimentos con animales nos han permitido descubrir, por ejemplo, que los monos tienen una comprensión de la equidad y la solidaridad, que diversos animales pueden cooperar o que ciertos comportamientos innatos son tan inamovibles como algunas condiciones físicas determinadas genéticamente.

Al paso del tiempo, la preocupación ética por el bienestar de los animales que se utilizan para la experimentación ha llevado a cambios y reducciones drásticos en la experimentación animal, con una creciente atención a evitar todo el sufrimiento evitable y a utilizar otros modelos cuando sea posible.

Sin embargo, en este momento no contamos con modelos para reemplazar a la totalidad de los animales utilizados en investigación. Un caso ilustra esta situación por estar relacionado con nuestros más cercanos parientes evolutivos, los chimpancés. Precisamente por esa cercanía y similitud genética, son los únicos animales que se pueden infectar con el virus de la hepatitis C y por tanto siguen siendo utilizados en investigaciones.

El ideal a alcanzar es que finalmente dejen de usarse animales en la investigación científica. Para ello se ha acordado el modelo de las tres “R”, para el reemplazo de animales con otros modelos, la reducción del uso de animales y el refinamiento de las prácticas para hacerlas más humanitarias. Gracias a este esfuerzo, en 2012, según el periodista científico Michael Brooks, sólo el 2% de todos los procedimientos científicos realizados en animales en Estados Unidos podían causar una incomodidad o daño a los sujetos.

Y esos trabajos de investigación se hacen hoy en día bajo la vigilancia de comités éticos que determinan que sean absolutamente necesarios y se desarrollen en las mejores condiciones posibles... todo mientras nuestros conocimientos de genética, cultivo de tejidos, clonación y otras técnicas permiten prescindir de este tipo de estudios sin quitarle la esperanza a las personas que dependen de estos avances para el alivio a su dolor, sufrimiento y discapacidad.

El problema de la seguridad

En una carta al British Medical Journal, un farmacólogo explicaba el problema de la seguridad y el riesgo y beneficio: si tenemos 4 posibles medicamentos contra el VIH, pero el primero mata a 4 tipos de animales, el segundo a tres de ellos, el tercero a uno solo y el cuarto no mata a ninguno de los animales, aún administrado en grandes dosis, ¿cuál de ellos debemos probar en un pequeño grupo de voluntarios humanos? La respuesta es sencilla: el cuarto. La pregunta más difícil es ¿cómo lo sabríamos de otro modo?