Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El abuelo de la evolución

¿Qué famoso apellido es el vínculo entre el sistema de conducción de los autos, la teoría de la evolución y las máquinas copiadoras?

Erasmus Darwin en 1770 en retrato de Joseph
Wright  of Derby (Dominio Público, vía
Wikimedia Commons)
Los relatos contemporáneos lo describen como un hombre jovial y bromista, más bien rotundo, con facilidad para hacer amigos, dado a los placeres mundanos y, sobre todo, como hombre de una curiosidad insaciable respecto de todo el mundo que lo rodeaba. No es tan conocido como merece, entre otras cosas, por lo avanzado de sus ideas sociales, y pese a que su nieto Charles Darwin, cuya fama lo superó con mucho, intentó rescatar su figura escribiendo su biografía.

Erasmus Darwin nació en los Midlands del Este, en Inglaterra, en 1731, en las agitadas aguas de la revolución científica y la ilustración que cambiaron radicalmente nuestra visión del universo y las relaciones sociales, con conceptos tales como el método científico, los derechos fundamentales o la democracia. Estudió medicina en la Escuela Médica de la Universidad de Edimburgo en Escocia y estableció su consulta médica en la ciudad de Lichfield, donde pasaría el resto de su vida.

Incluso su práctica médica reflejaría las ideas avanzadas y heterodoxas de Darwin, que se ganaba la vida tratando a los ricos y poderosos, al tiempo que ofrecía consultas gratuitas a los más pobres, y que rechazó ser médico personal del rey Jorge III para poder seguir su trabajo científico, técnico e, incluso, artístico.

Erasmus Darwin militó en la ilustración y la revolución científica junto con un grupo de pioneros intelectuales que en 1765 formaron la Sociedad Lunar, llamada así porque a falta de iluminación artificial, sus miembros se reunían en luna llena para tener luz con la cual volver de sus reuniones, cenas informales en las que la discusión de todos los temas era libre. La Sociedad Lunar comenzó cuando Darwin conoció al emprendedor Matthew Boulton a través de su amigo común James Watt, conocido como por haber perfeccionado la máquina de vapor y disparado la revolución industrial en Gran Bretaña, además de investigar en la naciente química. Darwin y Boulton empezaron a compartir sus intereses, incluyendo a otros amigos en sus diálogos, hasta que instituyeron un grupo informal que se reunía a cenar una vez al mes, del que fueron parte, entre otros, el médico William Small, el relojero y experto en hidráulica y geología John Whitehurst, el inventor Richard Lovell Edgeworth y el químico y polígrafo Joseph Priestley, descubridor del oxígeno. A ellos se uniría, primero en persona y luego por carta, Benjamin Franklin, con el que Erasmus Darwin estableció una estrecha amistad.

En el terreno de las invenciones, Darwin se interesó por los mecanismos de la voz humana, creando una máquina parlante con un fuelle y labios de cuero que, según testimonios, era capaz de engañar a quienes la escuchaban por primera vez y convencerlos de que estaban oyendo una voz humana decir “mamá” y “papá”. Creó una máquina para levantar las barcas en los canales y una copiadora de la que no quedan ni el diseño ni un ejemplar, pero sí testimonios de que era capaz de producir copias perfectas. Curiosamente, intentó que su amigo James Watt la comercializara, pero éste, en cambio, creó su propia copiadora química. Igualmente inventó un molino de viento horizontal, un pequeño pájaro artificial que pretendía que volara movido por un mecanismo neumático y del que se puede ver un modelo actualmente en su casa de Lichfield, convertida en museo. De modo muy relevante, diseñó un sistema para conducir carruajes permitiéndoles girar en las curvas y las esquinas con un sistema de varillas a fin de que ambas ruedas describieran círculos de diámetro diferente. Este sistema sería reinventado más de 100 años después y se utilizaría no sólo para carruajes sino para los automóviles.

Como apasionado de la botánica, creó una asociación dedicada a la traducción de la obra de Linneo, promoviendo la clasificación taxonómica de la flora y fauna de su zona, además de hacer algunos descubrimientos de gran relevancia: identificó los azúcares y almidones como productos de la “digestión” vegetal y postuló la existencia de los estomas de las plantas, al suponer que respiraban mediante pequeños poros al ver que las plantas morían si sus hojas se cubrían con aceite.

Aficionado a excavar en busca de fósiles y apoyado en su conocimiento de los animales domésticos, en 1794 publicó el resultado de 25 años de observaciones y cavilaciones en el libro Zoonomía o las leyes de la vida orgánica, donde además de intentar una clasificación completa de las enfermedades y sus tratamientos, proponía una de las primeras teorías formales de la evolución de las especies. Aunque parte de su visión era todavía que las modificaciones que un ser experimentara en vida podrían transmitirse a su descendencia, una idea que Jean-Baptiste Lamarck desarrollaría años después. Pero ya se le sugería también la selección natural. Al hablar de la competencia por la reproducción, escribió: “El resultado final de este concurso entre machos parece ser que el animal más fuerte y más activo es el que propagará la especie, que así se verá mejorada”.

Pero de modo notable se atrevió a suponer que toda la vida había evolucionado a partir de un solo ancestro común, un “filamento viviente” al que llamó “la gran primera causa”, capaz de adquirir nuevas partes y mejorar, transmitiendo esas mejoras a su posteridad.

Erasmus Darwin murió en 1802. Pese a su intensa actividad intelectual, había tenido tiempo de casarse dos veces y tener una amante intermedia, tres mujeres con las que tuvo catorce hijos, aunque se habla de al menos un hijo más con otra amante. Siendo además un poeta altamente reconocido y admirado, dejó un largo poema que se publicó un año después de su muerte, El templo de la naturaleza, en el cual retoma su visión evolucionista en verso: “La vida orgánica, bajo las olas sin playas / nació y creció en las nacaradas cavernas del océano; / primero formas diminutas que no podrían verse con lente esférica, / se mueven en el barro o rompen la masa acuática; / Éstas, conforme florecen nuevas generaciones /adquieren nuevos poderes y asumen miembros más grandes; / donde brotan incontables grupos de vegetación, / y reinos que respiran con aleta, y pies, y alas.”

El revolucionario social

Erasmus Darwin fue uno de los pensadores socialmente avanzados de su tiempo. Republicano en un país tradicionalmente monárquico, no muy religioso, crítico de las supersticiones, libertario y con clara inclinación por lo que hoy llamaríamos “amor libre”, era además defensor de la abolición de la esclavitud y, como feminista, en 1797 publicó su Plan para la conducción de la educación femenina con la poco popular idea de que las mujeres tenían derecho a una formación científica, humanística y artística.

Corazones de recambio

Cientos de personas viven hoy, al menos temporalmente, con un electrocardiograma plano, con un corazón hecho de ingenio y los más modernos materiales.

Corazón Jarvik 7 (Foto D.P. del National Health
Institute, vía Wikimedia Commons)
El corazón bombea sangre por todos los vasos sanguíneos del cuerpo mediante contracciones rítmicas repetidas. La definición parece bastante sencilla. Si así fuera, de hecho, crear un aparato que sustituyera al corazón sería una tarea no demasiado difícil. La realidad, sin embargo, es mucho más complicada y ha dificultado la creación de un corazón artificial desde que el primero fue patentado en 1963.

La complejidad del funcionamiento del corazón es resultado de una larga historia evolutiva. El antecesor del corazón que hoy podemos ver en los mamíferos es un simple músculo tubular que impulsa un líquido con nutrientes y oxígeno por el cuerpo de algunos invertebrados, como ciertos tipos de gusanos. Ese músculo, efectivamente, se contrae a intervalos regulares en un movimiento peristáltico, es decir una contracción que se propaga como una ola a lo largo del músculo, de la misma manera en que se contrae nuestro esófago o nuestros intestinos para hacer avanzar los alimentos.

Ese músculo apareció hace alrededor de 500 millones de años. Con el tiempo, apareció un genuino sistema circulatorio cerrado, donde la sangre se encuentra siempre dentro de un bucle de vasos sanguíneos que pasa por el corazón. Y en el órgano muscular aparecieron cámaras diferenciadas que facilitaban el proceso de mover la sangre por el cuerpo.

El corazón de cuatro cámaras (dos aurículas y dos ventrículos) como el humano es un órgano tremendamente complejo. Su lado derecho recibe la sangre venosa en la parte superior, la aurícula y la envía a los pulmones por la cámara inferior, el ventrículo. La sangre pasa por los pulmones, se oxigena y vuelve a entrar al corazón por la aurícula izquierda, de donde pasa al ventrículo izquierdo que la envía al resto del cuerpo. Entre cada aurícula y ventrículo hay válvulas que impiden que la sangre vuelva en el proceso de contracción del corazón, que primero se contrae por su parte superior y después por la inferior en una compleja danza muscular controlada por nodos de células nerviosas.

Esta maquinaria late unos 40 millones de veces al año durante toda nuestra vida, respondiendo al ejercicio físico, a las emociones, a las percepciones y a las condiciones internas y externas de nuestro cuerpo y variando de modo correspondiente el ritmo cardiaco, de unos 72 latidos en promedio en reposo hasta más de 200 en casos de angustia o esfuerzo físico extremo.

Todo esto debería hacerlo un corazón artificial, o al menos parte de ello con suficiente eficacia. Porque pese a su gran resistencia y diseño asombroso, el corazón falla y, hasta antes de mediados del siglo XX, su fallo era una condena a muerte. La lucha de los médicos ha sido por aumentar la calidad y cantidad de vida de la gente a la que su corazón le ha fallado.

Cuando el corazón falla

Un corazón artificial puede ser de dos tipos. El permanente sustituye definitivamente al corazón orgánico mientras que el temporal lo hace durante un tiempo breve, unas horas durante una cirugía cardíaca, algunos días o, cuando mucho, algunos meses, en lo que se tiene a disposición para trasplante un corazón compatible con el paciente.

En 1952 se utilizó el primer dispositivo cardiopulmonar para sustituir la función del corazón y los pulmones durante una intervención quirúrgica y que podría llamarse un corazón mecánico. Consta de una membrana permeable al gas a través de la cual se elimina el bióxido de carbono de la sangre y se le infunde oxígeno, cumpliendo las funciones de los pulmones, y una bomba centrífuga que hace el papel del corazón. Las máquinas cardiopulmonares son grandes y pesadas, las más modernas de alrededor de 350 kilos.

La primera patente de un corazón artificial de tamaño similar al natural pertenece a un personaje que fue famoso en los Estados Unidos por motivos que nada tenían que ver con la medicina. En las décadas de 1950-60, Paul Winchell era una estrella del vodevil y la naciente televisión en laespecialidad de la ventriloquía, actuando con varios muñecos altaneros. Además de interesarse por estudiar medicina mientras triunfaba en el espectáculo, desarrolló actividad como inventor acumulando una treintena de patentes diversas. La idea de un corazón artificial se le sugirió cuando el Dr. Henry Heimlich, el médico que desarrolló la “maniobra Heimlich” que ha salvado literalmente millones de vidas, lo invitó a ver una cirugía cardiaca. Ambos hombres se dedicaron entonces juntos a desarrollar el aparato que patentaron en 1963.

En la década de los 70, en la Universidad de Utah, el Dr. Robert Jarvik trabajó con otro corazón artificial no patentado, del Dr. Willem Kolff, tratando de perfeccionarlo. Winchell le obsequió su patente a la universidad y parte de su diseño fue incorporada al proyecto de Jarvik.

En 1981, el Dr. William DeVries implantó el primer corazón artificial en un paciente llamado Barney Clark. El corazón fue el Jarvik 7, que utilizaba el aire como método de accionamiento. Esto implicaba que el corazón dentro del pecho de Clark estuviera conectado al exterior por dos gruesos tubos unidos a un motor que suministraba el aire para que el corazón bombeara. Clark sobrevivió 112 días con el corazón artificial.

Los desafíos de los corazones artificiales han sido principalmente los materiales, que deben impedir la formación de coágulos, un funcionamiento que no aplaste las células sanguíneas y, sobre todo, la forma de lograr el bombeo.

Actualmente, un sucesor del corazón Jarvik 7 se utiliza con frecuencia como “puente” a la espera de un corazón adecuado para el trasplante. Las bombas neumáticas se han reducido hasta poderse llevar con sus baterías en una mochila con un peso de 6 kilogramos en lugar de los 200 kilos de la versión original.

Pero un corazón que sustituya de modo permanente, eficiente y fiable al corazón humano no parece hoy más cercano que cuando Winchell y Heimlich patentaron su invento. Quizá hagan falta algunos millones de años de evolución para que consigamos un aparato tan fiable como el que traemos de serie, y que a la enorme mayoría de nosotros no nos da problemas al menos durante los primeros 60 años de nuestra vida.

Los corazones parciales

Una aproximación eficaz a las prótesis cardiacas ha sido el uso de aparatos que sustituyen parcialmente alguna función o porción del corazón, como los dispositivos de asistencia ventricular. Utilizados principalmente también como puentes mientras se obtiene un corazón viable para trasplante, algunos corazones parciales han llegado a funcionar de modo fiable durante más de dos años. Es el caso de otro desarrollo de Robert Jarvik, el dispositivo de asistencia ventricular Jarvik 2000.

Historia natural de los dragones

No todas las leyendas tienen una base real gracias a que la imaginación humana es fértil y diversa. Pero en el inicio del mito de los dragones sí hay hechos, y animales, de verdad.

El mítico caballero Yvain de la leyenda del Rey Arturo
combatiendo a un dragón (posiblemente siglo XV,
vía Wikimedia Commons).
Existen al menos dos grandes variedades de dragones. El de China, llamado allí “konglong” y que se difundió hacia todas las culturas del extremo oriente, era descrito como un gran reptil similar a una enorme serpiente, con ojos de conejo, cuernos de venado y garras de tigre. Con diversos colores que juegan un importante papel en su mitología, de grandes garras y cuerpo muy alargado. El konglong es símbolo del poder imperial chino, de la amabilidad y de la sabiduría más que del combate y la violencia, como suponen los occidentales al verlo como motivo decorativo oriental. Su historia se remonta al menos al quinto milenio antes de nuestra era, de donde procede una estatua de la cultura yangshao.

El dragón europeo aparece en las primeras historias registradas y es importante su papel en leyendas como la de Jasón y el vellocino de oro, donde sus dientes pueden plantarse para que germinaran como guerreros listos para la batalla. Puede tener cuatro patas, dos o ninguna, pero lo caracteriza algo de lo cual carece casi completamente su primo asiático: dos poderosas alas con las cuales puede volar. Además, algunos dragones europeos cuentan con la capacidad de exhalar fuego, hazaña nada despreciable.

El dragón apareció en europa como serpiente marina temida por los marineros y al paso del tiempo evolucionó en el folklore hasta convertirse en el reptil gigantesco, volador y poderoso que protagoniza numerosos mitos y, sobre todo, una variada literatura dragonil en la que no puede faltar mención a “El Hobbit” de J.R.R. Tolkien.

Muchos han querido ver un dragón en la figura del mítico dios-filósofo llamado Kukulcán por los mayas y Quetzalcóatl por los aztecas, palabra formada de “quetzal” o ave hermosa y “cóatl”, serpiente, es decir, serpiente emplumada. (Aunque en realidad “quetzalcóatl” es una forma metafórica de decir “gemelo precioso”, que es más preciso en el contexto de la historia del rey Tolteca que dio origen al mito, pero ciertamente menos pintoresco.)

Porque, como muchos seres mitológicos, no sólo los podemos estudiar en la leyenda y en la historia, en las costumbres y decoración de distintos pueblos. Los dragones pueden ser espacio de divertimento para los biólogos.

¿Cómo serían las alas del dragón? Si nos atenemos a las numerosas representaciones y nos inclinamos por las más plausibles, las alas del dragón se parecen mucho a las de los murciélagos, es decir, muestran una estructura rígida plegable parecida a dedos con una membrana entre ellos, como patas palmeadas que se hubieran adaptado para el vuelo.

El problema es difícil, pero no insoluble. La evolución trabaja con las estructuras existentes y las modifica para darles formas a veces radicalmente distintas conforme se van adaptando a un entorno cambiante. El problema es que para generar esas alas, en la espalda, los ancestros del dragón deberían haber tenido seis patas, un par de las cuales hubiera evolucionado hacia las alas. Y los vertebrados terrestres, proceden todos de peces con aletas pectorales y pélvicas pareadas.

El otro problema del dragón europeo es la capacidad de escupir fuego. Algunos biólogos han especulado sobre mecanismos como un saco que almacenara metano proveniente de la digestión del dragón y que se incendiara mediante la fricción de dos dientes especializados o generando una chispa eléctrica como lo hacen muchos seres vivos. Vamos, que es evolutivamente incluso menos implausible que las alas del dragón.

Podemos encontrar el origen de los dragones en una frase de José Luis Sanz, quien afirma que quienes practican su profesión, la paleontología, son “cazadores de dragones”, nombre que dio a un libro de divulgación sobre el descubrimiento e investigación de los dinosaurios. En él cuenta cómo un texto de entre los años 265 y 317 de nuestra era informa del hallazgo de huesos de dragón en la provincia de Sichuan. De hecho, es común en China hallar huesos de dragón, incluso hoy, tanto que las creencias precientíficas conocidas como “medicina tradicional china” incluyen entre sus remedios al hueso de dragón o “long gu” y, como todos los preparados mágicos, se usa igual como tranquilizante que para problemas de corazón e hígado, insomnio, sudoración externa y diarrea crónica.

Otros remedios, por cierto, como el hueso de tigre o “hu gu”, la bilis de oso y el cuerno de rinoceronte son tan buen negocio para los furtivos que estos tres animales están en peligro de extinción. Pero el “long gu” procede de animales ya extintos. Y no son los dragones.

La cercanía dinosaurios-dragones parece bastante obvia. Y más cuando pensamos en que China es hoy una de las zonas del planeta más fructíferas en cuanto a la paleontología. ¿Acaso los long gu son simplemente huesos de dinosaurios?

En parte sí. Sería difícil encontrar un cráneo de Tsintaosaurus spinrhinus, dinosaurio de 5 metros de alto con un cuerno al centro de la frente evocador del “unicornio” sin pensar en un ser misteriosísimo, oculto y poderoso. Pero también vale la pena recordar la variedad de la vida en el pasado para suponer que muchos huesos de dinosaurios eran, simplemente, mamíferos del pasado, desconocidos para quienes los hallaban asombrados.

Así, por ejemplo, en la casa consistorial de Klagenfurt, en Austria, se atesoraba lo que se decía que era la cabeza de un dragón que, según la leyenda, había sido derrotado por dos valientes jóvenes antes de la fundación de la ciudad en 1250. Hoy sabemos que ese enorme cráneo corresponde a un rinoceronte lanudo que vivió durante el Pleistoceno. Otros cráneos, de mamíferos marinos, sobre todo, fueron considerados restos de dragones.

Y mientras el dragón sigue siendo una maravilla de la imaginación y un excelente pretexto y protagonista de apasionantes historias fantásticas, en la vida real, aunque sin exhalar fuego, muchos dragones reales, los dinosaurios, terribles y violentos depredadores o pacíficos herbívoros, enormes y aterradores o pequeños y escurridizos, fueron las especies dominantes de la Tierra durante 135 millones de años. Las historias de ambos tipos de seres siguen siendo apasionantes.


Los dragones reales

En la isla de Komodo vive uno de los mayores reptiles terrestres, un varano que puede llegar a medir 3 metros y pesar más de 70 kilos. Descubiertos en 1910, el nombre de “dragones” lo recibieron en 1926 del explorador W. Douglas Burden, en un libro que escribió sobre su viaje al “mundo perdido” de Indonesia, libro que, por cierto, inspiró la película King Kong. Hoy, el dragón de Komodo, peligrosísimo por las infecciones que causa su mordida y que usa para cazar, está, paradójicamente, en riesgo de extinción.

Izquierda y derecha en el universo

Ser zurdo o diestro no es trivial, basta tratar de usar unas tijeras con la mano izquierda para que los diestros lo sepamos. Nosotros, y el universo, compartimos la curiosa tendencia a uno u otro lado.

Salvo escasas excepciones, somos diestros o zurdos. Es parte de nuestra forma de ser desde la niñez, cuando descubrimos que nos resultaba más cómodo usar una mano o la otra. La desgraciada costumbre de intentar obligar a niños zurdos a usar la mano derecha cuando todo su sistema nervioso indicaba que eran zurdos, nos ha enseñado incluso cuánto sufrimiento implica el no seguir esa tendencia de nuestro cuerpo.

Curiosamente, ese rechazo a lo zurdo y la presión para cambiar su tendencia natural, provenía de la superstición de que el lado izquierdo (“sinistra” en latín) era malévolo y de mal agüero, el lado del diablo, igual que la mano correspondiente o, como se considera en el Islam, la mano sucia que se usa para ir al baño.

¿Por qué somos diestros o zurdos? Los científicos aún no tienen la respuesta. Existen hipótesis como que la preferencia de mano tiende a ser reflejo de la preferencia de lenguaje, es decir, que los diestros tienden a tener las habilidades del lenguaje concentradas en el hemisferio izquierdo y los zurdos en el derecho, pero las muchas excepciones a esta regla general no la sustentan demasiado sólidamente. Y el origen genético (pese a cierta tendencia de que ser derecho o zurdo sea heredada) tampoco es tan sólido si consideramos que hay casos de gemelos idénticos en los que uno es diestro y el otro zurdo. Después de todo, podría simplemente ser un accidente, según algunos biólogos: la especialización de las manos hizo que se concentraran ciertas habilidades en uno u otro hemisferio, y pasamos a ser diestros simplemente por azar.

Ciertamente, lo que podemos inferir de algunos de nuestros antepasados o parientes del género Homo como el neandertal, el ergaster y el heidelbergensis es que eran mayoritariamente diestros, como nuestra especie. Los brazos derechos más fuertes y musculados (lo que se revela por la inserción de los músculos en los huesos que estudiamos) y la fabricación de algunas herramientas así parecen indicarlo.

Pero esto no es verdad en todos los primates. Revisando estudios realizados en nuestros parientes taxonómicos durante 90 años muestra que todos los primates tienen una preferencia. Los lémures y otros prosimios tienden a ser zurdos, los macacos y otros monos del viejo mundo se dividen más o menos a la mitad: 50% zurdos y 50% diestros. Los gorilas y chimpancés son preferentemente diestros con un 35% de zurdos y entre los humanos los zurdos son algo más del 10%. Esto podría indicar que ser diestro es un fenómeno más reciente en la evolución de nuestra familia.

Pero vale la pena decir que ser diestro o zurdo no es en realidad una preferencia absoluta. Todos tenemos tareas que hacemos mejor con la mano izquierda. En el béisbol, por ejemplo, la mano que los diestros usan para atrapar es la izquierda, e intentar hacerlo con la derecha les resulta tan incómodo como a un zurdo tratar de escribir con la derecha. Más que la dominancia de una mano (o, entre los futbolistas, un pie) sobre el otro, lo que hay podría conceptuarse como una división del trabajo que se expresa a la inversa entre diestros y zurdos.

Del mismo modo en que el ser humano tiene esta diferencia, el universo también la exhibe.

Quiralidad en la naturaleza

Fue Louis Pasteur quien, en 1848, descubrió que ciertas sustancias podían presentarse en dos tipos de moléculas de fórmula idéntica salvo porque unas eran la imagen en espejo de las otras, sin poder superponerse una sobre la otra, como pasa con nuestras manos. Se llamó a esta propiedad “quiralidad” (de la raíz griega “chiros”, que significa “mano”) y aunque originalmente se descubrió por sus propiedades ópticas (los cristales “diestros” de una sustancia giran la luz polarizada en la misma cantidad pero sentido inverso que los cristales “zurdos”), pronto se descubrió que las diferencias eran bastante más complejas y representaban variedades en otros aspectos. A las que miran a la derecha se les llama “dextrógiras” mientras que a las que miran a la izquerda se les llama “levógiras”.

Por ejemplo, las moléculas de 19 de los 20 aminoácidos tienen quiralidad (la excepción es la glicina, que es una molécula simétrica y por tanto su imagen en espejo es igual), pero las proteínas que nuestro ADN produce sólo tienen aminoácidos levógiros. Esto significa que la molécula mayor, la proteína, está formada de elementos de construcción que tienen una quiralidad uniforme, por lo que se les conoce como “homoquirales”. El ADN, la macromolécula de la vida en la tierra, también es homoquiral, pues si estuviera formado por unidades de quiralidad diferente no podría formar correctamente la estructura de la doble hélice.

Si los aminoácidos son levógiros, las azúcares suelen ser dextrógiras. Así, por ejemplo, la glucosa natural es dextrógira, por lo que la conocemos como dextrosa o D-glucosa. Se puede producir artificialmente una glucosa levógira, la L-glucosa, que pese a ser igualmente dulce no puede ser metabolizada y usada como fuente de energía (su coste y otros problemas han impedido que se use como sustituto de la dextrosa para dietas y diabéticos).

El sabor y los aromas que percibimos, sin embargo, se relacionan también con la quiralidad. La hipótesis más extendida sobre cómo detectan los aromas y el sabor nuestros receptores nerviosos indican que son activados por la forma de ciertas moléculas, que se acoplan con ellos (o con sustancias en su superficie) como una llave con una cerradura. Así, por ejemplo, el 4-metilhexanal, en su versión levógira, no tiene olor detectable, pero en su versión dextrógira provoca una sensación olfativa intensa, floral y con elementos verdes y frescos. Más contrastantemente, el ácido 2-metilbutanoico levógiro es afrutado y dulce, pero su reflejo dextrógiro nos huele a queso y sudor.

Hoy, la ciencia encuentra quiralidad en sitios donde no se esperaba, desde neutrinos diestros y zurdos hasta una variación en el giro de las galaxias a derecha e izquierda – desde nuestro punto de vista – que nos muestran un universo menos simétrico de lo que quizás creímos. Un universo que es de izquierda o de derecha... y no en sentido político.

Un mundo para diestros

Uno de los problemas que apenas están solucionando las sociedades más tecnológicas es el de los muchísimos implementos (desde tijeras y abrelatas hasta equipo deportivo y muchos instrumentos musicales) que están diseñados para personas diestras sin pensar en la alternativa. Hoy, afortunadamente, los virtuosos no tienen que tocar una guitarra al revés, como lo hizo Jimmy Hendrix, sino que cuentan con multitud de productos hechos para ellos.

Y Norman le dio de comer al mundo

Dar de comer a una población creciente es un desafío complejo. Abordarlo siempre ha sido urgente, pero nunca como ahora tuvimos las armas para realmente resolverlo gracias a un científico singular.

Norman Borlaug, el rostro del héroe. (Foto D.P.
 Ben Zinner, USAID, vía Wikimedia Commons)
Un popular libro de la década de los 60, La bomba poblacional de Paul Ehrlich, advertía del apocalipsis que le esperaba a la humanidad a la vuelta de la esquina. “La batalla para alimentar a la humanidad ha terminado. En las décadas de 1970 y 1980, cientos de millones de personas morirán de inanición sin importar los programas de emergencia que emprendamos ahora”, advertía, y el público se horrorizó.

La profecía no se hizo realidad en buena medida gracias al trabajo de un científico cuyo nombre no le dice nada a la gran mayoría de la gente.

Norman Borlaug nació el 25 de marzo de 1914 en un pequeño rancho de Iowa, en el Medio Oeste estadounidense, en una zona poblada por inmigrantes noruegos, como su abuelo, quien había construido el rancho. Se educó en una primaria rural antes de pasar a una secundaria donde destacó en la lucha grecorromana llegando a ser admitido en el Salón de la Fama de la Lucha en Iowa.

Su futuro no estaba en el deporte. Salió del bachillerato en los momentos más negros de la Gran Depresión y empezó a trabajar como peón agrícola para pagarse la matrícula en la Universidad de Minnesota, y cuyas cuotas pagó trabajando de camarero y aparcacoches. Seguiría su doctorado, que obtuvo en 1942 trabajando con el patólogo botánico, Elvin Charles Stakman.

Lo que parecía esperarle era el American Dream con un trabajo en una gran empresa química, la E.I. duPont de Nemours, donde empezó a trabajar como una obligación bélica en tiempos de la Segunda Guerra Mundial. Pero en 1944 se interpuso una invitación de la Fundación Rockefeller para que el joven científico agrícola se fuera a México a resolver un problema grave: las cosechas de trigo del vecino y aliado de los EE.UU. se habían visto reducidas a la mitad debido a la infección del hongo conocido como roya del tallo y el país se acercaba a una hambruna generalizada.

Borlaug quedó aterrorizado por la situación del campo mexicano, pero aceptó el reto y pasó los siguientes 20 años dedicado a un colosal esfuerzo, hibridizando distintas variedades de trigo que recogió por todo el mundo para seleccionarlas y reproducirlas, polinizando a mano, en un duro trabajo manual en el campo, hasta conseguir una variedad resistente a la roya del tallo (algo que hoy es mucho más sencillo con técnicas de ingeniería genética). Trabajando cultivos de verano e invierno en dos zonas del país, encontró además variedades no sensibles a la duración del día, algo esencial para poderlas plantar en distintas latitudes.

En cinco años logró una variedad de trigo resistente a la roya y más productiva. Luego se dedicó a cruzar plantas para obtener una variedad con semillas más grandes, obteniendo espigas mucho más productivas. Pero apareció otro problema: el peso de las semillas doblaba los largos tallos del trigo mexicano, desarrollados para sobresalir de entre la maleza. Los hibridizó con una variedad japonesa de tallo muy corto y en 1954 consiguió una variedad de trigo enano, de alto rendimiento, tallo corto y resistente a la roya.

En 1956, México consiguió ser autosuficiente en trigo, un cambio notable cuando 16 años antes importaba el 60% de este grano. Por esos años, una epidemia de roya del tallo destruyó el 75% de la cosecha de trigo durum en los Estados Unidos, lo que favoreció la adopción de las nuevas variedades desarrolladas por el visionario. Las técnicas de Borlaug permitieron a los científicos además mejorar muy pronto el rendimiento de dos cultivos esenciales para alimentar al mundo, el maíz y el trigo.

En la década de 1960, el innovador fue a la India, país que en 1943 había sufrido la peor hambruna conocida en la historia con más de cuatro millones de víctimas mortales. El genetista Mankombu Sambasivan Swaminathan, arquitecto de la Revolución Verde en la India, recuerda que al momento de la independencia de la India, en 1947, el rendimiento de trigo y arroz en los campos indios era de menos de una tonelada métrica por hectárea. Y aunque en los siguientes 20 años se incrementó el área de cultivo para alimentar a la desbordante población india, los rendimientos no aumentaban. Se importaban 10 millones de toneladas de trigo al año. De hecho, el libro de Ehrlich afirmaba que “la India no tiene ninguna posibilidad de alimentar a doscientos millones de personas más para 1980”.

La revolución verde consiguió que la cosecha de la India en 1965 fuera 98% mayor que la del año anterior... duplicando prácticamente el rendimiento del trabajo agrícola. Pakistán consiguió la independencia alimentaria en 1968. Al paso de los años, el trabajo de Borlaug ha conseguido resultados asombrosos. En 1960, el mundo producía 692 millones de toneladas de grano para 2.200 millones de personas. En 1992 estaba produciendo 1.900 millones de toneladas, casi el triple, para 5.600 millones de personas, y todo ello utilizando sólo un 1% más de tierra dedicada al cultivo.

Los logros del especialista agrícola llamaron la atención del Comité Nobel, que en 1970 acordó entregarle a Norman Borlaug el Premio Nobel de la Paz porque, dijeron, “más que ningún otro individuo de su edad, ha ayudado a proveer de pan a un mundo hambriento”.

La Revolución Verde fue el primer gran resultado de la biotecnología, de la aplicación de nuestros conocimientos biológicos para conseguir mejores plantas. Pero no sólo dependía de las nuevas variedades, sino de la capacidad de irrigación, mejores fertilizantes y mecanización, causas que, junto con la incertidumbre política, impidieron que África siguiera el camino de otros países (entre ellos China, hoy exportadora de alimentos). En palabras del propio científico: “A menos que haya paz y seguridad, no puede haber un incremento de producción”.

Norman Borlaug siguió trabajando por combatir el hambre y por promover el uso racional de la tecnología para mejorar el rendimiento de los cultivos lo que ha impedido la conversión en tierra de cultivo de grandes espacios de bosques y ecosistemas protegidos. Murió el 12 de septiembre de 2009, pero su trabajo contra el hambre continúa en la Norman Borlaug Heritage Foundation, para cuyos programas educativos la casa de Iowa donde nació el Premio Nobel se ha convertido en una residencia estudiantil.

Triunfos pasajeros

“Es verdad que la marea de la batalla contra el hambre ha cambiado a mejor en los últimos tres años. Pero las mareas tienen su forma de subir y bajar. Bien podemos estar en marea alta hoy, pero la marea baja podría instalarse pronto si nos volvemos complacientes y relajamos nuestros esfuerzos.” Discurso de aceptación del Premio Nobel de Norman Borlaug el 10 de diciembre de 1970.

La literatura que vino del conocimiento

El primer puente eficaz entre la ciencia y las humanidades se tendió con base en el asombro y expectativa que se genera alrededor de quien sea que nos diga “voy a contar una historia”.

El primer número de la revista fundada por
Hugo Gernsback, con portada del artista
Frank R. Paul y errata en el nombre de
Edgar Allan Poe.
(Imagen D.P. vía Wikimedia Commons)
Isaac Asimov argumentaba, con muy buenas razones, que la ciencia ficción, ese género literario singular de cruce de caminos entre la ciencia y el arte, no tenía un padre fundador como otros. Por ejemplo, el género policiaco tuvo como padre a Edgar Allan Poe en sus dos cuentos con el inspector Dupin, mientras que la moderna fantasía heroica fue producto de la obra de J.R.R. Tolkien. La ciencia ficción, única en la literatura (y en otras artes, posteriormente) tenía madre fundadora: Mary Shelley.

La joven concibió su novela Frankenstein o el moderno Prometeo por las conversaciones que tenían ella, su amante Percy Bysse Shelley, el amigo de ambos Lord Byron y el médico de éste, John Polidori, a las orillas del lago Ginebra en 1816. La joven Mary estaba interesada por los trabajos del italiano Galvani sobre la electricidad animal y, cuando se propuso que los cuatro escribieran un cuento de fantasmas, ella esbozó lo que sería la novela que publicó dos años después. Más allá de precursores como las narraciones fantásticas de Luciano de Samosata, Johannes Kepler o Cyrano de Bergerac, es fácil argumentar que la especulación científica de Shelley es el primer trabajo de la ciencia ficción como la conocemos hoy en día.

Pero si la ciencia ficción nació en 1816-18, tuvo que esperar más de un siglo para obtener su nombre y su identidad definitiva. Un siglo y que un soñador y empresario luxemburgués llamado Hugo Gernsback se entusiasmara con la idea de que se podía divulgar ciencia mediante la literatura. Experimentador con la electricidad y editor, Gernsback echó una mirada a la popularidad de los “romances científicos”, como se llamaba en Gran Bretaña a la obra de Jules Verne o H. G. Wells y decidió dedicarse a escribir y publicar eso que también se ocupó de bautizar. Su primera propuesta se traduciría como "cientificción" pero para 1929 adoptó el término que se generalizó y se ha mantenido pese a muchos intentos de rebautizarlo: "ciencia ficción".

Fue en 1926 cuando Gernsback, que ya publicaba revistas dedicadas a la radio y la electricidad donde ocasionalmente incluía cuentos con temática científica, fundó la revista Amazing Stories, la primera publicación dedicada exclusivamente a cuentos de ciencia ficción y que sería la plataforma de lanzamiento del género y de numerosos autores hoy considerados clásicos del género como Isaac Asimov, Ursula K. Le Guin, Howard Fast o Roger Zelazny.

Muchos autores no estaban de acuerdo con la idea de que la ciencia ficción tuviera la misión de divulgar ciencia. De hecho, saber algo de ciencia ya era requisito para el disfrute total de algunos de los relatos lque se estaban escribiendo en la primera mitad del siglo XX. Más que divulgarlos hechos y datos de la ciencia, para muchos era la forma de divulgar algo que consideraban mucho más importante: el método científico y el pensamiento crítico y cuestionador en el que se basa para llegar al conocimiento. Y para advertir de la necesidad de impedir que la política y el poder usaran mal el conocimiento científico.

La gran explosión de la ciencia ficción ocurrió después de la Segunda Guerra Mundial, entre el horror de la bomba atómica y la guerra fría, de un lado, y la promesa científica y tecnológica de los antibióticos, la carrera espacial y los plásticos, del otro.

Al mismo tiempo, los medios visuales se unieron entusiastas, si bien con poca suerte, al boom de la ciencia ficción. Una serie de películas, más bien de clase B, empezaron a salir de los estudios cinematográficos, algunas de ellas de cierto valor, como el clásico de la paranoia de la guerra fría The Body Snatchers o la muy moralina The Day the Earth Stood Still. La televisión, constreñida por limitaciones presupuestarias, abordó a la ciencia ficción menos entusiasta, con destellos en series clásicas como The Twilight Zone, dirigida y producida por Rod Serling.

La ciencia ficción visual llegó a su madurez en la década de 1960. En televisión, Star Trek, ideada por Gene Roddenberry, planteó de modo apasionante los dilemas morales de la ciencia y la cultura, la lógica y la emoción, y otro tanto hacía en el cine, en 1968, 2001: Una odisea del espacio, escrita por Arthur C. Clarke y dirigida por Stanley Kubrick.

El salto en efectos especiales que se dio a partir de esta película fue tal que, de hecho, para muchas personas de las nuevas generaciones la ciencia ficción sería considerada principalmente como un género cinematográfico y televisual, donde muchos de los grandes autores literarios como Frank Herbert (Dune) y Philip K. Dick (Total Recall, Blade Runner, Minority Report) se verían llevados al cine con mayor o menor fortuna.

La ciencia ficción ha pasado por distintas encarnaciones, a veces tan diferentes que resulta peculiar que los lectores y aficionados las identifiquen como facetas de una misma expresión artística. Desde la ciencia ficción “dura”, escrita muchas veces por científicos y basada en datos científicos minuciosamente precisos hasta la fantasía futurista de Ray Bradbury en Crónicas marcianas, desde los fulgurantes efectos especiales de Matrix hasta la serena reflexión de Solaris, desde los viajes dentro de nuestro cuerpo y mente hasta el diseño de imperios galácticos colosales, desde acción y batallas hasta la lucha contra los problemas mentales.

Esta forma de creación artística, sin embargo, quizás se identifica no por usar la ciencia, por enseñarla, por difundirla o por criticarla, sino porque sus preocupaciones son las mismas que las de la ciencia: cómo obtenemos el conocimiento, cómo cuestionamos a la realidad, cómo manejamos el conocimiento, cuáles son los obstáculos que le ponemos al saber, qué tanto tememos al pensamiento libre o cuáles son los cauces que debemos darle a esos conocimientos, entre otras cosas.

Muchos científicos de hoy en día encuentran las raíces de su interés por la ciencia en algún relato, alguna novela, algún autor, alguna película o serie de televisión. Pero es su atractivo para el público en general, ese público que muchas veces está por lo demás alejado de la ciencia, el que sigue convirtiendo a la ciencia ficción en el género de los grandes desafíos y las grandes dudas.

El primer beso

En noviembre de 1968, en lo que entonces era una audacia, sólo meses después del asesinato de Martin Luther King, se emitió un episodio de Star Trek donde el capitán Kirk, interpretado por William Shatner, besaba a la teniente Uhura, interpretada por Nichelle Nichols. Fue el primer beso interracial de la conservadora televisión estadounidense, algo que quizá sólo podía haber ocurrido entonces en el espacio aparentemente inocuo de la ciencia ficción.

Pesticidas: los heroicos villanos

Queremos alimentos baratos, en buen estado, que no estén infectados, enfermos o mordidos por insectos u otros animales. Algo que sería muy difícil sin los productos que controlan las plagas.

La familia de Bridget O'Donell durante la
gran hambruna irlandesa de 1845-52.
(Ilustración D.P. del Illustrated London
News, 22 de diciembre de 1849,
via Wikimedia Commons)
Lo único que separa al ser humano de la muerte por hambre es el éxito de la siguiente cosecha. Y el entorno está lleno de organismos que quieren aprovechar nuestro esfuerzo agrícola, plagas y enfermedades de aterradora diversidad, desde virus diminutos hasta aves o mamíferos de tamaño considerable como los topos o las ratas, que atacan nuestros campos, nuestra semilla y nuestros graneros.

La gran hambruna de las patatas en Irlanda, que mató a un millón de personas entre 1845 y 1852, fue causada principalmente por la llegada a Europa de una nueva plaga, el “tizón tardío”, que arrasó los campos de patatas que alimentaban al pueblo irlandés. La producción cayó de casi 15 mil toneladas en 1844 a sólo 2 mil toneladas en 1847.

Los procedimientos pesticidas para intentar evitar estos desastres no son nada nuevo en la historia. Hace 6.500 años en la antigua Sumeria, encontramos el primer uso registrado de plaguicidas químicos: distintos compuestos de azufre empleados para combatir a los insectos y a los ácaros. Desde entonces, el ser humano ha usado los más distintos productos para proteger la fuente principal de su alimentación, desde el humo (de preferencia muy hediondo) producto de la quema de distintos materiales hasta derivados de las propias plantas, como los obtenidos de los altramuces amargos o sustancias inorgánicas como el cobre, el arsénico, el mercurio y muchos otros.

Otros seres vivos también han sido usados como pesticidas. Si el ejemplo más obvio es el gato que protege casas, graneros y cultivos contra ratas y ratones, también los ha habido más elaborados. Mil años antes de nuestra era, en China se utilizaban feroces hormigas depredadoras para proteger los huertos de cítricos contra orugas y escarabajos. Se cuenta cómo los agricultores ponían incluso cuerdas y varas de bambú para facilitar el movimiento de las hormigas entre las ramas de distintas plantas.

En el siglo I antes de nuestra era, Marco Terencio Varro, un sabio romano, recomendaba el uso del alpechín, ese líquido oscuro y amargo con base de agua que se obtiene de las aceitunas antes del aceite, contra las hormigas, los topos y las malas hierbas, lo que sería el primer pesticida “de amplio espectro” de la historia.

Junto a estos materiales, los seres humanos utilizaron también durante la mayor parte de nuestra historia prácticas mágicas, religiosas y supersticiosas destinadas a proteger los cultivos, desafortunadamente sin buenos resultados.

En la década de 1940, después del fin de la Segunda Guerra Mundial, empezó a desarrollarse un tipo totalmente nuevo de pesticidas basados en la química orgánica (recordemos que la química orgánica es aquélla relacionada con los compuestos de carbono, y aunque el carbono es la base de la vida, esto no significa que todas las sustancias “orgánicas” desde el punto de vista químico tengan relación con la vida).

Los pesticidas parecían una solución perfecta que conseguían los resultados deseados por los agricultores sin provocar daños a otros seres vivos, ni al ser humano. Pronto, sin embargo, los estudios científicos demostraron que, según era también previsible, nada es perfecto. Algunos pesticidas se acumulaban en el ambiente, algunos otros resultaban muy tóxicos para organismos que no eran su objetivo, algunos podían acumularse en el medio ambiente o en los seres vivos, otros estaban siendo usados en exceso por distintos consumidores y, finalmente, otros iban poco a poco funcionando como un elemento de presión selectiva favoreciendo la aparición de cepas de distintos organismos resistentes al pesticida, del mismo modo en que los antibióticos que usamos como medicinas han favorecido la aparición de infecciones humanas resistentes a ellos.

El público reaccionó con lógica preocupación que en algunos casos se convirtió en miedo irracional y se extendió, injustificadamente, a todos los pesticidas y sustancias que ayudan a la agricultura, y a un desconocimiento de los desarrollos de las últimas décadas. En la conciencia general quedó identificada la idea de “pesticida” con los productos anteriores. Incluso, entre algunos grupos se considera poco elegante señalar que, pese a los innegables problemas, nadie nunca ha enfermado gravemente ni ha muerto por consumir productos agrícolas protegidos por pesticidas.

A fines de la década de 1960 se introdujo el concepto de la gestión integrada de plagas, una estrategia que implica utilizar una combinación de elementos para proteger los cultivos. En parte ha implicado volver a utilizar formas de control de plagas que habían sido abandonadas ante la eficacia de los pesticidas, y asumir una aproximación equilibrada usando juiciosamente todas las opciones a nuestro alcance: pesticidas químicos, otras especies, medios mecánicos, etc.

Hoy, existen cada vez mejores legislaciones para los distintos productos (no las había en los 40-50) y se investiga creando mejores pesticidas, efectivos , específicos (que ataquen sólo a las plagas y no a otras especies) y que después de actuar se descompongan en residuos no tóxicos y reintegrándose al medio ambiente. Junto a ellos, ha aparecido la opción de integrar mediante ingeniería genética capacidades pesticidas a los propios cultivos o hacerlos resistentes a las plagas. Así, por ejemplo, hoy se tienen cultivos que producen ellos mismos las toxinas del Bacillus thuringiensis, una bacteria frecuentemente usada como insecticida viviente.

Aún con los avances, cada año se pierde un 30% de todos los cultivos en todo el mundo. Una tercera parte. Sin pesticidas, los expertos aseguran que las pérdidas se multiplicarían y por ello, en este momento y bajo las condiciones económicas y sociales reales de nuestro planeta, no es posible alimentar a la población humana actual, 7 mil millones de personas, sin la utilización de pesticidas. Lo importante es seguir fomentando el desarrollo de mejores sustancias, emplearlas de modo inteligente y no indiscriminado, respetando todas las precauciones y aplicando sistemas alternativos siempre que sea posible y viable.

Nada de lo cual impedirá que los pesticidas sigan siendo, a la vez, héroes y villanos de la alimentación humana.

Mejor ciencia, no menos ciencia

Norman Borlaug, el creador de la “revolución verde” con la que se calcula que ha salvado más de mil millones de vidas decía en 2003: “Producir alimentos para 6.200 millones de personas, a las que se añade una población de 80 millones más al año, no es sencillo. Es mejor que desarrollemos una ciencia y tecnología en constante mejora, incluida la nueva biotecnología, para producir el alimento que necesita el mundo hoy en día”.

Rehacer el cuerpo

La posibilidad de reconstruir partes del cuerpo, órganos o miembros, manipulando nuestras propias células y procesos, es la gran promesa de la biología y la medicina regenerativas.

Tráquea artificial hecha con las propias células madre
del paciente. (Foto University College London, Fair use)
En 1981, un paciente del Hospital General de massachusetts, en Boston, había sufrido quemaduras graves. Los médicos decidieron probar una aproximación diferente a los trasplantes e injertos de piel tradicionalmente empleados en estos casos. Tomaron una pequeña muestra de piel sana de la víctima, la sometieron a un proceso llamado de “cultivo de tejidos”, donde las células son alimentadas y estimuladas para que se reproduzcan. el tejido resultante se colocó en una matriz y se aplicó en las zonas donde las quemaduras habían destruido la piel. Por primera ocasión, las propias células de un paciente se habían utilizado exitosamente como terapia.

Para llegar a ese momento, fue necesario que la ciencia respondiera a una enorme pregunta: ¿De qué estamos hechos? Durante la mayor parte de nuestra historia, la conformación de nuestro propio cuerpo fue uno de los grandes misterios. ¿Cómo se reunían las sustancias del para crear algo tan cualitativa y cuantitativamente peculiar como el tejido de un ojo, un pulmón, un músculo o un corazón? Y, más impresionante, cómo lo que comíamos nos hacía crecer y cómo, a veces, el cuerpo tenía la capacidad de regenerarse: se cortaba y al paso de un tiempo la herida cerraba, aparecía nuevo material que la sanaba y dejaba, en todo caso, una cicatriz.

Más aún, las capacidades regenerativas del ser humano, pese a lo asombrosas que pueden resultar, son limitadas. No puede regenerar un miembro, un ojo o una oreja, pese a que hay miembros del mundo animal que sí están en capacidad de hazañas asombrosas. Las salamandras, como las llamadas axolotl o ajolotes, pueden hacer crecer un miembro completo que se les haya amputado, y un gusano plano como la planaria puede ser cortada en varios trozos y cada uno de ellos producirá un individuo nuevo completo.

La idea de que el cuerpo humano podría regenerarse como las salamandras o los gusanos ha estado presente, así, como uno de los grandes sueños de la medicina, aunque la mitología se las arregló para presentar la regeneración también como una desgracia. En el mito de Prometeo, cuyo castigo por darle el fuego a los hombres fue ser encadenado a una roca donde un águila le comía todas las noches el hígado, que se regeneraba durante el día. Probablemente los griegos ya sabían que el hígado es el órgano con mayores capacidades regenerativas del cuerpo humano.

La posibilidad de usar la regeneración como forma de tratamiento hubo de esperar a que el ser humano conociera cómo esta formado el cuerpo, sus tejidos y órganos, las células que los conforman, la reproducción, la genética y el desarrollo embriológico. A partir de allí ya era legítimo imaginar terapias en las cuales un brazo destrozado, un ojo, un páncreas o cualquier otra parte del cuerpo pudieran ser reemplazados por otros creados con las células del propio paciente, ya fuera cultivándolas en el laboratorio para trasplantarlas después o provocando que el propio cuerpo las desarrollara.

En el mismo año de 1981 en que se realizaba el autotrasplante de células cultivadas en Boston, en las universidades de Cambridge y de California se conseguía aislar ciertas células de embriones de ratones, las llamadas células madre o pluripotentes, es decir, células que se pueden convertir en células de cualquiera de los muchos tejidos diferenciados del cuerpo humano. Todas nuestras células, después de todo, proceden de una sola célula, un óvulo fecundado por un espermatozoide, y en nuestro desarrollo embrionario se van especializando para cumplir distintas funciones, desde las neuronas que transmiten impulsos nerviosos hasta los eritrocitos que transportan oxígeno a las células de todo el cuerpo, las fibras musculares capaces de contraerse o las células de distintas glándulas que secretan las más diversas sustancias en nuestro cuerpo.

Pero aún con las células ya especializadas de los tejidos de los pacientes, se pueden realizar hazañas considerables. En 2006, científicos de la Wake Forest University de Carolina del Norte por primera vez utilizaron células de la vejiga urinaria de un paciente para cultivarlas y hacerlas crecer sobre un molde o “andamio” en un proceso llamado “ingeniería de tejidos”. El resultado fue una vejiga que se implantó quirúrgicamente sobre la del propio paciente, sin ningún riesgo de rechazo al trasplante debido a que son sus propias células. Desde entonces, la técnica se ha estandarizado para resolver problemas de vejiga en numerosos pacientes.

Otro sistema de ingeniería de tejidos lo empleó el dr. Paolo Maccharini en 2008 en el Hospital Clinic de Barcelona para tomar una tráquea donada, eliminar de ella todas las células vivas del donante dejando sólo el armazón de cartílago y repoblando éste con células de la paciente a la que se le iba a trasplantar, evitando así el rechazo del trasplante y eliminando la necesidad de utilizar inmunosupresores como parte de la terapia.

El primer órgano desarrollado a partir de células madre que se implantó con éxito fue también una tráquea, y el trabajo lo hizo el mismo médico, esta vez en el Instituto Karolinska de Suecia, donde a fines de 2011 se hizo un molde de la tráquea del paciente sobre el cual crecieron células pluripotentes tomadas de su propia médula ósea.

Curiosamente, la idea de conservar el cordón umbilical de los recién nacidos está relacionado con la idea de la medicina regenerativa, ya que en dicho cordón se encuentra una reserva de células madre pluripotentes que, en un futuro, podrían facilitar la atención de esos niños para la sustitución de órganos y tejidos.

A través de las terapias celulares y de la ingeniería de tejidos, la medicina regenerativa algún día, no muy lejano, podrían producir tejido sano para sustituir a los tejidos dañados responsables de una gran variedad de afecciones, desde la artritis, el Parkinson, el Alzheimer, la diabetes tipo I y las enfermedades coronarias, además de hacer innecesaria la donación de órganos. Sería la medicina que nos podría hacer totalmente autosuficientes, capaces de repararnos y convertir en parte del pasado gran parte del sufrimiento humano, que no es una promesa menor.

El potencial de multiplicación

El Dr. Anthony Atala, creador del primer órgano desarrollado en laboratorio (una vejiga), explica: “Podemos tomar un trozo muy pequeño de tejido, como de la mitad de un sello postal, y en 60 días tener suficientes células para cubrir un campo de fútbol”. Sin embargo, recuerda, esto aún no es aplicable a todos los tipos de células, algunos de los cuales no pueden hacerse crecer fuera del cuerpo de los pacientes.

Robert Boyle, el químico escéptico

El hidrógeno puede ser el elemento más abundante del universo, pero fue un desconocido para la especie humana hasta que apareció la vocación de experimentación de uno de los creadores de la ciencia moderna.

Sir Robert Boyle
(Retrato D.P. vía Wikimedia Commons)
Hubo una época en que la química no existía. De hecho, desde el inicio de la historia humana hasta el siglo XVII de nuestra era los materiales de los que estaba hecho el universo eran un misterio absoluto. Nadie sabía cómo se desarrollaban sus transformaciones, sólo veían que ocurrían y buscaban alguna explicación más o menos plausible y de reproducirlas utilizando métodos que hoy nos parecen torpes, fantasiosos, irracionales e ignorantes... pero que eran los únicos que estaban entonces al alcance de nuestra especie.

Se llegaba al conocimiento lentamente mediante ensayo y error, a veces por accidente. Se hallaba una sustancia nueva, una tecnología inesperada para endurecer el acero o beneficiar un mineral, un resultado asombroso al mezclar sustancias. Pero el trasfondo de todos esos hechos era incomprensible.

Durante toda la Edad Media, los alquimistas buscaron controlar la naturaleza con una mezcla de ideas incorrectas como la teoría de los cuatro elementos, creencias como la de la transmutación de los metales, una visión mística y un interés que oscilaba entre la pasión por el conocimiento y la ambición pura y dura.

En ese mundo de ignorancia anhelante y de ambición sin rumbo claro nació en Irlanda, en 1627, Robert Boyle, el decimocuarto de los 15 hijos que tuvo el Conde de Cork, un opulento aristócrata inglés que había hecho su fortuna en Irlanda. De hecho era el hombre más rico de la Gran Bretaña. Y como tal, se esforzó por dar a sus hijos la mejor educación posible. Robert vivió primero en el campo, educándose lejos de la familia, pasó un tiempo en el prestigioso Colegio de Eton y se instruyó en casa y en viajes por Europa.

El 8 de enero de 1642, mientras el joven Boyle pasaba una temporada en Florencia, el genial Galileo Galilei murió en su villa de Arcetri, en las afueras de la ciudad, donde estaba bajo arresto domiciliario de la Inquisición. El acontecimiento afectó profundamente al aún estudiante, quien se dedicó a estudiar los trabajos de Galileo concluyendo que era el momento de estudiar al mundo de una nueva forma, utilizando las matemáticas y la mecánica.

A su regreso a Inglaterra, Boyle se convertiría en parte del “colegio invisible”, un grupo de filósofos naturales, que era como se llamaba a quienes hoy consideramos científicos, palabra que ni siquiera existió como tal hasta 1634. Este grupo sería la semilla de la Royal Society.

Uno de los integrantes de ese “colegio invisible”, Henry Oldenburg, que sería el primer secretario de la Royal Society, describió así a Boyle en una carta dirigida al filósofo Baruch Spinoza: “Nuestro Boyle es uno de ésos que desconfían lo suficiente de su razonamiento como para desear que los fenómenos estén de acuerdo con él”.

Resumía así el salto que iba de los argumentos y razonamientos que habían formado el sistema escolástico desde Aristóteles al método experimental, de observación, crítico y científico defendido por Sir Francis Bacon y que dio cuerpo a la revolución científica. Lo que se conocía por entonces simplemente como la “Nueva filosofía”.

Porque lo que hacía Robert Boyle en el laboratorio que se construyó en 1649 aprovechando la vasta herencia familiar y la libertad que le daba, era observar los hechos de la naturaleza y hacer experimentos. Muchos experimentos. Y después analizar sistemáticamente sus resultados, que empezó a publicar en 1659. En 1660 dio a conocer sus estudios sobre las propiedades del aire, que exploró utilizando una bomba de vacío, y dos años después publicó la que hoy conocemos como “Ley de Boyle”, que expresa sencillamente que, a temperatura constante, el volumen de un gas es inversamente proporcional a la presión a la que se encuentra. A más presión, menos volumen... algo que hoy nos parece evidente, pero sólo porque lo descubrió Boyle.

Pero fue en 1661 cuando Boyle hizo su más profunda y decisiva aportación a la ciencia con la publicación de su libro The Sceptical Chymist: or Chymico-Physical Doubts and Paradoxes (El químico escéptico: o dudas y paradojas químico-físicas), donde por primera vez le daba el nombre de “química” al estudio de la composición, propiedades y comportamiento de la materia. En el libro, hacía una defensa de la “nueva filosofía” ampliando las ideas de Bacon sobre la experimentación y desarrollando el método experimental en gran medida como hoy lo conocemos y utilizamos, con numerosos ejemplos provenientes de sus numerosos experimentos, como los que le permitieron descubrir, entre otras sustancias, el hidrógeno.

Adicionalmente, proponía la “teoría corpuscular”, según la cual partículas de distintos tamaños formaban las sustancias químicas, un antecedente de la teoría posteriormente demostrada de que la materia está compuesta por partículas. Además, introdujo el concepto moderno de “elemento químico” y de “reacción química”, diferenciando las mezclas de los compuestos.

Éste fue un descubrimiento verdaderamente revolucionario. Con él, Boyle se convertía en el primer ser humano que veía con claridad los procesos de la materia. En una mezcla, como una solución de agua con sal común, las dos sustancias conservan sus propiedades, mientras que en un compuesto, las propiedades de los componentes cambian radicalmente. Por ejemplo, el cloro, que es un gas venenoso, y el sodio, que es un metal altamente reactivo, incluso explosivo, pueden unirse en una reacción química formando un compuesto que no tiene ni las propiedades del cloro ni las del sodio, sino otras que le son totalmente peculiares, el cloruro de sodio o sal común, precisamente.

Boyle nunca dejó de ser alquimista en la búsqueda de aspectos espirituales de la materia, pero tampoco permitió jamás que sus creencias alquímicas y religiosas, como ferviente protestante, interfirieran con lo que su razón le iba mostrando en el estudio de la realidad a su alrededor, en temas como la mecánica, la química, la hidrodinámica o aspectos más prácticos, como las mejoras en la agricultura o la posibilidad de desalinizar el agua de mar, siempre acudiendo a experimentos controlados para alcanzar sus conclusiones.

Soltero y sin dejar descendencia, el que bien podría ser llamado uno de los últimos alquimistas y el primer químico de la historia, murió en Londres el 30 de diciembre de 1691.

Conocimiento e ignorancia

“El estudio de la naturaleza, con el objetivo de promover la piedad mediante nuestros logors, es útil no sólo por otros motivos, sino para incrementar nuestro conocimiento, incluso de las cosas naturales, sino de modo inmediato y en la actualidad, sí al paso del tiempo y al transcurrir de los acontecimientos.” Robert Boyle.

Mercurio, el planeta infernal

El más rápido, el más pequeño, el de las temperaturas más extremas, el menos conocido, Mercurio está de nuevo bajo la vigilancia de una sonda robot que busca comprender a este planeta.

Mercurio fotografiado por la sonda Messenger
(Foto D.P. de NASA/Johns Hopkins University
Applied Physics Laboratory/Carnegie Institution
of Washington, vía Wikimedia Commons)
En 2006, cuando la Unión Astronómica Internacional determinó que Plutón no reunía todos los requisitos para ser considerado un planeta y pasó a ser clasificado como “planeta enano”, Mercurio se convirtió en el planeta más pequeño de todo el sistema solar. Es más pequeño que Ganímedes, la luna de Júpiter descubierta por Galileo en 1610 y que Titán, la luna de Saturno descubierta 34 años después por el astrónomo holandés Christiaan Huygens, además de ser el planeta más cercano al sol de todo el sistema solar, y el que tiene la órbita más excéntrica, es decir, la que forma la elipse más alargada.

Debido a la cercanía de su órbita respecto del sol, Mercurio queda oculto por el brillo de nuestra estrella y no resulta fácil de ver, especialmente sin aparatos ópticos. Como sólo se le puede ver a la media luz del amanecer y del atardecer, los primeros astrónomos griegos pensaron que se trataba de dos planetas distintos. No fue sino hasta el siglo IV antes de nuestra era que se determinó que se trataba de un mismo objeto, un planeta al que llamaron Hermes. Incluso Galileo Galilei, pionero de la astronomía, halló difícil la observación de Mercurio con su telescopio.

Pero esa misma cercanía, dada la enorme influencia que sobre el planeta tiene el campo gravitacional del Sol, permitió hacer una de las observaciones que confirmaron la teoría de la relatividad de Einstein. El punto más cercano al Sol de la órbita de Mercurio se trasladaba ligeramente alrededor del sol sin que hubiera explicación hasta que los cálcuos de la relatividad general de Einstein pudieron describir estos movimientos en función de la gravedad del Sol.

Durante mucho tiempo se creyó que Mercurio, que da una vuelta al sol cada 88 días, lo que lo convierte en el planeta con la más rápida rotación del sistema, tenía un acoplamiento de mareas con el Sol, es decir, que siempre daba la misma cara al sol, manteniendo un hemisferio siempre en la oscuridad. O, visto desde otro punto de vista, que su día y su año tenían la misma duración.

No fue sino hasta la década de 1960, 350 años después de las observaciones de Galileo, que se consiguieron datos precisos sobre Mercurio gracias a la radioastronomía, capaz de obtener información que no era accesible utilizando telescopios ópticos. Fue entonces que se descubrió que Mercurio tarda en girar una vez sobre su propio eje, era de poco menos de 59 días terrestres.

La rápida órbita del planeta y su lenta rotación (sólo Venus tiene una rotación más lenta, de 243 días terrestres) hacen que su día (es decir, el intervalo entre un amanecer y el siguiente), sea de 176 días terrestres. Y se trata de días con temperaturas extremas, las más extremas de nuestro sistema solar. En los momentos más cálidos, pueden subir hasta los 465 ºC, calor con el cual se pueden fundir algunas aleaciones de aluminio, y se pueden desplomar hasta los -184 ºC, un grado por debajo de la temperatura a la que el oxígeno se convierte en líquido.

Además, el pequeño tamaño de Mercurio oculta una enorme masa. Pese a ser apenas algo más grande que la Luna, su fuerza de gravedad es de casi el 40% que la nuestra, comparada con menos del 17% de la de la Luna. Así, algo que pesara 100 kilos en la Tierra pesaría 16,6 kilos en la Luna y unos 38 en Mercurio, que es así el segundo planeta más denso del sistema solar, después del nuestro.

Otra singularidad de Mercurio es que, debido a su cercanía al Sol, su extremadamente tenue atmósfera es constantemente barrida por el viento solar, el flujo de partículas cargadas responsable entre otras cosas de las auroras en la Tierra, de modo que dicha atmósfera se está renovando continuamente.

El estudio de Mercurio dio un enorme salto en 1974, cuando llegó hasta sus inmediaciones la sonda Mariner 10 de la NASA, lanzada en noviembre de 1973. Pasando a tan sólo 327 kilómetros de altitud sobre la superficie de Mercurio, la sonda logró fotografiar aproximadamente el 45% de la superficie del planeta. Su aspecto, muy distinto del que habían soñado algunos autores de ciencia ficción que incluso habían imaginado la posibilidad de que albergara vida, era el de un mundo con una atmósfera tan tenue que no podía proteger la superficie del choque de pequeños objetos, dando como resultado una superficie muy similar a la de nuestra luna, con numerosos cráteres de impacto. El Mariner también descubrió alguna evidencia de actividad volcánica.

En agosto de 2004, la NASA lanzó una nueva sonda con destino a Mercurio, la “Messenger” o “mensajero”. La Messenger pasó por primera vez en las inmediaciones de Mercurio en 2008, para después hacer otras dos aproximaciones, visitando a Venus en el proceso, para finalmente instalarse en órbita alrededor de Mercurio en marzo de 2011. Desde entonces, la Messenger ha podido confirmar varias especulaciones sobre Mercurio. Ha podido constatar la existencia de una intensa actividad volcánica en el pasado y ha encontrado más datos que indican la presencia de hielo de agua en los polos del planeta.

La Messenger además ha podido determinar gracias a los datos reunidos por sus instrumentos que, contrariamente a lo que creían los astrónomos, el núcleo de hierro de Mercurio no se ha enfriado, sino que se mantiene fundido y en rotación. Este núcleo, ocupa alrededor del 85% del volumen de Mercurio, gigantesco comparado con el de nuestro planeta, que es del 30% de su volumen, y es el responsable de genera un débil campo magnético, de una centésima parte del de la Tierra. Ni Venus ni Marte, los otros dos planetas rocosos, cuentan con campo magnético, por lo que el estudio de Mercurio puede ayudar a entender el porqué de estas diferencias.

Conocido como uno de los planetas “clásicos” de la antigüedad, Mercurio sigue siendo, sin embargo, el planeta menos explorado y menos conocido de nuestro sistema solar, incluso pese a su relativa cercanía, algo curioso si lo comparamos con lo mucho que hemos aprendido de planetas más lejanos como Júpiter... y mucho muy distintos de nuestro mundo, este mundo de roca y metales que aún tiene mucho que aprender de Mercurio, su infernal hermano pequeño.

Bahía Mercurio

En la península de Coromandel, en Nueva Zelanda, está la Bahía de Mercurio, en cuyas playas, el 9 de noviembre de 1769, el famoso explorador británico James Cook y su astrónomo Charles Green hicieron la observación del tránsito de Mercurio por el sol. Junto con el tránsito de Venus que había coincidido ese año, en junio, este tránsito observado por varias expediciones británicas por encargo de la Real Sociedad Astronómica, permitió obtener los datos más precisos hasta entonces sobre las distancias en nuestro sistema solar.

Los nombres de los dinosaurios

Los dinosaurios tienen curiosos nombres de aspecto latino y griego. De hecho, todas las especies tienen nombres así, aunque las conozcamos con denominaciones más de andar por casa .

Reconstrucción de un oviraptor en el
Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
Solemos referirnos a la mayoría de los seres vivos a nuestro alrededor con los nombres que nuestra cultura les ha dado. No solemos pensar, salvo excepcionalmente, en que el jamón proviene de un animal llamado Sus scrofa domestica, que nuestros chuletones son de Bos primigenius, los huevos los pone la hembra del Gallus gallus domesticus y la hortaliza anaranjada que supuestamente fascina a los conejos se llama Daucus carota.

Éstos son los nombres que los biólogos dan, claro, al cerdo, la vaca, el pollo y la zanahoria.

La costumbre de dar a los seres vivos nombres que pudieran entender todos los científicos en cualquier lugar del mundo comenzó con la revolución científica, en el siglo XVI. Dado que el latín era el idioma de la academia y la “lingua franca” o idioma común de los estudiosos, era lógico que se eligiera este idioma para nombrar a los organismos, con el añadido de raíces griegas, describiendo las características más sobresalientes de los distintos organismos.

Sin embargo, en los siguientes 200 años los nombres descriptivos de muchas palabras (polinomiales) llegaron a ser complicadísimos, largos y tremendamente precisos, lo que complicaba la comunicación que se suponía que debían facilitar. Cuando para decir “tomate” en nomenclatura científica había que decir Solanum caule inermi herbaceo, foliis pinnatis incisis, el asunto empezaba a ser un problema que urgía solucionar.

La solución la dio Carl Linnaeus, médico y botánico sueco que se dedicó a describir y organizar a todos los seres vivos que conocía. Además de crear un sistema de clasificación de las plantas según el número de sus órganos sexuales (estambres y pistilos) que en su momento fue un escándalo para la moral de la época, en 1753 publicó un libro sobre plantas donde propuso un sistema de nombres más sencillo, compuesto sólo por el genus (o género) de la planta y su especie. Aunque su idea era que estos nombres sirvieran de atajo mnemotécnico para recordar los polinomiales, el sistema de dos palabras pronto se convirtió en la forma aceptada de denominar a los seres vivos, desde una humilde bacteria como Eschirichia coli hasta la gran ballena azul o Balaenoptera musculus.

Pero el “nombre científico” es, en general, asunto de científicos, salvo en un caso peculiar, el de los animales que dominaron el mundo en los períodos cretácico y jurásico, dinosaurios y otros reptiles y anfibios. Incluso los nombres comunes o populares que hemos dado a los más conocidos de estos animales proceden de su nombre científico, como el tiranosaurio Tyrannosaurus rex o los velociraptores, que son animales del genus Velociraptor con especies como la mongolensis o la osmolskae.

¿De dónde salen los nombres?

Los nombres de los reptiles del pasado, como los de todas las especies, están formados por dos palabras, su genus y su especie. Pero el nombre es, al menos en parte, resultado del trabajo de clasificación taxonómica, el intento de los estudiosos por agrupar a los seres vivos según su cercanía filogenética. Así, cada especie se clasifica según el dominio, reino, filo, clase, orden, familia, género y especie y, en algunos casos, subespecie. Pero la clasificación taxonómica no es algo rígido. Continuamente, los nuevos descubrimientos van haciendo que se reconsideren las relaciones entre especies conocidas, y los debates son incesantes.

La forma de nombrar a los seres vivos es resultado de un consenso científico que se estableció desde 1889 y se ha actualizado hasta el año 2000. Los nombres pueden provenir de otros idiomas, destacando alguna característica física del animal, el lugar donde se encontró, los nombres de los descubridores (o incluso de algún mecenas al que se desee halagar) pero siempre se latinizan o se utilizan raíces griegas o latinas para formarlos. Velociraptor, por ejemplo, significa “ladrón veloz”, mientras que triceratops significa “con tres cuernos”.

Un caso bien conocido de un nombre equivocado es el del oviraptor o “ladrón de huevos”, un dinosaurio que se encontró junto a un nido de huevos y los descubridores presupusieron que actuaba como depredador robándolos. El avance tecnológico, sin embargo, demostró que los huevos en cuestión eran... de oviraptor. En lugar de estar robando huevos, estaba cuidando de su puesta en su nido. Pero el nombre se quedó. Cría fama...

Algunas personas recordarán a los brontosaurios y se preguntarán por qué ya no se habla de estos gigantes herbívoros de largo cuello que suponemos vivían en zonas lacustres. Antes que el brontosaurio se había descubierto otros animales a los que se llamó apatosaurus o “reptiles engañosos” porque algunos de sus huesos se parecían a los de otra especie. Con el tiempo, los paleontólogos determinaron que el apatosaurio y el brontosaurio eran el mismo genus, y como una de sus reglas más inflexibles es que el primer nombre prevalece sobre los que se pudieran poner a descubrimientos posteriores (lo cual también explica que el oviraptor siga manteniendo su nombre de mala reputación), se retiró el nombre “brontosaurio”.

Quien tiene derecho a ponerle nombre a un dinosaurio es quien lo descubre o quien lo identifica como especie o genus independiente, en la mayoría de los casos. Esto puede producir resultados singulares, como el Laellynosaura, llamado así por la pequeña hija del matrimonio de paleontólogos que descubrió al animal en Australia. El genus Kakuru, por su parte, se identificó a partir de una tibia que, en el proceso de fosilización, se convirtió en ópalo, por lo que recibió su nombre de la palabra para “arcoiris” de los aborígenes australianos, precisamente “kakuru”.

En otras ocasiones, los científicos que tienen la última palabra, miembros de la Comisión Internacional de Nomenclatura Zoológica, que son parte de la Unión Internacional de Ciencias Biológicas permiten algunas curiosidades. En 2004, en Indianapolis, se invitó a un grupo de niños a darle nombre a un nuevo dinosaurio.

¿El resultado? Un dinosaurio llamado oficialmente Dracorex hogwartsia, el dragón rey de Hogwarts. Sí, la escuela de magia ficticia de Harry Potter.

La palabra dinosaurio

En 1842, el paleontólogo británico Richard Owen creó el nombre de “dinosaurio” para el grupo (el hablaba de una tribu o suborden) de reptiles fósiles de gran tamaño que eran claramente diferentes de los reptiles actuales. La palabra “dinosaurio” está formada por dos raíces griegas: deinós, que significa terrible, potente o enorme, y sauros, que significa “reptil”. Owen fue también quien realizó las primeras reconstrucciones, imprecisas y fantasiosas, de dinosaurios a partir de sus fósiles.

La magia y nuestro cerebro

“En lo referente a la comprensión del comportamiento y de la percepción, hay casos concretos en los que el conocimiento intuitivo del mago es superior al del neurocientífico”, Macknik y Martínez-Conde.

El mundialmente respetado mago
Juan Tamariz fue uno de los colaboradores
en los estudios de magia y neurociencia.
(Foto promocional, fair use)
Los magos son expertos en engañarnos. Entendiendo “magia” como el arte del ilusionismo en sus muchas variedades, no la magia real que hasta hoy nadie ha podido demostrar que existe.

Los magos nos engañan y entusiasman desde hace al menos 6 mil años, si, como parece, alguno de los relatos del papiro Westcar, que data de tiempos del faraón Keops o Khufu, quien ordenó la construcción de la Gran Pirámide de Giza, se refiere a ilusiones y no a magos o brujos verdaderos.

Hay magos que admiten abiertamente que hacen trucos, y ante los cuales reaccionamos como si nos desafiaran a descubrir el truco. Un buen mago nos asombra haciendo lo que ellos llaman “efectos” y que nosotros sabemos que no puede ser en la realidad, que es un truco, pero somos incapaces de desentrañar “dónde está el truco”. Otros utilizan los trucos o efectos de la magia de escenario para hacer creer a los demás que tienen poderes sobrenaturales o para engatusarlos con fraudes como los triles, que se remontan, también, al antiguo Egipto.

Pero en todo caso, lo que hacen los magos es jugar con nuestro cerebro, manipular nuestra atención, nuestros sentidos, nuestra forma de pensar habitualmente y así hacer aparecer o desaparecer objetos donde no era posible que aparecieran o desaparecieran. Como dice Teller, el miembro silencioso de la pareja de magos Penn & Teller, “Cada vez que se hace un truco de magia, está uno dedicándose a la psicología experimental. Si el público se pregunta ‘¿Cómo rayos lo hizo?’, el experimento fue exitoso. He explotado las eficiencias de su mente”.

No revelamos ningún truco (el pacto de la discreción sobre cómo se hacen los efectos es parte fundamental de la comunidad del ilusionismo) al reccordar el asombro que nos provocaba de niños que alguien sencillamente ocultara una moneda en la mano y fingiera sacarla de nuestra oreja. Uno sabe que las monedas no salen de las orejas y no atina a explicarse lo ocurrido.

Sin embargo, el estudio de las ilusiones mágicas tuvo que esperar la llegada de una pareja de neurocientíficos del Instituto Neurológico Barrow de Phoenix, Arizona: Stephen Macknik, director del laboratorio de Neurofisiología del Comportamiento y Susana Martínez-Conde, coruñesa que dirige a su vez el laboratorio de Neurociencia Visual, dedicado a las ilusiones visuales. Su trabajo de varios años con los mejores magos del mundo ha dado como resultado una serie de artículos tanto científicos como divulgativos en las más prestigiosas revistas, desde Nature Neuroscience hasta Scientific American.

Los estudios que han realizado Macknik y Martínez-Conde han ido revelando cómo los magos emplean, de modo empírico, desarrollado al paso de los siglos, aspectos de nuestro sistema cognitivo de los que la ciencia ni siquiera estaba al tanto hasta hace un par de siglos. La capacidad limitada de nuestra vista para distinguir contrastes, la retención o persistencia de la visión (esa postimagen que percibimos más claramente cuando nos deslumbra el súbito flash de una cámara), los ángulos que hacen que percibamos mejor o peor la profundidad de un objeto o el fascinante fenómeno del relleno.

Nuestra experiencia visual es extremadamente rica, pese a que nuestros ojos tienen una “resolución” muy inferior a la de las cámaras digitales comunes con las que nos fotografiamos por diversión (aproximadamente un megapíxel según los investigadores). Nuestro cerebro, sin embargo, tiene un sistema de circuitos tal que nos permite “predecir” cómo son las cosas a partir de lo que ve, y “rellenar” los huecos de modo que tengamos una visión mucho más clara de la que nos ofrecen nuestros ojos.

Una de las más fascinantes confirmaciones del trabajo de estos investigadores con los magos es que nuestro cerebro no es capaz de hacer dos cosas a la vez. Por mucho que nos guste pensar que sí podemos hacerlo.

En palabras de Luigi Anzivino, que conjunta las dos profesiones de ilusionista y neurocientífico (y cocinero, insiste), cuando vemos un truco de magia estamos tratando de seguir el efecto y al mismo tiempo de desentrañar el método mediante el cual se consigue ese efecto, el “¿cómo lo hace?” esencial para la buena magia. Dice Anzivino: “Por cuanto se refiere a nuestro cerebro, no existe el multitasking”. Macknik y Martínez-Conde lo confirman con el fenómeno conocido como “ceguera por desatención”: cuando nos concentramos en una cosa, pueden pasar otras muchas, bastante singulares, sin que nos demos cuenta. Si estamos contando cuántos pases se dan unos jugadores de baloncesto en un vídeo, literalmente puede pasar entre ellos un hombre con un disfraz de gorila y no nos daremos cuenta.

No es broma, es un clásico experimento realizado en Harvard por Daniel J. Simons y Christopher F. Chabris. Cuando los magos hacen algo que quieren que veamos, atrapan nuestra atención y nos vuelven, literalmente, ciegos a otras cosas que están haciendo y que no quieren que veamos. Lo que se llama en el argot mágico “misdirection”: llevar la atención a una dirección opuesta a lo que está haciendo el mago.

Y no, la mano no es más rápida que la vista. Aunque la palabra “prestidigitación” signifique “velocidad al mover los dedos”, lo que realmente hacen los magos es jugar con nuestros sentidos y atención, con los mecanismos que hemos desarrollado para poder manejar la realidad a nuestra conveniencia. Porque el cerebro con el que nos explicamos el universo evolucionó para encontrar alimento, cazar y evitar ser cazados... y poco más.

El estudio neurocientífico de las ilusiones mágicas nos confirma que la representación del mundo que nos ofrecen nuestros sentidos y los mecanismos de nuestro cerebro para interpretarlos no sea exacta. El mundo no es lo que parece, y magos y timadoresse aprovechan de ello.

Pero queda el consuelo de que somos la única especie, hasta donde podemos decirlo, que sabe, con toda certeza, que su percepción no es del todo fiable. Y que es capaz de estudiar cómo y por qué. Con ayuda de un poco de magia.

Un secreto de Tamariz

Juan Tamariz fue uno de los muchos magos estudiados por Macknik y Martínez-Conde. En el libro que escribieron, “Los engaños de la mente”, revelan muchos trucos mágicos para explicar su relación con nuestro conocimiento sobre nuestros mecanismos neurológicos, pero uno en particular de Tamariz resulta más misterio que revelación: los movimientos, la ropa, la voz, los gritos, las risas y todo lo que parece hacer a Juan Tamariz excéntrico no son sólo efectos escénicos. Todos esos detalles, en apariencia superficiales, son esenciales para el éxito de las ilusiones del mago. Aunque no nos diga cómo lo hace.