Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Y Norman le dio de comer al mundo

Dar de comer a una población creciente es un desafío complejo. Abordarlo siempre ha sido urgente, pero nunca como ahora tuvimos las armas para realmente resolverlo gracias a un científico singular.

Norman Borlaug, el rostro del héroe. (Foto D.P.
 Ben Zinner, USAID, vía Wikimedia Commons)
Un popular libro de la década de los 60, La bomba poblacional de Paul Ehrlich, advertía del apocalipsis que le esperaba a la humanidad a la vuelta de la esquina. “La batalla para alimentar a la humanidad ha terminado. En las décadas de 1970 y 1980, cientos de millones de personas morirán de inanición sin importar los programas de emergencia que emprendamos ahora”, advertía, y el público se horrorizó.

La profecía no se hizo realidad en buena medida gracias al trabajo de un científico cuyo nombre no le dice nada a la gran mayoría de la gente.

Norman Borlaug nació el 25 de marzo de 1914 en un pequeño rancho de Iowa, en el Medio Oeste estadounidense, en una zona poblada por inmigrantes noruegos, como su abuelo, quien había construido el rancho. Se educó en una primaria rural antes de pasar a una secundaria donde destacó en la lucha grecorromana llegando a ser admitido en el Salón de la Fama de la Lucha en Iowa.

Su futuro no estaba en el deporte. Salió del bachillerato en los momentos más negros de la Gran Depresión y empezó a trabajar como peón agrícola para pagarse la matrícula en la Universidad de Minnesota, y cuyas cuotas pagó trabajando de camarero y aparcacoches. Seguiría su doctorado, que obtuvo en 1942 trabajando con el patólogo botánico, Elvin Charles Stakman.

Lo que parecía esperarle era el American Dream con un trabajo en una gran empresa química, la E.I. duPont de Nemours, donde empezó a trabajar como una obligación bélica en tiempos de la Segunda Guerra Mundial. Pero en 1944 se interpuso una invitación de la Fundación Rockefeller para que el joven científico agrícola se fuera a México a resolver un problema grave: las cosechas de trigo del vecino y aliado de los EE.UU. se habían visto reducidas a la mitad debido a la infección del hongo conocido como roya del tallo y el país se acercaba a una hambruna generalizada.

Borlaug quedó aterrorizado por la situación del campo mexicano, pero aceptó el reto y pasó los siguientes 20 años dedicado a un colosal esfuerzo, hibridizando distintas variedades de trigo que recogió por todo el mundo para seleccionarlas y reproducirlas, polinizando a mano, en un duro trabajo manual en el campo, hasta conseguir una variedad resistente a la roya del tallo (algo que hoy es mucho más sencillo con técnicas de ingeniería genética). Trabajando cultivos de verano e invierno en dos zonas del país, encontró además variedades no sensibles a la duración del día, algo esencial para poderlas plantar en distintas latitudes.

En cinco años logró una variedad de trigo resistente a la roya y más productiva. Luego se dedicó a cruzar plantas para obtener una variedad con semillas más grandes, obteniendo espigas mucho más productivas. Pero apareció otro problema: el peso de las semillas doblaba los largos tallos del trigo mexicano, desarrollados para sobresalir de entre la maleza. Los hibridizó con una variedad japonesa de tallo muy corto y en 1954 consiguió una variedad de trigo enano, de alto rendimiento, tallo corto y resistente a la roya.

En 1956, México consiguió ser autosuficiente en trigo, un cambio notable cuando 16 años antes importaba el 60% de este grano. Por esos años, una epidemia de roya del tallo destruyó el 75% de la cosecha de trigo durum en los Estados Unidos, lo que favoreció la adopción de las nuevas variedades desarrolladas por el visionario. Las técnicas de Borlaug permitieron a los científicos además mejorar muy pronto el rendimiento de dos cultivos esenciales para alimentar al mundo, el maíz y el trigo.

En la década de 1960, el innovador fue a la India, país que en 1943 había sufrido la peor hambruna conocida en la historia con más de cuatro millones de víctimas mortales. El genetista Mankombu Sambasivan Swaminathan, arquitecto de la Revolución Verde en la India, recuerda que al momento de la independencia de la India, en 1947, el rendimiento de trigo y arroz en los campos indios era de menos de una tonelada métrica por hectárea. Y aunque en los siguientes 20 años se incrementó el área de cultivo para alimentar a la desbordante población india, los rendimientos no aumentaban. Se importaban 10 millones de toneladas de trigo al año. De hecho, el libro de Ehrlich afirmaba que “la India no tiene ninguna posibilidad de alimentar a doscientos millones de personas más para 1980”.

La revolución verde consiguió que la cosecha de la India en 1965 fuera 98% mayor que la del año anterior... duplicando prácticamente el rendimiento del trabajo agrícola. Pakistán consiguió la independencia alimentaria en 1968. Al paso de los años, el trabajo de Borlaug ha conseguido resultados asombrosos. En 1960, el mundo producía 692 millones de toneladas de grano para 2.200 millones de personas. En 1992 estaba produciendo 1.900 millones de toneladas, casi el triple, para 5.600 millones de personas, y todo ello utilizando sólo un 1% más de tierra dedicada al cultivo.

Los logros del especialista agrícola llamaron la atención del Comité Nobel, que en 1970 acordó entregarle a Norman Borlaug el Premio Nobel de la Paz porque, dijeron, “más que ningún otro individuo de su edad, ha ayudado a proveer de pan a un mundo hambriento”.

La Revolución Verde fue el primer gran resultado de la biotecnología, de la aplicación de nuestros conocimientos biológicos para conseguir mejores plantas. Pero no sólo dependía de las nuevas variedades, sino de la capacidad de irrigación, mejores fertilizantes y mecanización, causas que, junto con la incertidumbre política, impidieron que África siguiera el camino de otros países (entre ellos China, hoy exportadora de alimentos). En palabras del propio científico: “A menos que haya paz y seguridad, no puede haber un incremento de producción”.

Norman Borlaug siguió trabajando por combatir el hambre y por promover el uso racional de la tecnología para mejorar el rendimiento de los cultivos lo que ha impedido la conversión en tierra de cultivo de grandes espacios de bosques y ecosistemas protegidos. Murió el 12 de septiembre de 2009, pero su trabajo contra el hambre continúa en la Norman Borlaug Heritage Foundation, para cuyos programas educativos la casa de Iowa donde nació el Premio Nobel se ha convertido en una residencia estudiantil.

Triunfos pasajeros

“Es verdad que la marea de la batalla contra el hambre ha cambiado a mejor en los últimos tres años. Pero las mareas tienen su forma de subir y bajar. Bien podemos estar en marea alta hoy, pero la marea baja podría instalarse pronto si nos volvemos complacientes y relajamos nuestros esfuerzos.” Discurso de aceptación del Premio Nobel de Norman Borlaug el 10 de diciembre de 1970.

La literatura que vino del conocimiento

El primer puente eficaz entre la ciencia y las humanidades se tendió con base en el asombro y expectativa que se genera alrededor de quien sea que nos diga “voy a contar una historia”.

El primer número de la revista fundada por
Hugo Gernsback, con portada del artista
Frank R. Paul y errata en el nombre de
Edgar Allan Poe.
(Imagen D.P. vía Wikimedia Commons)
Isaac Asimov argumentaba, con muy buenas razones, que la ciencia ficción, ese género literario singular de cruce de caminos entre la ciencia y el arte, no tenía un padre fundador como otros. Por ejemplo, el género policiaco tuvo como padre a Edgar Allan Poe en sus dos cuentos con el inspector Dupin, mientras que la moderna fantasía heroica fue producto de la obra de J.R.R. Tolkien. La ciencia ficción, única en la literatura (y en otras artes, posteriormente) tenía madre fundadora: Mary Shelley.

La joven concibió su novela Frankenstein o el moderno Prometeo por las conversaciones que tenían ella, su amante Percy Bysse Shelley, el amigo de ambos Lord Byron y el médico de éste, John Polidori, a las orillas del lago Ginebra en 1816. La joven Mary estaba interesada por los trabajos del italiano Galvani sobre la electricidad animal y, cuando se propuso que los cuatro escribieran un cuento de fantasmas, ella esbozó lo que sería la novela que publicó dos años después. Más allá de precursores como las narraciones fantásticas de Luciano de Samosata, Johannes Kepler o Cyrano de Bergerac, es fácil argumentar que la especulación científica de Shelley es el primer trabajo de la ciencia ficción como la conocemos hoy en día.

Pero si la ciencia ficción nació en 1816-18, tuvo que esperar más de un siglo para obtener su nombre y su identidad definitiva. Un siglo y que un soñador y empresario luxemburgués llamado Hugo Gernsback se entusiasmara con la idea de que se podía divulgar ciencia mediante la literatura. Experimentador con la electricidad y editor, Gernsback echó una mirada a la popularidad de los “romances científicos”, como se llamaba en Gran Bretaña a la obra de Jules Verne o H. G. Wells y decidió dedicarse a escribir y publicar eso que también se ocupó de bautizar. Su primera propuesta se traduciría como "cientificción" pero para 1929 adoptó el término que se generalizó y se ha mantenido pese a muchos intentos de rebautizarlo: "ciencia ficción".

Fue en 1926 cuando Gernsback, que ya publicaba revistas dedicadas a la radio y la electricidad donde ocasionalmente incluía cuentos con temática científica, fundó la revista Amazing Stories, la primera publicación dedicada exclusivamente a cuentos de ciencia ficción y que sería la plataforma de lanzamiento del género y de numerosos autores hoy considerados clásicos del género como Isaac Asimov, Ursula K. Le Guin, Howard Fast o Roger Zelazny.

Muchos autores no estaban de acuerdo con la idea de que la ciencia ficción tuviera la misión de divulgar ciencia. De hecho, saber algo de ciencia ya era requisito para el disfrute total de algunos de los relatos lque se estaban escribiendo en la primera mitad del siglo XX. Más que divulgarlos hechos y datos de la ciencia, para muchos era la forma de divulgar algo que consideraban mucho más importante: el método científico y el pensamiento crítico y cuestionador en el que se basa para llegar al conocimiento. Y para advertir de la necesidad de impedir que la política y el poder usaran mal el conocimiento científico.

La gran explosión de la ciencia ficción ocurrió después de la Segunda Guerra Mundial, entre el horror de la bomba atómica y la guerra fría, de un lado, y la promesa científica y tecnológica de los antibióticos, la carrera espacial y los plásticos, del otro.

Al mismo tiempo, los medios visuales se unieron entusiastas, si bien con poca suerte, al boom de la ciencia ficción. Una serie de películas, más bien de clase B, empezaron a salir de los estudios cinematográficos, algunas de ellas de cierto valor, como el clásico de la paranoia de la guerra fría The Body Snatchers o la muy moralina The Day the Earth Stood Still. La televisión, constreñida por limitaciones presupuestarias, abordó a la ciencia ficción menos entusiasta, con destellos en series clásicas como The Twilight Zone, dirigida y producida por Rod Serling.

La ciencia ficción visual llegó a su madurez en la década de 1960. En televisión, Star Trek, ideada por Gene Roddenberry, planteó de modo apasionante los dilemas morales de la ciencia y la cultura, la lógica y la emoción, y otro tanto hacía en el cine, en 1968, 2001: Una odisea del espacio, escrita por Arthur C. Clarke y dirigida por Stanley Kubrick.

El salto en efectos especiales que se dio a partir de esta película fue tal que, de hecho, para muchas personas de las nuevas generaciones la ciencia ficción sería considerada principalmente como un género cinematográfico y televisual, donde muchos de los grandes autores literarios como Frank Herbert (Dune) y Philip K. Dick (Total Recall, Blade Runner, Minority Report) se verían llevados al cine con mayor o menor fortuna.

La ciencia ficción ha pasado por distintas encarnaciones, a veces tan diferentes que resulta peculiar que los lectores y aficionados las identifiquen como facetas de una misma expresión artística. Desde la ciencia ficción “dura”, escrita muchas veces por científicos y basada en datos científicos minuciosamente precisos hasta la fantasía futurista de Ray Bradbury en Crónicas marcianas, desde los fulgurantes efectos especiales de Matrix hasta la serena reflexión de Solaris, desde los viajes dentro de nuestro cuerpo y mente hasta el diseño de imperios galácticos colosales, desde acción y batallas hasta la lucha contra los problemas mentales.

Esta forma de creación artística, sin embargo, quizás se identifica no por usar la ciencia, por enseñarla, por difundirla o por criticarla, sino porque sus preocupaciones son las mismas que las de la ciencia: cómo obtenemos el conocimiento, cómo cuestionamos a la realidad, cómo manejamos el conocimiento, cuáles son los obstáculos que le ponemos al saber, qué tanto tememos al pensamiento libre o cuáles son los cauces que debemos darle a esos conocimientos, entre otras cosas.

Muchos científicos de hoy en día encuentran las raíces de su interés por la ciencia en algún relato, alguna novela, algún autor, alguna película o serie de televisión. Pero es su atractivo para el público en general, ese público que muchas veces está por lo demás alejado de la ciencia, el que sigue convirtiendo a la ciencia ficción en el género de los grandes desafíos y las grandes dudas.

El primer beso

En noviembre de 1968, en lo que entonces era una audacia, sólo meses después del asesinato de Martin Luther King, se emitió un episodio de Star Trek donde el capitán Kirk, interpretado por William Shatner, besaba a la teniente Uhura, interpretada por Nichelle Nichols. Fue el primer beso interracial de la conservadora televisión estadounidense, algo que quizá sólo podía haber ocurrido entonces en el espacio aparentemente inocuo de la ciencia ficción.

Pesticidas: los heroicos villanos

Queremos alimentos baratos, en buen estado, que no estén infectados, enfermos o mordidos por insectos u otros animales. Algo que sería muy difícil sin los productos que controlan las plagas.

La familia de Bridget O'Donell durante la
gran hambruna irlandesa de 1845-52.
(Ilustración D.P. del Illustrated London
News, 22 de diciembre de 1849,
via Wikimedia Commons)
Lo único que separa al ser humano de la muerte por hambre es el éxito de la siguiente cosecha. Y el entorno está lleno de organismos que quieren aprovechar nuestro esfuerzo agrícola, plagas y enfermedades de aterradora diversidad, desde virus diminutos hasta aves o mamíferos de tamaño considerable como los topos o las ratas, que atacan nuestros campos, nuestra semilla y nuestros graneros.

La gran hambruna de las patatas en Irlanda, que mató a un millón de personas entre 1845 y 1852, fue causada principalmente por la llegada a Europa de una nueva plaga, el “tizón tardío”, que arrasó los campos de patatas que alimentaban al pueblo irlandés. La producción cayó de casi 15 mil toneladas en 1844 a sólo 2 mil toneladas en 1847.

Los procedimientos pesticidas para intentar evitar estos desastres no son nada nuevo en la historia. Hace 6.500 años en la antigua Sumeria, encontramos el primer uso registrado de plaguicidas químicos: distintos compuestos de azufre empleados para combatir a los insectos y a los ácaros. Desde entonces, el ser humano ha usado los más distintos productos para proteger la fuente principal de su alimentación, desde el humo (de preferencia muy hediondo) producto de la quema de distintos materiales hasta derivados de las propias plantas, como los obtenidos de los altramuces amargos o sustancias inorgánicas como el cobre, el arsénico, el mercurio y muchos otros.

Otros seres vivos también han sido usados como pesticidas. Si el ejemplo más obvio es el gato que protege casas, graneros y cultivos contra ratas y ratones, también los ha habido más elaborados. Mil años antes de nuestra era, en China se utilizaban feroces hormigas depredadoras para proteger los huertos de cítricos contra orugas y escarabajos. Se cuenta cómo los agricultores ponían incluso cuerdas y varas de bambú para facilitar el movimiento de las hormigas entre las ramas de distintas plantas.

En el siglo I antes de nuestra era, Marco Terencio Varro, un sabio romano, recomendaba el uso del alpechín, ese líquido oscuro y amargo con base de agua que se obtiene de las aceitunas antes del aceite, contra las hormigas, los topos y las malas hierbas, lo que sería el primer pesticida “de amplio espectro” de la historia.

Junto a estos materiales, los seres humanos utilizaron también durante la mayor parte de nuestra historia prácticas mágicas, religiosas y supersticiosas destinadas a proteger los cultivos, desafortunadamente sin buenos resultados.

En la década de 1940, después del fin de la Segunda Guerra Mundial, empezó a desarrollarse un tipo totalmente nuevo de pesticidas basados en la química orgánica (recordemos que la química orgánica es aquélla relacionada con los compuestos de carbono, y aunque el carbono es la base de la vida, esto no significa que todas las sustancias “orgánicas” desde el punto de vista químico tengan relación con la vida).

Los pesticidas parecían una solución perfecta que conseguían los resultados deseados por los agricultores sin provocar daños a otros seres vivos, ni al ser humano. Pronto, sin embargo, los estudios científicos demostraron que, según era también previsible, nada es perfecto. Algunos pesticidas se acumulaban en el ambiente, algunos otros resultaban muy tóxicos para organismos que no eran su objetivo, algunos podían acumularse en el medio ambiente o en los seres vivos, otros estaban siendo usados en exceso por distintos consumidores y, finalmente, otros iban poco a poco funcionando como un elemento de presión selectiva favoreciendo la aparición de cepas de distintos organismos resistentes al pesticida, del mismo modo en que los antibióticos que usamos como medicinas han favorecido la aparición de infecciones humanas resistentes a ellos.

El público reaccionó con lógica preocupación que en algunos casos se convirtió en miedo irracional y se extendió, injustificadamente, a todos los pesticidas y sustancias que ayudan a la agricultura, y a un desconocimiento de los desarrollos de las últimas décadas. En la conciencia general quedó identificada la idea de “pesticida” con los productos anteriores. Incluso, entre algunos grupos se considera poco elegante señalar que, pese a los innegables problemas, nadie nunca ha enfermado gravemente ni ha muerto por consumir productos agrícolas protegidos por pesticidas.

A fines de la década de 1960 se introdujo el concepto de la gestión integrada de plagas, una estrategia que implica utilizar una combinación de elementos para proteger los cultivos. En parte ha implicado volver a utilizar formas de control de plagas que habían sido abandonadas ante la eficacia de los pesticidas, y asumir una aproximación equilibrada usando juiciosamente todas las opciones a nuestro alcance: pesticidas químicos, otras especies, medios mecánicos, etc.

Hoy, existen cada vez mejores legislaciones para los distintos productos (no las había en los 40-50) y se investiga creando mejores pesticidas, efectivos , específicos (que ataquen sólo a las plagas y no a otras especies) y que después de actuar se descompongan en residuos no tóxicos y reintegrándose al medio ambiente. Junto a ellos, ha aparecido la opción de integrar mediante ingeniería genética capacidades pesticidas a los propios cultivos o hacerlos resistentes a las plagas. Así, por ejemplo, hoy se tienen cultivos que producen ellos mismos las toxinas del Bacillus thuringiensis, una bacteria frecuentemente usada como insecticida viviente.

Aún con los avances, cada año se pierde un 30% de todos los cultivos en todo el mundo. Una tercera parte. Sin pesticidas, los expertos aseguran que las pérdidas se multiplicarían y por ello, en este momento y bajo las condiciones económicas y sociales reales de nuestro planeta, no es posible alimentar a la población humana actual, 7 mil millones de personas, sin la utilización de pesticidas. Lo importante es seguir fomentando el desarrollo de mejores sustancias, emplearlas de modo inteligente y no indiscriminado, respetando todas las precauciones y aplicando sistemas alternativos siempre que sea posible y viable.

Nada de lo cual impedirá que los pesticidas sigan siendo, a la vez, héroes y villanos de la alimentación humana.

Mejor ciencia, no menos ciencia

Norman Borlaug, el creador de la “revolución verde” con la que se calcula que ha salvado más de mil millones de vidas decía en 2003: “Producir alimentos para 6.200 millones de personas, a las que se añade una población de 80 millones más al año, no es sencillo. Es mejor que desarrollemos una ciencia y tecnología en constante mejora, incluida la nueva biotecnología, para producir el alimento que necesita el mundo hoy en día”.

Rehacer el cuerpo

La posibilidad de reconstruir partes del cuerpo, órganos o miembros, manipulando nuestras propias células y procesos, es la gran promesa de la biología y la medicina regenerativas.

Tráquea artificial hecha con las propias células madre
del paciente. (Foto University College London, Fair use)
En 1981, un paciente del Hospital General de massachusetts, en Boston, había sufrido quemaduras graves. Los médicos decidieron probar una aproximación diferente a los trasplantes e injertos de piel tradicionalmente empleados en estos casos. Tomaron una pequeña muestra de piel sana de la víctima, la sometieron a un proceso llamado de “cultivo de tejidos”, donde las células son alimentadas y estimuladas para que se reproduzcan. el tejido resultante se colocó en una matriz y se aplicó en las zonas donde las quemaduras habían destruido la piel. Por primera ocasión, las propias células de un paciente se habían utilizado exitosamente como terapia.

Para llegar a ese momento, fue necesario que la ciencia respondiera a una enorme pregunta: ¿De qué estamos hechos? Durante la mayor parte de nuestra historia, la conformación de nuestro propio cuerpo fue uno de los grandes misterios. ¿Cómo se reunían las sustancias del para crear algo tan cualitativa y cuantitativamente peculiar como el tejido de un ojo, un pulmón, un músculo o un corazón? Y, más impresionante, cómo lo que comíamos nos hacía crecer y cómo, a veces, el cuerpo tenía la capacidad de regenerarse: se cortaba y al paso de un tiempo la herida cerraba, aparecía nuevo material que la sanaba y dejaba, en todo caso, una cicatriz.

Más aún, las capacidades regenerativas del ser humano, pese a lo asombrosas que pueden resultar, son limitadas. No puede regenerar un miembro, un ojo o una oreja, pese a que hay miembros del mundo animal que sí están en capacidad de hazañas asombrosas. Las salamandras, como las llamadas axolotl o ajolotes, pueden hacer crecer un miembro completo que se les haya amputado, y un gusano plano como la planaria puede ser cortada en varios trozos y cada uno de ellos producirá un individuo nuevo completo.

La idea de que el cuerpo humano podría regenerarse como las salamandras o los gusanos ha estado presente, así, como uno de los grandes sueños de la medicina, aunque la mitología se las arregló para presentar la regeneración también como una desgracia. En el mito de Prometeo, cuyo castigo por darle el fuego a los hombres fue ser encadenado a una roca donde un águila le comía todas las noches el hígado, que se regeneraba durante el día. Probablemente los griegos ya sabían que el hígado es el órgano con mayores capacidades regenerativas del cuerpo humano.

La posibilidad de usar la regeneración como forma de tratamiento hubo de esperar a que el ser humano conociera cómo esta formado el cuerpo, sus tejidos y órganos, las células que los conforman, la reproducción, la genética y el desarrollo embriológico. A partir de allí ya era legítimo imaginar terapias en las cuales un brazo destrozado, un ojo, un páncreas o cualquier otra parte del cuerpo pudieran ser reemplazados por otros creados con las células del propio paciente, ya fuera cultivándolas en el laboratorio para trasplantarlas después o provocando que el propio cuerpo las desarrollara.

En el mismo año de 1981 en que se realizaba el autotrasplante de células cultivadas en Boston, en las universidades de Cambridge y de California se conseguía aislar ciertas células de embriones de ratones, las llamadas células madre o pluripotentes, es decir, células que se pueden convertir en células de cualquiera de los muchos tejidos diferenciados del cuerpo humano. Todas nuestras células, después de todo, proceden de una sola célula, un óvulo fecundado por un espermatozoide, y en nuestro desarrollo embrionario se van especializando para cumplir distintas funciones, desde las neuronas que transmiten impulsos nerviosos hasta los eritrocitos que transportan oxígeno a las células de todo el cuerpo, las fibras musculares capaces de contraerse o las células de distintas glándulas que secretan las más diversas sustancias en nuestro cuerpo.

Pero aún con las células ya especializadas de los tejidos de los pacientes, se pueden realizar hazañas considerables. En 2006, científicos de la Wake Forest University de Carolina del Norte por primera vez utilizaron células de la vejiga urinaria de un paciente para cultivarlas y hacerlas crecer sobre un molde o “andamio” en un proceso llamado “ingeniería de tejidos”. El resultado fue una vejiga que se implantó quirúrgicamente sobre la del propio paciente, sin ningún riesgo de rechazo al trasplante debido a que son sus propias células. Desde entonces, la técnica se ha estandarizado para resolver problemas de vejiga en numerosos pacientes.

Otro sistema de ingeniería de tejidos lo empleó el dr. Paolo Maccharini en 2008 en el Hospital Clinic de Barcelona para tomar una tráquea donada, eliminar de ella todas las células vivas del donante dejando sólo el armazón de cartílago y repoblando éste con células de la paciente a la que se le iba a trasplantar, evitando así el rechazo del trasplante y eliminando la necesidad de utilizar inmunosupresores como parte de la terapia.

El primer órgano desarrollado a partir de células madre que se implantó con éxito fue también una tráquea, y el trabajo lo hizo el mismo médico, esta vez en el Instituto Karolinska de Suecia, donde a fines de 2011 se hizo un molde de la tráquea del paciente sobre el cual crecieron células pluripotentes tomadas de su propia médula ósea.

Curiosamente, la idea de conservar el cordón umbilical de los recién nacidos está relacionado con la idea de la medicina regenerativa, ya que en dicho cordón se encuentra una reserva de células madre pluripotentes que, en un futuro, podrían facilitar la atención de esos niños para la sustitución de órganos y tejidos.

A través de las terapias celulares y de la ingeniería de tejidos, la medicina regenerativa algún día, no muy lejano, podrían producir tejido sano para sustituir a los tejidos dañados responsables de una gran variedad de afecciones, desde la artritis, el Parkinson, el Alzheimer, la diabetes tipo I y las enfermedades coronarias, además de hacer innecesaria la donación de órganos. Sería la medicina que nos podría hacer totalmente autosuficientes, capaces de repararnos y convertir en parte del pasado gran parte del sufrimiento humano, que no es una promesa menor.

El potencial de multiplicación

El Dr. Anthony Atala, creador del primer órgano desarrollado en laboratorio (una vejiga), explica: “Podemos tomar un trozo muy pequeño de tejido, como de la mitad de un sello postal, y en 60 días tener suficientes células para cubrir un campo de fútbol”. Sin embargo, recuerda, esto aún no es aplicable a todos los tipos de células, algunos de los cuales no pueden hacerse crecer fuera del cuerpo de los pacientes.

Robert Boyle, el químico escéptico

El hidrógeno puede ser el elemento más abundante del universo, pero fue un desconocido para la especie humana hasta que apareció la vocación de experimentación de uno de los creadores de la ciencia moderna.

Sir Robert Boyle
(Retrato D.P. vía Wikimedia Commons)
Hubo una época en que la química no existía. De hecho, desde el inicio de la historia humana hasta el siglo XVII de nuestra era los materiales de los que estaba hecho el universo eran un misterio absoluto. Nadie sabía cómo se desarrollaban sus transformaciones, sólo veían que ocurrían y buscaban alguna explicación más o menos plausible y de reproducirlas utilizando métodos que hoy nos parecen torpes, fantasiosos, irracionales e ignorantes... pero que eran los únicos que estaban entonces al alcance de nuestra especie.

Se llegaba al conocimiento lentamente mediante ensayo y error, a veces por accidente. Se hallaba una sustancia nueva, una tecnología inesperada para endurecer el acero o beneficiar un mineral, un resultado asombroso al mezclar sustancias. Pero el trasfondo de todos esos hechos era incomprensible.

Durante toda la Edad Media, los alquimistas buscaron controlar la naturaleza con una mezcla de ideas incorrectas como la teoría de los cuatro elementos, creencias como la de la transmutación de los metales, una visión mística y un interés que oscilaba entre la pasión por el conocimiento y la ambición pura y dura.

En ese mundo de ignorancia anhelante y de ambición sin rumbo claro nació en Irlanda, en 1627, Robert Boyle, el decimocuarto de los 15 hijos que tuvo el Conde de Cork, un opulento aristócrata inglés que había hecho su fortuna en Irlanda. De hecho era el hombre más rico de la Gran Bretaña. Y como tal, se esforzó por dar a sus hijos la mejor educación posible. Robert vivió primero en el campo, educándose lejos de la familia, pasó un tiempo en el prestigioso Colegio de Eton y se instruyó en casa y en viajes por Europa.

El 8 de enero de 1642, mientras el joven Boyle pasaba una temporada en Florencia, el genial Galileo Galilei murió en su villa de Arcetri, en las afueras de la ciudad, donde estaba bajo arresto domiciliario de la Inquisición. El acontecimiento afectó profundamente al aún estudiante, quien se dedicó a estudiar los trabajos de Galileo concluyendo que era el momento de estudiar al mundo de una nueva forma, utilizando las matemáticas y la mecánica.

A su regreso a Inglaterra, Boyle se convertiría en parte del “colegio invisible”, un grupo de filósofos naturales, que era como se llamaba a quienes hoy consideramos científicos, palabra que ni siquiera existió como tal hasta 1634. Este grupo sería la semilla de la Royal Society.

Uno de los integrantes de ese “colegio invisible”, Henry Oldenburg, que sería el primer secretario de la Royal Society, describió así a Boyle en una carta dirigida al filósofo Baruch Spinoza: “Nuestro Boyle es uno de ésos que desconfían lo suficiente de su razonamiento como para desear que los fenómenos estén de acuerdo con él”.

Resumía así el salto que iba de los argumentos y razonamientos que habían formado el sistema escolástico desde Aristóteles al método experimental, de observación, crítico y científico defendido por Sir Francis Bacon y que dio cuerpo a la revolución científica. Lo que se conocía por entonces simplemente como la “Nueva filosofía”.

Porque lo que hacía Robert Boyle en el laboratorio que se construyó en 1649 aprovechando la vasta herencia familiar y la libertad que le daba, era observar los hechos de la naturaleza y hacer experimentos. Muchos experimentos. Y después analizar sistemáticamente sus resultados, que empezó a publicar en 1659. En 1660 dio a conocer sus estudios sobre las propiedades del aire, que exploró utilizando una bomba de vacío, y dos años después publicó la que hoy conocemos como “Ley de Boyle”, que expresa sencillamente que, a temperatura constante, el volumen de un gas es inversamente proporcional a la presión a la que se encuentra. A más presión, menos volumen... algo que hoy nos parece evidente, pero sólo porque lo descubrió Boyle.

Pero fue en 1661 cuando Boyle hizo su más profunda y decisiva aportación a la ciencia con la publicación de su libro The Sceptical Chymist: or Chymico-Physical Doubts and Paradoxes (El químico escéptico: o dudas y paradojas químico-físicas), donde por primera vez le daba el nombre de “química” al estudio de la composición, propiedades y comportamiento de la materia. En el libro, hacía una defensa de la “nueva filosofía” ampliando las ideas de Bacon sobre la experimentación y desarrollando el método experimental en gran medida como hoy lo conocemos y utilizamos, con numerosos ejemplos provenientes de sus numerosos experimentos, como los que le permitieron descubrir, entre otras sustancias, el hidrógeno.

Adicionalmente, proponía la “teoría corpuscular”, según la cual partículas de distintos tamaños formaban las sustancias químicas, un antecedente de la teoría posteriormente demostrada de que la materia está compuesta por partículas. Además, introdujo el concepto moderno de “elemento químico” y de “reacción química”, diferenciando las mezclas de los compuestos.

Éste fue un descubrimiento verdaderamente revolucionario. Con él, Boyle se convertía en el primer ser humano que veía con claridad los procesos de la materia. En una mezcla, como una solución de agua con sal común, las dos sustancias conservan sus propiedades, mientras que en un compuesto, las propiedades de los componentes cambian radicalmente. Por ejemplo, el cloro, que es un gas venenoso, y el sodio, que es un metal altamente reactivo, incluso explosivo, pueden unirse en una reacción química formando un compuesto que no tiene ni las propiedades del cloro ni las del sodio, sino otras que le son totalmente peculiares, el cloruro de sodio o sal común, precisamente.

Boyle nunca dejó de ser alquimista en la búsqueda de aspectos espirituales de la materia, pero tampoco permitió jamás que sus creencias alquímicas y religiosas, como ferviente protestante, interfirieran con lo que su razón le iba mostrando en el estudio de la realidad a su alrededor, en temas como la mecánica, la química, la hidrodinámica o aspectos más prácticos, como las mejoras en la agricultura o la posibilidad de desalinizar el agua de mar, siempre acudiendo a experimentos controlados para alcanzar sus conclusiones.

Soltero y sin dejar descendencia, el que bien podría ser llamado uno de los últimos alquimistas y el primer químico de la historia, murió en Londres el 30 de diciembre de 1691.

Conocimiento e ignorancia

“El estudio de la naturaleza, con el objetivo de promover la piedad mediante nuestros logors, es útil no sólo por otros motivos, sino para incrementar nuestro conocimiento, incluso de las cosas naturales, sino de modo inmediato y en la actualidad, sí al paso del tiempo y al transcurrir de los acontecimientos.” Robert Boyle.

Mercurio, el planeta infernal

El más rápido, el más pequeño, el de las temperaturas más extremas, el menos conocido, Mercurio está de nuevo bajo la vigilancia de una sonda robot que busca comprender a este planeta.

Mercurio fotografiado por la sonda Messenger
(Foto D.P. de NASA/Johns Hopkins University
Applied Physics Laboratory/Carnegie Institution
of Washington, vía Wikimedia Commons)
En 2006, cuando la Unión Astronómica Internacional determinó que Plutón no reunía todos los requisitos para ser considerado un planeta y pasó a ser clasificado como “planeta enano”, Mercurio se convirtió en el planeta más pequeño de todo el sistema solar. Es más pequeño que Ganímedes, la luna de Júpiter descubierta por Galileo en 1610 y que Titán, la luna de Saturno descubierta 34 años después por el astrónomo holandés Christiaan Huygens, además de ser el planeta más cercano al sol de todo el sistema solar, y el que tiene la órbita más excéntrica, es decir, la que forma la elipse más alargada.

Debido a la cercanía de su órbita respecto del sol, Mercurio queda oculto por el brillo de nuestra estrella y no resulta fácil de ver, especialmente sin aparatos ópticos. Como sólo se le puede ver a la media luz del amanecer y del atardecer, los primeros astrónomos griegos pensaron que se trataba de dos planetas distintos. No fue sino hasta el siglo IV antes de nuestra era que se determinó que se trataba de un mismo objeto, un planeta al que llamaron Hermes. Incluso Galileo Galilei, pionero de la astronomía, halló difícil la observación de Mercurio con su telescopio.

Pero esa misma cercanía, dada la enorme influencia que sobre el planeta tiene el campo gravitacional del Sol, permitió hacer una de las observaciones que confirmaron la teoría de la relatividad de Einstein. El punto más cercano al Sol de la órbita de Mercurio se trasladaba ligeramente alrededor del sol sin que hubiera explicación hasta que los cálcuos de la relatividad general de Einstein pudieron describir estos movimientos en función de la gravedad del Sol.

Durante mucho tiempo se creyó que Mercurio, que da una vuelta al sol cada 88 días, lo que lo convierte en el planeta con la más rápida rotación del sistema, tenía un acoplamiento de mareas con el Sol, es decir, que siempre daba la misma cara al sol, manteniendo un hemisferio siempre en la oscuridad. O, visto desde otro punto de vista, que su día y su año tenían la misma duración.

No fue sino hasta la década de 1960, 350 años después de las observaciones de Galileo, que se consiguieron datos precisos sobre Mercurio gracias a la radioastronomía, capaz de obtener información que no era accesible utilizando telescopios ópticos. Fue entonces que se descubrió que Mercurio tarda en girar una vez sobre su propio eje, era de poco menos de 59 días terrestres.

La rápida órbita del planeta y su lenta rotación (sólo Venus tiene una rotación más lenta, de 243 días terrestres) hacen que su día (es decir, el intervalo entre un amanecer y el siguiente), sea de 176 días terrestres. Y se trata de días con temperaturas extremas, las más extremas de nuestro sistema solar. En los momentos más cálidos, pueden subir hasta los 465 ºC, calor con el cual se pueden fundir algunas aleaciones de aluminio, y se pueden desplomar hasta los -184 ºC, un grado por debajo de la temperatura a la que el oxígeno se convierte en líquido.

Además, el pequeño tamaño de Mercurio oculta una enorme masa. Pese a ser apenas algo más grande que la Luna, su fuerza de gravedad es de casi el 40% que la nuestra, comparada con menos del 17% de la de la Luna. Así, algo que pesara 100 kilos en la Tierra pesaría 16,6 kilos en la Luna y unos 38 en Mercurio, que es así el segundo planeta más denso del sistema solar, después del nuestro.

Otra singularidad de Mercurio es que, debido a su cercanía al Sol, su extremadamente tenue atmósfera es constantemente barrida por el viento solar, el flujo de partículas cargadas responsable entre otras cosas de las auroras en la Tierra, de modo que dicha atmósfera se está renovando continuamente.

El estudio de Mercurio dio un enorme salto en 1974, cuando llegó hasta sus inmediaciones la sonda Mariner 10 de la NASA, lanzada en noviembre de 1973. Pasando a tan sólo 327 kilómetros de altitud sobre la superficie de Mercurio, la sonda logró fotografiar aproximadamente el 45% de la superficie del planeta. Su aspecto, muy distinto del que habían soñado algunos autores de ciencia ficción que incluso habían imaginado la posibilidad de que albergara vida, era el de un mundo con una atmósfera tan tenue que no podía proteger la superficie del choque de pequeños objetos, dando como resultado una superficie muy similar a la de nuestra luna, con numerosos cráteres de impacto. El Mariner también descubrió alguna evidencia de actividad volcánica.

En agosto de 2004, la NASA lanzó una nueva sonda con destino a Mercurio, la “Messenger” o “mensajero”. La Messenger pasó por primera vez en las inmediaciones de Mercurio en 2008, para después hacer otras dos aproximaciones, visitando a Venus en el proceso, para finalmente instalarse en órbita alrededor de Mercurio en marzo de 2011. Desde entonces, la Messenger ha podido confirmar varias especulaciones sobre Mercurio. Ha podido constatar la existencia de una intensa actividad volcánica en el pasado y ha encontrado más datos que indican la presencia de hielo de agua en los polos del planeta.

La Messenger además ha podido determinar gracias a los datos reunidos por sus instrumentos que, contrariamente a lo que creían los astrónomos, el núcleo de hierro de Mercurio no se ha enfriado, sino que se mantiene fundido y en rotación. Este núcleo, ocupa alrededor del 85% del volumen de Mercurio, gigantesco comparado con el de nuestro planeta, que es del 30% de su volumen, y es el responsable de genera un débil campo magnético, de una centésima parte del de la Tierra. Ni Venus ni Marte, los otros dos planetas rocosos, cuentan con campo magnético, por lo que el estudio de Mercurio puede ayudar a entender el porqué de estas diferencias.

Conocido como uno de los planetas “clásicos” de la antigüedad, Mercurio sigue siendo, sin embargo, el planeta menos explorado y menos conocido de nuestro sistema solar, incluso pese a su relativa cercanía, algo curioso si lo comparamos con lo mucho que hemos aprendido de planetas más lejanos como Júpiter... y mucho muy distintos de nuestro mundo, este mundo de roca y metales que aún tiene mucho que aprender de Mercurio, su infernal hermano pequeño.

Bahía Mercurio

En la península de Coromandel, en Nueva Zelanda, está la Bahía de Mercurio, en cuyas playas, el 9 de noviembre de 1769, el famoso explorador británico James Cook y su astrónomo Charles Green hicieron la observación del tránsito de Mercurio por el sol. Junto con el tránsito de Venus que había coincidido ese año, en junio, este tránsito observado por varias expediciones británicas por encargo de la Real Sociedad Astronómica, permitió obtener los datos más precisos hasta entonces sobre las distancias en nuestro sistema solar.

Los nombres de los dinosaurios

Los dinosaurios tienen curiosos nombres de aspecto latino y griego. De hecho, todas las especies tienen nombres así, aunque las conozcamos con denominaciones más de andar por casa .

Reconstrucción de un oviraptor en el
Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
Solemos referirnos a la mayoría de los seres vivos a nuestro alrededor con los nombres que nuestra cultura les ha dado. No solemos pensar, salvo excepcionalmente, en que el jamón proviene de un animal llamado Sus scrofa domestica, que nuestros chuletones son de Bos primigenius, los huevos los pone la hembra del Gallus gallus domesticus y la hortaliza anaranjada que supuestamente fascina a los conejos se llama Daucus carota.

Éstos son los nombres que los biólogos dan, claro, al cerdo, la vaca, el pollo y la zanahoria.

La costumbre de dar a los seres vivos nombres que pudieran entender todos los científicos en cualquier lugar del mundo comenzó con la revolución científica, en el siglo XVI. Dado que el latín era el idioma de la academia y la “lingua franca” o idioma común de los estudiosos, era lógico que se eligiera este idioma para nombrar a los organismos, con el añadido de raíces griegas, describiendo las características más sobresalientes de los distintos organismos.

Sin embargo, en los siguientes 200 años los nombres descriptivos de muchas palabras (polinomiales) llegaron a ser complicadísimos, largos y tremendamente precisos, lo que complicaba la comunicación que se suponía que debían facilitar. Cuando para decir “tomate” en nomenclatura científica había que decir Solanum caule inermi herbaceo, foliis pinnatis incisis, el asunto empezaba a ser un problema que urgía solucionar.

La solución la dio Carl Linnaeus, médico y botánico sueco que se dedicó a describir y organizar a todos los seres vivos que conocía. Además de crear un sistema de clasificación de las plantas según el número de sus órganos sexuales (estambres y pistilos) que en su momento fue un escándalo para la moral de la época, en 1753 publicó un libro sobre plantas donde propuso un sistema de nombres más sencillo, compuesto sólo por el genus (o género) de la planta y su especie. Aunque su idea era que estos nombres sirvieran de atajo mnemotécnico para recordar los polinomiales, el sistema de dos palabras pronto se convirtió en la forma aceptada de denominar a los seres vivos, desde una humilde bacteria como Eschirichia coli hasta la gran ballena azul o Balaenoptera musculus.

Pero el “nombre científico” es, en general, asunto de científicos, salvo en un caso peculiar, el de los animales que dominaron el mundo en los períodos cretácico y jurásico, dinosaurios y otros reptiles y anfibios. Incluso los nombres comunes o populares que hemos dado a los más conocidos de estos animales proceden de su nombre científico, como el tiranosaurio Tyrannosaurus rex o los velociraptores, que son animales del genus Velociraptor con especies como la mongolensis o la osmolskae.

¿De dónde salen los nombres?

Los nombres de los reptiles del pasado, como los de todas las especies, están formados por dos palabras, su genus y su especie. Pero el nombre es, al menos en parte, resultado del trabajo de clasificación taxonómica, el intento de los estudiosos por agrupar a los seres vivos según su cercanía filogenética. Así, cada especie se clasifica según el dominio, reino, filo, clase, orden, familia, género y especie y, en algunos casos, subespecie. Pero la clasificación taxonómica no es algo rígido. Continuamente, los nuevos descubrimientos van haciendo que se reconsideren las relaciones entre especies conocidas, y los debates son incesantes.

La forma de nombrar a los seres vivos es resultado de un consenso científico que se estableció desde 1889 y se ha actualizado hasta el año 2000. Los nombres pueden provenir de otros idiomas, destacando alguna característica física del animal, el lugar donde se encontró, los nombres de los descubridores (o incluso de algún mecenas al que se desee halagar) pero siempre se latinizan o se utilizan raíces griegas o latinas para formarlos. Velociraptor, por ejemplo, significa “ladrón veloz”, mientras que triceratops significa “con tres cuernos”.

Un caso bien conocido de un nombre equivocado es el del oviraptor o “ladrón de huevos”, un dinosaurio que se encontró junto a un nido de huevos y los descubridores presupusieron que actuaba como depredador robándolos. El avance tecnológico, sin embargo, demostró que los huevos en cuestión eran... de oviraptor. En lugar de estar robando huevos, estaba cuidando de su puesta en su nido. Pero el nombre se quedó. Cría fama...

Algunas personas recordarán a los brontosaurios y se preguntarán por qué ya no se habla de estos gigantes herbívoros de largo cuello que suponemos vivían en zonas lacustres. Antes que el brontosaurio se había descubierto otros animales a los que se llamó apatosaurus o “reptiles engañosos” porque algunos de sus huesos se parecían a los de otra especie. Con el tiempo, los paleontólogos determinaron que el apatosaurio y el brontosaurio eran el mismo genus, y como una de sus reglas más inflexibles es que el primer nombre prevalece sobre los que se pudieran poner a descubrimientos posteriores (lo cual también explica que el oviraptor siga manteniendo su nombre de mala reputación), se retiró el nombre “brontosaurio”.

Quien tiene derecho a ponerle nombre a un dinosaurio es quien lo descubre o quien lo identifica como especie o genus independiente, en la mayoría de los casos. Esto puede producir resultados singulares, como el Laellynosaura, llamado así por la pequeña hija del matrimonio de paleontólogos que descubrió al animal en Australia. El genus Kakuru, por su parte, se identificó a partir de una tibia que, en el proceso de fosilización, se convirtió en ópalo, por lo que recibió su nombre de la palabra para “arcoiris” de los aborígenes australianos, precisamente “kakuru”.

En otras ocasiones, los científicos que tienen la última palabra, miembros de la Comisión Internacional de Nomenclatura Zoológica, que son parte de la Unión Internacional de Ciencias Biológicas permiten algunas curiosidades. En 2004, en Indianapolis, se invitó a un grupo de niños a darle nombre a un nuevo dinosaurio.

¿El resultado? Un dinosaurio llamado oficialmente Dracorex hogwartsia, el dragón rey de Hogwarts. Sí, la escuela de magia ficticia de Harry Potter.

La palabra dinosaurio

En 1842, el paleontólogo británico Richard Owen creó el nombre de “dinosaurio” para el grupo (el hablaba de una tribu o suborden) de reptiles fósiles de gran tamaño que eran claramente diferentes de los reptiles actuales. La palabra “dinosaurio” está formada por dos raíces griegas: deinós, que significa terrible, potente o enorme, y sauros, que significa “reptil”. Owen fue también quien realizó las primeras reconstrucciones, imprecisas y fantasiosas, de dinosaurios a partir de sus fósiles.

La magia y nuestro cerebro

“En lo referente a la comprensión del comportamiento y de la percepción, hay casos concretos en los que el conocimiento intuitivo del mago es superior al del neurocientífico”, Macknik y Martínez-Conde.

El mundialmente respetado mago
Juan Tamariz fue uno de los colaboradores
en los estudios de magia y neurociencia.
(Foto promocional, fair use)
Los magos son expertos en engañarnos. Entendiendo “magia” como el arte del ilusionismo en sus muchas variedades, no la magia real que hasta hoy nadie ha podido demostrar que existe.

Los magos nos engañan y entusiasman desde hace al menos 6 mil años, si, como parece, alguno de los relatos del papiro Westcar, que data de tiempos del faraón Keops o Khufu, quien ordenó la construcción de la Gran Pirámide de Giza, se refiere a ilusiones y no a magos o brujos verdaderos.

Hay magos que admiten abiertamente que hacen trucos, y ante los cuales reaccionamos como si nos desafiaran a descubrir el truco. Un buen mago nos asombra haciendo lo que ellos llaman “efectos” y que nosotros sabemos que no puede ser en la realidad, que es un truco, pero somos incapaces de desentrañar “dónde está el truco”. Otros utilizan los trucos o efectos de la magia de escenario para hacer creer a los demás que tienen poderes sobrenaturales o para engatusarlos con fraudes como los triles, que se remontan, también, al antiguo Egipto.

Pero en todo caso, lo que hacen los magos es jugar con nuestro cerebro, manipular nuestra atención, nuestros sentidos, nuestra forma de pensar habitualmente y así hacer aparecer o desaparecer objetos donde no era posible que aparecieran o desaparecieran. Como dice Teller, el miembro silencioso de la pareja de magos Penn & Teller, “Cada vez que se hace un truco de magia, está uno dedicándose a la psicología experimental. Si el público se pregunta ‘¿Cómo rayos lo hizo?’, el experimento fue exitoso. He explotado las eficiencias de su mente”.

No revelamos ningún truco (el pacto de la discreción sobre cómo se hacen los efectos es parte fundamental de la comunidad del ilusionismo) al reccordar el asombro que nos provocaba de niños que alguien sencillamente ocultara una moneda en la mano y fingiera sacarla de nuestra oreja. Uno sabe que las monedas no salen de las orejas y no atina a explicarse lo ocurrido.

Sin embargo, el estudio de las ilusiones mágicas tuvo que esperar la llegada de una pareja de neurocientíficos del Instituto Neurológico Barrow de Phoenix, Arizona: Stephen Macknik, director del laboratorio de Neurofisiología del Comportamiento y Susana Martínez-Conde, coruñesa que dirige a su vez el laboratorio de Neurociencia Visual, dedicado a las ilusiones visuales. Su trabajo de varios años con los mejores magos del mundo ha dado como resultado una serie de artículos tanto científicos como divulgativos en las más prestigiosas revistas, desde Nature Neuroscience hasta Scientific American.

Los estudios que han realizado Macknik y Martínez-Conde han ido revelando cómo los magos emplean, de modo empírico, desarrollado al paso de los siglos, aspectos de nuestro sistema cognitivo de los que la ciencia ni siquiera estaba al tanto hasta hace un par de siglos. La capacidad limitada de nuestra vista para distinguir contrastes, la retención o persistencia de la visión (esa postimagen que percibimos más claramente cuando nos deslumbra el súbito flash de una cámara), los ángulos que hacen que percibamos mejor o peor la profundidad de un objeto o el fascinante fenómeno del relleno.

Nuestra experiencia visual es extremadamente rica, pese a que nuestros ojos tienen una “resolución” muy inferior a la de las cámaras digitales comunes con las que nos fotografiamos por diversión (aproximadamente un megapíxel según los investigadores). Nuestro cerebro, sin embargo, tiene un sistema de circuitos tal que nos permite “predecir” cómo son las cosas a partir de lo que ve, y “rellenar” los huecos de modo que tengamos una visión mucho más clara de la que nos ofrecen nuestros ojos.

Una de las más fascinantes confirmaciones del trabajo de estos investigadores con los magos es que nuestro cerebro no es capaz de hacer dos cosas a la vez. Por mucho que nos guste pensar que sí podemos hacerlo.

En palabras de Luigi Anzivino, que conjunta las dos profesiones de ilusionista y neurocientífico (y cocinero, insiste), cuando vemos un truco de magia estamos tratando de seguir el efecto y al mismo tiempo de desentrañar el método mediante el cual se consigue ese efecto, el “¿cómo lo hace?” esencial para la buena magia. Dice Anzivino: “Por cuanto se refiere a nuestro cerebro, no existe el multitasking”. Macknik y Martínez-Conde lo confirman con el fenómeno conocido como “ceguera por desatención”: cuando nos concentramos en una cosa, pueden pasar otras muchas, bastante singulares, sin que nos demos cuenta. Si estamos contando cuántos pases se dan unos jugadores de baloncesto en un vídeo, literalmente puede pasar entre ellos un hombre con un disfraz de gorila y no nos daremos cuenta.

No es broma, es un clásico experimento realizado en Harvard por Daniel J. Simons y Christopher F. Chabris. Cuando los magos hacen algo que quieren que veamos, atrapan nuestra atención y nos vuelven, literalmente, ciegos a otras cosas que están haciendo y que no quieren que veamos. Lo que se llama en el argot mágico “misdirection”: llevar la atención a una dirección opuesta a lo que está haciendo el mago.

Y no, la mano no es más rápida que la vista. Aunque la palabra “prestidigitación” signifique “velocidad al mover los dedos”, lo que realmente hacen los magos es jugar con nuestros sentidos y atención, con los mecanismos que hemos desarrollado para poder manejar la realidad a nuestra conveniencia. Porque el cerebro con el que nos explicamos el universo evolucionó para encontrar alimento, cazar y evitar ser cazados... y poco más.

El estudio neurocientífico de las ilusiones mágicas nos confirma que la representación del mundo que nos ofrecen nuestros sentidos y los mecanismos de nuestro cerebro para interpretarlos no sea exacta. El mundo no es lo que parece, y magos y timadoresse aprovechan de ello.

Pero queda el consuelo de que somos la única especie, hasta donde podemos decirlo, que sabe, con toda certeza, que su percepción no es del todo fiable. Y que es capaz de estudiar cómo y por qué. Con ayuda de un poco de magia.

Un secreto de Tamariz

Juan Tamariz fue uno de los muchos magos estudiados por Macknik y Martínez-Conde. En el libro que escribieron, “Los engaños de la mente”, revelan muchos trucos mágicos para explicar su relación con nuestro conocimiento sobre nuestros mecanismos neurológicos, pero uno en particular de Tamariz resulta más misterio que revelación: los movimientos, la ropa, la voz, los gritos, las risas y todo lo que parece hacer a Juan Tamariz excéntrico no son sólo efectos escénicos. Todos esos detalles, en apariencia superficiales, son esenciales para el éxito de las ilusiones del mago. Aunque no nos diga cómo lo hace.

Los mensajeros del sistema nervioso

Hace menos de cien años que se identificaron las sustancias químicas gracias a las cuales funciona todo nuestro sistema nervioso y, por tanto, nuestro organismo.

La comunicación sináptica entre dos neuronas
por medio de los neurotransmisores.
(Imagen D.P. de US National Institutes of Health
vía Wikimedia Commons, modificada y
traducida por "Los expedientes Occam")
Era la década de 1880 y Santiago Ramón y Cajal llegaba a una conclusión asombrosa. Las neuronas, las células cerebrales recién descubiertas y a las que el zaragozano había dado nombre, no formaban una red o malla en la que todas estaban interconectadas, sino que cada una transmitía impulsos únicamente en una dirección.

Y, además, lo hacían sin tocarse.

Ramón y Cajal descubrió una separación de entre 20 y 40 nanómetros (millonésimas de metro), en el punto de unión de cada neurona y la célula a la que le transmite los impulsos, ya sea otra neurona, un músculo o una glándula. El misterio era, entonces cómo se realizaba la transmisión de los impulsos en esa unión, llamada por el inglés Charles Scott Sherrington “sinapsis”, palabra griega que significa “conjunción”.

Los fisiólogos y químicos trabajaron para resolver el acertijo y al mismo tiempo explorando las sustancias presentes en el sistema nervioso, basados en dos hipótesis. Según la primera, los impulsos nerviosos se transmitían de modo eléctrico, comunicando un potencial a través de la sinapsis. Según la otra, la transmisión se debía a alguna sustancia química. Los científicos, que trabajaban en estrecha comunicación, se refirieron a este debate como “la guerra de las chispas y las sopas”.

Otto Leowi respondió en parte la pregunta mediante un elegante experimento que, según relataría él mismo, se le ocurrió durante un sueño. Tomó dos corazones vivientes de dos ranas, que se pueden conservar latiendo durante un tiempo en una solución salina tibia, y los colocó en recipientes separados. Uno de los corazones conservaba el nervio vago, que es el responsable de controlar el ritmo cardiaco, mientras que al otro no se le mantenía. Leowi estimuló eléctricamente el nervio vago del primer corazón haciendo que latiera más lentamente. A continuación, tomó parte del líquido en el que estaba sumergido el primer corazón y lo aplicó al recipiente que contenía el segundo corazón. Al estar expuesto al líquido, este segundo corazón también empezó a latir más lentamente.

La única conclusión posible era que se había producido una sustancia en el primer corazón que provocaba que el segundo tuviera la misma respuesta. La transmisión química quedaba demostrada y su publicación en 1921 le valdría a Loewi el Premio Nobel de Medicina o Fisiología en 1936.

Poco después, Loewi pudo demostrar que la sustancia que ralentizaba el corazón de las ranas era, como sospechaba, la acetilcolina, sustancia que había sido descubierta siete años antes por su amigo, el fisiólogo británico Henry Hallet Dale. Era el primer neurotransmisor identificado. Loewi también halló otra sustancia que hacía que se acelerara el ritmo cardiaco, que con el tiempo sería identificada como norepinefrina.

Funcionamiento

Las neuronas están formadas por un cuerpo o soma, una serie de ramificaciones llamadas dendritas que pueden recibir impulsos nerviosos y un axón, una prolongación que es la que transmite los impulsos a las células receptoras: otras neuronas, fibras musculares, glándulas, etc. En las sinapsis con esas células, las ramificaciones del axón cuentan con pequeñas vesículas que, al recibir un impulso nervioso, pueden liberar distintos tipos de neurotransmisores. Estas sustancias químicas ocupan el espacio sináptico y son atrapadas por receptores químicos en la célula receptora, que cambia su actividad en función de éstos.

Cada receptor químico reacciona sólo ante un neurotransmisor, en un mecanismo similar al de una llave y una cerradura. Los receptores de un neurotransmisor como la dopamina sólo reaccionan al capturar dopamina e “ignoran” completamente a todos los demás neurotransmisores que puedan estar en el líquido que ocupa el espacio sináptico.

Hay neurotransmisores “excitadores” que incrementan la actividad en la célula receptora, “inhibidores” que la disminuyen y “moduladores” que pueden cambiar la forma que adopta la actividad de la célula receptora. Y la respuesta de las células a ellos es compleja. Aunque se dice que, por ejemplo, la escasez de serotonina está relacionada con la depresión, esto no significa que consumir o inyectarse serotonina cure la depresión. Cada célula receptora obtiene información de muchos axones, recibiendo una mezcla de neurotransmisores cuyo equilibrio final determina, por ejemplo, si una fibra nerviosa se contrae o no, a qué velocidad, y con qué intensidad. Este cóctel de neurotransmisores con las distintas células de nuestros músculos permite que levantemos un brazo lenta o rápidamente, con fuerza o débilmente. Lo mismo ocurre con las secreciones de todas nuestras glándulas.

En el caso de algunas enfermedades, además, el problema puede ser que las moléculas del neurotransmisor no fluyen de las vesículas del axxón a la célula receptora, sino que fluyen de vuelta a la superficie del axón, interrumpiendo la comunicación.

Poco a poco, la forma de acción y la ubicación de cada uno de los neurotransmisores en distintos puntos del sistema nervioso central y en todo el cuerpo, nos van dando información sobre la causa de muchos trastornos mentales y permiten no sólo crear nuevos medicamentos, sino entender el mecanismo de acción de los que ya tenemos, como los antidepresivos, los ansiolíticos y los antipsicóticos.

Desde la acetilcolina se han descubierto más de 50 neurotransmisores que están presentes en distintos lugares de nuestro sistema nervioso central, y los investigadores siguen encontrando nuevas sustancias que colaboran en la compleja danza que determina cómo el sistema nervioso controla el resto del cuerpo. Apenas en 2011, por ejemplo, se descubría en Barcelona el ácido D-aspártico, un neurotransmisor implicado en el aprendizaje y la memoria.

Como nota curiosa, en la década de 1950 se empezaron a identificar sinapsis eléctricas, primero en cangrejos y después en vertebrados. En la “guerra de las chispas y las sopas” todos tenían razón, aunque el principal medio de transmisión de los impulsos nerviosos sean los apasionantes neurotransmisores.

Las adicciones

Los neurotransmisores nos han ayudado a entender cómo actúan las drogas en nuestro cerebro. Drogas como la cocaína o la metanfetamina aumentan el nivel de transmisión de la dopamina en nuestro cerebro, mientras que los opiáceos actúan imitando los neurotransmisores naturales que conocemos como “endorfinas” o “morfina interna”, eliminando el dolor y aumentando las sensaciones de placer. Se cree, además, que el alcohol actúa interactuando con los receptores del ácido gamma aminobutírico (GABA). Las drogas, pues, son como ganzúas o llaves maestras que engañan a nuestro cerebro simulando ser nuestros neurotransmisores naturales.

La sociedad de la ciencia

La revolución científica consiguió sobrevivir y desarrollarse gracias al trabajo de científicos que decidieron que la colaboración y el intercambio eran más fructíferos que el trabajo en solitario.

Portada de la historia de la Royal Society de 1667
de Thomas Sprat. Francis Bacon aparece a la
derecha. (D.P. vía Wikimedia Commons)
La Royal Society es un club exclusivo que ha tenido entre sus miembros a muchos de los más distinguidos científicos. El químico Robert Boyle y el físico Albert Einstein, el codescubridor del ADN James Crick, Charles Darwin y Richard Dawkins, el descubridor de la penicilina Alexander Fleming e Isaac Newton, el descubridor del oxígeno Joseph Priestley y el filósofo y matemático Bertrand Russell son sólo unos cuantos.

Quizá en todo el mundo no haya una sola institución que a lo largo de los siglos haya reunido a tantas mentes brillantes, más de 8.000. Pero quizá también es justo decir que no hay ninguna otra institución que se haya propuesto los fines que dieron origen a esta venerable sociedad y los haya conseguido durante 350 años.

La sociedad comenzó como un “colegio invisible” informal de filósofos naturales (los que hoy llamamos científicos), que a mediados de la década de 1640 empezaron a reunirse para hablar de la nueva filosofía postulada por Francis Bacon, y que buscaba conocer el mundo natural sometiendo toda idea a contrastación mediante una investigación organizada y metódica a través de la observación y la experimentación.

Bacon mismo había muerto en 1626 de una neumonía que, según la leyenda, contrajo al intentar demostrar experimentalmente que el frío conservaba la carne, rellenando de nieve un pollo durante una tormenta.

Esa “nueva filosofía” habría de conformar la revolución científica que abordaron entusiastas muchos estudiosos. Las primeras referencias al colegio invisible o colegio filosófico se encuentran en cartas escritas en 1646 y 1647 por el químico Robert Boyle, que había estado en Florencia en el momento de la muerte de Galileo, cuya influencia le llevó a intentar estudiar el mundo desde una perspectiva matemática y materialista.

Después de una conferencia del astrónomo y arquitecto Christopher Wren, el 28 de noviembre de 1660, 12 de estos científicos decidieron fundar lo que llamaron “un colegio para la promoción del aprendizaje experimental físico-matemático”. Su objetivo era reunirse una vez por semana para ser testigos de experimentos y comentarlos, bajo el lema “Nullius in verba”, que significa “no aceptes la palabra de nadie”, una forma de indicar que la autoridad y las afirmaciones no tienen valor si no están confirmadas por los hechos y los experimentos.

En una época de comunicaciones lentas e ineficientes, estos revolucionarios del conocimiento encontraban en sus reuniones la oportunidad de conocer nuevos libros, nuevos experimentos, nuevas ideas que ampliaran sus propios trabajos. Así, en su cédula real de 1663, obtenida gracias al apoyo del rey Carlos II, la organización adquiere el nombre de “Real Sociedad de Londres para Mejorar el Conocimiento Natural”.

El nombre, sin duda, sonaba bastante modesto. Y sin embargo, en la institución se dio forma a la ciencia moderna. Su enfoque pionero sería retomado, con mayor o menor exactitud y fortuna, por todas las academias de ciencias que vendrían después.

En 1665, la sociedad publicó su primera revista científica, “Philosophical Transactions”, que sigue siendo hoy la publicación periódica científica más antigua del mundo, y en 1723 estableció su secretaría internacional para establecer y desarrollar relaciones con academias de todo el planeta.

Los problemas que ha abordado la Royal Society no han sido únicamente los relacionados con el avance de cada una de las ramas del conocimiento, como los descubrimientos en física o en química, sino que han estado relacionados con la forma misma de ese conocimiento. ¿Qué es la ciencia? ¿Cuáles son los mejores métodos para abordar distintos temas de estudio, desde la materia hasta las sociedades humanas? ¿Era el ser humano materia de la ciencia en cuanto a su comportamiento individual, como lo analiza la psicología, o su comportamiento social desde el punto de vista de la antropología y la sociología? E incluso, ¿qué estilo de redacción es el más adecuado para comunicar la ciencia?, pregunta cuya respuesta ha dado forma al artículo o paper científico común en la actualidad.

La Royal Society se ocupó de estos temas y, en el proceso, fue evolucionando para ir más allá de ser un instrumento para la mayor gloria de la corona británica, o su aval colonial, para hacerse muchas preguntas que los políticos no se atrevían a hacer.

Los tiempos fueron con frecuencia detrás de la respetable organización. En 1900, una mujer propuso por primera vez que la sociedad aceptara en su seno como miembros de pleno derecho a mujeres “debidamente calificadas”, y la primera propuesta seria se hizo en 1902 para que fuera admitida Hertha Ayrton, ingeniera, matemática e inventora. Sin embargo, según la ley, en su calidad de mujer casada no tenía personalidad legal alguna, y la Royal Society no pudo admitirla como miembro, aunque sí la invitó dos años después a presentar un artículo sobre las ondas en la arena y el agua y le concedió su medalla Hughes en 1906, además de invitarla a presentar dos estudios más, en 1908 y en 1911.

No fue sino hasta 1945 cuando la Royal Society enmendó sus reglamentos para poder admitir a las primeras dos mujeres como miembros: la cristalógrafa Kathleen Lonsdale y la bioquímica Marjorie Stephenson. A la fecha, más de 110 mujeres han sido electas miembros o fellows de la Royal Society.

La Royal Society concede varios premios a sus miembros y a otros científicos. La Medalla Copley se entrega desde 1731 a logros notables en el terreno de la investigación. En 1826, el rey Jorge IV estableció la Medalla Real, otorgada a las más importantes aportaciones al avance del conocimiento natural. Concede desde 1901 la medalla Sylvester a grandes logros matemáticos, y desde 1902 la medalla Hughes que celebra los descubrimientos importantes en las ciencias físicas.

En la actualidad, la Royal Society financia más de 1.600 becas al año para británicos o para extranjeros que desean trabajar en Gran Bretaña, promueve el desarrollo de la ciencia en todo el mundo, especialmente en África.

Aunque sólo fuera por eso

En 1683, en una cena de la Royal Society con Edmond Halley (el del cometa) y Robert Hooke, Christopher Wren ofreció 40 chelines a quien explicara por qué la órbita de los planetas es elíptica y no circular. Para averiguarlo, Halley llamó a un matemático malhumorado pero genial, Isaac Newton, quien encontró la respuesta. Pero para ello hubo de crear el cálculo infinitesimal y escribir una de las obras cumbres de la ciencia, “Principia Mathematica”, que describía las leyes del movimiento universal y la mecánica celeste. Años después, Newton sería presidente de la Royal Society.

Los genes del neandertal... ¿y de usted?

Los neandertales recorrían Europa mucho antes de que nuestra especie saliera de África y se extendiera por el planeta. Sólo por eso serían uno de los más interesantes enigmas de la historia y la biología. Pero hay más.

Cráneo de Homo sapiens moderno a la izquierda comparado
con el de un Homo neardenthalensis.
(Imagen CC, foto de hairymuseummatt alterada por
DrMikeBaxter, vía Wikimedia Commons)
Durante muchos años se creyó que la evolución humana era una línea continua entre nuestro ancestro común con otros primates y nosotros. Pero no es así. A lo largo de los últimos seis millones de años han aparecido varias especies que vivieron al mismo tiempo, algunos fueron nuestros ancestros, otros no. Pero la historia completa de la evolución de las distintas especies relacionadas con el ser humano durante los últimos seis millones de años aún no es clara.

Lo que sí sabemos es que el ser humano apareció como tal hace unos 200.000 años en África. Cualquier Homo sapiens de esa época podría andar tranquilamente por las calles sin que nadie notara nada extraño.

Hace unos 125.000 años, nuestra especie salió de África hacia otros continentes, donde se encontró con otras especies humanas como los recientemente descubiertos Denisovianos y los más conocidos hombres de Neandertal, una especie que fabricaba herramientas, tenía un lenguaje, vivía en grupos sociales complejos, enterraba a sus muertos, cocinaba con fuego e incluso utilizaba adornos, y que vivió durante 300.000 años en Europa, Asia Central y el Oriente Medio.

¿Qué implicó la coexistencia de los humanos actuales con los neandertales en Europa y Asia durante unos 20 mil años?¿Los sapiens y los neandertales convivieron pacíficamente, se enfrentaron con violencia, compitieron o se ignoraron? ¿La desaparición de los neandertales hace 24.000 años estuvo relacionada con el sapiens o, incluso, fue provocada por esta especie? Y, por supuesto, el tema más apasionante para el ser humano, el sexo: ¿hubo relaciones sexuales, intercambio genético, mestizaje entre los sapiens y los neandertales?

Las primeras preguntas quizá puedan ser respondidas cuando obtengamos más evidencia física, excavaciones que puedan ayudarnos a reconstruir, poco a poco, cómo convivieron las dos especies, tan parecidas. La tercera se ha intenta resolver mediante nuestros conocimientos y nuestra tecnología relacionados con la genética.

El genoma neandertal

En 2006 se emprendió un esfuerzo concertado por secuenciar el genoma de los neandertales, un trabajo al frente del cual se puso al biólogo sueco especializado en genética evolutiva Svante Pääbo, director del Departamento de Genética del Instituto Max Planck de biología evolutiva situado en Leipzig, Alemania. Pääbo ya había demostrado, en 1997, con base en el ADN mitocondrial (que procede únicamente de la madre), que nuestra especie se había separado de los neandertales creando dos linajes distintos hace medio millón de años.

Apenas en 2003, se había presentado un boceto completo del genoma humano, que había sido uno de los proyectos más ambiciosos y amplios desarrollados en la biología. Pero para ése se había contado con la aportación de muchos donantes que habían dado muestras de ADN completas, mientras que para el proyecto de Pääbo se contaba con muestras de muy pocas muestras de restos neandertales de Croacia, Rusia, España y el neandertal original descubierto en el siglo XIX en Alemania.

Las muestras presentaban varios problemas. Primero, al paso del tiempo el ADN neandertal se había desintegrado en pequeños fragmentos. Después, en los antiguos huesos se hallaba también el ADN de los muchos microorganismos que habían vivido en en ellos desde la muerte de sus dueños originales. Según Pääbo, más del 95% de algunas muestras era de estos microorganismos. Además, al ser excavados, los huesos se veían expuestos a muchas otras fuentes de ADN, incluidos los investigadores, paleoantropólogos y técnicos que los habían estudiado. El desafío obligó a los científicos a desarrollar nuevas tecnologías para eliminar el ADN extraño e identificar el que era genuinamente del neandertal.

En 2010, el Proyecto del Genoma Neandertal publicó sus primeros resultados en la prestigiosa revista Science secuenciando alrededor de 4 mil millones de pares de bases del genoma neandertal (cada par de bases es un “escalón” de la doble espiral que forma la molécula de ADN.

Una de las más sugerentes interpretaciones del estudio de Pääbo y su equipo fue que entre el 1 y el 4% del ADN de las poblaciones humanas modernas de Europa y Asia era compartido con los neandertales, una cifra mucho mayor que la presente en gente del África subsahariana, lo que apuntaba a la posibilidad de que ambas especies hubieran tenido un intercambio genético.

Otro elemento importante fue la determinación de que el genoma del neandertal y el de los seres humanos actuales son iguales en un 99,7%, donde sólo el 0,03 del ADN explicaría las profundas diferencias anatómicas entre nosotros y nuestros primos. El neandertal carecía de barbilla, su frente se inclinaba hacia atrás a partir de unos pronunciados arcos o toros superciliares, protuberancias del cráneo por encima de los ojos. Igualmente mostraban clavículas más anchas, importantes diferencias respecto de nuestros dientes, buesos de las piernas combados, rótulas de gran tamaño y otros muchos aspectos que harían que un neandertal por las calles del siglo XXI probablemente sí llamaría la atención, por más que lo vistiéramos y peináramos a la última moda.

Pero esto, sin embargo, no era una prueba concluyente. Un estudio de la Universidad de Cambridge, dirigido por el Andrea Manico y publicado en 2012 señaló que el análisis original había sobreestimado la cantidad de ADN compartido con los neandertales, además de no haber tenido en cuenta la variabilidad genética que ya tenían las distintas poblaciones de los ancestros de los humanos modernos en África. Al tomar en cuenta estos aspectos, resulta probable que el ADN compartido proviniera más bien de un ancestro común de ambas especies que habría vivido hace medio millón de años. Pääbo, por su parte, ha realizado otros estudios que está aún por publicar y que, asegura, dan nuevo sustento a su tesis de que hubo un mestizaje sapiens-neandertal.

Mientras se resuelve la controversia, muchos esperan que nuevas excavaciones descubran otras especies humanas que podrían complicar aún más la historia de cómo nos convertirmos en el animal que trata de entender su propio devenir.

Qué nos hizo como somos

Svante Pääbo declaró en 2011 a Elizabeth Kolbert, de la revista New Yorker: “Quiero saber qué cambió en los humanos modernos en comparación con los neandertales, que marcó la diferencia. Qué hizo posible que nosotros construyéramos estas enormes sociedades, y dispersarnos por todo el planeta y desarrolar la tecnología que, me parece, nadie puede dudar que es singular de los humanos. Debe haber una base genética para ello”.

Ver el sonido para estudiarlo

El oído es probablemente el segundo sentido más importante después de la vista. La comprensión del sonido, sin embargo, se desarrolló casi cien años después de los descubrimientos de Newton sobre la luz y la óptica.

Figuras de Chladni en la tapa trasera de una guitarra.
(Foto GFDL de Mrspokito, vía Wikimedia Commons
Era 1500, en los inicios de la revolución científica, cuando Leonardo Da Vinci observó que no había sonido cuando no había movimiento o percusión del aire.

La fascinación de Leonardo por las ondas en el agua y los remolinos de agua y aire es dominante en sus libros de notas, y fue por ello que, viendo las olas que se generaban en la superficie del agua al arrojar una piedra sobre ésta, descubrió que el sonido se comportaba de forma similar, es decir, que se transmitía por el aire en círculos concéntricos sin que éste se moviera, igual que las olas en el agua.

Como con muchos otros aspectos de la realidad, los filósofos griegos se ocuparon de tratar de entender la música y, por extensión, el sonido. En el siglo VI antes de nuestra era, Pitágoras fue el primero en observar que un cuerpo vibratorio genera un movimiento igualmente vibratorio en el aire, que se puede oír y sentir. Describió matemáticamente las armonías que conocemos como intervalos de quinta y de cuarta, y descubrió la relación inversa entre la longitud de una cuerda y su tono, es decir, mientras más corta es una cuerda (y en general la fuente productora de sonido), más aguda es la nota.

El filósofo estoico del siglo III a.n.e., Crisipo de Solos, se aproximó a lo que descubriría Leonardo 800 años después proponiendo que el sonido viaja por el aire del mismo modo en el que la energía viaja a través del agua.

Pero los griegos se interesaron más en las leyes que regían los aspectos prácticos del sonido. Así, su amor por el teatro llevó al diseño de teatros con propiedades acústicas tales que todo el público pudiera escuchar a los actores. Como ejemplo, en Epidauro todavía podemos ver uno de los teatros mejor conservados de la antigüedad, construido en el 350 a.n.e. y cuyo diseño semicircular, una pared detrás del escenario y un graderío con gran inclinación tiene propiedades acústicas que aún nos sorprenden.

El sonido, finalmente, es tan sólo una onda que se difunde por un medio a partir de un objeto que vibra, como nuestras propias cuerdas vocales. Al moverse hacia adelante, el objeto comprime las moléculas del aire frente a él y, al moverse hacia atrás, las expande. La onda resultante, se transmite así por cualquier medio líquido, sólido o gaseoso, aunque nosotros nos interesamos más por la propagación del sonido a través del aire, que es como más usualmente lo percibimos.

La acústica científica

El estudio del sonido encontró a su Cristóbal Colón en el alemán Ernst Florens Friedrich Chladni, nacido en 1756 en Wittenberg. Desde muy joven, Ernst mostró interés por la música y por la ciencia, dos disciplinas que no eran bien vistas en modo alguno por su padre, Ernst Martin Chladni, profesor de leyes en la universidad de la misma ciudad, quien optó por obligar a su hijo a estudiar leyes.

Chladni obtuvo su título de leyes en 1782 en la Universidad de Leipzig, el mismo año que murió su padre, por lo cual no practicó nunca como abogado sino que se dedicó a sus pasiones originales.

Como músico aficionado, Chladni inventó dos instrumentos derivados de la armónica de vidrio, en la que una serie de piezas de cristal giratorias son pulsadas con los dedos humedecidos para provocar su vibración, el mismo principio utilizado por quienes interpretan melodías con copas de vidrio afinadas según la cantidad de líquido en su interior.

Pero su interés en la ciencia del sonido lo llevó de vuelta a las primeras observaciones de Pitágoras. Si un cuerpo que vibra provoca el sonido, ¿qué pasa cuando hacemos vibrar un cuerpo determinado?

Para averiguarlo, Chladni utilizó placas metálicas y de vidrio recubiertas de arena que hizo vibrar pasando por sus bordes un arco de violín. El asombroso resultado es que las vibraciones provocan que la arena se acumule en patrones simétricos, conocidos como “figuras de Chlandi”, que permiten ver las vibraciones de las ondas sonoras en un cuerpo sólido. Publicó los resultados de sus experimentos en 1787 atrayendo la atención de la sociedad europea de su época. Aprovechó este interés para empezar una serie de viajes por Europa en los que se presentaba en público para interpretar música en sus instrumentos y a demostrar las figuras de Chladni.

Como él mismo lo hacía notar, aunque desde tiempos de los griegos se había llegado a una sólida comprensión de cómo una cuerda que vibra produce sonido, no se sabía prácticamente nada de cómo lo producían las placas sólidas.

Al vibrar una placa, desplaza la arena en su superficie, que se acumula en las zonas donde no hay movimiento, llamadas “curvas nodales”. Las curvas varían en función del material del que está construida la placa y de la forma de ésta.

Chladni también estudió las vobraciones de varillas cilíndricas y en forma de distintos prismas. El análisis d el tono de varillas de distintas longitudes le permitió deducir la velocidad del sonido en los sólidos. Después experimentó llenando instrumentos de viento con distintos gases y utilizando los tonos que producían para determinar la velocidad del sonido en dichos gases. Sus estudios ampliados se publicaron en el libro Die Akustik (la acústica) de 1802.

Chladni era, además, un excelente experto en relaciones públicas. Sus viajes le permitieron conocer a grandes personajes de la europa del siglo XIX como Goethe o el matemático Laplace, mientras que sus demostraciones ante Napoleón en 1808 hicieron que éste ordenara que se realizara la traducción al francés de Die Akustik.

El trabajo de este pionero no fue solamente valioso para la ciencia. Hoy en día es común que durante la fabricación de instrumentos con caja de resonancia como los violines o las guitarras acústicas las tapas se sometan a vibraciones para determinar sus propiedades acústicas según las figuras de Chladni que forman. Las características de muchos instrumentos que nos deleitan proceden así del trabajo del hombre que no quiso ser abogado.

“Vienen del cielo”

Ernst Chladni fue también un entusiasta y coleccionista de meteoritos. Consultando diversos documentos, postuló que las bolas de fuego que se podían ver en el cielo y los meteoritos que se podían encontrar en tierra eran lo mismo. Aunque la opinión de los más racionales se inclinaba por creer que los meteoritos eran objetos lanzados por volcanes u otros fenómenos terrestres, en un folleto de 1794 Chladni propuso que, dada la velocidad de las bolas de fuego, debían provenir del espacio exterior. Pasaron 10 años para que, gracias a los estudios de otros científicos, se aceptara generalmente el origen extraterrestre de los meteoritos.