Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 31, 2012

Robert Boyle, el químico escéptico

El hidrógeno puede ser el elemento más abundante del universo, pero fue un desconocido para la especie humana hasta que apareció la vocación de experimentación de uno de los creadores de la ciencia moderna.

Sir Robert Boyle
(Retrato D.P. vía Wikimedia Commons)
Hubo una época en que la química no existía. De hecho, desde el inicio de la historia humana hasta el siglo XVII de nuestra era los materiales de los que estaba hecho el universo eran un misterio absoluto. Nadie sabía cómo se desarrollaban sus transformaciones, sólo veían que ocurrían y buscaban alguna explicación más o menos plausible y de reproducirlas utilizando métodos que hoy nos parecen torpes, fantasiosos, irracionales e ignorantes... pero que eran los únicos que estaban entonces al alcance de nuestra especie.

Se llegaba al conocimiento lentamente mediante ensayo y error, a veces por accidente. Se hallaba una sustancia nueva, una tecnología inesperada para endurecer el acero o beneficiar un mineral, un resultado asombroso al mezclar sustancias. Pero el trasfondo de todos esos hechos era incomprensible.

Durante toda la Edad Media, los alquimistas buscaron controlar la naturaleza con una mezcla de ideas incorrectas como la teoría de los cuatro elementos, creencias como la de la transmutación de los metales, una visión mística y un interés que oscilaba entre la pasión por el conocimiento y la ambición pura y dura.

En ese mundo de ignorancia anhelante y de ambición sin rumbo claro nació en Irlanda, en 1627, Robert Boyle, el decimocuarto de los 15 hijos que tuvo el Conde de Cork, un opulento aristócrata inglés que había hecho su fortuna en Irlanda. De hecho era el hombre más rico de la Gran Bretaña. Y como tal, se esforzó por dar a sus hijos la mejor educación posible. Robert vivió primero en el campo, educándose lejos de la familia, pasó un tiempo en el prestigioso Colegio de Eton y se instruyó en casa y en viajes por Europa.

El 8 de enero de 1642, mientras el joven Boyle pasaba una temporada en Florencia, el genial Galileo Galilei murió en su villa de Arcetri, en las afueras de la ciudad, donde estaba bajo arresto domiciliario de la Inquisición. El acontecimiento afectó profundamente al aún estudiante, quien se dedicó a estudiar los trabajos de Galileo concluyendo que era el momento de estudiar al mundo de una nueva forma, utilizando las matemáticas y la mecánica.

A su regreso a Inglaterra, Boyle se convertiría en parte del “colegio invisible”, un grupo de filósofos naturales, que era como se llamaba a quienes hoy consideramos científicos, palabra que ni siquiera existió como tal hasta 1634. Este grupo sería la semilla de la Royal Society.

Uno de los integrantes de ese “colegio invisible”, Henry Oldenburg, que sería el primer secretario de la Royal Society, describió así a Boyle en una carta dirigida al filósofo Baruch Spinoza: “Nuestro Boyle es uno de ésos que desconfían lo suficiente de su razonamiento como para desear que los fenómenos estén de acuerdo con él”.

Resumía así el salto que iba de los argumentos y razonamientos que habían formado el sistema escolástico desde Aristóteles al método experimental, de observación, crítico y científico defendido por Sir Francis Bacon y que dio cuerpo a la revolución científica. Lo que se conocía por entonces simplemente como la “Nueva filosofía”.

Porque lo que hacía Robert Boyle en el laboratorio que se construyó en 1649 aprovechando la vasta herencia familiar y la libertad que le daba, era observar los hechos de la naturaleza y hacer experimentos. Muchos experimentos. Y después analizar sistemáticamente sus resultados, que empezó a publicar en 1659. En 1660 dio a conocer sus estudios sobre las propiedades del aire, que exploró utilizando una bomba de vacío, y dos años después publicó la que hoy conocemos como “Ley de Boyle”, que expresa sencillamente que, a temperatura constante, el volumen de un gas es inversamente proporcional a la presión a la que se encuentra. A más presión, menos volumen... algo que hoy nos parece evidente, pero sólo porque lo descubrió Boyle.

Pero fue en 1661 cuando Boyle hizo su más profunda y decisiva aportación a la ciencia con la publicación de su libro The Sceptical Chymist: or Chymico-Physical Doubts and Paradoxes (El químico escéptico: o dudas y paradojas químico-físicas), donde por primera vez le daba el nombre de “química” al estudio de la composición, propiedades y comportamiento de la materia. En el libro, hacía una defensa de la “nueva filosofía” ampliando las ideas de Bacon sobre la experimentación y desarrollando el método experimental en gran medida como hoy lo conocemos y utilizamos, con numerosos ejemplos provenientes de sus numerosos experimentos, como los que le permitieron descubrir, entre otras sustancias, el hidrógeno.

Adicionalmente, proponía la “teoría corpuscular”, según la cual partículas de distintos tamaños formaban las sustancias químicas, un antecedente de la teoría posteriormente demostrada de que la materia está compuesta por partículas. Además, introdujo el concepto moderno de “elemento químico” y de “reacción química”, diferenciando las mezclas de los compuestos.

Éste fue un descubrimiento verdaderamente revolucionario. Con él, Boyle se convertía en el primer ser humano que veía con claridad los procesos de la materia. En una mezcla, como una solución de agua con sal común, las dos sustancias conservan sus propiedades, mientras que en un compuesto, las propiedades de los componentes cambian radicalmente. Por ejemplo, el cloro, que es un gas venenoso, y el sodio, que es un metal altamente reactivo, incluso explosivo, pueden unirse en una reacción química formando un compuesto que no tiene ni las propiedades del cloro ni las del sodio, sino otras que le son totalmente peculiares, el cloruro de sodio o sal común, precisamente.

Boyle nunca dejó de ser alquimista en la búsqueda de aspectos espirituales de la materia, pero tampoco permitió jamás que sus creencias alquímicas y religiosas, como ferviente protestante, interfirieran con lo que su razón le iba mostrando en el estudio de la realidad a su alrededor, en temas como la mecánica, la química, la hidrodinámica o aspectos más prácticos, como las mejoras en la agricultura o la posibilidad de desalinizar el agua de mar, siempre acudiendo a experimentos controlados para alcanzar sus conclusiones.

Soltero y sin dejar descendencia, el que bien podría ser llamado uno de los últimos alquimistas y el primer químico de la historia, murió en Londres el 30 de diciembre de 1691.

Conocimiento e ignorancia

“El estudio de la naturaleza, con el objetivo de promover la piedad mediante nuestros logors, es útil no sólo por otros motivos, sino para incrementar nuestro conocimiento, incluso de las cosas naturales, sino de modo inmediato y en la actualidad, sí al paso del tiempo y al transcurrir de los acontecimientos.” Robert Boyle.

diciembre 17, 2012

Mercurio, el planeta infernal

El más rápido, el más pequeño, el de las temperaturas más extremas, el menos conocido, Mercurio está de nuevo bajo la vigilancia de una sonda robot que busca comprender a este planeta.

Mercurio fotografiado por la sonda Messenger
(Foto D.P. de NASA/Johns Hopkins University
Applied Physics Laboratory/Carnegie Institution
of Washington, vía Wikimedia Commons)
En 2006, cuando la Unión Astronómica Internacional determinó que Plutón no reunía todos los requisitos para ser considerado un planeta y pasó a ser clasificado como “planeta enano”, Mercurio se convirtió en el planeta más pequeño de todo el sistema solar. Es más pequeño que Ganímedes, la luna de Júpiter descubierta por Galileo en 1610 y que Titán, la luna de Saturno descubierta 34 años después por el astrónomo holandés Christiaan Huygens, además de ser el planeta más cercano al sol de todo el sistema solar, y el que tiene la órbita más excéntrica, es decir, la que forma la elipse más alargada.

Debido a la cercanía de su órbita respecto del sol, Mercurio queda oculto por el brillo de nuestra estrella y no resulta fácil de ver, especialmente sin aparatos ópticos. Como sólo se le puede ver a la media luz del amanecer y del atardecer, los primeros astrónomos griegos pensaron que se trataba de dos planetas distintos. No fue sino hasta el siglo IV antes de nuestra era que se determinó que se trataba de un mismo objeto, un planeta al que llamaron Hermes. Incluso Galileo Galilei, pionero de la astronomía, halló difícil la observación de Mercurio con su telescopio.

Pero esa misma cercanía, dada la enorme influencia que sobre el planeta tiene el campo gravitacional del Sol, permitió hacer una de las observaciones que confirmaron la teoría de la relatividad de Einstein. El punto más cercano al Sol de la órbita de Mercurio se trasladaba ligeramente alrededor del sol sin que hubiera explicación hasta que los cálcuos de la relatividad general de Einstein pudieron describir estos movimientos en función de la gravedad del Sol.

Durante mucho tiempo se creyó que Mercurio, que da una vuelta al sol cada 88 días, lo que lo convierte en el planeta con la más rápida rotación del sistema, tenía un acoplamiento de mareas con el Sol, es decir, que siempre daba la misma cara al sol, manteniendo un hemisferio siempre en la oscuridad. O, visto desde otro punto de vista, que su día y su año tenían la misma duración.

No fue sino hasta la década de 1960, 350 años después de las observaciones de Galileo, que se consiguieron datos precisos sobre Mercurio gracias a la radioastronomía, capaz de obtener información que no era accesible utilizando telescopios ópticos. Fue entonces que se descubrió que Mercurio tarda en girar una vez sobre su propio eje, era de poco menos de 59 días terrestres.

La rápida órbita del planeta y su lenta rotación (sólo Venus tiene una rotación más lenta, de 243 días terrestres) hacen que su día (es decir, el intervalo entre un amanecer y el siguiente), sea de 176 días terrestres. Y se trata de días con temperaturas extremas, las más extremas de nuestro sistema solar. En los momentos más cálidos, pueden subir hasta los 465 ºC, calor con el cual se pueden fundir algunas aleaciones de aluminio, y se pueden desplomar hasta los -184 ºC, un grado por debajo de la temperatura a la que el oxígeno se convierte en líquido.

Además, el pequeño tamaño de Mercurio oculta una enorme masa. Pese a ser apenas algo más grande que la Luna, su fuerza de gravedad es de casi el 40% que la nuestra, comparada con menos del 17% de la de la Luna. Así, algo que pesara 100 kilos en la Tierra pesaría 16,6 kilos en la Luna y unos 38 en Mercurio, que es así el segundo planeta más denso del sistema solar, después del nuestro.

Otra singularidad de Mercurio es que, debido a su cercanía al Sol, su extremadamente tenue atmósfera es constantemente barrida por el viento solar, el flujo de partículas cargadas responsable entre otras cosas de las auroras en la Tierra, de modo que dicha atmósfera se está renovando continuamente.

El estudio de Mercurio dio un enorme salto en 1974, cuando llegó hasta sus inmediaciones la sonda Mariner 10 de la NASA, lanzada en noviembre de 1973. Pasando a tan sólo 327 kilómetros de altitud sobre la superficie de Mercurio, la sonda logró fotografiar aproximadamente el 45% de la superficie del planeta. Su aspecto, muy distinto del que habían soñado algunos autores de ciencia ficción que incluso habían imaginado la posibilidad de que albergara vida, era el de un mundo con una atmósfera tan tenue que no podía proteger la superficie del choque de pequeños objetos, dando como resultado una superficie muy similar a la de nuestra luna, con numerosos cráteres de impacto. El Mariner también descubrió alguna evidencia de actividad volcánica.

En agosto de 2004, la NASA lanzó una nueva sonda con destino a Mercurio, la “Messenger” o “mensajero”. La Messenger pasó por primera vez en las inmediaciones de Mercurio en 2008, para después hacer otras dos aproximaciones, visitando a Venus en el proceso, para finalmente instalarse en órbita alrededor de Mercurio en marzo de 2011. Desde entonces, la Messenger ha podido confirmar varias especulaciones sobre Mercurio. Ha podido constatar la existencia de una intensa actividad volcánica en el pasado y ha encontrado más datos que indican la presencia de hielo de agua en los polos del planeta.

La Messenger además ha podido determinar gracias a los datos reunidos por sus instrumentos que, contrariamente a lo que creían los astrónomos, el núcleo de hierro de Mercurio no se ha enfriado, sino que se mantiene fundido y en rotación. Este núcleo, ocupa alrededor del 85% del volumen de Mercurio, gigantesco comparado con el de nuestro planeta, que es del 30% de su volumen, y es el responsable de genera un débil campo magnético, de una centésima parte del de la Tierra. Ni Venus ni Marte, los otros dos planetas rocosos, cuentan con campo magnético, por lo que el estudio de Mercurio puede ayudar a entender el porqué de estas diferencias.

Conocido como uno de los planetas “clásicos” de la antigüedad, Mercurio sigue siendo, sin embargo, el planeta menos explorado y menos conocido de nuestro sistema solar, incluso pese a su relativa cercanía, algo curioso si lo comparamos con lo mucho que hemos aprendido de planetas más lejanos como Júpiter... y mucho muy distintos de nuestro mundo, este mundo de roca y metales que aún tiene mucho que aprender de Mercurio, su infernal hermano pequeño.

Bahía Mercurio

En la península de Coromandel, en Nueva Zelanda, está la Bahía de Mercurio, en cuyas playas, el 9 de noviembre de 1769, el famoso explorador británico James Cook y su astrónomo Charles Green hicieron la observación del tránsito de Mercurio por el sol. Junto con el tránsito de Venus que había coincidido ese año, en junio, este tránsito observado por varias expediciones británicas por encargo de la Real Sociedad Astronómica, permitió obtener los datos más precisos hasta entonces sobre las distancias en nuestro sistema solar.

diciembre 11, 2012

Los nombres de los dinosaurios

Los dinosaurios tienen curiosos nombres de aspecto latino y griego. De hecho, todas las especies tienen nombres así, aunque las conozcamos con denominaciones más de andar por casa .

Reconstrucción de un oviraptor en el
Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
Solemos referirnos a la mayoría de los seres vivos a nuestro alrededor con los nombres que nuestra cultura les ha dado. No solemos pensar, salvo excepcionalmente, en que el jamón proviene de un animal llamado Sus scrofa domestica, que nuestros chuletones son de Bos primigenius, los huevos los pone la hembra del Gallus gallus domesticus y la hortaliza anaranjada que supuestamente fascina a los conejos se llama Daucus carota.

Éstos son los nombres que los biólogos dan, claro, al cerdo, la vaca, el pollo y la zanahoria.

La costumbre de dar a los seres vivos nombres que pudieran entender todos los científicos en cualquier lugar del mundo comenzó con la revolución científica, en el siglo XVI. Dado que el latín era el idioma de la academia y la “lingua franca” o idioma común de los estudiosos, era lógico que se eligiera este idioma para nombrar a los organismos, con el añadido de raíces griegas, describiendo las características más sobresalientes de los distintos organismos.

Sin embargo, en los siguientes 200 años los nombres descriptivos de muchas palabras (polinomiales) llegaron a ser complicadísimos, largos y tremendamente precisos, lo que complicaba la comunicación que se suponía que debían facilitar. Cuando para decir “tomate” en nomenclatura científica había que decir Solanum caule inermi herbaceo, foliis pinnatis incisis, el asunto empezaba a ser un problema que urgía solucionar.

La solución la dio Carl Linnaeus, médico y botánico sueco que se dedicó a describir y organizar a todos los seres vivos que conocía. Además de crear un sistema de clasificación de las plantas según el número de sus órganos sexuales (estambres y pistilos) que en su momento fue un escándalo para la moral de la época, en 1753 publicó un libro sobre plantas donde propuso un sistema de nombres más sencillo, compuesto sólo por el genus (o género) de la planta y su especie. Aunque su idea era que estos nombres sirvieran de atajo mnemotécnico para recordar los polinomiales, el sistema de dos palabras pronto se convirtió en la forma aceptada de denominar a los seres vivos, desde una humilde bacteria como Eschirichia coli hasta la gran ballena azul o Balaenoptera musculus.

Pero el “nombre científico” es, en general, asunto de científicos, salvo en un caso peculiar, el de los animales que dominaron el mundo en los períodos cretácico y jurásico, dinosaurios y otros reptiles y anfibios. Incluso los nombres comunes o populares que hemos dado a los más conocidos de estos animales proceden de su nombre científico, como el tiranosaurio Tyrannosaurus rex o los velociraptores, que son animales del genus Velociraptor con especies como la mongolensis o la osmolskae.

¿De dónde salen los nombres?

Los nombres de los reptiles del pasado, como los de todas las especies, están formados por dos palabras, su genus y su especie. Pero el nombre es, al menos en parte, resultado del trabajo de clasificación taxonómica, el intento de los estudiosos por agrupar a los seres vivos según su cercanía filogenética. Así, cada especie se clasifica según el dominio, reino, filo, clase, orden, familia, género y especie y, en algunos casos, subespecie. Pero la clasificación taxonómica no es algo rígido. Continuamente, los nuevos descubrimientos van haciendo que se reconsideren las relaciones entre especies conocidas, y los debates son incesantes.

La forma de nombrar a los seres vivos es resultado de un consenso científico que se estableció desde 1889 y se ha actualizado hasta el año 2000. Los nombres pueden provenir de otros idiomas, destacando alguna característica física del animal, el lugar donde se encontró, los nombres de los descubridores (o incluso de algún mecenas al que se desee halagar) pero siempre se latinizan o se utilizan raíces griegas o latinas para formarlos. Velociraptor, por ejemplo, significa “ladrón veloz”, mientras que triceratops significa “con tres cuernos”.

Un caso bien conocido de un nombre equivocado es el del oviraptor o “ladrón de huevos”, un dinosaurio que se encontró junto a un nido de huevos y los descubridores presupusieron que actuaba como depredador robándolos. El avance tecnológico, sin embargo, demostró que los huevos en cuestión eran... de oviraptor. En lugar de estar robando huevos, estaba cuidando de su puesta en su nido. Pero el nombre se quedó. Cría fama...

Algunas personas recordarán a los brontosaurios y se preguntarán por qué ya no se habla de estos gigantes herbívoros de largo cuello que suponemos vivían en zonas lacustres. Antes que el brontosaurio se había descubierto otros animales a los que se llamó apatosaurus o “reptiles engañosos” porque algunos de sus huesos se parecían a los de otra especie. Con el tiempo, los paleontólogos determinaron que el apatosaurio y el brontosaurio eran el mismo genus, y como una de sus reglas más inflexibles es que el primer nombre prevalece sobre los que se pudieran poner a descubrimientos posteriores (lo cual también explica que el oviraptor siga manteniendo su nombre de mala reputación), se retiró el nombre “brontosaurio”.

Quien tiene derecho a ponerle nombre a un dinosaurio es quien lo descubre o quien lo identifica como especie o genus independiente, en la mayoría de los casos. Esto puede producir resultados singulares, como el Laellynosaura, llamado así por la pequeña hija del matrimonio de paleontólogos que descubrió al animal en Australia. El genus Kakuru, por su parte, se identificó a partir de una tibia que, en el proceso de fosilización, se convirtió en ópalo, por lo que recibió su nombre de la palabra para “arcoiris” de los aborígenes australianos, precisamente “kakuru”.

En otras ocasiones, los científicos que tienen la última palabra, miembros de la Comisión Internacional de Nomenclatura Zoológica, que son parte de la Unión Internacional de Ciencias Biológicas permiten algunas curiosidades. En 2004, en Indianapolis, se invitó a un grupo de niños a darle nombre a un nuevo dinosaurio.

¿El resultado? Un dinosaurio llamado oficialmente Dracorex hogwartsia, el dragón rey de Hogwarts. Sí, la escuela de magia ficticia de Harry Potter.

La palabra dinosaurio

En 1842, el paleontólogo británico Richard Owen creó el nombre de “dinosaurio” para el grupo (el hablaba de una tribu o suborden) de reptiles fósiles de gran tamaño que eran claramente diferentes de los reptiles actuales. La palabra “dinosaurio” está formada por dos raíces griegas: deinós, que significa terrible, potente o enorme, y sauros, que significa “reptil”. Owen fue también quien realizó las primeras reconstrucciones, imprecisas y fantasiosas, de dinosaurios a partir de sus fósiles.

diciembre 04, 2012

La magia y nuestro cerebro

“En lo referente a la comprensión del comportamiento y de la percepción, hay casos concretos en los que el conocimiento intuitivo del mago es superior al del neurocientífico”, Macknik y Martínez-Conde.

El mundialmente respetado mago
Juan Tamariz fue uno de los colaboradores
en los estudios de magia y neurociencia.
(Foto promocional, fair use)
Los magos son expertos en engañarnos. Entendiendo “magia” como el arte del ilusionismo en sus muchas variedades, no la magia real que hasta hoy nadie ha podido demostrar que existe.

Los magos nos engañan y entusiasman desde hace al menos 6 mil años, si, como parece, alguno de los relatos del papiro Westcar, que data de tiempos del faraón Keops o Khufu, quien ordenó la construcción de la Gran Pirámide de Giza, se refiere a ilusiones y no a magos o brujos verdaderos.

Hay magos que admiten abiertamente que hacen trucos, y ante los cuales reaccionamos como si nos desafiaran a descubrir el truco. Un buen mago nos asombra haciendo lo que ellos llaman “efectos” y que nosotros sabemos que no puede ser en la realidad, que es un truco, pero somos incapaces de desentrañar “dónde está el truco”. Otros utilizan los trucos o efectos de la magia de escenario para hacer creer a los demás que tienen poderes sobrenaturales o para engatusarlos con fraudes como los triles, que se remontan, también, al antiguo Egipto.

Pero en todo caso, lo que hacen los magos es jugar con nuestro cerebro, manipular nuestra atención, nuestros sentidos, nuestra forma de pensar habitualmente y así hacer aparecer o desaparecer objetos donde no era posible que aparecieran o desaparecieran. Como dice Teller, el miembro silencioso de la pareja de magos Penn & Teller, “Cada vez que se hace un truco de magia, está uno dedicándose a la psicología experimental. Si el público se pregunta ‘¿Cómo rayos lo hizo?’, el experimento fue exitoso. He explotado las eficiencias de su mente”.

No revelamos ningún truco (el pacto de la discreción sobre cómo se hacen los efectos es parte fundamental de la comunidad del ilusionismo) al reccordar el asombro que nos provocaba de niños que alguien sencillamente ocultara una moneda en la mano y fingiera sacarla de nuestra oreja. Uno sabe que las monedas no salen de las orejas y no atina a explicarse lo ocurrido.

Sin embargo, el estudio de las ilusiones mágicas tuvo que esperar la llegada de una pareja de neurocientíficos del Instituto Neurológico Barrow de Phoenix, Arizona: Stephen Macknik, director del laboratorio de Neurofisiología del Comportamiento y Susana Martínez-Conde, coruñesa que dirige a su vez el laboratorio de Neurociencia Visual, dedicado a las ilusiones visuales. Su trabajo de varios años con los mejores magos del mundo ha dado como resultado una serie de artículos tanto científicos como divulgativos en las más prestigiosas revistas, desde Nature Neuroscience hasta Scientific American.

Los estudios que han realizado Macknik y Martínez-Conde han ido revelando cómo los magos emplean, de modo empírico, desarrollado al paso de los siglos, aspectos de nuestro sistema cognitivo de los que la ciencia ni siquiera estaba al tanto hasta hace un par de siglos. La capacidad limitada de nuestra vista para distinguir contrastes, la retención o persistencia de la visión (esa postimagen que percibimos más claramente cuando nos deslumbra el súbito flash de una cámara), los ángulos que hacen que percibamos mejor o peor la profundidad de un objeto o el fascinante fenómeno del relleno.

Nuestra experiencia visual es extremadamente rica, pese a que nuestros ojos tienen una “resolución” muy inferior a la de las cámaras digitales comunes con las que nos fotografiamos por diversión (aproximadamente un megapíxel según los investigadores). Nuestro cerebro, sin embargo, tiene un sistema de circuitos tal que nos permite “predecir” cómo son las cosas a partir de lo que ve, y “rellenar” los huecos de modo que tengamos una visión mucho más clara de la que nos ofrecen nuestros ojos.

Una de las más fascinantes confirmaciones del trabajo de estos investigadores con los magos es que nuestro cerebro no es capaz de hacer dos cosas a la vez. Por mucho que nos guste pensar que sí podemos hacerlo.

En palabras de Luigi Anzivino, que conjunta las dos profesiones de ilusionista y neurocientífico (y cocinero, insiste), cuando vemos un truco de magia estamos tratando de seguir el efecto y al mismo tiempo de desentrañar el método mediante el cual se consigue ese efecto, el “¿cómo lo hace?” esencial para la buena magia. Dice Anzivino: “Por cuanto se refiere a nuestro cerebro, no existe el multitasking”. Macknik y Martínez-Conde lo confirman con el fenómeno conocido como “ceguera por desatención”: cuando nos concentramos en una cosa, pueden pasar otras muchas, bastante singulares, sin que nos demos cuenta. Si estamos contando cuántos pases se dan unos jugadores de baloncesto en un vídeo, literalmente puede pasar entre ellos un hombre con un disfraz de gorila y no nos daremos cuenta.

No es broma, es un clásico experimento realizado en Harvard por Daniel J. Simons y Christopher F. Chabris. Cuando los magos hacen algo que quieren que veamos, atrapan nuestra atención y nos vuelven, literalmente, ciegos a otras cosas que están haciendo y que no quieren que veamos. Lo que se llama en el argot mágico “misdirection”: llevar la atención a una dirección opuesta a lo que está haciendo el mago.

Y no, la mano no es más rápida que la vista. Aunque la palabra “prestidigitación” signifique “velocidad al mover los dedos”, lo que realmente hacen los magos es jugar con nuestros sentidos y atención, con los mecanismos que hemos desarrollado para poder manejar la realidad a nuestra conveniencia. Porque el cerebro con el que nos explicamos el universo evolucionó para encontrar alimento, cazar y evitar ser cazados... y poco más.

El estudio neurocientífico de las ilusiones mágicas nos confirma que la representación del mundo que nos ofrecen nuestros sentidos y los mecanismos de nuestro cerebro para interpretarlos no sea exacta. El mundo no es lo que parece, y magos y timadoresse aprovechan de ello.

Pero queda el consuelo de que somos la única especie, hasta donde podemos decirlo, que sabe, con toda certeza, que su percepción no es del todo fiable. Y que es capaz de estudiar cómo y por qué. Con ayuda de un poco de magia.

Un secreto de Tamariz

Juan Tamariz fue uno de los muchos magos estudiados por Macknik y Martínez-Conde. En el libro que escribieron, “Los engaños de la mente”, revelan muchos trucos mágicos para explicar su relación con nuestro conocimiento sobre nuestros mecanismos neurológicos, pero uno en particular de Tamariz resulta más misterio que revelación: los movimientos, la ropa, la voz, los gritos, las risas y todo lo que parece hacer a Juan Tamariz excéntrico no son sólo efectos escénicos. Todos esos detalles, en apariencia superficiales, son esenciales para el éxito de las ilusiones del mago. Aunque no nos diga cómo lo hace.

noviembre 26, 2012

Los mensajeros del sistema nervioso

Hace menos de cien años que se identificaron las sustancias químicas gracias a las cuales funciona todo nuestro sistema nervioso y, por tanto, nuestro organismo.

La comunicación sináptica entre dos neuronas
por medio de los neurotransmisores.
(Imagen D.P. de US National Institutes of Health
vía Wikimedia Commons, modificada y
traducida por "Los expedientes Occam")
Era la década de 1880 y Santiago Ramón y Cajal llegaba a una conclusión asombrosa. Las neuronas, las células cerebrales recién descubiertas y a las que el zaragozano había dado nombre, no formaban una red o malla en la que todas estaban interconectadas, sino que cada una transmitía impulsos únicamente en una dirección.

Y, además, lo hacían sin tocarse.

Ramón y Cajal descubrió una separación de entre 20 y 40 nanómetros (millonésimas de metro), en el punto de unión de cada neurona y la célula a la que le transmite los impulsos, ya sea otra neurona, un músculo o una glándula. El misterio era, entonces cómo se realizaba la transmisión de los impulsos en esa unión, llamada por el inglés Charles Scott Sherrington “sinapsis”, palabra griega que significa “conjunción”.

Los fisiólogos y químicos trabajaron para resolver el acertijo y al mismo tiempo explorando las sustancias presentes en el sistema nervioso, basados en dos hipótesis. Según la primera, los impulsos nerviosos se transmitían de modo eléctrico, comunicando un potencial a través de la sinapsis. Según la otra, la transmisión se debía a alguna sustancia química. Los científicos, que trabajaban en estrecha comunicación, se refirieron a este debate como “la guerra de las chispas y las sopas”.

Otto Leowi respondió en parte la pregunta mediante un elegante experimento que, según relataría él mismo, se le ocurrió durante un sueño. Tomó dos corazones vivientes de dos ranas, que se pueden conservar latiendo durante un tiempo en una solución salina tibia, y los colocó en recipientes separados. Uno de los corazones conservaba el nervio vago, que es el responsable de controlar el ritmo cardiaco, mientras que al otro no se le mantenía. Leowi estimuló eléctricamente el nervio vago del primer corazón haciendo que latiera más lentamente. A continuación, tomó parte del líquido en el que estaba sumergido el primer corazón y lo aplicó al recipiente que contenía el segundo corazón. Al estar expuesto al líquido, este segundo corazón también empezó a latir más lentamente.

La única conclusión posible era que se había producido una sustancia en el primer corazón que provocaba que el segundo tuviera la misma respuesta. La transmisión química quedaba demostrada y su publicación en 1921 le valdría a Loewi el Premio Nobel de Medicina o Fisiología en 1936.

Poco después, Loewi pudo demostrar que la sustancia que ralentizaba el corazón de las ranas era, como sospechaba, la acetilcolina, sustancia que había sido descubierta siete años antes por su amigo, el fisiólogo británico Henry Hallet Dale. Era el primer neurotransmisor identificado. Loewi también halló otra sustancia que hacía que se acelerara el ritmo cardiaco, que con el tiempo sería identificada como norepinefrina.

Funcionamiento

Las neuronas están formadas por un cuerpo o soma, una serie de ramificaciones llamadas dendritas que pueden recibir impulsos nerviosos y un axón, una prolongación que es la que transmite los impulsos a las células receptoras: otras neuronas, fibras musculares, glándulas, etc. En las sinapsis con esas células, las ramificaciones del axón cuentan con pequeñas vesículas que, al recibir un impulso nervioso, pueden liberar distintos tipos de neurotransmisores. Estas sustancias químicas ocupan el espacio sináptico y son atrapadas por receptores químicos en la célula receptora, que cambia su actividad en función de éstos.

Cada receptor químico reacciona sólo ante un neurotransmisor, en un mecanismo similar al de una llave y una cerradura. Los receptores de un neurotransmisor como la dopamina sólo reaccionan al capturar dopamina e “ignoran” completamente a todos los demás neurotransmisores que puedan estar en el líquido que ocupa el espacio sináptico.

Hay neurotransmisores “excitadores” que incrementan la actividad en la célula receptora, “inhibidores” que la disminuyen y “moduladores” que pueden cambiar la forma que adopta la actividad de la célula receptora. Y la respuesta de las células a ellos es compleja. Aunque se dice que, por ejemplo, la escasez de serotonina está relacionada con la depresión, esto no significa que consumir o inyectarse serotonina cure la depresión. Cada célula receptora obtiene información de muchos axones, recibiendo una mezcla de neurotransmisores cuyo equilibrio final determina, por ejemplo, si una fibra nerviosa se contrae o no, a qué velocidad, y con qué intensidad. Este cóctel de neurotransmisores con las distintas células de nuestros músculos permite que levantemos un brazo lenta o rápidamente, con fuerza o débilmente. Lo mismo ocurre con las secreciones de todas nuestras glándulas.

En el caso de algunas enfermedades, además, el problema puede ser que las moléculas del neurotransmisor no fluyen de las vesículas del axxón a la célula receptora, sino que fluyen de vuelta a la superficie del axón, interrumpiendo la comunicación.

Poco a poco, la forma de acción y la ubicación de cada uno de los neurotransmisores en distintos puntos del sistema nervioso central y en todo el cuerpo, nos van dando información sobre la causa de muchos trastornos mentales y permiten no sólo crear nuevos medicamentos, sino entender el mecanismo de acción de los que ya tenemos, como los antidepresivos, los ansiolíticos y los antipsicóticos.

Desde la acetilcolina se han descubierto más de 50 neurotransmisores que están presentes en distintos lugares de nuestro sistema nervioso central, y los investigadores siguen encontrando nuevas sustancias que colaboran en la compleja danza que determina cómo el sistema nervioso controla el resto del cuerpo. Apenas en 2011, por ejemplo, se descubría en Barcelona el ácido D-aspártico, un neurotransmisor implicado en el aprendizaje y la memoria.

Como nota curiosa, en la década de 1950 se empezaron a identificar sinapsis eléctricas, primero en cangrejos y después en vertebrados. En la “guerra de las chispas y las sopas” todos tenían razón, aunque el principal medio de transmisión de los impulsos nerviosos sean los apasionantes neurotransmisores.

Las adicciones

Los neurotransmisores nos han ayudado a entender cómo actúan las drogas en nuestro cerebro. Drogas como la cocaína o la metanfetamina aumentan el nivel de transmisión de la dopamina en nuestro cerebro, mientras que los opiáceos actúan imitando los neurotransmisores naturales que conocemos como “endorfinas” o “morfina interna”, eliminando el dolor y aumentando las sensaciones de placer. Se cree, además, que el alcohol actúa interactuando con los receptores del ácido gamma aminobutírico (GABA). Las drogas, pues, son como ganzúas o llaves maestras que engañan a nuestro cerebro simulando ser nuestros neurotransmisores naturales.

noviembre 20, 2012

La sociedad de la ciencia

La revolución científica consiguió sobrevivir y desarrollarse gracias al trabajo de científicos que decidieron que la colaboración y el intercambio eran más fructíferos que el trabajo en solitario.

Portada de la historia de la Royal Society de 1667
de Thomas Sprat. Francis Bacon aparece a la
derecha. (D.P. vía Wikimedia Commons)
La Royal Society es un club exclusivo que ha tenido entre sus miembros a muchos de los más distinguidos científicos. El químico Robert Boyle y el físico Albert Einstein, el codescubridor del ADN James Crick, Charles Darwin y Richard Dawkins, el descubridor de la penicilina Alexander Fleming e Isaac Newton, el descubridor del oxígeno Joseph Priestley y el filósofo y matemático Bertrand Russell son sólo unos cuantos.

Quizá en todo el mundo no haya una sola institución que a lo largo de los siglos haya reunido a tantas mentes brillantes, más de 8.000. Pero quizá también es justo decir que no hay ninguna otra institución que se haya propuesto los fines que dieron origen a esta venerable sociedad y los haya conseguido durante 350 años.

La sociedad comenzó como un “colegio invisible” informal de filósofos naturales (los que hoy llamamos científicos), que a mediados de la década de 1640 empezaron a reunirse para hablar de la nueva filosofía postulada por Francis Bacon, y que buscaba conocer el mundo natural sometiendo toda idea a contrastación mediante una investigación organizada y metódica a través de la observación y la experimentación.

Bacon mismo había muerto en 1626 de una neumonía que, según la leyenda, contrajo al intentar demostrar experimentalmente que el frío conservaba la carne, rellenando de nieve un pollo durante una tormenta.

Esa “nueva filosofía” habría de conformar la revolución científica que abordaron entusiastas muchos estudiosos. Las primeras referencias al colegio invisible o colegio filosófico se encuentran en cartas escritas en 1646 y 1647 por el químico Robert Boyle, que había estado en Florencia en el momento de la muerte de Galileo, cuya influencia le llevó a intentar estudiar el mundo desde una perspectiva matemática y materialista.

Después de una conferencia del astrónomo y arquitecto Christopher Wren, el 28 de noviembre de 1660, 12 de estos científicos decidieron fundar lo que llamaron “un colegio para la promoción del aprendizaje experimental físico-matemático”. Su objetivo era reunirse una vez por semana para ser testigos de experimentos y comentarlos, bajo el lema “Nullius in verba”, que significa “no aceptes la palabra de nadie”, una forma de indicar que la autoridad y las afirmaciones no tienen valor si no están confirmadas por los hechos y los experimentos.

En una época de comunicaciones lentas e ineficientes, estos revolucionarios del conocimiento encontraban en sus reuniones la oportunidad de conocer nuevos libros, nuevos experimentos, nuevas ideas que ampliaran sus propios trabajos. Así, en su cédula real de 1663, obtenida gracias al apoyo del rey Carlos II, la organización adquiere el nombre de “Real Sociedad de Londres para Mejorar el Conocimiento Natural”.

El nombre, sin duda, sonaba bastante modesto. Y sin embargo, en la institución se dio forma a la ciencia moderna. Su enfoque pionero sería retomado, con mayor o menor exactitud y fortuna, por todas las academias de ciencias que vendrían después.

En 1665, la sociedad publicó su primera revista científica, “Philosophical Transactions”, que sigue siendo hoy la publicación periódica científica más antigua del mundo, y en 1723 estableció su secretaría internacional para establecer y desarrollar relaciones con academias de todo el planeta.

Los problemas que ha abordado la Royal Society no han sido únicamente los relacionados con el avance de cada una de las ramas del conocimiento, como los descubrimientos en física o en química, sino que han estado relacionados con la forma misma de ese conocimiento. ¿Qué es la ciencia? ¿Cuáles son los mejores métodos para abordar distintos temas de estudio, desde la materia hasta las sociedades humanas? ¿Era el ser humano materia de la ciencia en cuanto a su comportamiento individual, como lo analiza la psicología, o su comportamiento social desde el punto de vista de la antropología y la sociología? E incluso, ¿qué estilo de redacción es el más adecuado para comunicar la ciencia?, pregunta cuya respuesta ha dado forma al artículo o paper científico común en la actualidad.

La Royal Society se ocupó de estos temas y, en el proceso, fue evolucionando para ir más allá de ser un instrumento para la mayor gloria de la corona británica, o su aval colonial, para hacerse muchas preguntas que los políticos no se atrevían a hacer.

Los tiempos fueron con frecuencia detrás de la respetable organización. En 1900, una mujer propuso por primera vez que la sociedad aceptara en su seno como miembros de pleno derecho a mujeres “debidamente calificadas”, y la primera propuesta seria se hizo en 1902 para que fuera admitida Hertha Ayrton, ingeniera, matemática e inventora. Sin embargo, según la ley, en su calidad de mujer casada no tenía personalidad legal alguna, y la Royal Society no pudo admitirla como miembro, aunque sí la invitó dos años después a presentar un artículo sobre las ondas en la arena y el agua y le concedió su medalla Hughes en 1906, además de invitarla a presentar dos estudios más, en 1908 y en 1911.

No fue sino hasta 1945 cuando la Royal Society enmendó sus reglamentos para poder admitir a las primeras dos mujeres como miembros: la cristalógrafa Kathleen Lonsdale y la bioquímica Marjorie Stephenson. A la fecha, más de 110 mujeres han sido electas miembros o fellows de la Royal Society.

La Royal Society concede varios premios a sus miembros y a otros científicos. La Medalla Copley se entrega desde 1731 a logros notables en el terreno de la investigación. En 1826, el rey Jorge IV estableció la Medalla Real, otorgada a las más importantes aportaciones al avance del conocimiento natural. Concede desde 1901 la medalla Sylvester a grandes logros matemáticos, y desde 1902 la medalla Hughes que celebra los descubrimientos importantes en las ciencias físicas.

En la actualidad, la Royal Society financia más de 1.600 becas al año para británicos o para extranjeros que desean trabajar en Gran Bretaña, promueve el desarrollo de la ciencia en todo el mundo, especialmente en África.

Aunque sólo fuera por eso

En 1683, en una cena de la Royal Society con Edmond Halley (el del cometa) y Robert Hooke, Christopher Wren ofreció 40 chelines a quien explicara por qué la órbita de los planetas es elíptica y no circular. Para averiguarlo, Halley llamó a un matemático malhumorado pero genial, Isaac Newton, quien encontró la respuesta. Pero para ello hubo de crear el cálculo infinitesimal y escribir una de las obras cumbres de la ciencia, “Principia Mathematica”, que describía las leyes del movimiento universal y la mecánica celeste. Años después, Newton sería presidente de la Royal Society.

noviembre 12, 2012

Los genes del neandertal... ¿y de usted?

Los neandertales recorrían Europa mucho antes de que nuestra especie saliera de África y se extendiera por el planeta. Sólo por eso serían uno de los más interesantes enigmas de la historia y la biología. Pero hay más.

Cráneo de Homo sapiens moderno a la izquierda comparado
con el de un Homo neardenthalensis.
(Imagen CC, foto de hairymuseummatt alterada por
DrMikeBaxter, vía Wikimedia Commons)
Durante muchos años se creyó que la evolución humana era una línea continua entre nuestro ancestro común con otros primates y nosotros. Pero no es así. A lo largo de los últimos seis millones de años han aparecido varias especies que vivieron al mismo tiempo, algunos fueron nuestros ancestros, otros no. Pero la historia completa de la evolución de las distintas especies relacionadas con el ser humano durante los últimos seis millones de años aún no es clara.

Lo que sí sabemos es que el ser humano apareció como tal hace unos 200.000 años en África. Cualquier Homo sapiens de esa época podría andar tranquilamente por las calles sin que nadie notara nada extraño.

Hace unos 125.000 años, nuestra especie salió de África hacia otros continentes, donde se encontró con otras especies humanas como los recientemente descubiertos Denisovianos y los más conocidos hombres de Neandertal, una especie que fabricaba herramientas, tenía un lenguaje, vivía en grupos sociales complejos, enterraba a sus muertos, cocinaba con fuego e incluso utilizaba adornos, y que vivió durante 300.000 años en Europa, Asia Central y el Oriente Medio.

¿Qué implicó la coexistencia de los humanos actuales con los neandertales en Europa y Asia durante unos 20 mil años?¿Los sapiens y los neandertales convivieron pacíficamente, se enfrentaron con violencia, compitieron o se ignoraron? ¿La desaparición de los neandertales hace 24.000 años estuvo relacionada con el sapiens o, incluso, fue provocada por esta especie? Y, por supuesto, el tema más apasionante para el ser humano, el sexo: ¿hubo relaciones sexuales, intercambio genético, mestizaje entre los sapiens y los neandertales?

Las primeras preguntas quizá puedan ser respondidas cuando obtengamos más evidencia física, excavaciones que puedan ayudarnos a reconstruir, poco a poco, cómo convivieron las dos especies, tan parecidas. La tercera se ha intenta resolver mediante nuestros conocimientos y nuestra tecnología relacionados con la genética.

El genoma neandertal

En 2006 se emprendió un esfuerzo concertado por secuenciar el genoma de los neandertales, un trabajo al frente del cual se puso al biólogo sueco especializado en genética evolutiva Svante Pääbo, director del Departamento de Genética del Instituto Max Planck de biología evolutiva situado en Leipzig, Alemania. Pääbo ya había demostrado, en 1997, con base en el ADN mitocondrial (que procede únicamente de la madre), que nuestra especie se había separado de los neandertales creando dos linajes distintos hace medio millón de años.

Apenas en 2003, se había presentado un boceto completo del genoma humano, que había sido uno de los proyectos más ambiciosos y amplios desarrollados en la biología. Pero para ése se había contado con la aportación de muchos donantes que habían dado muestras de ADN completas, mientras que para el proyecto de Pääbo se contaba con muestras de muy pocas muestras de restos neandertales de Croacia, Rusia, España y el neandertal original descubierto en el siglo XIX en Alemania.

Las muestras presentaban varios problemas. Primero, al paso del tiempo el ADN neandertal se había desintegrado en pequeños fragmentos. Después, en los antiguos huesos se hallaba también el ADN de los muchos microorganismos que habían vivido en en ellos desde la muerte de sus dueños originales. Según Pääbo, más del 95% de algunas muestras era de estos microorganismos. Además, al ser excavados, los huesos se veían expuestos a muchas otras fuentes de ADN, incluidos los investigadores, paleoantropólogos y técnicos que los habían estudiado. El desafío obligó a los científicos a desarrollar nuevas tecnologías para eliminar el ADN extraño e identificar el que era genuinamente del neandertal.

En 2010, el Proyecto del Genoma Neandertal publicó sus primeros resultados en la prestigiosa revista Science secuenciando alrededor de 4 mil millones de pares de bases del genoma neandertal (cada par de bases es un “escalón” de la doble espiral que forma la molécula de ADN.

Una de las más sugerentes interpretaciones del estudio de Pääbo y su equipo fue que entre el 1 y el 4% del ADN de las poblaciones humanas modernas de Europa y Asia era compartido con los neandertales, una cifra mucho mayor que la presente en gente del África subsahariana, lo que apuntaba a la posibilidad de que ambas especies hubieran tenido un intercambio genético.

Otro elemento importante fue la determinación de que el genoma del neandertal y el de los seres humanos actuales son iguales en un 99,7%, donde sólo el 0,03 del ADN explicaría las profundas diferencias anatómicas entre nosotros y nuestros primos. El neandertal carecía de barbilla, su frente se inclinaba hacia atrás a partir de unos pronunciados arcos o toros superciliares, protuberancias del cráneo por encima de los ojos. Igualmente mostraban clavículas más anchas, importantes diferencias respecto de nuestros dientes, buesos de las piernas combados, rótulas de gran tamaño y otros muchos aspectos que harían que un neandertal por las calles del siglo XXI probablemente sí llamaría la atención, por más que lo vistiéramos y peináramos a la última moda.

Pero esto, sin embargo, no era una prueba concluyente. Un estudio de la Universidad de Cambridge, dirigido por el Andrea Manico y publicado en 2012 señaló que el análisis original había sobreestimado la cantidad de ADN compartido con los neandertales, además de no haber tenido en cuenta la variabilidad genética que ya tenían las distintas poblaciones de los ancestros de los humanos modernos en África. Al tomar en cuenta estos aspectos, resulta probable que el ADN compartido proviniera más bien de un ancestro común de ambas especies que habría vivido hace medio millón de años. Pääbo, por su parte, ha realizado otros estudios que está aún por publicar y que, asegura, dan nuevo sustento a su tesis de que hubo un mestizaje sapiens-neandertal.

Mientras se resuelve la controversia, muchos esperan que nuevas excavaciones descubran otras especies humanas que podrían complicar aún más la historia de cómo nos convertirmos en el animal que trata de entender su propio devenir.

Qué nos hizo como somos

Svante Pääbo declaró en 2011 a Elizabeth Kolbert, de la revista New Yorker: “Quiero saber qué cambió en los humanos modernos en comparación con los neandertales, que marcó la diferencia. Qué hizo posible que nosotros construyéramos estas enormes sociedades, y dispersarnos por todo el planeta y desarrolar la tecnología que, me parece, nadie puede dudar que es singular de los humanos. Debe haber una base genética para ello”.

noviembre 06, 2012

Ver el sonido para estudiarlo

El oído es probablemente el segundo sentido más importante después de la vista. La comprensión del sonido, sin embargo, se desarrolló casi cien años después de los descubrimientos de Newton sobre la luz y la óptica.

Figuras de Chladni en la tapa trasera de una guitarra.
(Foto GFDL de Mrspokito, vía Wikimedia Commons
Era 1500, en los inicios de la revolución científica, cuando Leonardo Da Vinci observó que no había sonido cuando no había movimiento o percusión del aire.

La fascinación de Leonardo por las ondas en el agua y los remolinos de agua y aire es dominante en sus libros de notas, y fue por ello que, viendo las olas que se generaban en la superficie del agua al arrojar una piedra sobre ésta, descubrió que el sonido se comportaba de forma similar, es decir, que se transmitía por el aire en círculos concéntricos sin que éste se moviera, igual que las olas en el agua.

Como con muchos otros aspectos de la realidad, los filósofos griegos se ocuparon de tratar de entender la música y, por extensión, el sonido. En el siglo VI antes de nuestra era, Pitágoras fue el primero en observar que un cuerpo vibratorio genera un movimiento igualmente vibratorio en el aire, que se puede oír y sentir. Describió matemáticamente las armonías que conocemos como intervalos de quinta y de cuarta, y descubrió la relación inversa entre la longitud de una cuerda y su tono, es decir, mientras más corta es una cuerda (y en general la fuente productora de sonido), más aguda es la nota.

El filósofo estoico del siglo III a.n.e., Crisipo de Solos, se aproximó a lo que descubriría Leonardo 800 años después proponiendo que el sonido viaja por el aire del mismo modo en el que la energía viaja a través del agua.

Pero los griegos se interesaron más en las leyes que regían los aspectos prácticos del sonido. Así, su amor por el teatro llevó al diseño de teatros con propiedades acústicas tales que todo el público pudiera escuchar a los actores. Como ejemplo, en Epidauro todavía podemos ver uno de los teatros mejor conservados de la antigüedad, construido en el 350 a.n.e. y cuyo diseño semicircular, una pared detrás del escenario y un graderío con gran inclinación tiene propiedades acústicas que aún nos sorprenden.

El sonido, finalmente, es tan sólo una onda que se difunde por un medio a partir de un objeto que vibra, como nuestras propias cuerdas vocales. Al moverse hacia adelante, el objeto comprime las moléculas del aire frente a él y, al moverse hacia atrás, las expande. La onda resultante, se transmite así por cualquier medio líquido, sólido o gaseoso, aunque nosotros nos interesamos más por la propagación del sonido a través del aire, que es como más usualmente lo percibimos.

La acústica científica

El estudio del sonido encontró a su Cristóbal Colón en el alemán Ernst Florens Friedrich Chladni, nacido en 1756 en Wittenberg. Desde muy joven, Ernst mostró interés por la música y por la ciencia, dos disciplinas que no eran bien vistas en modo alguno por su padre, Ernst Martin Chladni, profesor de leyes en la universidad de la misma ciudad, quien optó por obligar a su hijo a estudiar leyes.

Chladni obtuvo su título de leyes en 1782 en la Universidad de Leipzig, el mismo año que murió su padre, por lo cual no practicó nunca como abogado sino que se dedicó a sus pasiones originales.

Como músico aficionado, Chladni inventó dos instrumentos derivados de la armónica de vidrio, en la que una serie de piezas de cristal giratorias son pulsadas con los dedos humedecidos para provocar su vibración, el mismo principio utilizado por quienes interpretan melodías con copas de vidrio afinadas según la cantidad de líquido en su interior.

Pero su interés en la ciencia del sonido lo llevó de vuelta a las primeras observaciones de Pitágoras. Si un cuerpo que vibra provoca el sonido, ¿qué pasa cuando hacemos vibrar un cuerpo determinado?

Para averiguarlo, Chladni utilizó placas metálicas y de vidrio recubiertas de arena que hizo vibrar pasando por sus bordes un arco de violín. El asombroso resultado es que las vibraciones provocan que la arena se acumule en patrones simétricos, conocidos como “figuras de Chlandi”, que permiten ver las vibraciones de las ondas sonoras en un cuerpo sólido. Publicó los resultados de sus experimentos en 1787 atrayendo la atención de la sociedad europea de su época. Aprovechó este interés para empezar una serie de viajes por Europa en los que se presentaba en público para interpretar música en sus instrumentos y a demostrar las figuras de Chladni.

Como él mismo lo hacía notar, aunque desde tiempos de los griegos se había llegado a una sólida comprensión de cómo una cuerda que vibra produce sonido, no se sabía prácticamente nada de cómo lo producían las placas sólidas.

Al vibrar una placa, desplaza la arena en su superficie, que se acumula en las zonas donde no hay movimiento, llamadas “curvas nodales”. Las curvas varían en función del material del que está construida la placa y de la forma de ésta.

Chladni también estudió las vobraciones de varillas cilíndricas y en forma de distintos prismas. El análisis d el tono de varillas de distintas longitudes le permitió deducir la velocidad del sonido en los sólidos. Después experimentó llenando instrumentos de viento con distintos gases y utilizando los tonos que producían para determinar la velocidad del sonido en dichos gases. Sus estudios ampliados se publicaron en el libro Die Akustik (la acústica) de 1802.

Chladni era, además, un excelente experto en relaciones públicas. Sus viajes le permitieron conocer a grandes personajes de la europa del siglo XIX como Goethe o el matemático Laplace, mientras que sus demostraciones ante Napoleón en 1808 hicieron que éste ordenara que se realizara la traducción al francés de Die Akustik.

El trabajo de este pionero no fue solamente valioso para la ciencia. Hoy en día es común que durante la fabricación de instrumentos con caja de resonancia como los violines o las guitarras acústicas las tapas se sometan a vibraciones para determinar sus propiedades acústicas según las figuras de Chladni que forman. Las características de muchos instrumentos que nos deleitan proceden así del trabajo del hombre que no quiso ser abogado.

“Vienen del cielo”

Ernst Chladni fue también un entusiasta y coleccionista de meteoritos. Consultando diversos documentos, postuló que las bolas de fuego que se podían ver en el cielo y los meteoritos que se podían encontrar en tierra eran lo mismo. Aunque la opinión de los más racionales se inclinaba por creer que los meteoritos eran objetos lanzados por volcanes u otros fenómenos terrestres, en un folleto de 1794 Chladni propuso que, dada la velocidad de las bolas de fuego, debían provenir del espacio exterior. Pasaron 10 años para que, gracias a los estudios de otros científicos, se aceptara generalmente el origen extraterrestre de los meteoritos.

octubre 30, 2012

Los tipos duros del musgo

Han ido al espacio, los han congelado, los han bombardeado con radiación, desecado y hervido... después de lo cual siguen viviendo y reproduciéndose. Son los genuinos tipos duros de la evolución.

Un tardígrado adulto.
(Foto CC de Goldstein lab, vía Wikimedia Commons)
En la mitología popular, las cucarachas son los únicos animales que sobrevivirían a una guerra nuclear y son, por tanto, los campeones de la resistencia.

No es así.

El mito, nacido de la idea de que algunas cucarachas habían sobrevivido a las explosiones nucleares de Hiroshima y Nagasaki (como sobrevivieron otros seres vivos, incluidas muchas personas, los “hibakusha”, o “gente afectada por la explosión”), fue retomado y difundido por los activistas contra las armas nucleares en las décadas de 1960 y 1970.

El Comité Científico de Naciones Unidas sobre los Efectos de la Radiación Atómica ha determinado que las cucarachas pueden soportar dosis de radiación 10 veces superiores a la que mataría a un ser humano, 10.000 rads. Pero las humildes moscas de la fruta, las drosofilas, soportan casi 64.000 rads, y la avispa Habrobracon puede sobrevivir a 180.000 rads. A nivel unicelular, la bacteria Deinococcus radiodurans queda al frente soportando 1,5 millones de rads. (Por comparación la bomba de Hiroshima emitió rayos gamma a una potencia de unos 10.000 rads, y las bombas que hoy conforman los arsenales nucleares son miles de veces más potentes.)

Pero la supervivencia a la radiación es sólo uno de los elementos que forman a lo que podríamos llamar una especie de “tipos duros”. En general, los animales sólo podemos sobrevivir en una estrecha franja de temperaturas, presión, humedad, radiación y otros factores.

El caso excepcional, los campeones de resistencia en todos estos puntos, incluida la supervivencia a la radiación son unos diminuto seres llamados tardígrados, parientes tanto de los nematodos o gusanos redondos como de los artrópodos o seres con exoesqueleto.

Estos minúsculos invertebrados, llamados también osos de agua, pueden medir entre 0,05 y 1,5 milímetros y viven en entornos acuáticos o en zonas húmedas en tierra, como los lugares donde se cría el musgo.

Los tardígrados tienen un peculiar aspecto rechoncho, con cuatro pares de patas terminadas en largas garras. Su cuerpo está recubierto por una capa de cutícula que contiene quitina, proteínas y lípidos, y que debe mudar mientras crece, a través de la cual respiran.

Estos minúsculos seres tienen una anatomía muy compleja. Cuentan con manchas oculares cuya capacidad sensorial aún está siendo estudiada, un sistema nervioso con un pequeño cerebro, un aparato digestivo y un complejo aparato bucal que junto con las garras diferencia a las más de 1.000 especies de tardígrados que se han descrito hasta la fecha, y que varían según su alimentación: bacterias, líquenes, musgos, otros animales microscópicos e incluso, en algunas especies, otros tardígrados.

Algunas especies se reproducen mediante partenogénesis cuando escasean los machos, otras son hermafroditas que se autofertilizan y las hay donde machos y hembras se reproducen sexualmente. Y están donde quiera que uno los busque: en los bosques y los océanos, en el Ecuador y en los polos, en el suelo y en los árboles (siempre que haya humedad suficiente).

Todo esto, unido a la larga vida y el corto ciclo reproductivo de estos animales y al curioso hecho de que son seres que mantienen el mismo número de células a lo largo de toda su vida, ha sido responsable de que los científicos utilicen a los tardígrados como modelos para distintos estudios experimentales.

El secreto de la resistencia de los tardígrados es su capacidad de suspender el funcionamiento de su metabolismo ante condiciones adversas, un proceso llamado criptobiosis. En él, asumen un estado altamente duradero y reducido llamado “tun”. Si el animal enfrenta temperaturas demasiado bajas, por ejemplo, al formarse el tun se induce la producción de proteínas que impiden que se formen cristales de hielo, que son los que destruyen las células. Si enfrenta una situación de falta de agua, se encoge y deja salir el agua de su cuerpo. Y si encuentra situaciones de salinidad extrema que puedan sustraerle el agua por ósmosis, también pueden formar un tun.

Suspender el metabolismo significa, para la mayoría de los seres vivos, la muerte. Los tardígrados pueden permanecer en estado de tun hasta que las condiciones normales se restablecen y pueden volver a la vida normalmente. El récord, a la fecha, lo tienen unos tunes que se recuperaron después de 120 años desecados.

Cuando están en estado de tun, pueden sobrevivir hasta 200 horas a una temperatura de –273oC , muy cerca del cero absoluto (–273,15oC9, y hasta 20 meses a –200oC, mientras que en el otro extremo soportan temperaturas de 150oC (el agua hierve a 100oC). También pueden ser sometidos a 6.000 atmósferas de presión (el punto más bajo del océano, el fondo de la fosa de las Marianas, tiene una presión de 1.000 atmósferas, aproximadamente) y soportan altísimas concentraciones de sustancias como el monóxido y dióxido de carbono o el dióxido de azufre, y altas dosis de radiación: 570.000 rads.

Todo lo cual aniquilaría sin más a todos los insectos campeones de la radiación atómica.

Por esto, en 2007, la Agencia Espacial Europea envió al espacio ejempalres de dos especies de tardígrados, en estado de tun. Como parte de la misión BIOPAN 6/Fotón-M3 y a una altura de unos 260 kilómetros sobre el nivel del mar, algunos fueron expuestos al vacío y frío espacial, y otros a una dosis de radiación ultravioleta del sol 1.000 veces mayor que la que recibimos en la superficie de la Tierra.

Los pequeños sujetos experimentales no sólo sobrevivieron, sino que al volver y rehidratarse, comieron, crecieron y se reprodujeron dando como resultado una progenie totalmente normal. Esta hazaña sólo la habían logrado algunos líquenes y bacterias, nunca un animal multicelular.

En 2011, la Agencia Espacial Italiana envió a la ISS otro experimento en el último viaje del transbordador Endeavor, donde estos tipos duros volvieron a demostrar su resistencia a la radiación ionizante.

Dado lo mucho que pueden enseñarnos sobre la vida y la supervivencia, los tardígrados son sujetos, cada tres años de una reunión internacional dedicada a su estudio... un gran simposio para unos pequeños campeones de la resistencia.

Los lentos caminantes

“Tardígrado” quiere decir “de paso lento”. El nombre lo ideó el biólogo italiano Lazaro Spallanzani (descubridor de la ecolocalización en los murciélagos) en 1776 para estos animales, que habían sido descubiertos apenas tres años antes por el zoólogo alemán Johann August Ephraim Goeze. Fue Goeze el que les puso el nombre de “osos de agua” por su aspecto y movimiento. Su incapacidad de nadar y lentitud los distinguen de otros seres acuáticos microscópicos.

octubre 22, 2012

Pareto y la maldición de la revista

Dos curiosidades relacionadas con la estadística que, si no se tienen en cuenta, pueden llevarnos a conclusiones erróneas sobre nuestro mundo.

Sports Illustrated hizo referencia en 2001 a la
supuesta maldición de sus portadas.
Sabemos que la economía no es una ciencia, al menos no todavía, pues no puede predecir acontecimientos con un alto grado de certeza con base en leyes y observaciones diversas como lo hacen, por ejemplo, los astrónomos, cuando prevén el ciclo de 11 años de nuestro sol.

Pero la economía tiene algunos logros apasionantes por su peculiaridad, por ejemplo, el que se conoce popularmente como “Ley de Pareto”, aunque, curiosamente, no fue enunciada por Pareto.

Vilfredo Pareto fue un ingeniero, sociólogo, economista y matemático de fines del siglo XIX y principios del siglo XX, que buscó convertir la economía en ciencia mediante la observación, la medición y el análisis estadístico de los datos, pese a entender que la economía tiene una fuerte componente subjetiva debido a las emociones, creencias y demás peculiaridades de los seres humanos.

Pareto estableció el llamado “óptimo de Pareto” como medida de la eficiencia de una economía, por ejemplo la distribución de bienes en una sociedad, que ocurre cuando no se puede mejorar la situación de nadie sin dañar la de otros. Dicho de otro modo, cuando todos los participantes quedan al menos en la misma posición y al menos un participante queda en una situación claramente mejor.

En su intento por entender la riqueza, Pareto estudió la concentración de la riqueza en distintas sociedades y llegó a la conclusión de que en todos los países, los ingresos se concentraban más en las minorías y se iban distribuyendo a lo largo de la sociedad de forma decreciente. Esta ley se expresa coloquialmente como el llamado “principio de Pareto del 20-80”, es decir, más o menos el 20 por ciento de la población de cualquier país tiende a poseer el 80% de la riqueza.

Este principio fue ampliado por el economista Joseph Juran, que se dio cuenta de que el principio era aplicable a otros aspectos de la vida social y económica. Es decir, aunque la proporción puede ser distinta, una pequeña parte de todo esfuerzo para conseguir algo tiende a ser esencial y una gran parte es menos relevante. Juran fue quien lo llamó, “principio de Pareto”.

Aunque no se sabe cuál es la causa de este fenómeno, el principio de Pareto como aproximación general ha demostrado su validez empíricamente una y otra vez. Así, se ha descubierto que más o menos el 20% de los clientes de un negocio son responsables del 80% de sus ventas, o que el 80% de la contaminación está provocado por el 20% de los vehículos.

Una expresión del principio de Pareto fue la causante de la revolución del control de calidad (especialidad de Juran) que han vivido las empresas a partir de la década de los 70, permitiendo a las empresas concentrarse en los defectos o problemas que más ventas les costaban.

La regresión a la media

Entre los deportistas de Estados Unidos existe el mito de “la maldición de Sports Illustrated”, según la cual, cuando un deportista destaca tanto que llega a la portada de esta prestigiosa revista, automáticamente tiende a bajar su rendimiento.

Lo más curioso es que este mito se hace realidad en muchas ocasiones. Tantas que la propia revista hizo referencia a esta “maldición” en 2002, cuando puso un gato negro en la portada afirmando que ningún deportista quería posar para ella.

¿Es verdad que hay una maldición?

En realidad no. Lo que ocurre es que muchos deportistas llegan a la portada de esta revista debido a una serie de logros singulares y fuera de lo común en sus carreras, algo que los estadísticos conocen como un “valor atípico”. Ha superado, pues, su propia media, determinada en algún valor de su deporte: goles anotados, posición en la tabla de tenistas, asistencias en baloncesto o cualquiera otra variable. De pronto, durante una época determinada, el rendimiento sube alejándose de la media, el deportista llama la atención y su trabajo es más notorio, por lo cual la revista Sports Illustrated decide ponerlo en su portada.

Pero, por decirlo de algún modo, todo lo que sube tiene que bajar. O, puesto en lenguaje de los estadísticos, mientras más se aparte una variable aleatoria de su media, mayor será la probabilidad de que esa desviación disminuya en el futuro. O, en otras palabras, un acontecimiento extremo muy probablemente estará seguido de un acontecimiento menos extremo. Esto, para el jugador que durante unos cuantos partidos anotó más goles de los que solía anotar de media, significa que lo más probable es que regrese a su media en los siguientes partidos. O, como dirían los cronistas deportivos, tuvo una racha y se le terminó.

Los estadísticos le llaman a este fenómeno “regresión a la media”, un término bastante claro y que le debemos a Sir Francis Galton, quien lo descubrió estudiando la estatura media de hijos cuyos padres eran extremadamente altos o extremadamente bajos. Lo que descubrió este investigador fue que los hijos de padres muy altos tendían, claro, a ser altos... pero menos que sus padres, mientras que los hijos de padres muy bajitos tendían a ser de también de corta estatura, pero más altos que sus padres (todo esto en términos de poblaciones y grandes números, por supuesto que en casos individuales puede haber, y de hecho hay, excepciones).

La regresión a la media también nos explica fenómenos como el de la concesión de lotería que puede en un momento dar tres o cuatro premios gordos y luego no volver a dar ninguno durante muchos años, como suele ser normal. La regresión a la media también explica, asombrosamente, el alivio que nos pueden proporcionar algunos tratamientos pertenecientes a la pseudomedicina. Cuando hace crisis una enfermedad, afortunadamente, no tendemos a seguir cada vez peores hasta morir, sino que los síntomas (desde estornudos y moqueos hasta dolores de espalda) tienden, salvo excepciones, a volver a su situación anterior. Nuestro cuerpo regresa a su situación de salud media, el curandero se anota el éxito y pagamos la factura sin darnos cuenta de que ahí ha habido tanta relación causa-efecto entre los rituales del curandero y nuestra mejoría como la que hay entre aparecer en Sports Illustrated y caer hasta nuestro nivel habitual como golfistas. O como cualquier cosa que hagamos que nos haya salido bien por puro azar en un par de ocasiones.

No funciona cuando eres muy bueno

Hay deportistas excepcionales cuya media de rendimiento es muy alta. Son “los mejores”. A ellos, así, no les afecta la maldición de Sports Illustrated ni otras supersticiones, pues llegan a la portada por su media de rendimiento y no excepcionalmente. Así, el legendario Michael Jordan apareció 49 veces en la portada sin sufrir ninguna disminución de rendimiento. Lo mismo pasó con Rafael Nadal o Pau Gasol.

octubre 17, 2012

Insulina, la molécula de la discordia

Aunque la historia consagra a dos investigadores como los descubridores de la insulina y su uso en humanos, la historia real incluye puntos de vista contrarios, tensiones, desacuerdos e incluso algún puñetazo.

Moderno sistema de inyección de insulina, la única
forma de controlar la diabetes que hay a la fecha
(Foto D.P. de Mr Hyde, vía Wikimedia Commons)
El descubrimiento y uso de la insulina fue un episodio médico espectacular por los profundos y rápidos efectos que tuvo sobre una enorme cantidad de pacientes que sufrían de diabetes, con las atroces expectativas de enfrentar efectos devastadores, como la ceguera, daños graves a los riñones y al corazón, gangrena en las extremidades inferiores, mala cicatrización, úlceras e infecciones, sin contar crisis agudas como la cetoacidosis, una acumulación de sustancias llamadas "cuerpos cetónicos", que se producen cuando el cuerpo metaboliza grasas en lugar del azúcar, que no puede utilizar debido a la falta de insulina. Esta acumulación puede ser mortal en cuestión de horas.

A principios del siglo XX se sabía que los perros a los que se les extraía el páncreas presentaban síntomas similares a la diabetes, que las células del páncreas llamadas "islotes de Langerhans" jugaban un papel importante en la diabetes. Muchos investigadores intentaron preparar extractos de páncreas para tratar la diabetes, pero todos provocaban graves reacciones tóxicas, porque además de producir insulina, el páncreas produce enzimas digestivas y las lleva al tracto digestivo. Las células responsables de las enzimas eran las que causaban las reacciones de los pacientes.

En 1921, el médico canadiense Frederick Grant Banting tuvo la idea de ligar el ducto que va del páncreas al tracto digestivo para degenerar las células enzimáticas manteniendo vivas a las más resistentes de los islotes de Langerhans. Llevó la idea al profesor John James McLeod, de la Universidad de Toronto. Sin demasiado entusiasmo, McLeod le concedió a Banting un pequeño espacio experimental, algunos perros como sujetos experimentales y a un asistente, Charles Best, para que trabajaran durante las vacaciones de verano.

La idea era hacer un extracto del páncreas degenerado e inyectárselo a otro perro al que se le hubiera extraído el páncreas. Pronto aislaron una sustancia a la que llamaron "isletina", por los islotes de Langerhans (en 1922 cambiaron el nombre por "insulina", con la misma raíz etimológica).

La isletina reducía el azúcar en sangre de perros a los que se había extirpado el páncreas. McLeod se negó primero a creer en los resultados y se enfrentó con Banting, para finalmente decidir que debía reproducirse todo el estudio para tener certeza sobre los resultados. Les dio a Banting y Best mejores instalaciones y Banting pidió un salario, amenazando con llevar su investigación a otra institución. McLeod cedió, pero la tensión entre ambos ya nunca desaparecería, máxime porque Banting sentía injusto que McLeod se refiriera al proyecto hablando de "nuestros" experimentos y de "nosotros".

La insulina resultante era exitosa en perros. El éxito fue tal que en diciembre McLeod decidio dedicar todo su departamento de investigación al proyecto de la insulina y reclutó además la ayuda de un bioquímico, Bertram Collip, encargado de buscar formas de purificar la sustancia.

El 11 de enero de 1922 se realizó el primer ensayo en un ser humano. El niño de 14 años Leonard Thompson, que estaba al borde de la muerte por cetoacidosis, recibió la primera inyección de insulina. Además de sufrir una reacción alérgica, no experimentó ninguna mejoría. En una discusión, Collip amenazó con abandonar el equipo y dedicarse a producir insulina independientemente, asegurando que había encontrado un procedimiento y tenía la anuencia de McLeod para guardar el secreto. Banting estalló y, según algunos testimonios, golpeó a Collip derribándolo al suelo.

Los responsables de financiar los trabajos del laboratorio, Connaught Laboratories, intervinieron rápidamente e hicieron que los cuatro implicados firmaran un convenio comprometiéndose a no solicitar ninguna patente o colaboración comercial de modo independiente.

El 23 de enero, los investigadores volvieron a inyectar a Leonard Thompson con un extracto más puro. La reacción que tuvo el adolescente fue asombrosa. Empezó a recuperarse y en sólo un día se redujo la cantidad de azúcar en su sangre, desaparecieron los cuerpos cetónicos y empezó a mostrarse más activo. La espectacularidad de la reacción llevó a los médicos a tratar a otros seis niños el 23 de febrero, todos con resultados positivos, incluso alguno que se recuperó de un coma diabético.

En apenas ocho meses se había pasado de una hipótesis audaz de un médico poco experimentado en el laboratorio a un resultado dramático que pronto fue corroborado por estudios clínicos para determinar los efectos biológicos de la insulina, sus indicaciones y dosis. En menos de un año, la publicación de los resultados dio a conocer al mundo el nuevo tratamiento. La patente que obtuvieron los cuatro por la insulina y el método de obtenerla fue vendida a la Universidad de Toronto por el precio simbólico de un dólar canadiense para cada investigador.

Las disputas entre los investigadores seguirían cuando, en 1923, se concedió el Premio Nobel de Medicina o Fisiología a Frederick Banting y John James McLeod. El primero creía que el premio debería haber sido para su ayudante, Best, con quien de hecho compartió el dinero del premio, mientras que McLeod se enfureció por la exclusión de Collip, con quien él compartió su parte.

En medio de estos enfrentamientos, aparecieron además las reclamaciones de varios investigadores que habían trabajado en el tema de la diabetes. Nicolás Paulescu, de Rumania, había de hecho descubierto la insulina poco antes que Banting y Best. Georg Zuelzer, alemán, aseguraba que su trabajo había sido robado por los investigadores de Toronto. Ernest Lyman Scott exigió reconocimiento por haber realizado experimentos exitosos antes que los canadienses. E incluso fue notable que no se uniera al coro de indignación el bioquímico estadounidense Israel Kleiner, que había estado más cerca del éxito que todos los demás. El debate, que siguió durante todos los años posteriores y no está del todo resuelto aún ahora hace de la insulina uno de los descubrimientos más conflictivos de la ciencia, y muestra también sus peculiares debilidades humanas.

Transgénico para la vida

Primero, la diabetes se trató con insulina de páncreas de cerdos y de vacas, que es similar, pero no idéntica, a la humana, y puede provocar reacciones adversas. En 1978, Herbert Boyer modificó genéticamente bacterias E. coli para que produjeran insulina humana, la llamada "humulina", que además de ser más sostenible resultó más asequible. Hoy en día, la gran mayoría de la insulina que utilizan los diabéticos es producida por estas bacterias transgénicas.

octubre 10, 2012

¡Ellos fueron!

Se acaba de lanzar en Amazon, en formato Kindle, el libro electrónico ¡Ellos fueron!, formado por 50 biografías de científicos que se han publicado desde 2006 en la página de ciencia del suplemento "Territorios de la cultura" del diario El Correo, que escribo semanalmente desde 2006 y en este blog.

El libro está disponible en las tiendas de Amazon de España, Estados Unidos, Reino Unido, Francia e Italia,

El libro se dedica en parte a algunos de los más conocidos científicos y algunos detalles poco conocidos de sus vidas, pero también a gente como:

Un pirata cuya obra científica acompañó a Darwin en su viaje en el Beagle...

Una mujer sin cuyo trabajo habría sido imposible descubrir la forma del ADN...

Un mundialmente famoso guitarrista de rock que es doctor en astrofísica...

Un médico húngaro al que muy probablemente usted le debe la vida...

Un paleontólogo que quiso ser rey de Albania...

Un genio de la física que resolvía ecuaciones en clubes de striptease...

Un físico que regaló los derechos del invento que lo habría hecho multimillonario...

El matemático pobre que redescubrió toda la matemática moderna en su infancia...

Y otros 43 personajes peculiares que han participado en la investigación del universo y que han encontrado respuestas que dan forma a nuestra vida cotidiana, nuestro conocimiento, nuestro bienestar, nuestra salud y nuestro futuro.

William Dampier, Ignaz Semmelweis, Francis Bacon, Ambroise Paré, Richard Dawkins, Charles Darwin, María Sklodowska Curie, Leonardo Da Vinci, Isaac Newton, Alan Turing, Nicolás Copérnico, Srinivasa Ramanujan, Zahi Hawass, Konrad Lorenz, Giordano Bruno, Louis Pasteur, Stephen Hawking, Benjamin Franklin, Alexander Fleming, Vilayanur S. Ramachandran, Oliver Sacks, Gregor Mendel, Charles Babbage, Brian May, Bob Bakker, James Maxwell, Santiago Ramón y Cajal, Nicola Tesla, Rosalind Russell, Tim Berners-Lee, Philo T. Farnsworth, Miguel Servet, Ferenc Nopcsa, Harvey Cushing, Alberto Santos Dumont, Mateo Orfila, Niels Bohr, Bertrand Russell, Christiaan Barnard, Carl Sagan, Richard Feynman, Andreas Vesalio, Patrick Manson, Alfred Russell Wallace, John Snow, Wernher von Braun, Alexander Von Humboldt, Claude Bernard, Thomas Henry Huxley y Peter Higgs

octubre 08, 2012

El científico como conejillo de Indias

El científico no sólo es el frío y acucioso registrador de la realidad que investiga. En ocasiones, es el protagonista, el escenario, estudiándose a sí mismo.

La molécula del LSD creada por Hofmann
(Imagen D.P. de Benjah-bmm27,
vía Wikimedia Commons)
El 19 de abril de 1943, el químico suizo Albert Hofmann decidió tomar una dosis de 250 microgramos de una sustancia que había sintetizado en 1938, contratado por la empresa farmacéutica Sandoz... y tuvo la primera experiencia o "viaje" de LSD de la historia. Hofmann trabajaba con el ácido lisérgico, una sustancia producida naturalmente por el hongo conocido como cornezuelo, explorando sus posibilidades como estimulante de la circulación y la respiración. Su trabajo consistía en explorar distintos compuestos a partir de esa sustancia. El sintetizado en 1938 era el LSD-25 o dietilamida de ácido lisérgico.

Tres días antes, el 16 de abril, Hofmann había absorbido accidentalmente una pequeña cantidad de LSD-25 a través de la piel de los dedos, al parecer por un descuido de laboratorio. La experiencia que tuvo a continuación lo impulsó a experimentar en sí mismo consumiendo una cantidad de LSD-25 que luego se descubrió que era tremendamente alta. Pasó por una etapa de pánico y paranoia seguida de placidez y euforia. Había nacido la era de la psicodelia, y su descubrimiento sería uno de los signos distintivos de la contracultura hippie. Por desgracia, el uso recreativo del LSD llevó a que se prohibiera y se impidiera que se estudiara como droga psiquiátrica, que era el destino que Hofmann imaginaba para lo que llamó "mi hijo problemático", el LSD.

El de Hofmann era un caso más entre los muchos científicos que, en un momento dado, han optado por utilizarse a sí mismos como sujetos experimentales, antes que emplear a animales o a voluntarios.

Algunos casos resultan menos cinematográficos que el de Hofmann, pero mucho más dramáticos.

En 1922, el entomólogo estadounidense William J. Baerg intentaba determinar si las arañas conocidas como "viudas negras" y que están extendidas por todo el mundo eran venenosas para el ser humano. Después de ver el efecto del veneno en ratas, se hizo morder por una de sus arañas, pero sin sufrir más que un dolor agudo. Convencido de que la mordedura había sido demasiado superficial, al día siguiente se dejó morder durante cinco segundos. A lo largo de los siguientes tres días, Baerg sufrió los terribles dolores y reacciones del veneno, y los anotó para un artículo que publicó en 1923 en una revista de parasitología.

A partir de entonces, la práctica de dejarse morder por distintos arácnidos fue parte normal de las investigaciones de Baerg, pese a lo cual vivió hasta los 95 años.

Siguiendo sus pasos, el profesor Allan Walker Blair se hizo morder por una viuda negra doce años después, permitiendo que le inyectara veneno durante diez segundos, lo cual lo mantuvo varios días al borde de la muerte.

Pero quizá el campeón de los autoexperimentadores fue el biólogo, matemático y genetista británico J.B.S. Haldane, cuya principal aportación fue la conciliación de la genética mendeliana con la teoría de la evolución de Darwin, fundando la teoría sintética de la evolución y la genética de poblaciones por medio de las matemáticas. Fue también el autor de un ensayo que sería la inspiración de la novela "Un mundo feliz" de Aldous Huxley.

John Maynard Smith, alumno, colaborador y amigo de Haldane, cree que a éste le gustaban las emociones fuertes, la descarga de adrenalina que se produce cuando uno se enfada o cuando tiene miedo. De hecho, Haldane aseguraba haberlo pasado muy bien en las trincheras durante la Primera Guerra Mundial, donde fue considerado un soldado excepcional.

Pero también está el hecho de que el padre de Haldane, médico e investigador, también había realizado algunos experimentos empleándose a sí mismo como conejillo de indias. Y, al menos en una ocasión, a su hijo, a quien hizo respirar grisú en una mina hasta que el pequeño casi perdió el conocimiento.

Y seguramente sabía que uno de los grandes científicos ingleses, Humphry Davy, químico del siglo XVIII y XIX, había experimentado en sí mismo los efectos del óxido nitroso, el sedante también conocido como el "gas de la risa".

Haldane se implicó con las fuerzas armadas después del desastre del Thetis, un submarino británico que se hundió en maniobras en aguas poco profundas, causando la muerte de 99 de sus 103 ocupantes. Durante la recuperación del submarino, otro marino murió por los efectos de la descompresión.

El investigador se embarcó en una serie de experimentos sobre el buceo a gran profundidad, sometiéndose una y otra vez a experiencias dentro de una cámara de descompresión en la que sufría cambios de presión mientras respiraba distintas mezclas de gases y mientras se sometía a temperaturas de frío extremo. En un experimento en el que se envenenó con un exceso de oxígeno, además de sufrir violentas convulsiones se provocó un daño irreparable en algunas vértebras que lo dejó con un dolor crónico para el resto de su vida.

Los tímpanos de Haldane sufrieron varias rupturas a consecuencia de los cambios de presión a los que se sometió, dando pie a una de las más famosas citas del científico: "El tímpano generalmente cicatriza, y si le queda algún agujero, aunque uno queda un poco sordo, puede expulsar humo de tabajo por la oreja afectada, lo cual es todo un logro social".

La autoexperimentación de Haldane fue la base de mucho de lo que hoy sabemos acerca de los efectos de la compresión y la descompresión en los cuerpos de los buzos, especialmente la narcosis provocada por nitrógeno.

Ser su propio conejillo de indias permite a los científicos conocer de primera mano las experiencias subjetivas asociadas a algunas situaciones. Porque la subjetividad también juega un papel importante en la investigación científica, y no sólo por las inspiraciones, intuiciones y pasiones de los científicos. Mucho antes de que hubiera un instrumental adecuado para medir las características de las sustancias químicas, era práctica común entre los investigadores tomar un poco de la que estuvieran estudiando en ese momento y llevárselo a la boca para conocer su sabor.

Por supuesto, como en muchos otros casos, esta práctica fue letal para algunos audaces buscadores de la verdad científica.

Una bacteria y un Premio Nobel

Desde 1981, el doctor australiano Barry Marshall y el patólogo Robin Warren tenían indicios de que la úlcera gástrica estaba causada por una bacteria y no por el estrés, la dieta u otras causas que suponían los médicos. Al no poder infectar a unas ratas con la bacteria, Marshall optó por infectarse a sí mismo tragando un cultivo de bacterias. La gastritis que sufrió fue el primer paso para demostrar que la bacteria causaba úlceras y cánceres gástricos, lo que le valió el Premio Nobel de medicina a ambos asociados en 2005.

octubre 01, 2012

Medir y entender el tiempo

Dijo Baltasar Gracián: "Todo lo que realmente nos pertenece es el tiempo; incluso el que no tiene nada más, lo posee". Pero aún no sabemos qué es exactamente esa materia extraña que poseemos.

El reloj de la torre de Berna, Suiza, que inspiró
a Einstein sus ideas sobre la relatividad.
(Foto GFDL de Yann and Lupo, vía
Wikimedia Commons
"El tiempo es lo que impide que todo ocurra a la vez", dijo John Archibald Wheeler, uno de los más importantes físicos teóricos estadounidenses del siglo XX y recordado por su concepto del "agujero de gusano" como un túnel teórico a través del tiempo y el espacio.

Era un intento de explicar, con buen humor, uno de los más grandes misterios que el universo sigue ofreciéndonos como estímulo para la investigación. Porque aunque conocemos algunas de sus características esenciales, no sabemos exactamente qué es el tiempo.

El tiempo se desarrolla en un solo sentido, eso es lo más notable que podemos decir de él. Es decir, pese a afirmaciones y especulaciones en contrario, no podemos retroceder en el tiempo. Por ello los físicos hablan de la "flecha del tiempo" que sólo avanza en una dirección, del pasado al futuro.

También sabemos algo con lo que nos hemos reconciliado en las últimas décadas pero que en su momento fue todo un desafío a eso que llamamos, con cierta arrogancia inexplicable, "el sentido común": el tiempo es relativo.

Hasta 1905, se consideraba que el tiempo era constante, como lo proponía Newton. Pero según la teoría de la relatividad publicada ese año por Einstein, el tiempo es relativo, según el marco de referencia. El ejemplo clásico es el de un hombre que viaja al espacio cerca de la velocidad de la luz y su gemelo se queda en la Tierra. Para el viajero, el tiempo transcurrirá más lentamente o se "dilatará", y al volver será mucho más joven que su gemelo. Además, el tiempo también se dilata en presencia de la gravedad, a mayor atracción gravitacional, más lento transcurre.

La primera prueba de que lo predicho por las matemáticas de Einstein era real se realizó en 1971 utilizando dos relojes atómicos con precisión de milmillonésimas de segundo. Uno de ellos se quedó en tierra mientras que el otro se envió a dar la vuelta al mundo en un avión a 900 km por hora. Cuando el reloj del avión volvió a tierra, se demostró que había una diferencia entre ambos, una diferencia minúscula, de algunas milmillonésimas de segundo, pero coherente con la teoría.

Medir lo que no sabemos qué es

Mucho antes de siquiera plantearse definir el tiempo, o estudiarlo, el hombre enfrentó la necesidad de contarlo. Los períodos de tiempo más largos que un día tenían referentes claros: el propio ciclo del día y la noche, el de la luna, el del sol y los de distintos cuerpos celestes que le resultaron interesantes a distintas culturas, como Venus a los mayas y Probablemente Sirio a los egipcios.

Pero, sobre todo después de que los grupos humanos dejaron de ser nómadas, se hizo necesario dividir el día se dividiera en fragmentos medibles e iguales para todos, con objeto de coordinar las actividades del grupo.

Para ello se emplearon varios procesos repetitivos capaces de indicar incrementos de tiempo iguales: velas marcadas con líneas, relojes de arena, relojes de agua (clepsidras), tiras de incienso que se quemaban a un ritmo regular, y otros mecanismos. Los egipcios que trabajaban bajo tierra, como en las tumbas reales, recibían lámparas de aceite con una cantidad determinada. Al acabarse el aceite de sus lámparas, sabían que era hora de comer, o el fin de su jornada de trabajo.

Los egipcios fueron también los primeros en utilizar el sol, o, más precisamente, la sombra, para dividir el día en fragmentos. Los obeliscos eran relojes de sol que primero sólo marcaban la hora antes y después de mediodía, y luego se añadieron otras subdivisiones, las horas. Hace alrededor de 3.500 años, los egipcios crearon los primeros relojes de sol. Para ellos, los días tenían diez horas, más dos horas de crepúsculo y amanecer, y la noche tenía también 12 horas, determinadas mediante la aparición sucesiva en el horizonte de una serie de estrellas.

¿Por qué tiene 12 horas el día? Los sistemas decimales o vigesimales son los más comunes. pero el antiguo Egipto heredó su sistema numérico sexagesimal de los babilonios, que a su vez lo obtuvieron de la cultura sumeria.

Y los sumerios usaban un sistema duodecimal (de 12 unidades). Aunque no sabemos exactamente por qué lo eligieron, los matemáticos han notado que 12 tiene tres divisores (2, 3 y 4), lo cual simplifica bastante muchos cálculos realizados con esa base. Y al multiplicarlo también por 5 obtenemos 60. Otros creen que este sistema se origina en los 12 ciclos lunares de cada año, que han devenido en los doce meses del año. Los babilonios fraccionaron las horas en 60 minutos iguales y, al menos teóricamente, las horas en 60 segundos. La medición precisa del segundo, sin embargo, no fue viable sino hasta la invención del reloj en la edad media.

Por cierto, en esta práctica sumeria están divisiones como la venta de artículos por docenas o los doce signos del zodiaco (que omiten a dos porque no entran en el número "mágico", Cetus y Ofiuco).

Por supuesto, para medir lapsos de tiempo menores a un segundo no hemos seguido el sistema sexagesimal sumerio, sino que utilizamos décimas, centésimas, milésimas, etc. siguiendo el sistema decimal.

Pero, ¿existe el tiempo como existe la materia? Según algunos físicos y filósofos, el pasado y el futuro son creaciones de nuestra conciencia, pero no tienen una realidad física. Lo único que existe es un presente continuo, cuyos acontecimientos pueden dejar huella, como recuerdos, construcciones, ideas u obras de arte... pero sólo existen en el instante presente. Detectamos su paso sólo porque las cosas se mueven o cambian. E imaginamos el futuro especulando sobre los movimientos o cambios que pueden ocurrir.

En todo caso, el presente sigue siendo un acertijo, que se ha complicado con algunas teorías propuestas de gravedad cuántica según las cuales el tiempo no es un flujo continuo, sino que está formado por diminutas unidades discretas, paquetes de tiempo, llamados "cronones" que se suceden incesantemente, como los fotones se suceden para crear un rayo de luz que creímos continuo hasta que apareció la mecánica cuántica.

Quizá el problema que tenemos para entender el tiempo se ejemplifica con un pequeño ejercicio que todos podemos hacer: intente definir la palabra "tiempo" sin usar ni la palabra "tiempo" ni ningún concepto que implique el tiempo (como "duración" o "lapso").

Los límites de la medida

La menor unidad de tiempo que podríamos medir, teóricamente, es el "tiempo de Planck", propuesto por el físico Max Planck a fines del siglo XIX y que sería el tiempo necesario para que un fotón viajando a la velocidad de la luz recorra una distancia igual a una "longitud de Planck" (una medida 100 billones de veces menor que el diámetro de un protón).