Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

septiembre 26, 2015

El casi inexistente neutrino

Llenado de agua del gigantesco observatorio Kamiokande en 2006. Cada semiesfera
plateada es un fotomultiplicador-detector de neutrinos.
(© Kamioka Observatory, ICRR (Institute for Cosmic Ray Research), The University of Tokyo)
Miles de millones nos atraviesan a cada segundo sin que lo notemos, sin que lo podamos notar, pues los neutrinos son la más extraña de las partículas elementales (el zoo de partículas) que componen nuestro universo. Los neutrinos son la partícula con masa más abundante del universo, sólo por debajo de los fotones, que componen la luz y que no tienen masa. Se producen en las reacciones nucleares, tanto de fusión como de fisión (la mayor fuente de neutrinos que tenemos al alcance es nuestro propio sol) y en las supernovas cuando estallan.

Los neutrinos tienen masa. Muy pequeña. Tanto que hasta 1998 se pensaba que no la tenía, que era una especie de partícula fantasma. Estas partículas no tienen carga eléctrica, viajan casi a la velocidad de la luz y son tan pequeños. Hacen falta diez millones de ellos para tener la masa de un electrón. Esas características han hecho tan difícil su estudio, ya que los neutrinos prácticamente no interactúan con el resto de la materia. Los neutrinos no son afectados así por dos de las cuatro fuerzas fundamentales del universo, la electromagnética y la fuerza nuclear fuerte. Sí les afecta la fuerza nuclear débil, pero ésa sólo tiene efectos en distancias muy cortas, y sí les afecta la gravedad mínimamente, en relación a su masa. Así que no suelen afectar a otras partículas ni, a su vez, verse afectados por ellas. Casi todos los neutrinos que llegan a la Tierra pueden atravesarla de lado a lado sin interactuar con ninguna otra partícula a su paso, como una nave viajando en el espacio no podría encontrarse al azar con casi ningún cuerpo estelar. Vale la pena recordar aquí que lo que nos parece materia sólida (y líquida) en realidad está formada principalmente por espacio vacío.

Pero, pese a ser tan pequeño y tan etéreo, el neutrino es fundamental para entender el universo a nuestro alrededor. Por poner sólo un ejemplo, si podemos determinar el origen de los neutrinos que llegan a la Tierra, quizá podríamos determinar de dónde proceden los rayos cósmicos que nos bombardean incesantemente, rayos de una enorme energía, tanta que no la hemos podido reproducir en nuestros laboratorios.

La existencia de lo que hoy llamamos neutrino fue propuesta en 1931 por el físico teórico Wolfgang Pauli, uno de los pioneros de la física cuántica y Premio Nobel en 1945. En sus cálculos, determinó que la energía no parecía conservarse en la desintegración radiactiva llamada “beta”, donde un neutrón del núcleo de un átomo radiactivo se convierte en un protón y un electrón. En el proceso radiactivo se había perdido algo de energía. Y como la energía ni se crea ni se destruye, Pauli pensó que podría haber sido tomada por una partícula neutral en aquellos años indetectable. Tres años después, otro físico, Enrico Fermi, le dio a esa partícula el nombre de “neutrino”, es decir, “el pequeño neutral”, que era fundamental para explicar la desintegración radiactiva tal como se observaba en los experimentos realizados por entonces.

Pero fue necesario esperar hasta 1956 para que Clyde Cowan y Frederick Reines consiguieran demostrar la existencia de dichas partículas utilizando un reactor nuclear como fuente de neutrinos. El descubrimiento de los llamados “neutrinos electrones” le valió a Reines el premio Nobel de física por su parte en el descubrimiento. Desafortunadamente, como ha ocurrido en otros casos, la muerte prematura de Cowan le impidió ser galardonado con el premio, ya que no se otorga post mortem.

Los neutrinos también se pueden encontrar en otras formas o “sabores”, el neutrino muón (hallado en 1961 por Leon Lederman, Melvin Schwartz y Jack Steinberger, en el CERN, hoy famoso por su acelerador de partículas, el LHC), y el neutrino tau, extremadamente escaso y de vida muy corta, que no pudo observarse sino hasta el año 2000 también en el CERN.

La característica más peculiar de los neutrinos es que, a diferencia de las demás partículas elementales, están “oscilando” continuamente, es decir, cambiando de sabor. Y, además, pueden tener una mezcla de sabores, es decir, pueden tener parte de neutrino electrón y parte de neutrino muónico.

Decíamos que casi todos los neutrinos que llegan a nuestro planeta lo atraviesan sin interactuar con ninguna partícula. Para percibir a algunos de los pocos que sí interactúan, sin embargo, necesitamos sistemas enormes que estén aislados de otras formas de radiación. Para ello, los observatorios de neutrinos se ubican a gran profundidad en la tierra, donde no pueden llegar los rayos cósmicos y otras partículas.

Uno de los observatorios de neutrinos más impresionantes que existen es el Super Kamiokande, aunque no se parece a nada de lo que solemos llamar observatorio. Se trata de un tanque cilíndrico de acero inoxidable de 40 por 41 metros situado a mil metros de profundidad, en la antigua mina de Mozumi, que contiene 50.000 toneladas de agua ultrapura. El tanque está rodeado por más de 11.000 tubos capaces de multiplicar cualquier pequeñísimo destello de luz decenas de millones de veces. El funcionamiento del observatorio es el siguiente: cuando ocurren eventos como la desintegración de un protón o que una partícula colisione con un electrón o el núcleo de un átomo del agua, éstos provocan un cono de luz. El fenómeno, llamado “radiación de Cherenkov”, es percibido como un tenue anillo de luz por los tubos detectores. los datos de los distintos tubos que registran la luz permiten saber qué partícula los ha provocado. Estos detectores, por ejemplo, consiguieron registrar, en 1987, 11 neutrinos provenientes de la explosión de una supernova.

¿Qué relación tienen los neutrinos con las partículas a las que están asociados (electrón, muón, tau)? ¿Por qué y cómo oscilan o cambian de uno a otro mientras recorren el universo a velocidades tan enormes? ¿Tienen que ver los neutrinos, como algunos físicos sospechan, con la materia oscura y la energía oscura que forman el 95% de nuestro universo y que aún no hemos podido detectar? Éstas son algunas de las preguntas que animan la investigación de los neutrinos. Enormes, costosos, delicadísimos aparatos a cargo de mujeres y hombres altamente preparados que investigan unas partículas casi inexistentes.

En la cultura popular

En 1959, el poeta estadounidense John Updike escribió un poema sobre los neutrinos que ya decía que para ellos “la tierra sólo es una bola sin sentido”. En 1976, la banda canadiense de rock progresivo Klaatu grabó la canción El pequeño neutrino, de Dee Long, que desafiantemente dice “Yo mismo me niego a ser / soy alguien a quien nunca conocerás / Soy el pequeño neutrino / Y ahora estoy atravesando / Al que se conoce como tú / Y sin embargo nunca sabrás que lo hago”. Visto así, no deja de ser levemente inquietante.

septiembre 12, 2015

De la inmunidad al SIDA a la curación

Virus del VIH saliendo de una célula humana
donde se ha reproducido. (Imagen D.P. National
Institutes of Health, EE.UU. vía Wikimedia
Commons)
El 1% de los seres humanos puede exponerse a la infección de VIH sin ser infectado. El retrovirus entra efectivamente en su cuerpo, pero no puede actuar, no puede reproducirse (proceso en el cual destruye los glóbulos blancos que ataca, precisamente los responsables de nuestro sistema inmune) y por lo tanto estas personas nunca desarrollan el SIDA como enfermedad. Son inmunes a la epidemia.

Fue a principios de los 1980 cuando apareció el virus de la inmunodeficiencia humana (VIH), que destruye el sistema inmune de sus víctimas, dejándolas indefensas ante las infecciones, el temido síndrome de inmunodeficiencia adquirida, SIDA. Y las víctimas de SIDA tenían una esperanza de vida reducidísima, la enfermedad parecía ser altamente contagiosa, sobre todo mediante agujas infectadas (cebándose en los drogadictos más extremos) y a través del contacto sexual. Las historias se multiplicaban en los medios, alentadas por las muertes de personajes famosos como Rock Hudson o Freddie Mercury. Por si fuera poco, la epidemia comenzó a desarrollarse entre la comunidad homosexual, lo que animó los ataques de homofóbicos.

Adquirir el VIH, un peculiar retrovirus, conducía entonces inevitablemente al SIDA y éste era mortal en poco tiempo, meses, incluso, matando a través de “infecciones oportunistas” que se aprovechan de la debilidad del sistema inmune de los pacientes.

Las costumbres cambiaron y los controles se multiplicaron: en bancos de sangre, hospitales y consultorios. El condón se generalizó como principal barrera al contagio del VIH, aparecieron guantes de goma en las manos de todos quienes pudieran tratar con sangre de otras personas. Y el debate se incendió en lugares como algunos países africanos, donde las creencias religiosas opuestas al uso del condón ayudaron a que la epidemia se difundiera. No fue sino hasta 1999 cuando aparecieron tratamientos que, sin curar el VIH, consiguen mantener al virus bajo control dando a las víctimas una esperanza de vida similar a la media.

En este panorama, el descubrimiento de que hay una proporción de seres humanos que son inmunes al VIH fue no sólo una sorpresa sino también una esperanza en su tratamiento.

El secreto de la resistencia

Un virus como los del VIH (hay dos tipos distintos), al entrar en el torrente sanguíneo, se fija a la superficie de la célula que infecta, en este caso los linfocitos T colaboradores, y puede introducir su ADN en la célula secuestrando su dotación genética para que haga copias del virus, que a su vez atacan a otras células. El VIH, en concreto, se fija en proteínas de la superficie de las células, como las llamadas CD4 y CCR5. Esta última se ha comparado con una cerradura que puede abrir el virus para entrar en la célula. Pero resulta que, en algunos casos, el gen que produce la proteína CCR5 ha experimentado una mutación, llamada CCR5-delta32 que ha borrado algunas instrucciones para formar la proteína.

La CCR5 que producen esas células mutadas no es funcional, de modo que el virus no puede instalarse en la célula ni introducir su carga genética en ella. La célula (es decir, el linfocito T que juega un papel esencial en las defensas del cuerpo) es inmune al VIH. Como tenemos dos copias de cada cromosoma y de cada gen, es necesario que el individuo tenga la mutación en ambos genes CCR5. De otro modo, la proteína sería producida correctamente por uno de los cromosomas en que está alojado el gen (el 21) y el virus podría infectar a la célula. Quienes sólo tienen la mutación en uno del par de cromosomas, son sin embargo más resistentes a las infecciones.

¿Cuándo surgió esa mutación y por qué se ha mantenido? Las hipótesis han cambiado con el tiempo. Su origen parece encontrarse entre los vikingos, pues al hacer estudios sobre la proporción de personas con la mutación, los países nórdicos tienen los mayores números, lo que sugiere que apareció allí y se fue extendiendo como una onda lentamente hacia las poblaciones que iban teniendo contacto con ellos.

Originalmente, se pensó que la mutación había sido favorecida como protección contra la peste negra que asoló Europa en la Edad Media, pero hoy los científicos hallan más viable es que haya sido una mutación que protegía contra la viruela. Es decir, una mutación que resultó beneficiosa por un motivo en el pasado lo es hoy nuevamente por otro motivo.

El descubrimiento de esta forma de inmunidad abrió por primera vez la puerta a una posible curación del SIDA, que se intentó con el llamado “Paciente de Berlín”, Timothy Ray Brown, diagnosticado con VIH en 1995 y que había estado tomando la terapia antirretroviral hasta que en 2006 desarrolló un tipo de leucemia. Se le sometió entonces a un procedimiento experimental, transplantándole células madre hematopoyéticas, es decir, que dan origen a todos los tipos de células sanguíneas que tenemos, en la médula ósea. Esas células madre produjeron, entre otras, linfocitos T colaboradores con CCR5 mutada no funcional en su superficie, atacando los dos problemas de salud graves de Brown: la leucemia y el VIH.

Cien días después del primer trasplante, el VIH había prácticamente desaparecido de su cuerpo, y así se ha mantenido hasta la fecha, considerándolo el primer ser humano curado de HIV.

¿Por qué no se usan estos trasplantes para todos los pacientes de VIH? Primero, porque aún no hay certezas, siempre es posible que el paciente recaiga. Y el trasplante es en sí un procedimiento peligroso que puede tener complicaciones a corto y largo plazo, tales como infecciones, rechazo, procesos inflamatorios e incluso provocar otro cáncer.

La curación del “paciente de Berlín” sigue siendo un experimento, pero tanto Brown como muchos científicos han emprendido acciones para buscar la curación definitiva del SIDA (que sería además un gran paso adelante en el combate de las enfermedades virales) a partir de esa mutación, ese cambio al azar que para muchos ha sido la diferencia entre la vida y la muerte.

La evolución en acción

La mutación CCR-delta32 es un excelente ejemplo de la selección natural en acción dentro de nuestra propia especie, en el incesante –pero extremadamente lento- proceso evolutivo. En el pasado, la ventaja de inmunidad a alguna enfermedad claramente favoreció a quienes ya tenían la mutación de modo que pudieron reproducirse un poco más que quienes no la tenían, difundiéndola y ampliando su presencia en nuestra especie. Si no tuviéramos las herramientas de la ciencia y la medicina preventiva, no es difícil pensar que el SIDA podría diezmar a la población mundial como lo ha hecho en algunas zonas de África, donde resultarían mucho más favorecidos los que poseen la mutación, de modo que en un futuro la mayoría de los seres humanos serían descendientes de estos inmunes y tendrían por tanto la mutación.

agosto 29, 2015

Usted no tiene cinco sentidos

"Alegoría de los cinco sentidos", de Jan Lievens (1607-1674), pintor holandés.
(Imagen D.P. vía Wikimedia Commons)
Pocas observaciones sobre nosotros mismos está tan arraigada como la de que tenemos cinco sentidos que conectan nuestro mundo subjetivo, nuestra cognición, nuestra memoria y nuestra personalidad con el mundo exterior. Esta idea procede del libro De anima (Del alma) de Aristóteles, en donde especulaba sobre el origen del alma, las sensaciones, las emociones y los sentidos, que idzezntifica como el tactoz, la vista, el oído, el olfato y el gusto, y dedicaba uno de los capítulos a argumentar por qué no podía haber más que cinco sentidos.

Aristóteles se equivocaba, nada extraño cuando sus especulaciones carecían del método autocorregible de la ciencia. La realidad resulta mucho más complicada.

Fue apenas en el siglo XIX cuando se empezó a estudiar el sentido del equilibrio, es decir, el que nos permite darnos cuenta de nuestra posición respecto de la atracción gravitacional del planeta o respecto de cualquier aceleración (como ocurre cuando un tren en el que viajamos toma una curva). Basta este sentido del equilibrio, del que son responsables los llamados “canales semicirculares” de nuestro oído interno, para ambas tareas. Así que al arsenal comentado por el griego se suma un “sexto sentido”. No uno sobrenatural, místico o paranormal como han pretendido algunos, sino uno perfectamente natural y sin el cual no podríamos siquiera ponernos de pie para caminar. Su nombre: “equilibriocepción”.

Pero hay más.

Para conocer al séptimo (en un orden totalmente arbitrario, por supuesto) mantenga cerrados los ojos y deje caer los brazos a sus costados para después levantar las manos y unirlas ante usted. Siga con los ojos cerrados y ahora una las manos a sus espaldas.

Asombrosamente, usted sabe en todo momento dónde están sus manos y puede controlarlas para unirlas sin verlas. Una red de receptores nerviosos por todo nuestro cuerpo nos informa constantemente dónde está cada parte de él en las tres coordenadas espaciales, sin tener que ver, como los giroscopios de un avión o una nave espacial. Usted puede, con los ojos cerrados, tocarse una oreja, la rodilla o incluso encontrar con un dedo otro de la otra mano. El sentido se llama “propiocepción” y el bueno de Aristóteles no alcanzó a imaginarlo pese a que lo utilizó obviamente con éxito toda su vida.

El truco, si lo pensamos un poco, es asombroso, casi mágico: saber dónde estamos no sólo sin ver, sino empleando sensores remotos. Esos sensores están acompañados de otros, los “tensoceptores” que nos dicen cuando un músculo está en tensión, incluso si no cambia de posición. De nuevo, cierre los ojos y tense un músculo, como el bíceps, y percibirá el hecho con ese sentido adicional.

Sigamos añadiendo sentidos.

Cuando el que fuera tutor de Alejandro Magno habló del “tacto”, en realidad estaba haciendo una tremenda sobresimplificación respecto a las capacidades sensoriales de nuestra piel, que en realidad es capaz de hacer varias formas diferenciadas de percepción con distintos receptores nerviosos. Podemos conocer, a través de ella, la textura de una superficie u objeto: rugosa, lisa, suave, áspera… pero también percibimos la presión que distintos objetos ejercen sobre nosotros, también nuestra piel nos informa de la temperatura de todo con lo que entra en contacto, el sentido llamado “termocepción”.

De manera especialmente importante tenemos el sentido de la “nocicepción”, la percepción del dolor, el sistema de alarma de nuestro cuerpo del que puede depender nuestra vida, y uno al que solemos darle menos relevancia, la “pruricepción” o percepción del prurito, y que en palabras sencillas significa la percepción de la comezón.

Así, rápidamente hemos desdoblado el tacto en cinco sentidos claramente diferenciados, uno de los cuales además está presente en prácticamente todo nuestro cuerpo: la percepción del dolor. Distintos tipos de dolor en distintos lugares del cuerpo nos envían señales que sabemos diferenciar para obtener información importante sobre lo que está pasando con nosotros.

Por supuesto, el número de sentidos que contemos en nuestro complejo sistema nervioso depende de cómo definamos “sentido”, lo que es bastante más complejo de lo que parece a primera vista: ¿llamamos sentido a la percepción que hace un órgano o a lo que registran distintos tipos de receptores nerviosos? En este último caso, por ejemplo, el gusto se dividiría en varios sentidos más: la percepción de lo dulce, lo salado, lo amargo, lo ácido y lo umami o “sabroso”, identificado apenas en las últimas décadas. Pero si hacemos eso, nuestro olfato sería literalmente cientos, acaso miles de sentidos, pues cada aroma distinto activa diferentes receptores.

Por otro lado, aún sin sensores u órganos específicos, tenemos otros sentidos que sin duda son importantísimos para la vida: el de la sed, el del hambre, el de la necesidad de orinar o de defecar, el de los ojos irritados cuando tenemos que dormir, el del sueño mismo…

Es claro que lo que al estagirita (como se conocía a Aristóteles por su ciudad de nacimiento) le parecía asunto simple, sencillo y concluido en unas cuantas páginas resulta un universo de vasta complejidad donde los neurocientíficos apenas están incursionando para saber no sólo qué es lo que percibe nuestro encéfalo, las rutas mediante las cuales adquiere información del mundo exterior e incluso de sí mismo, sino cómo es que se activa cada receptor, qué vías siguen las fibras nerviosas que conducen sus impulsos y qué partes de nuestro encéfalo son las encargadas de tomar esas reacciones y cómo las convierten en eso que sentimos en nuestro mundo subjetivo. Incluso podría ser que, como las aves, tuviéramos la capacidad de detectar el campo magnético terrestre o, como otros animales, percibir así fuera de modo no consciente las feromonas u hormonas olfativas que transmiten información sexual.

El error de Aristóteles, repetido por sus seguidores durante cientos y cientos de años, y su certeza inamovible se han convertido, algo siempre bueno en ciencia, en una vasta matriz de interrogantes e incertidumbres apasionantes.

Otros mitos del sistema nervioso

Es todavía común creer que utilizamos únicamente el 10% de nuestro cerebro, tanto así que una reciente producción de Hollywood se basa en esa idea. Sin embargo, en realidad usamos –y necesitamos- el 100% de todo nuestro encéfalo, y podemos verlo todo en acción gracias a los nuevos sistemas de imágenes que nos muestran bajo qué condiciones se activan sus diversas zonas. El daño a cualquier parte de nuestro encéfalo nos afecta demostrando que todas son indispensables. También se suele pensar que nuestra memoria es un registro preciso de la realidad, como una grabación de vídeo, cuando es en realidad una reconstrucción continua, poco fiable y fácil de modificar, de los acontecimientos del pasado.

agosto 01, 2015

La agitada vida de Primo Levi

Primo Levi en 1950, cinco años después de sobrevivir su
prisión en Auschwitz. (Imagen D.P. vía Wikimedia Commons)
“No hay nada más vivificante que una hipótesis” dice Primo Levi en “Níquel”, el cuento que relata su graduación como químico de la Universidad de Turín y sus memorias de la Segunda Guerra Mundial.

En 2006, The Royal Institution de la Gran Bretaña determinó mediante votación pública que el mejor libro de ciencia jamás escrito, al menos hasta ese momento, era La tabla periódica, del químico italiano Primo Levi. Los finalistas, que habían sido seleccionados por diversas personalidades de distintas especialidades, habían sido además El anillo del rey Salomón del etólogo Premio Nobel Konrad Lorenz, Arcadia de Tom Stoppard y El gen egoísta del también etólogo británico Richard Dawkins.

La tabla periódica no es un ensayo ni una obra de divulgación al uso. Es una colección de cuentos cortos. 21 relatos que tienen cada uno a un determinado elemento químico como su pretexto y que, además de narrar las características de dicho elemento, sus compuestos, sus propiedades y peculiaridades, cuenta historias apasionantes y humanas, algunas de fantasía heroica, otras de cotidianidad, amor, amistad, familia, método experimental... un libro que cuarenta años después de su publicación (1975) sigue siendo una joya de la literatura y de la aproximación a la ciencia.

Probablemente en otro tiempo, en otro lugar, Primo Michele Levi habría sido solamente un químico industrial apasionado con su disciplina, se habría limitado a trabajar en una empresa y se habría jubilado satisfecho de una labor bien realizada durante tres o cuatro décadas. Ciertamente, no habría tenido las experiencias que lo llevaron a escribir La tabla periódica.

Pero las circunstancias de su vida lo llevaron a ser, además de químico industrial, partisano, poeta... y uno de los más conocidos supervivientes del campo de exterminio de Auschwitz... sin todo lo cual su libro sobre los elementos químicos no habría sido escrito nunca.

Primo Levi nació en Turín, Italia el 31 de julio de 1919, el primogénito de una familia no creyente, liberal e ilustrada, con ancestros judíos sefarditas. Entre su nacimiento y el de su hermana, en 1925, Italia había pasado a ser gobernada por el fascismo de Benito Mussolini, que había fundado su movimiento el mismo año del nacimiento de Primo y se había erigido en dictados absoluto cuando nació su hermana Anna Maria.

En 1938, el gobierno fascista promulgó el decreto de la ley racial, que restringía los derechos civiles de los judíos y los excluía de los puestos públicos y de la educación superior. Pero como el joven Primo Levi se había matriculado en química en la Universidad de Turín en 1937, la interpretación de la ley racial determinó que no era retroactiva, y los alumnos inscritos antes de que se promulgara pudieron continuar con sus estudios... pero con el estigma de su origen familiar.

Mussolini declaró la guerra a los aliados en 1940, consolidando su alianza con Hitler, y pronto empezaron los bombardeos aliados en territorio italiano, incluida, por supuesto, la ciudad de Turín. Primo Levi, entre los destrozos de la guerra, se licenció con honores en química en 1941. Pero el título le valía de poco para ganarse la vida porque en él venía inscrita la indicación de que era judío. Fue necesario que falsificara documentos para conseguir un empleo en una mina en el norte de Italia. Volvió a Turín en 1943 a la muerte de su padre, para huir de inmediato con su madre y su hermana hacia el norte de Italia.

En 1943, la persecución contra los judíos alcanzaba su punto más alto mientras el liderazgo italiano se desmoronaba. Los aliados habían invadido Sicilia y se preveía un desembarco en la Italia continental. Los desastres militares en el Norte de África habían debilitado políticamente a Mussolini, que fue depuesto ese mismo año, después de lo cual rápidamente Italia firmó un armisticio con los aliados. La reacción del hasta poco antes aliado Hitler fue inmediata: invadir el norte de Italia.

El mismo día del armisticio, el químico huyó a Torino, y poco después se unió al movimiento de resistencia armada “Justicia y libertad”. Su aventura como guerrillero antifascista duró apenas dos meses. En diciembre fue arrestado por la milicia fascista y, siendo judío, en lugar de ser fusilado como partisano de izquierdas fue entregado a los nazis y, en febrero de 1944, deportado a Auschwitz, donde sobrevivió echando mano de sus habilidades profesionales y personales hasta que el campo fue liberado por el Ejército Rojo soviético en enero de 1945. Después de un largo periplo europeo, en octubre de ese año consiguió volver a Turín, al mismo piso en el que había nacido.

Comenzaba entonces otra odisea: conseguir empleo en un país en difícil reconstrucción. Mientras buscaba colocarse en alguna empresa como ingeniero químico, Levi empezó a contar historias de Auschwitz y en 1946, con apenas 27 años de edad, descubrió su segunda vocación, la literatura, primero en la forma de poemas relacionados con su experiencia en el más famoso campo de exterminio del delirio nazi. Para cuando se empleó como director técnico de una empresa química en Turín y se casó, descubrió que ya no podía dejar su segundo oficio y, a partir del libro Si esto es un hombre de 1947, publicaría un total de 14 libros de memorias, cuentos (incluidos dos de ciencia ficción originalmente escritos bajo seudónimo), poemas y novelas, siempre impulsado por la convicción de que tenía la obligación de dar testimonio de la bajeza humana y de la grandeza que la enfrenta. Todo, además, desde el punto de vista de un no creyente religioso, un ateo confeso. Siguió trabajando en empresas químicas, incluso llevando un tiempo la suya propia, hasta 1977, cuando se retiró, con 58 años, para dedicarse sólo a escribir.

En 1987, reconocido como autor pero rechazado por algunos de sus protagonistas como los soviéticos, que se negaban a publicarlo en ruso, Levi trabajaba en un nuevo libro de relatos que enlazaba la química con historias humanas El doble enlace, referido al enlace químico de cuatro electrones. Nunca lo terminaría. El 11 de abril de 1987, después de recibir el correo en su piso de Turín, el mismo en el que había nacido, cayó por el hueco de la escalera desde la tercera planta y murió. Oficialmente, su muerte fue un suicidio, aunque muchos a su alrededor han puesto la determinación en duda y consideran más viable que su caída fuera un accidente.

Levi en rock

En 1990, el grupo anarcopunk Chumbawamba, escribió y grabó la canción “El testamento de Rappoport - Nunca me di por vencido”, canción inspirada en el cuento “Capaneo” de Primo Levi, sobre un personaje que afirma que, pese a la humillación y al hambre, Hitler no lo había vencido. Levi está también presente en la música e imágenes de Manic Street Preachers y Peter Hamill (de Van de Graaf Generator).

julio 18, 2015

Los vencedores de la difteria

Emil von Behring, creador de la antitoxina de la difteria.
(Imagen D.P.  vía Wikimedia Commons)
La reaparición de la difteria en países donde estaba aparentemente ya erradicada ha disparado una profunda reflexión sobre los movimientos antivacunas y sus efectos en la salud individual y colectiva.

Hoy es necesario explicar qué es la difteria para poder hablar de esta enfermedad, que a fines del siglo XIX era temida pues se cobraba miles de vidas de niños todos los años, y en algunos casos provocaba epidemias como las muchas que azotaron a España, especialmente en 1613, “El año del garrotillo”.

“Garrotillo” significa “sofocación” y se daba este nombre a la difteria porque bloqueaba la respiración de sus víctimas debido a la aparición de un recubrimiento o pseudomembrana de color grisáceo en las mucosas del tracto respiratorio como resultado de la infección por parte de una bacteria, la Corynebacterium diphtheriae.

La pseudomembrana de la difteria está formada por subproductos causados por la propia bacteria por medio de una potente toxina que puede entrar al cuerpo y afectar gravemente a diversos órganos, incluidos los músculos, , el hígado, los riñones y el corazón.

Hipócrates describió la enfermedad por primera vez, hasta donde sabemos, en el siglo V aEC. Desde entonces, se intentó sin éxito combatir la enfermedad. Sus pacientes, sobre todo niños, recorrían el curso de la enfermedad y aproximadamente un 20% de los menores de 5 años y el 10% de los demás, niños y adultos, morían, mientras que otros quedaban afectados de por vida ante la impotencia de todos a su alrededor.

El primer paso para vencer a la difteria, que recibió su nombre definitivo apenas en 1826 a manos de Pierre Bretonneau, lo dio el suizo alemán Edwin Klebs en 1883, quien identificó a la bacteria causante de la enfermedad. Sólo un año después, el alemán Friedrich Loeffler aplicó los postulados que había desarrollado con Robert Koch para demostrar que efectivamente esa bacteria era la causante de la difteria.

Mientras se hacían estos estudios, otros médicos buscaban aliviar los síntomas que provocaban la muerte de sus pacientes, principalmente la asfixia provocada por el bloqueo de las vías respiratorias debido a la pseudomembrana. Para combatirla, se hizo primero común la práctica de la traqueotomía (cortar la tráquea para que el aire pase directamente hacia ella y a los pulmones) y en 1885 se empezó a difundir la técnica de la intubación para mantener abiertas las vías respiratorias. Su creador, el estadonidense Joseph P. O’Dwyer moriría, por cierto, de lesiones cardiacas provocadas por la difteria de la que se contagió en el tratamiento de sus jóvenes pacientes.

Los franceses Émile Roux, que durante mucho tiempo había sido la mano derecha de Louis Pasteur, y Alexandre Yersin trabajaron sobre esta base y demostraron que la bacteria no entraba al torrente sanguíneo, pero sí lo hacía la toxina que producía y que, aún sin la presencia de la bacteria, la sustancia bastaba para causar difteria en animales experimentales. Esto abrió el camino para que el japonés Shibasaburo Kitasato y el alemán Emil von Behring diseñaran un sistema para tratar la toxina de modo tal que provocara la inmunidad en animales. El suero sanguíneo de esos animales, que contenía la antitoxina de la difteria, podía entonces utilizarse para curar esa enfermedad en otro animal. Émile Roux, que confirmó los experimentos de los anteriores, fue el primero que aplicó la antitoxina a grandes cantidades de pacientes, tratando a 300 niños franceses en 1894.

La difteria era curable. O al menos controlable. La antitoxina no revierte los daños ya causados, pero sí impide que la toxina siga haciendo estragos, de modo que un tratamiento temprano era mucho mejor que uno tardío. El procedimiento de creación de antitoxinas se utilizaría pronto para tratar otras enfermedades mortales provocadas por bacterias, como la fiebre tifoidea, el cólera y la septicemia.

Liberar a la humanidad del dolor y desesperación causados por la difteria dio a sus vencedores el primer Premio Nobel de Medicina o Fisiología, otorgado en 1901, en la persona de Emil Adolf Von Behring aunque, para muchos, debió haberlo recibido de modo compartido al menos con Yersin y Roux.

Una vacuna que impidiera que se contrajera la enfermedad era el siguiente paso. Pero las vacunas para las afecciones provocadas por bacterias no son iguales que las que se utilizan para las enfermedades virales, donde una proteína del virus, una parte de mismo o todo el virus debilitado o muerto se inoculan para que el sistema inmune “aprenda” a producir defensas que utilizaría en caso de verse sometido a una infección. En el caso de las bacterias, las vacunas se hacen con frecuencia utilizando “toxoides”, que son formas o versiones modificadas de la toxina causante del trastorno.

La vacuna contra la difteria sólo se pudo hacer realidad tiempo después, gracias a que el británico Alexander Thomas Glenny descubrió que podía aumentar la eficacia del toxoide diftérico tratándolo con sales metálicas que aumentaban tanto su efectividad como la duración de la inmunidad que podía impartir. Estas sales se llaman coadyuvantes, y por desgracia hoy son satanizadas por la ignorancia de quienes se oponen a las vacunas afirmando, sin prueba alguna, que causan efectos graves, suficientes como para preferir el riesgo de que un niño muera de alguna enfermedad prevenible.

Desde la introducción de la vacuna contra la difteria, los casos cayeron dramáticamente. Así, entre 2004 y 2008 no hubo casos de difteria en Estados Unidos, y los niños españoles estuvieron libres de ella durante casi 30 años, hasta que en 2015 se produjo un caso desgraciadamente mortal.

La vacuna contra la difteria, se suele aplicar en una vacuna triple con el toxoide tetánico y la vacuna contra la tosferina, dos afecciones tan aterradoras como la difteria. La vacuna se conoce como Tdap o Dtap y se aplica en 4 o 5 dosis a los 2, 4, 6 y 15 meses de edad para garantizar una protección fiable.

Postulados de Koch

Un paso fundamental en el desarrollo de la teoría de los gérmenes patógenos que dio origen a la medicina científica fueron los cuatro pasos identificados por Robert Koch y Friedrich Loeffler para identificar al microbio responsable de una afección:

  1. El microorganismo debe estar presente en todos los casos de la enfermedad.
  2. El microorganismo se puede aislar del anfitrión enfermo y cultivarse de modo puro.
  3. El microorganismo del cultivo puro debe causar la enfermedad al inocularlo en un animal de laboratorio sano y susceptible.
  4. El microorganismo se se debe poder aislar en el nuevo anfitrión infectado y se debe demostrar que es el mismo que el que se inoculó originalmente.

El paso 3 tiene como excepción la de los individuos que pueden estar infectados con un patógeno pero no enfermar, los llamados portadores asintomáticos.

junio 06, 2015

Cuando se inventaron las flores

"Naturaleza muerta con 12 girasoles", óleo de Vincent Van Gogh
(Imagen D.P. de Bibi Saint-Pol, vía Wikimedia Commons)
Hace unos 125 millones de años, la vida dio un salto asombroso. Ya había plantas y animales, de hecho ya estaba establecido un orden ecológico bastante. Los dinosaurios dominaban la tierra y los mamíferos correteaban por allí esperando su oportunidad cuando apareció la primera flor.

No se trataba, por supuesto, de una flor como las que conocemos hoy, pero era una flor, sus estructuras, su forma, su función eran lo bastante distintos de la planta que le dio origen como para decir que la anterior no tenía una flor pero la descendiente sí contaba con los rudimentos de esta peculiar -y hermosa- estructura.

Esto es un poco como el viejo acertijo huevo y la gallina. Hoy sabemos que un animal que no era todavía una gallina puso un huevo del cual surgió un animal con un pequeño cambio que ya podríamos decir que era una gallina primitiva. Esto, resuelve el acertijo (el huevo fue primero), pero en realidad los rudimentos del cambio van apareciendo tan lentamente a lo largo de la evolución que no es sino una metáfora.

Así, el mundo que dominaban los dinosaurios carecía de flores. Las plantas a su alrededor que se reproducían mediante semillas (y no mediante esporas) eran “gimnospermas”, palabra de raíces griegas que quiere decir “semilla desnuda”. Se llaman así porque sus semillas se desarrollan al aire libre, en la superficie de la planta, que en ocasiones asume formas como las piñas de los pinos, que son algunas de las gimnospermas que aún existen.

Esa flor, o protoflor, es el ancestro común de todas las plantas con flores que conocemos en la actualidad: más de 400.000 especies con una asombrosa variedad en su aspecto y sus órganos: flores con simetría radial como la proverbial margarita, o con simetría bilateral como las orquídeas (que, por cierto, fascinaban a Darwin), o cuyos pétalos crecen siguiendo las exquisitas matemáticas de la secuencia de Fibonacci, como las rosas; con todos los colores que podemos ver y alguno que no podemos ver, como el ultravioleta, que sin embargo loa polinizadores como las abejas sí aprecian claramente, en diversos tamaños y con diversos grados de evolución que han ido separándose de ese misterioso diseño original de la primera planta con flores, que aún no conocemos.

Las plantas con flores se llaman “angiospermas”, es decir, cuyas semillas están contenidas en un espacio cerrado, el ovario de la planta. Esos ovarios son los frutos de la planta, y también tienen gran cantidad de formas según la estrategia que utilizan para esparcirse.

Cuando hablamos de “estrategia” es importante recordar que es una metáfora para resumir cómo el proceso evolutivo ha resuelto desafíos para continuar la vida. Así, el diente de león cuyos frutos desarrollan delicados paracaídas (llamados “vilanos”) tiene una “estrategia” para esparcir sus semillas mediante el viento. Si todas las semillas cayeran alrededor de la planta madre, competirían con ella y entre sí, y acabarían perjudicando sus posibilidades de sobrevivir. Las frutas usan la “estrategia” de ofrecer un alimento deseable a los animales, con semillas que no pueden digerir al comerlas y que se depositan en otro lugar, con las heces del animal, que además pueden ser útiles como abono.

Independientemente de que nos parezcan hermosas, las flores son ante todo estructuras prácticas. La flor es el aparato reproductor de las plantas angiospermas y sus frutos son el ovario maduro de la planta, en ocasiones con otros tejidos. Hay frutos secos, como las nueces, los cacahuetes o el trigo, y frutos carnosos como la manzana, la naranja, o el tomate. El fruto es el destino final, pues, de las flores.

Pero, en el principio, la flor tiene por objeto atraer a los polinizadores y para ello, de nuevo, emplean diversas estrategias. Las que son polinizadas por insectos generalmente tienen pétalos de colores brillantes y un aroma que atrae a abejas, mariposas, moscas y avispas, entre otros insectos. En cambio, las flores que son polinizadas por mamíferos como los murciélagos o algunas polillas tienen pétalos blancos y un olor muy fuerte, y las que son polinizadas por aves tienden a tener pétalos rojos y no suelen tener aromas.

La estructura básica de las flores implica cuatro órganos: los sépalos, hojas verdes alrededor de la base de la flor, los pétalos, los estambres o androceo, que producen los granos de polen, que son las células masculinas de las flores, y el gineceo, que incluye el ovario y el camino que lleva a él, el “estilo”. Los polinizadores atraídos por cualquiera de las estrategias de las flores depositan en el gineceo el polen de otras flores que han visitado y, al mismo tiempo, recogen el polen de la flor en sus patas, plumas, picos y otras partes del cuerpo, que llevarán a otras flores.

¿Por qué hacen esto los animales? A veces usan las flores como refugio o como lugar donde aparearse, pero en la mayoría de las ocasiones visitan las flores porque éstas producen el néctar del que se alimentan. Así, se crea una especie de complicidad a lo largo del tiempo, de cientos de miles y millones de años, entre algunos polinizadores y las flores que visitan.

Fue precisamente una flor la que dio la primera prueba sólida y predictiva de la teoría de la evolución. Debido a su pasión por las orquídeas, Darwin recibió en 1862 el obsequio de unos curiosos ejemplares procedentes de Madagascar: Angraecum sesquipedale, o la orquídea navideña, cuyo nectario tiene un cuello de una longitud enorme, de hasta 35 centímetros. ¿Cómo podría alimentarse un animal de ese nectario para funcionar como su polinizador? Darwin sugirió que, como otros polinizadores que evolucionaban conjuntamente con las flores de las que se beneficiaban, seguramente existía en Madagascar alguna polilla con una trompa excepcionalmente larga.

En 1907 se descubrió en Madagascar una polilla que se ajustaba a la predicción de Darwin, tanto así que en su nombre se incluyó la palabra “predicha” en latín: Xanthopan morgani praedicta. Aun ya teniéndola, no fue sino hasta 1992, 130 años después, que se observó que, efectivamente, esa enorme polilla se alimentaba de la orquídea navideña, confirmando la predicción de Darwin.

El ADN de las plantas

El origen de las plantas no empezó a comprenderse con claridad sino hasta 2013, al concluir el proyecto para la secuenciación del genoma del arbusto Amborella, el más antiguo ancestro común de las plantas actuales. Al comparar su secuencia de ADN con otras 20 se pudo determinar que hace alrededor de 200 millones de años las plantas que producían semillas experimentaron una duplicación genética, empezaron a tener el doble de genes que sus ancestros, lo que permitió que algunas estructuras de la planta se desarrollaran hasta crear las flores, con alrededor de 1180 genes nuevos que no están en otras especies de plantas.

mayo 12, 2015

Hablar sin hablar

Comunicarse con otros seres humanos es algo que hacemos continuamente, de formas que la ciencia del comportamiento apenas empieza a comprender, y que van mucho más allá de la palabra.

La mano abierta y levantada, la sonrisa y las cejas levantadas
son gestos de saludo que compartimos todos los humanos, de
todas las culturas, la más básica comunicación no verbal.
(Imagen CC NASA vía Wikimedia Commons) 
La comunicación humana por excelencia es el lenguaje. Hasta donde sabemos, ninguna otra especie animal cuenta con un lenguaje estructurado, capaz de expresar abstracciones y de formular cuestionamientos. Escrito, nuestro lenguaje es capaz de informarnos, educarnos y evocar en nosotros todas nuestras emociones, tanto positivas como negativas, en obras académicas, periodísticas o literarias. Hablado es nuestra forma esencial de interactuar con otros seres humanos.

Hoy, cuando gran cantidad de interacciones se realizan mediante la palabra escrita a través de las redes sociales o la mensajería instantánea de textos, suele decirse que la comunicación es incompleta, hay malentendidos cuando una frase se interpreta con tal o cual entonación, falta una serie de elementos que modifican, incluso invierten, el sentido que se pretende dar a una oración. Nos quejamos de que la ironía en las redes sociales falla con frecuencia e incluso hemos desarrollado emoticonos para darle entonación a nuestras palabras.

Estas quejas nos revelan claramente que, pese a su enorme valor, el lenguaje verbal es apenas una parte de la comunicación que establecemos entre nosotros. Una comunicación que es esencial sobre todo porque somos primero que nada un animal gregario, social, y el funcionamiento de nuestras comunidades depende en gran medida de que nos entendamos unos a otros claramente.

A la comunicación que no depende de las palabras la llamamos “comunicación no verbal”. Fue Charles Darwin, en su libro “La expresión de las emociones en los animales y en el hombre”, quien por primera vez intentó estudiar científicamente aspectos de la comunicación no verbal como las expresiones faciales y la gestualidad. Para Darwin, al menos algunas expresiones eran universales y determinadas genéticamente.

Las tendencias antropológicas de la primera mitad del siglo XX, por su parte, afirmaban que todo el lenguaje no verbal, incluidas las expresiones faciales, dependían de la cultura. Fue necesario que aparecieran científicos como los fundadores de la etología (la ciencia que estudia el comportamiento genéticamente determinado) para confirmar que, efectivamente, hay un repertorio fundamental de expresiones que son comunes a todos los seres humanos, a todas las culturas, y que por tanto es razonable suponer que son parte de nuestra dotación genética. A fines de la década de 1950, el psicólogo Paul Ekman identificó seis emociones básicas que se corresponden a expresiones faciales universales y que comunican, sin decirlo, cuándo estamos enfadados, alegres, tristes, temerosos, sorprendidos o asqueados.

Sabemos que las diversas culturas establecen límites a la expresión de ciertas emociones bajo determinadas condiciones, pero sabemos también que todos los seres humanos entendemos claramente que una sonrisa es una expresión amistosa. En ninguna cultura significa otra cosa.

Las expresiones faciales son parte de una de las cuatro grandes categorías de la comunicación no verbal: el lenguaje corporal. En esta categoría se incluye también la gestualidad que acompaña a nuestro lenguaje, la postura del cuerpo, o el contacto visual. Todos podemos reconocer una “actitud” amenazante o conciliadora, reveladas en la postura que asume una persona, e incluso tenemos expresiones verbales para ellas, como “bajar la cabeza”, “ser muy echado palante” o “mirar a la gente desde arriba”.

Otra categoría, a la que hacíamo alusión en el primer párrafo, son todos los modificadores auditivos de nuestro lenguaje verbal, lo que los psicólogos sociales llaman “paralenguaje”: la entonación, la inflexión, el énfasis, la velocidad del habla, las pausas, el volumen, la risa y otros sonidos cambian, modulan o alteran las palabras a las que acompañan y son precisamente lo que más echamos en falta en la comunicación textual de las redes sociales.

La tercera categoría del lenguaje no verbal es el espacio interpersonal, cuyo estudio se llama “proxémica” y se refiere a cómo nuestra proximidad física con otras personas expresa nuestra relación con ellos. Así, por ejemplo, cuando conversamos con un amigo lo hacemos a una distancia que encontraríamos incómoda si se tratara de un extraño. De hecho, cuando las circunstancias nos obligan a tener una cercanía excesiva con desconocidos, como ocurre en un autobús repleto o en un ascensor, establecemos una “distancia social” al evitar que nuestras miradas se encuentren, con frecuencia fijando la vista en puntos poco conflictivos como los números de piso que se van sucediendo o los anuncios en los medios de transporte, lo que le da material de trabajo abundante a comediantes y publicistas. Este manejo de la cercanía física como expresión de nuestras emociones o actitudes se da no sólo a nivel individual, sino de grupos. Cuando varios amigos se reúnen en un corro lo hacen a distancias mucho menores que cuando se trata de desconocidos.

La cuarta y última categoría de la comunicación no verbal está conformada por nuestros efectos personales: ropa, accesorios, maquillaje, peinado, joyería y otros elementos que también utilizamos continuamente para decir quiénes somos, cómo nos percibimos a nosotros mismos, cómo queremos ser vistos y valorados. Quien utiliza el cabello corto y un traje oscuro está enviando un mensaje muy distinto de quien usa el pelo largo, vaqueros y una cazadora informal, y al menos en una primera instancia nos llevan a hacer juicios sobre ellos basados en la primera impresión.

Por supuesto, los distintos elementos del lenguaje no verbal no funcionan de modo independiente, sino que están bombardeándonos de modo continuo y simultáneo (o, al revés, con ellos bombardeamos nosotros a los demás continuamente). Una entonación displicente, un gesto de asco, una gran distancia física y una ropa atildada dan un mensaje totalmente distinto de una entonación amable, una sonrisa, un intento de cercanía y ropa informal pero cuidada. Todo ello a veces puede ser mucho más poderoso que las palabras que se están diciendo y nos comunica con los demás mucho más ampliamente de lo que parece a primera vista.

Los excesos

Algunas personas suelen presentar el lenguaje no verbal como una ciencia exacta que se puede utilizar para lograr resultados asombrosos en quienes nos rodean, influir en ellos y controlarlos, o al menos de “saber lo que realmente piensan y sienten” descodificando sus gestos y posturas. Aunque cada vez sabemos más acerca de esta forma de comunicación fundamental, aún no estamos ni siquiera cerca de poder lograr esas fantásticas afirmaciones que solemos hallar en el mundo de la “autoayuda” y otras expresiones del new age.

mayo 10, 2015

La guerra y la paz de Alfred Nobel

Uno de los apellidos más conocidos del mundo, el de Alfred Nobel, resume una historia que va mucho más allá del “inventor de la dinamita” con el que se suele despachar al apasionado inventor sueco.

Cada año, los medios de comunicación repiten una y otra vez el apellido Nobel, primero, durante todo el año pero sobre todo en septiembre, haciéndose cábalas sobre quiénes podrían ser los ganadores de los premios que llevan ese nombre, una tensión informativa potenciada por el hecho de que los responsables de conceder los premios son herméticos respecto a los candidatos que están o no teniendo en consideración. Después, a lo largo de una semana o dos, se van sucediendo los anuncios de los nombres de los premiados del año en física, química, medidina o fisiología, paz y literatura. Finalmente, el 10 de diciembre es la ceremonia de entrega de los premios en Estocolmo, Suecia, salvo el de la Paz, que se entrega en Oslo, Noruega.

Lo que con frecuencia se omite en la abundante información que celebra a los científicos, escritores y activistas por la paz, es el por qué de la fecha de entrega de los premios, aunque suele anotarse que la asignación en metálico que acompaña el diploma y la medalla proceden de un fideicomiso creado con la fortuna de Alfred Nobel. La asignación, por cierto, en 2014 fue de unos 840.000 euros.

La ceremonia de entrega de los premios tiene por objeto recordar la fecha de la muerte de su creador, el 10 de diciembre de 1896, en San Remo, Italia, uno de sus muchos hogares.

Su primer hogar, sin embargo, fue Estocolmo, donde nació el 21 de octubre de 1833, cuarto de los ocho hijos de un emprendedor ingeniero e inventor, Immanuel, y su esposa Karolina. Apenas tenía 9 años cuando su padre llevó a la familia a San Petersburgo, Rusia, donde había fundado una empresa dedicada a suministrar equipo a los ejércitos del desastroso zar Nicolás I y que sería además pionera en la instalación de calefacción doméstica en Rusia.

La mudanza le significó además a Alfred abandonar la única escuela a la que asistiría en su vida, pues en lo sucesivo sería educado por tutores con una educación amplia que incluyó las artes, la literatura, varios idiomas, además de técnica y ciencia que animaron su amor por la ingeniería y los explosivos, estimulado por su propio padre. Habiendo encontrado su vocación, Immanuel mandó a Alfred en 1850 lo envió a estudiar ingeniería química visitando Suecia, Alemania, Francia y los Estados Unidos.

La familia no volvería a Suecia sino hasta 1859, abandonando Rusia después de que la empresa había quebrado cuando el nuevo gobierno ruso se negó a respetar acuerdos previos con los Nobel. Para entonces, Alfred ya tenía a su nombre tres patentes menores: de un medidor de gas, de un medidor de líquidos y de un barómetro mejorado. Pero desde sus viajes, su mayor interés era la nitroglicerina, un potente explosivo descubierto por Ascanio Sobrero en 1847. Alfred siguió experimentando en San Petersburgo hasta que decidió reunirse con su familia en Suecia en 1863 y pronto instalaron una fábrica de nitroglicerina y de unos detonadores inventados por él mismo que servían para hacerla estallar.

La principal característica de la nitroglicerina es su inestabilidad, su impredecibilidad para estallar o no. De hecho, un hermano de Nobel, Emil, murió junto con otros trabajadores de su fábrica en 1864 debido a una explosión de nitroglicerina en sus instalaciones de Estocolmo, lo cual además obligó a Nobel a llevar su laboratorio a zonas menos pobladas. El desafío que enfrentaban los químicos de la época era encontrar una forma de dominar la nitroglicerina y conseguir que se mantuviera estable, estallando sólo cuando se deseara.

La solución que encontró Nobel fue mezclar la nitroglicerina con tierra de diatomeas llamada “kieselguhr”. El sílice, un material inerte (del que está hecha mayormente la arena) estabilizaba la nitroglicerina formando una pasta a la que se podía dar forma de tubos para introducirla en orificios en la roca y hacer más efectiva su explosión. Llamó a la combinación “dinamita” y, junto con unos casquillos detonadores mejorados que había producido, cambió el mundo de la ingeniería permitiendo por primera vez explosiones potentes, controladas y eficientes. La minería, la construcción de carreteras, la demolición y otras industrias lo convirtieron en millonario en poco tiempo.

Desde 1865, su pasión por la invención y la industria lo llevarían a fundar más de 90 fábricas e industrias diversas en 20 países, muchas de las cuales hoy siguen existiendo sin que se conozca su relación originaria con Nobel.  Y reuniría 355 patentes, la mayoría relacionadas con explosivos, pero también con sus avances en la creación de caucho y piel sintéticos, seda artificial, forja de piezas metálicas y otros descubrimientos.
Pero su logro, que veía como una gran aportación al progreso y a la mejoría de la vida de toda la gente a su alrededor, llamó de inmediato la atención de la industria bélica. Nobel mismo, un pacifista declarado, vio el asunto con inquietud. No quería eso, pero no podía evitarlo.

En 1888, cuando murió su hermano Ludvig, a su vez inventor del buque cisterna e innovador en la industria petrolera, algunos diarios interpretaron erróneamente que el fallecido había sido Alfred, y lo describieron como un hombre que se había enriquecido diseñando formas de matar a más gente más rápido, y como el “el mercader de la muerte”. Esto impactó profundamente al inventor. Se consideraba un pacifista, un hombre ilustrado que escribía poemas y obras teatrales, que disfrutaba del arte y buscaba logros que mejoraran la vida de su sociedad. No era, pensaba él, un mercader de la muerte, aunque sus inventos fueran usados incorrectamente por otros.
Cuando murió, en 1896, se descubrió con sorpresa que había dispuesto que la mayor parte de su fortuna se destinara a invertirse en valores seguros y sus beneficios se entregaran cada año a las personas que, durante el año anterior, le hubieran dado el mayor beneficio a la humanidad en cinco áreas. Era su forma de afirmar su convicción de paz con la fortuna que había obtenido, en parte, por la guerra

Alfred Nobel, siempre inmerso en su trabajo, por cierto, nunca se casó y nunca tuvo hijos.

El debate del testamento

Los albaceas destinados a hacer realidad los premios dispuestos por Nobel, dos ingenieros de sus empresas, no se decidieron a llevar a cabo sus deseos, especialmente ante la oposición por parte de la familia de Alfred Nobel. Tendrían que pasar cinco años para que se entregaran por primera vez los premios en 1901. Y, desde entonces, nunca han estado desprovistos de debate tanto por las decisiones como por la forma de tomarlas y la fidelidad o falta de ella a las disposiciones testamentarias del inventor.

abril 18, 2015

La marquesa que preguntaba

Gabrielle Émilie Le Tonnelier de Breteuil, marquesa de Châtelet
(Imagen D.P. de pintor anónimo vía Wikimedia Commons)
Libre, fuerte, independiente, apasionada, rebelde, extremadamente inteligente y llena de preguntas. Es un resumen, si bien insuficiente, al menos básico para conocer a Emilie du Châtelet, una de las figuras relevantes de la Ilustración francesa: matemática, física, filósofa, lingüista y feminista.

Vista con una mirada simplemente frívola, lo más destacado de su vida fue una serie de aventuras amorosas que disfrutó con la complacencia o al menos la simulada ignorancia de su marido. Los años que fue amante de Voltaire bastarían para darle un lugar en la historia de esos años en los que el pensamiento se iba liberando de antiguas ataduras. Pero ella misma se rebeló contra esa fácil visión cuando le escribió a Federico el Grande de Prusia: “Juzgadme por mis propios méritos, o por la falta de ellos, pero no me veáis como un simple apéndice de este gran general o ese gran sabio, esta estrella que brilla en la corte de Francia o ese autor famoso. Soy, por mi propio derecho, una persona completa, responsable sólo ante mí por todo lo que soy, todo lo que digo, todo lo que hago”.

El camino que llevó a esa postura comenzó con el nacimiento de la hija del Barón de Breteuil el 17 de diciembre de 1706, en medio de la turbulencia de la revolución científica y, con ella, del pensamiento ilustrado. Su nombre completo fue Émilie le Tonnelier de Breteuil. El barón, su padre, que ocupó un puesto en la corte de Luis XIV, observó que su hija era extremadamente inquieta, interesada en cuanto le rodeaba y una fuente incesante de preguntas. La educó en latín, italiano, griego, alemán e inglés, y ella aprovechó a los amigos de la familia para expresar y desarrollar de modo autodidacta su pasión por las matemáticas.

La libertad que anhelaba pasaba por un buen matrimonio con un caballero que no le pusiera fronteras a sus intereses y gustos, y encontró al candidato ideal en el Marqués Florent-Claude de Châtelet-Lomont, con el que se casó en 1725 convirtiéndose así en marquesa. Ella tenía 19 años y él 34, y los diversos lugares donde vivieron, especialmente París, influyeron en los gustos estéticos y las pasiones intelectuales de la joven esposa. Tuvieron dos hijos en rápida sucesión y un tercero poco después que vivió apenas un año. Era 1734 y Emilie, además de cumplir con sus obligaciones como marquesa de Châtelet, había tenido una agitada vida sentimental por la que habían pasado al menos tres amantes, asunto por lo demás común en esa época para la gente de su posición social. Pero, además, había contratado a diversos sabios de la época para que le enseñaran matemáticas, y frecuentaba reuniones de intelectuales, matemáticos y físicos, como las llevadas a cabo en el café de Gradot que, sin embargo, tenía prohibida la entrada a mujeres. Emilie optó por vestirse como hombre y, aunque todos sabían quién era y no engañaba a nadie, le franquearon la entrada convirtiéndola en habitual de las reuniones, porque sus aportaciones siempre eran bienvenidas.

En 1733 había conocido a uno de los personajes fundamentales del pensamiento de la Ilustración, con el que inició una relación amorosa y con quien reanimóa sus intereses intelectuales y científicos, Voltaire, que se refirió a ella como “la mujer que en toda Francia tiene la mayor disposición para todas las ciencias”. Emilie y Voltaire se instalaron en una casa en Cirey, propiedad del marido de Emilie, quien aceptó la situación de buen grado, y se ocuparon de estudios científicos, especialmente las propuestas de Newton sobre la gravedad, que no eran aceptadas en la Francia que prefería a Descartes, quien rechazaba la existencia del espacio vacío y explicaba la atracción gravitacional como vórtices en el éter que todo lo llena. Voltaire y Emilie consideraban que la evidencia se inclinaba hacia la explicación de Newton, y dedicaron largo tiempo a estudiar el asunto. Ambos participarían independientemente (ella sin hacérselo saber a su amante) en un premio de la Academia de Ciencias sobre el fuego y su propagación, que finalmente fue ganado por el matemático Euler.

En 1738 se publicaban sus Elementos de la filosofía de Newton, una obra de divulgación de las ideas de Newton que pese a ser firmada sólo por Voltaire éste aclaraba en el prólogo que era una obra a cuatro manos con Emilie de Châtelet. Por entonces también se publicaba la traducción al francés de La fábula de las abejas, obra sobre moral de Mandeville donde la científica aprovechaba también el prólogo para establecer su reivindicación: “Siento todo el peso del prejuicio que nos excluye de manera tan universal de las ciencias; es una de las contradicciones de la vida que siempre me ha asombrado, viendo que la ley nos permite determinar el destino de grandes naciones, pero no hay un lugar donde se nos enseñe a pensar…”

Dos años después, Emilie du Châtelet publicaba su obra personal principal, Fundamentos de la física donde hace la defensa de la posición newtoniana con apoyo en Descartes y Leibniz. En ese libro, sin embargo, no sólo se dedica a asuntos eminentemente científicos, sino que presenta su propia visión sobre Dios, la metafísica y el método científico, junto con las reflexiones producto de su trabajo en el laboratorio que había instalado en Cirey, y donde también se situaba como una innovadora en cuanto a la defensa de las hipótesis como bases para el trabajo científico.

Por esos años se daría tiempo además para escribir su Discurso sobre la felicidad, una reflexión autobiográfica y moral sobre la naturaleza de la felicidad, especialmente de las mujeres.

Hacia 1747, Emilie había dejado su romance con Voltaire, pero no su amistad con él. Se había enamorado del Marqués de Saint-Lambert e intensificó el trabajo en un proyecto que le había ocupado muchos años: una detallada traducción al francés de la obra magna de Newton, los Principia mathematica, acompañada de abundantes comentarios algebraicos clarificadores de la propia traductora.

Nunca lo vería publicado. En 1749 quedó embarazada de su nuevo amante, aunque Voltaire la ayudó a convencer a su marido legítimo que él era el padre del futuro bebé. A los pocos días de nacer su cuarto hijo, Emilie du Châtelet murió inesperadamente el 10 de septiembre de 1749, con apenas 43 años de edad.

Voltaire escribió a un amigo, relatando el acontecimiento: “No he perdido a una amante, sino a la mitad de mí mismo, un alma para la cual parece haber sido hecha la mía.”

Diez años después se publicaba al fin la traducción de Emilie, que es hasta hoy la única traducción al francés de la obra cumbre de Newton. No ha hecho falta otra.

Si fuera rey…

“Si fuera rey”, escribió Emilie du Châtelet, “repararía un abuso que recorta, por así decirlo, a la mitad de la humanidad. Haría que las mujeres participaran en todos los derechos humanos, especialmente los de la mente.”

febrero 28, 2015

Bach por números

Johann Sebastian Bach sentado al órgano. Grabado inglés de 1725.
(Imagen D.P. del Museo Británico, vía Wikimedia Commons)
El apellido Bach tiene una expresión musical.

En el sistema alemán de entonces, las notas se representaban mediante letras, como se sigue haciendo en los países anglosajones. Así, la letra B representaba el si bemol, la A representaba el la, la C representaba el do y la H correspondía al si. Y si hacemos sonar las notas “si bemol, la, do, si”, estamos expresando el apellido Bach en una pequeña melodía.

Por supuesto, Johann Sebastian Bach, así como sus hijos (cuatro de los cuales tuvieron distinguidas carreras como músicos) estaban conscientes de esa relación, y el tema, hoy conocido como “motivo Bach” fue utilizado en numerosas ocasiones por el compositor, como en el segundo Concierto de Brandenburgo, en las Variaciones Canónicas para órgano y en el contrapunto inconcluso del Arte de la Fuga.

De hecho, uno de sus hijos solía contar que la muerte del compositor se produjo precisamente cuando escribió esas notas en el pentagrama, historia apasionante pero improbable. Como fuera, los hijos de Bach también usaron ese criptograma musical en numerosas ocasiones, y después fue retomado por los admiradores del compositor en literalmente cientos de piezas, algunos tan conocidos como Robert Schumann, Franz Liszt o Arnold Schoenberg.

Además, según un sistema numerológico místico que le da a las letras un número de acuerdo a su posición en el alfabeto, las letras del apellido “Bach” tienen el valor “14” (2+1+3+8), y las supersticiones también le atribuían un gran valor al inverso de ese número, en este caso “41”. Bach, como hombre de su tiempo, estaba muy consciente de ello, como lo estaba del simbolismo de los números en términos de la religión cristiana. Entre los luteranos, iglesia a la que pertenecía, el simbolismo desarrollado por San Agustín era ampliamente conocido y utilizado. El 3, así, era la representación de la santísima trinidad, y por tanto los creadores hacían esfuerzos, sobre todo en la música sacra, de que sus obras se relacionaran con el 3. El 10 se relacionaba inevitablemente con los diez mandamientos y el 12 con los apóstoles, mientras que el 7 se refería a la gracia y al Espíritu Santo.

Es indudable que Bach, como compositor eminentemente sacro, conocía estos simbolismos y muy probablemente los utilizó en distintos momentos en sus obras. Sin embargo, resulta muy difícil, si no imposible, desentrañar cuándo lo hizo voluntariamente y cuándo el número no era considerado por el propio compositor como significativo.

Resulta muy aventurado pensar que las obras de Bach ocultan un significado numerológico, aunque así lo hayan sugerido algunos autores. Se puede tomar cualquier elemento de una composición de cualquier músico (las notas, el número de compases, los intervalos, la relación entre notas, etc.) y buscar una correlación con algún número o relación matemática o palabra codificada. En más de 1.100 obras conocidas de Bach, un buscador concienzudo puede encontrar, virtualmente, lo que sea. Incluso las dimensiones de la pirámide de Giza.

La relación de Bach con los números se encuentra más bien en la proporción, en los juegos de las notas y las armonías que producen de acuerdo con las reglas de la música que descubrió y describió Pitágoras, en las numerosas obras donde su interpretación de las matemáticas de la música es de un dominio absoluto aún si no fuera consciente.

Pero aún si Bach no intentara conscientemente aplicar las matemáticas a su trabajo como compositor, estudiosos posteriores han encontrado notables relaciones entre la música y los números, sean las ecuaciones de la geometría fractal apenas descrita en la década de 1970 o series de números con significado matemático especial, como la de Fibonacci.

Su propio hijo, Carl Philipp Emanuel, le dio al biógrafo de su padre, Forkel, “el fallecido (su padre), como yo o cualquier otro verdadero músico, no era un amante de los asuntos matemáticos secos”.

Aunque así fuera, Bach había pertenecido a una sociedad científico-musical fundada por su alumno, el médico, matemático y compositor polaco Lorenz Christoph Mizler. La sociedad buscaba que los músicos intercambiaran ideas teóricas y trabajos sugerentes. Cada año, los miembros debían presentar una disertación o una composición, y en 1748, Bach envió a la sociedad su Ofrenda musical, una serie de cánones, fugas y sonatas en la que destaca el que el propio Bach llamó Canon del cangrejo, cuya relevancia matemática no podía escapársele.

Es una pieza para cuerdas donde se tocan dos melodías, como en cualquier contrapunto, pero una de las melodías es exactamente la imagen en espejo de la otra. Es como si un violín tocara la primera melodía y el segundo también, pero empezando por el final y siguiendo en orden inverso, de modo que cuando la primera llega al final, la segunda llega al principio, en una especie de palindromo musical. Esta hazaña musical (y matemática) se ve complementada con la última pieza de la serie, el Canon perpetuo que al terminar puede volverse a comenzar una octava más arriba, ascendiendo, teóricamente, hasta el infinito.

Quizá se pueda aplicar a Bach la frase del matemático alemán, y su contemporáneo, Gottffried Leibniz, quien afirmó que “La música es un ejercicio aritmético oculto del alma, que no sabe que está contando”.

Pero si Bach no sabía que estaba haciendo matemáticas, las hizo extraordinariamente bien.

El temperado o afinación

Siguiendo los principios matemáticos pitagóricos que regían la música, los instrumentos como el clavecín y el órgano se afinaban o temperaban para tocar en un tono determinado, digamos Sol, y si había que interpretar una pieza en otro tono, digamos Re, era necesario volverlo a afinar. Si no se hacía esto, algunas notas sonaran mal porque sus intervalos no eran perfectos. Bach desarrolló un sistema de afinación igualando logarítmicamente los intervalos entre todas las notas de la escala, lo que permite afinar un instrumento de modo que pueda interpretar piezas en todos los tonos sin volver a afinarse. Es lo que se llamó el “buen temperamento”, ejemplificado precisamente en las obras de “El clavecín bien temperado”.

febrero 07, 2015

Schrödinger y su omnipresente gato

Pocas metáforas científicas están más difundidas que el “gato de Schrödinger” que, nos dicen, no está ni vivo ni muerto. Pero, ¿qué significa realmente?

Erwin Schrödinger, físico.
(Imagen de Robertson, copyright de la Smithsonian Institution,
via Wikimedia Commons)
A principios del siglo XX, la idea que teníamos de la física era muy incompleta. No se conocían los protones, la estructura del átomo era sujeto de especulación y muchos aspectos apenas empezaban a estudiarse.

Esto representó una explosión del conocimiento en la física que, entre otras cosas, vino a confirmar que nuestro sentido común no es buena herramienta para entender la realidad. Por sentido común podemos pensar, que los cielos giran alrededor de nuestro planeta, sin importar las pruebas de Copérnico, Kepler y Galileo. La ciencia a veces exige rechazar lo que sugiere nuestra intuición.

Así, en la revolución del siglo XX supimos que el tiempo no es constante, sino variable, que el movimiento no es absoluto, sino relativo, que la única constante universal es la velocidad de la luz... conclusiones de la teoría de la relatividad de Einstein para explicar el mundo macroscópico. Pero Einstein viajó también al mundo subatómico donde nuestra intuición es, si posible, aún más inútil.

En 1900, el físico Max Planck había postulado que la radiación (las ondas de radio, la luz visible, los rayos X, todas las formas que adopta el espectro electromagnético) no ocurría en un flujo continuo, sino que se emitía en paquetes, uno tras otro, como los vagones de un tren. Llamó a estos paquetes de energía “cuantos”. Cinco años después, Einstein desarrolló las ideas de Planck y propuso la existencia de un “cuanto” de luz, el fotón, su unidad menor e indivisible. Esto no era grave, podíamos percibir la luz como un continuo sin que lo fuera, del mismo modo en que percibimos una película como movimiento continuo sin ver que está formada por 24 fotogramas cada segundo.

Pero los cálculos de Einstein demostraron algo más: los fotones no eran ni ondas ni partículas o, desde nuestro punto de vista, a veces se comportan como ondas y a veces se comportan como partículas, cuando para la física clásica sólo existían ondas o partículas como fenómenos diferentes. ¿Cómo puede ser eso? La explicación, por supuesto, es que así ocurre y nuestro sentido común se equivoca al pensar que una manifestación física tiene que ser “onda o partícula” tanto como se equivocaba al creer que el universo giraba a nuestro alrededor. Esto dio origen a toda una rama de la física dedicada a estudiar el mundo subatómico, las leyes que rigen a las partículas elementales, la “mecánica cuántica”.

Los descubrimientos en la cuántica se sucedieron rápidamente pintando un panorama extraño, casi daliniano. En 1913, Niels Bohr desarrolla el primer modelo de cómo es un átomo que refleja con razonable precisión la realidad.  Y en 1926 entra en escena el físico austríaco Erwin Schrödinger, de sólo 39 años, que con tres artículos brillantes, el primero de los cuales describe cómo cambia el estado cuántico de un sistema físico al paso del tiempo, el equivalente de las leyes de Newton en el mundo a escala macroscópica. Si aplicamos la ecuación del movimiento de Newton a un objeto podemos saber dónde estará en el futuro en función de su aceleración . Para saber cómo evolucionará un sistema en la pequeñísima escala cuántica, se aplica la ecuación de Schrödinger.

Pero la ecuación de Schrödinger sólo nos da una probabilidad estadística de cómo evolucionará ese sistema. Un electrón puede tener probabilidad de estar en varios lugares... se diría que sus “funciones de onda” (su descripción matemática) están “superpuestas”, lo que quiere decir que ninguna se ha vuelto realidad. Pero cuando observamos el electrón (o lo registramos con un aparato, no es necesario que lo veamos con los ojos, lo cual además es imposible dado su diminuto tamaño) se dice que la “función de onda” del electrón, que incluye todas las probabilidades de dónde puede estar, se “colapsa” en una sola probabilidad del 100% y el electrón sólo está donde lo hemos observado. Esto significaría que el hecho mismo de observar un fenómeno cuántico (y es importante recordar que esto sólo ocurre a esala cuántica, es decir, a nivel microscópico) “provocaría” que tenga una u otra posición.

Poner esto en palabras, por supuesto, ha sido pretexto para que numerosos charlatanes y simuladores hablen como si supieran de cuántica y traten de extrapolar estos asombrosos acontecimientos a la realidad macroscópica, donde las cosas, claro, no ocurren así.

Incluso es posible que aún no tengamos completa la explicación. Como sea, el propio Erwin Schrödinger se sentía enormemente incómodo con estas paradojas, contradicciones y desafíos al sentido común que presenta la mecánica cuántica y las interpretaciones que daban sus colegas físicos, y en 1935 diseñó un experimento mental para ilustrar lo que a él le parecía un absurdo de las conclusiones que mencionamos.

En su experimento, hay un gato encerrado en una caja hermética y opaca con un dispositivo venenoso que se puede activar o no activar dependiendo de un fenómeno cuántico, como sería que un elemento radiactivo emita o no una partícula en un tiempo determinado. Si la probabilidad de que lo emita o no es del 50%, la conclusión sería que el gato no estaría ni vivo ni muerto (o su estado de vivo y muerto estarían “superpuestos”) porque mientras el sistema no sea observado no se hará 100% la probabilidad de que la partícula se emita o no. Al abrir la caja y ver si se ha emitido o no la partícula, su función de onda se colapsará y el veneno se habrá liberado o no, de modo que el gato estará o vivo o muerto.

Como es imposible que un gato esté a la vez vivo y muerto, según Schrödinger señaló, su experimento mental subrayaba que nuestra comprensión del mundo cuántico no es completa aún. Desde entonces, numerosas interpretaciones han intentado conciliar esta aparente paradoja, sin lograrlo.

Pero el experiento del mítico “gato de Schrödinger” en todo caso no tiene por objeto concluir que el pobre felino está realmente vivo y muerto al mismo tiempo, al contrario. Cosa que no tienen claro muchos que, de distintas formas, pretenden usar esta metáfora como aparente explicación de cuestiones que no tienen nada que ver con la física.

Los cuentos del gato

Son literalmente cientos los escritores y cineastas que han utilizado al gato de Schrödinger, ya sea como elemento de una historia, para ofrecer interpretaciones originales que resuelvan la paradoja o, simplemente, por su nombre. Douglas Adams, autor de El autoestopista galáctico, lo es de otra novela, Dirk Gently: agencia de investigaciones holísticas, donde el detective que le da nombre es contratado porque en vez de estar vivo o muerto, el gato simplemente ha desaparecido, harto de ser sometido una y otra vez al mismo experimento.

enero 31, 2015

Café, té y chocolate

En el siglo XVII confluyeron en Europa, procedentes de Asia, África y América, tres bebidas estimulantes, calientes y reconfortantes que hoy siguen dominando nuestras culturas.

Tratado novedoso y curioso del café, el té y
el chocolate de Philippe Sylvestre Dufour
(Imagen D.P. via Wikimedia Commons)
Los seres humanos tenemos una relación muy estrecha con nuestras bebidas reconfortantes, las que servimos calientes y nos dan, paradójicamente, tanto una sensación de tranquilidad y relajación como un efecto estimulante. Aunque hay muchas de estas bebidas, como el mate suramericano, la kombucha, el té tuareg de menta y una cantidad prácticamente inagotable de infusiones diversas con creativas mezclas de distintas plantas, flores, frutos y hojas, las que predominan son el café, el té y el chocolate.

La más antigua de estas bebidas, o al menos de la que hay registros más tempranos es el té, que fue descubierto en la provincia de Yunán, en China, hacia el año 1000 antes de la Era Común y fue utilizado con propósitos medicinales durante 1600 años hasta que, hacia el año 618 de la Era Común empezó a popularizarse en China como bebida reconfortante y disfrutada por su sabor. Un siglo después llegó a Japón donde se naturalizó y se hizo parte de la cultura nipona, y tendrían que pasar otros mil años para que llegara a Europa, donde adquirió pasaporte británico gracias al rey Carlos II y su matrimonio con la portuguesa Catalina de Braganza, que llevó consigo el té a la corte inglesa a fines del siglo XVII.

Todo el té es una infusión de la planta cuyo nombre científico es Camellia sinensis, un arbusto nativo de Asia. Las distintas variedades dependen no de plantas diversas, sino del tratamiento que se le imparte a las hojas antes de preparar la infusión. El té blanco se hace con las hojas más tiernas, que sólo se tratan con vapor antes de ponerlas en el mercado. El té verde se hace con hojas más maduras, que se tuestan para deshidratarlas y para detener el proceso de fermentación que se inicia en ellas naturalmente. Si se deja continuar la fermentación un tiempo se obtiene un té oolong, mientras que si se deja que se desarrolle por completo se obtiene el té negro.

El té contiene como principal estimulante la teanina, una sustancia que reduce la tensión, mejora la cognición y estimula los sentidos y la cognición. Contiene también cafeína (en mayor proporción por peso que el propio café), teobromina y teofilina, que conjuntamente forman un cóctel estimulante y psicoactivo que explica en gran medida que sea la bebida reconfortante más popular del mundo.

El té también contiene unas sustancias llamadas catequinas, potentes antioxidantes que en la década de 1990 empezó a pensarse que podían ser beneficiosos para la salud. Vale la pena señalar que, sin embargo, los estudios realizados durante el último cuarto de siglo no ofrecen ninguna evidencia de que los antioxidantes tengan ninguna propiedad concreta para mejorar nuestra salud, mucho menos prevenir el cáncer.

El café es la más moderna de las tres grandes bebidas reconfortantes, aunque su principal ingrediente activo, la cafeína, es considerada por muchos expertos la droga más común y más consumida del mundo, ya que además de estar en el café que es el desayuno de gran parte de occidente la encontramos en numerosas bebidas refrescantes y energéticas, e incluso en algunos helados. El café contiene, además, teobromina.

La leyenda atribuye el descubrimiento del café a un pastor de cabras llamado Kaldi, que mantenía su rebaño en las tierras altas de Etiopía durante el siglo XIII de la Era Común. Allí vio que sus animales se mostraban más inquietos y animados cuando consumían las bayas de cierto árbol y decidió probarlas él mismo. Como fuera, para el siglo XV el café ya era cultivado en Yemen, y los árabes prohibieron su cultivo fuera de las tierras que controlaban y lo vendían a Europa, donde empezaron a aparecer los establecimientos donde se podía tomar una taza de café y participar en estimulantes conversaciones en las principales ciudades de Inglaterra, Austria, Francia, Alemania y Holanda. En 1616, los mercaderes holandeses, precisamente, sacaron de contrabando de Yemen semillas de café que empezaron a cultivar en invernaderos.

Más que otras bebidas, el café fue considerado por muchos un producto satánico, que exigió la intervención del papa Clemente VIII para autorizar su consumo en 1615.

El chocolate era, originalmente, una bebida esencialmente amarga, obtenida al tostar las semillas del árbol del cacao y luego molerlas para cocer el resultado en agua adicionado con vainilla aromatizante, algunas especias y, a veces, algo de chile o maíz molido y alguna miel natural. Puede sonar poco apetitoso, pero resulta que el chocolate (cuya etimología no es clara, por cierto) no era sólo una bebida que se consumía sólo por gusto. Si el gusto por el chocolate azteca era probablemente adquirido, como el gusto por el amargor de la cerveza, la energía que impartía al consumidor era su principal virtud. Al describirlo en una de sus cartas a Carlos V, Hernán Cortés exageraba un tanto asegurando que “una sola taza de esta bebida fortalece tanto al soldado que puede caminar todo el día sin necesidad de tomar ningún otro alimento”.

Como a tantas otras materias de origen vegetal, al chocolate se le atribuyeron en principio diversas propiedades terapéuticas y su llegada a Europa fue como bebida terapéutica, de lo que dio noticia el médico Alonso de Ledesma, que publicó un tratado al respecto en Madrid en 1631. Pero si no curaba tanto como se prometía, su preparación evolucionó con azúcar, canela, y preparado a veces con leche en lugar de agua y pronto se popularizó como bebida placentera.

El ingrediente activo que hace que el chocolate sea una bebida estimulante es la teobromina, una sustancia relacionada con la cafeína que no fue descubierta sino hasta 1841.

Las tres bebidas llegaron a Europa y compitieron por el favor de los consumidores que habían descubierto los placeres de un estimulante caliente donde antes sólo habían tenido cerveza y vino. En España y Francia, el chocolate adquirió personalidad propia, mientras que en Suiza asumió otras formas sólidas. El café se apoderó del continente europeo y, después, del americano con una sola excepción: Inglaterra, cuyo romance con el café apenas empieza a desarrollarse en el siglo XXI, después de 200 años de té.

El experimento de Gustavo III de Suecia

Gustavo III, rey de Suecia, estaba convencido de que el café que había invadido sus dominios era un peligroso veneno y se propuso probarlo. Se procuró a dos hermanos gemelos condenados a muerte y les conmutó la pena por cadena perpetua a cambio de que uno se tomara tres jarras de café al día y el otro hiciera lo mismo con tres jarras de té, bajo la supervisión de dos médicos. Gustavo III fue asesinado en 1792 y los dos médicos eventualmente también murieron, mientras los condenados seguían vivos. Se cuenta que el bebedor de té murió primero, a los 83 años de edad, y nadie sabe cuánto después murió el bebedor de café.