Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La marquesa que preguntaba

Gabrielle Émilie Le Tonnelier de Breteuil, marquesa de Châtelet
(Imagen D.P. de pintor anónimo vía Wikimedia Commons)
Libre, fuerte, independiente, apasionada, rebelde, extremadamente inteligente y llena de preguntas. Es un resumen, si bien insuficiente, al menos básico para conocer a Emilie du Châtelet, una de las figuras relevantes de la Ilustración francesa: matemática, física, filósofa, lingüista y feminista.

Vista con una mirada simplemente frívola, lo más destacado de su vida fue una serie de aventuras amorosas que disfrutó con la complacencia o al menos la simulada ignorancia de su marido. Los años que fue amante de Voltaire bastarían para darle un lugar en la historia de esos años en los que el pensamiento se iba liberando de antiguas ataduras. Pero ella misma se rebeló contra esa fácil visión cuando le escribió a Federico el Grande de Prusia: “Juzgadme por mis propios méritos, o por la falta de ellos, pero no me veáis como un simple apéndice de este gran general o ese gran sabio, esta estrella que brilla en la corte de Francia o ese autor famoso. Soy, por mi propio derecho, una persona completa, responsable sólo ante mí por todo lo que soy, todo lo que digo, todo lo que hago”.

El camino que llevó a esa postura comenzó con el nacimiento de la hija del Barón de Breteuil el 17 de diciembre de 1706, en medio de la turbulencia de la revolución científica y, con ella, del pensamiento ilustrado. Su nombre completo fue Émilie le Tonnelier de Breteuil. El barón, su padre, que ocupó un puesto en la corte de Luis XIV, observó que su hija era extremadamente inquieta, interesada en cuanto le rodeaba y una fuente incesante de preguntas. La educó en latín, italiano, griego, alemán e inglés, y ella aprovechó a los amigos de la familia para expresar y desarrollar de modo autodidacta su pasión por las matemáticas.

La libertad que anhelaba pasaba por un buen matrimonio con un caballero que no le pusiera fronteras a sus intereses y gustos, y encontró al candidato ideal en el Marqués Florent-Claude de Châtelet-Lomont, con el que se casó en 1725 convirtiéndose así en marquesa. Ella tenía 19 años y él 34, y los diversos lugares donde vivieron, especialmente París, influyeron en los gustos estéticos y las pasiones intelectuales de la joven esposa. Tuvieron dos hijos en rápida sucesión y un tercero poco después que vivió apenas un año. Era 1734 y Emilie, además de cumplir con sus obligaciones como marquesa de Châtelet, había tenido una agitada vida sentimental por la que habían pasado al menos tres amantes, asunto por lo demás común en esa época para la gente de su posición social. Pero, además, había contratado a diversos sabios de la época para que le enseñaran matemáticas, y frecuentaba reuniones de intelectuales, matemáticos y físicos, como las llevadas a cabo en el café de Gradot que, sin embargo, tenía prohibida la entrada a mujeres. Emilie optó por vestirse como hombre y, aunque todos sabían quién era y no engañaba a nadie, le franquearon la entrada convirtiéndola en habitual de las reuniones, porque sus aportaciones siempre eran bienvenidas.

En 1733 había conocido a uno de los personajes fundamentales del pensamiento de la Ilustración, con el que inició una relación amorosa y con quien reanimóa sus intereses intelectuales y científicos, Voltaire, que se refirió a ella como “la mujer que en toda Francia tiene la mayor disposición para todas las ciencias”. Emilie y Voltaire se instalaron en una casa en Cirey, propiedad del marido de Emilie, quien aceptó la situación de buen grado, y se ocuparon de estudios científicos, especialmente las propuestas de Newton sobre la gravedad, que no eran aceptadas en la Francia que prefería a Descartes, quien rechazaba la existencia del espacio vacío y explicaba la atracción gravitacional como vórtices en el éter que todo lo llena. Voltaire y Emilie consideraban que la evidencia se inclinaba hacia la explicación de Newton, y dedicaron largo tiempo a estudiar el asunto. Ambos participarían independientemente (ella sin hacérselo saber a su amante) en un premio de la Academia de Ciencias sobre el fuego y su propagación, que finalmente fue ganado por el matemático Euler.

En 1738 se publicaban sus Elementos de la filosofía de Newton, una obra de divulgación de las ideas de Newton que pese a ser firmada sólo por Voltaire éste aclaraba en el prólogo que era una obra a cuatro manos con Emilie de Châtelet. Por entonces también se publicaba la traducción al francés de La fábula de las abejas, obra sobre moral de Mandeville donde la científica aprovechaba también el prólogo para establecer su reivindicación: “Siento todo el peso del prejuicio que nos excluye de manera tan universal de las ciencias; es una de las contradicciones de la vida que siempre me ha asombrado, viendo que la ley nos permite determinar el destino de grandes naciones, pero no hay un lugar donde se nos enseñe a pensar…”

Dos años después, Emilie du Châtelet publicaba su obra personal principal, Fundamentos de la física donde hace la defensa de la posición newtoniana con apoyo en Descartes y Leibniz. En ese libro, sin embargo, no sólo se dedica a asuntos eminentemente científicos, sino que presenta su propia visión sobre Dios, la metafísica y el método científico, junto con las reflexiones producto de su trabajo en el laboratorio que había instalado en Cirey, y donde también se situaba como una innovadora en cuanto a la defensa de las hipótesis como bases para el trabajo científico.

Por esos años se daría tiempo además para escribir su Discurso sobre la felicidad, una reflexión autobiográfica y moral sobre la naturaleza de la felicidad, especialmente de las mujeres.

Hacia 1747, Emilie había dejado su romance con Voltaire, pero no su amistad con él. Se había enamorado del Marqués de Saint-Lambert e intensificó el trabajo en un proyecto que le había ocupado muchos años: una detallada traducción al francés de la obra magna de Newton, los Principia mathematica, acompañada de abundantes comentarios algebraicos clarificadores de la propia traductora.

Nunca lo vería publicado. En 1749 quedó embarazada de su nuevo amante, aunque Voltaire la ayudó a convencer a su marido legítimo que él era el padre del futuro bebé. A los pocos días de nacer su cuarto hijo, Emilie du Châtelet murió inesperadamente el 10 de septiembre de 1749, con apenas 43 años de edad.

Voltaire escribió a un amigo, relatando el acontecimiento: “No he perdido a una amante, sino a la mitad de mí mismo, un alma para la cual parece haber sido hecha la mía.”

Diez años después se publicaba al fin la traducción de Emilie, que es hasta hoy la única traducción al francés de la obra cumbre de Newton. No ha hecho falta otra.

Si fuera rey…

“Si fuera rey”, escribió Emilie du Châtelet, “repararía un abuso que recorta, por así decirlo, a la mitad de la humanidad. Haría que las mujeres participaran en todos los derechos humanos, especialmente los de la mente.”

La anestesia y la lucha contra el dolor

The first use of ether in dental surgery, 1846. Ernest Board. Wellcome V0018140.jpg
El primer uso del éter como anestésico en cirugía dental, a cargo de W.T.G. Morton en 1846.
(Pintura al óleo de Ernest Board, vía Wikimedia Commons.)
Hubo una época en que una de las habilidades más apreciadas de los cirujanos era su rapidez. Por ejemplo, Dominique Jean Larrey, médico del ejército de Napoleón que participó en 25 campañas militares, llegó a poder amputar una pierna por encima de la rodilla en tres minutos y desarticular un hombro en 17 segundos.

¿Qué valor tenía eso? Que los soldados a los que atendía el ágil Larrey se sometían a sus cuchillos y sierras sin anestesia.

Y esto se aplica a toda la historia de la cirugía, a, a los cirujanos de la Roma imperial que ya hacían operaciones para las cataratas y a todos los demás cirujanos en todo el mundo, en todas las culturas.

O, para ser precisos, se aplica a los pacientes de todos estos cirujanos, que durante la mayor parte de la historia tuvieron recursos limitados para controlar el dolor, como la compresión de la arteria carótida en el cuello con la que los antiguos egipcios hacían perder la conciencia a los adolescentes a los que les practicaban circuncisiones. Otros sistemas del pasado fueron los vapores de cannabis usados en la India desde 600 años antes de la era común, acompañados con acónito en China o con opio en las culturas árabes. El vino y después los licores fueron también analgésicos de uso común. Y en el siglo XIII en Italia se usaban opio y mandrágora.

Pero ninguna de estas impedía del todo que la cirugía exigiera, además de destreza y rapidez, la ayuda de personal con gran fuerza física para retener al paciente que solía exigir que el procedimiento se detuviera en cuanto sentía dolor. Los cirujanos aprendieron también a ignorar los gritos de los pacientes.

Un escenario que nada tiene que ver, por supuesto, con un moderno quirófano donde un especialista realiza desde operaciones rutinarias hasta complejísimos procedimientos sobre un paciente plácidamente desconectado de la realidad gracias a la anestesia.

El camino hacia la anestesia moderna se emprendió a fines del siglo XVIII, cuando Joseph Priestley, uno de los descubridores del oxígeno, logró producir óxido nitroso. A principios del siglo siguiente otro químico, Humphrey Davy, como parte de su trabajo investigando las propiedades de distintos gases, empezó a experimentar con el creado por Priestley. A falta de sujetos de investigación, Davy era su propio conejillo de indias. Así, según un observador, aspiró 4 galones de óxido nitroso en un período de 7 minutos y quedó “completamente intoxicado”.

Los experimentos de Davy no dieron frutos sino hasta 1844, cuando Gardner Colton, que daba exhibiciones científicas, mostró en Connecticut cómo un hombre que aspiraba óxido nitroso podía golpearse la espinilla sin sentir dolor. Entre el público estaba el dentista Horace Wells, que lo invitó a un experimento en su consultorio. Al día siguiente, Colton le administró el gas a Wells y el ayudante de éste le extrajo al dentista una muela del juicio. La primera extracción sin dolor de la historia.

William Thomas Green Morton, un dentista que estudió con Wells, empezó a experimentar con éter, anestesiando por igual a su pez dorado, a su perro y a sí mismo. El 30 de septiembre de 1846 por fin probó a anestesiar a un paciente con éter para una extracción, con un éxito que mereció mención en los diarios de Boston al día siguiente. Pronto Morton empezó a hacer de anestesista para cirujanos.

Las noticias del descubrimiento de Morton llegaron pronto a Inglaterra. En 1847 empezó además a utilizarse otra sustancia, el cloroformo, que el médico escocés James Simpson empleó para eliminar el dolor del parto con gran éxito.

La anestesia enfrentó la oposición de las iglesias cristianas, según las cuales esa práctica contravenía lo dispuesto en el versículo 3, 16 del Génesis donde se ordenaba a las mujeres a parir a sus hijos con dolor. La muy puritana reina Victoria de Inglaterra, sin embargo, y como jefe de la iglesia anglicana, pidió anestesia para el nacimiento de su octavo hijo, el príncipe Leopoldo, en 1853. Si la reina podía evadir la maldición bíblica, abría las puertas a que lo hicieran todas las mujeres, y lo empezaron a hacer.

Para fines del siglo XIX se empezó a valorar cuánta anestesia durante cuánto tiempo era adecuada para cada paciente, pues no eran infrecuentes los fallecimientos por sobredosis de anestésicos. Ernest Codman y Harvey Cushing crearon a fines del siglo la primera tabla que ayudaba a los profesionales a vigilar el pulso, la respiración y la temperatura de los pacientes para detectar signos de sobredosis.

La historia subsiguiente se centró en la profesionalización de los anestesistas, en la introducción de nuevas sustancias más eficaces y seguras y en la aparición de técnicas como la aguja hipodérmica, para facilitar la administración de anestesia. Para principios del siglo XX, la anestesia se iba generalizando en Europa y Estados Unidos.

Las dos formas más comunes de anestesia en cirugía mayor son la general, donde el paciente queda inconsciente e insensible al dolor, y la regional, donde se produce insensibilidad al dolor y generalmente se acompaña de sedación. Está además la anestesia local para procedimientos menores.

Según el paciente y el procedimiento se aplica una mezcla de sustancias ya sea por inhalación, mediante inyección intravenosa o mezclando ambas técnicas, que provocan la inconsciencia junto con otras que bloquean la sensación de dolor. Algunas sustancias se usan para inducir rápidamente la anestesia y otras para mantenerla, todo ello bajo la más estricta vigilancia, lo que ha permitido que hoy en día, las muertes debidas a la anestesia durante procedimientos quirúrgicos son de menos de 1 en cada 250,000 operaciones.

Más aún, el conocimiento de los efectos de los distintos anestésicos ha permitido que sea posible someter a cirugía a pacientes que en el pasado no era posible operar por el riesgo, desde fetos aún en el vientre materno hasta personas de edad muy avanzada o personas que sufren afecciones diversas como la diabetes.

Y, por ejemplo, una articulación de la cadera nueva para un paciente octogenario marca la diferencia entre unos años finales confinado a una silla de ruedas o con capacidad de moverse y disfrutarlos.

Que es otra forma de impedir el dolor.

Cómo funciona

Sabemos qué hace la anestesia y sus efectos más evidentes, cómo bloquea el dolor e induce la inconsciencia, pero hasta hoy, la ciencia no sabe exactamente cómo actúan los anestésicos, cuál es su acción química precisa sobre las fibras nerviosas que conducen el dolor o sobre todo nuestro encéfalo, provocando una condición similar al sueño o a la catatonia. Neurocientíficos, genetistas y biólogos moleculares trabajan aún hoy en día para conseguir desentrañar el mecanismo de las sustancias que han expulsado al dolor del dominio de los cirujanos.

Bach por números

Johann Sebastian Bach sentado al órgano. Grabado inglés de 1725.
(Imagen D.P. del Museo Británico, vía Wikimedia Commons)
El apellido Bach tiene una expresión musical.

En el sistema alemán de entonces, las notas se representaban mediante letras, como se sigue haciendo en los países anglosajones. Así, la letra B representaba el si bemol, la A representaba el la, la C representaba el do y la H correspondía al si. Y si hacemos sonar las notas “si bemol, la, do, si”, estamos expresando el apellido Bach en una pequeña melodía.

Por supuesto, Johann Sebastian Bach, así como sus hijos (cuatro de los cuales tuvieron distinguidas carreras como músicos) estaban conscientes de esa relación, y el tema, hoy conocido como “motivo Bach” fue utilizado en numerosas ocasiones por el compositor, como en el segundo Concierto de Brandenburgo, en las Variaciones Canónicas para órgano y en el contrapunto inconcluso del Arte de la Fuga.

De hecho, uno de sus hijos solía contar que la muerte del compositor se produjo precisamente cuando escribió esas notas en el pentagrama, historia apasionante pero improbable. Como fuera, los hijos de Bach también usaron ese criptograma musical en numerosas ocasiones, y después fue retomado por los admiradores del compositor en literalmente cientos de piezas, algunos tan conocidos como Robert Schumann, Franz Liszt o Arnold Schoenberg.

Además, según un sistema numerológico místico que le da a las letras un número de acuerdo a su posición en el alfabeto, las letras del apellido “Bach” tienen el valor “14” (2+1+3+8), y las supersticiones también le atribuían un gran valor al inverso de ese número, en este caso “41”. Bach, como hombre de su tiempo, estaba muy consciente de ello, como lo estaba del simbolismo de los números en términos de la religión cristiana. Entre los luteranos, iglesia a la que pertenecía, el simbolismo desarrollado por San Agustín era ampliamente conocido y utilizado. El 3, así, era la representación de la santísima trinidad, y por tanto los creadores hacían esfuerzos, sobre todo en la música sacra, de que sus obras se relacionaran con el 3. El 10 se relacionaba inevitablemente con los diez mandamientos y el 12 con los apóstoles, mientras que el 7 se refería a la gracia y al Espíritu Santo.

Es indudable que Bach, como compositor eminentemente sacro, conocía estos simbolismos y muy probablemente los utilizó en distintos momentos en sus obras. Sin embargo, resulta muy difícil, si no imposible, desentrañar cuándo lo hizo voluntariamente y cuándo el número no era considerado por el propio compositor como significativo.

Resulta muy aventurado pensar que las obras de Bach ocultan un significado numerológico, aunque así lo hayan sugerido algunos autores. Se puede tomar cualquier elemento de una composición de cualquier músico (las notas, el número de compases, los intervalos, la relación entre notas, etc.) y buscar una correlación con algún número o relación matemática o palabra codificada. En más de 1.100 obras conocidas de Bach, un buscador concienzudo puede encontrar, virtualmente, lo que sea. Incluso las dimensiones de la pirámide de Giza.

La relación de Bach con los números se encuentra más bien en la proporción, en los juegos de las notas y las armonías que producen de acuerdo con las reglas de la música que descubrió y describió Pitágoras, en las numerosas obras donde su interpretación de las matemáticas de la música es de un dominio absoluto aún si no fuera consciente.

Pero aún si Bach no intentara conscientemente aplicar las matemáticas a su trabajo como compositor, estudiosos posteriores han encontrado notables relaciones entre la música y los números, sean las ecuaciones de la geometría fractal apenas descrita en la década de 1970 o series de números con significado matemático especial, como la de Fibonacci.

Su propio hijo, Carl Philipp Emanuel, le dio al biógrafo de su padre, Forkel, “el fallecido (su padre), como yo o cualquier otro verdadero músico, no era un amante de los asuntos matemáticos secos”.

Aunque así fuera, Bach había pertenecido a una sociedad científico-musical fundada por su alumno, el médico, matemático y compositor polaco Lorenz Christoph Mizler. La sociedad buscaba que los músicos intercambiaran ideas teóricas y trabajos sugerentes. Cada año, los miembros debían presentar una disertación o una composición, y en 1748, Bach envió a la sociedad su Ofrenda musical, una serie de cánones, fugas y sonatas en la que destaca el que el propio Bach llamó Canon del cangrejo, cuya relevancia matemática no podía escapársele.

Es una pieza para cuerdas donde se tocan dos melodías, como en cualquier contrapunto, pero una de las melodías es exactamente la imagen en espejo de la otra. Es como si un violín tocara la primera melodía y el segundo también, pero empezando por el final y siguiendo en orden inverso, de modo que cuando la primera llega al final, la segunda llega al principio, en una especie de palindromo musical. Esta hazaña musical (y matemática) se ve complementada con la última pieza de la serie, el Canon perpetuo que al terminar puede volverse a comenzar una octava más arriba, ascendiendo, teóricamente, hasta el infinito.

Quizá se pueda aplicar a Bach la frase del matemático alemán, y su contemporáneo, Gottffried Leibniz, quien afirmó que “La música es un ejercicio aritmético oculto del alma, que no sabe que está contando”.

Pero si Bach no sabía que estaba haciendo matemáticas, las hizo extraordinariamente bien.

El temperado o afinación

Siguiendo los principios matemáticos pitagóricos que regían la música, los instrumentos como el clavecín y el órgano se afinaban o temperaban para tocar en un tono determinado, digamos Sol, y si había que interpretar una pieza en otro tono, digamos Re, era necesario volverlo a afinar. Si no se hacía esto, algunas notas sonaran mal porque sus intervalos no eran perfectos. Bach desarrolló un sistema de afinación igualando logarítmicamente los intervalos entre todas las notas de la escala, lo que permite afinar un instrumento de modo que pueda interpretar piezas en todos los tonos sin volver a afinarse. Es lo que se llamó el “buen temperamento”, ejemplificado precisamente en las obras de “El clavecín bien temperado”.

Simetrías y seres vivos

Simetría Impresionante de un lirio del Parque Portugal (Lagoa do Taquaral).Campinas/SP-Brasil de Giuliano Maiolini (Imagen D.P. vía Wikimedia Commons)
Uno de los aspectos más notables de los seres vivos, de nosotros mismos, es que nuestros cuerpos son simétricos de distintas maneras, al menos en el exterior.

La simetría es la cualidad de un objeto de ser igual después de una transformación. Aunque quizá esa definición matemática merece aclaración. Por ejemplo, si reflejamos con un espejo la mitad derecha de un mamífero, veremos que es casi idéntica que su mitad izquierda. Es una simetría de reflexión o bilateral, que podemos ver con mucha claridad en nuestras manos: la derecha es como el reflejo en un espejo de la izquierda.

La simetría es una solución que con frecuencia aparece en la naturaleza como una forma económica de adaptarse a su medio en cuanto a su aspecto externo, aunque la disposición de sus órganos internos no siempre sea igualmente ordenada: nuestros hemisferios cerebrales, por ejemplo, son simétricos, pero no así nuestro aparato digestivo o nuestro corazón. En el caso que usamos como ejemplo, la simetría bilateral es la más visible a nuestro alrededor: los mamíferos, las aves, los peces, los insectos, los reptiles, los anfibios tienen un lado derecho y un lado izquierdo. Pese a ello, no es la única forma de simetría que exhiben los seres vivos, animales y vegetales. Para entenderlo, debemos remitirnos a los inicios de la vida en nuestro planeta.

Hasta donde sabemos, la vida en nuestro planeta apareció hace unos 3.800 millones de años en la forma de seres unicelulares, que vivieron sin demasiados sobresaltos hasta hace Unos 1.000 millones de años, cuando hicieron su aparición unos organismos unicelulares distintos, llamados coanoflagelados, es decir, que para moverse usaban un flagelo o cola. Lo que los hacía distintos era que, en ocasiones, se reunían formando colonias llamadas “sphaeroecas” o “casas esféricas”. Hay evidencias que permiten suponer que estas colonias son los ancestros de los animales multicelulares que aparecerían hace 700 millones de años.

Una esfera tiene en sí varias formas de simetría. Es bilateralmente simétrica: si marcamos un eje a lo largo de su mitad, el lado derecho es el reflejo del izquierdo. Es también simétrica alrededor de un eje central, lo que se conoce como simetría radial. Y los primeros seres multicelulares asumieron, de modo esperable, una simetría radial. De hecho, a ellos y a sus descendientes se les conoce genéricamente como “radiata”, animales radiales. Los que conocemos actualmente son los celenterados, denominación que incluye a las medusas y a los pólipos.

Hace 530 millones de años ocurrió una verdadera revolución en la historia de la vida, que se conoce como la “explosión cámbrica”, por la era geológica en la que se desarrolló. La lenta evolución que había transcurrido hasta entonces se vio sacudida por el surgimiento, en un breve tiempo desde el punto de vista geológico, entre cinco y diez millones de años, de los principales linajes de la vida que conocemos actualmente multiplicando súbitamente la variedad de las formas de vida. Surgieron entonces los primeros animales con conchas (moluscos como los mejillones, los caracoles o las lapas), los que disponían de exoesqueletos (como los trilobites, ancestros por igual de gambas, cangrejos, arácnidos e insectos), los equinodermos (estrellas de mar, erizos de mar, pepinos de mar), los cordados (ancestros de todos los animales con columna vertebral: peces, aves, reptiles, anfibios y mamíferos) y los gusanos, además de que se multiplicaron las plantas y hongos.

Algunos de estos animales tienen simetría bilateral y otros radial, y sólo hay un animal, el más primitivo que sobrevive hasta nuestros días, cuyo cuerpo es totalmente asimétrico: la esponja.

Pero si la simetría radial tuvo claramente poco éxito en la evolución de los animales después de la explosión cámbrica, ello no ocurrió con las plantas y hongos, donde la simetría radial está presente de manera mucho más común. Los tallos y troncos, así como la gran mayoría de las flores y muchísimos frutos, exhiben simetría radial, mientras que la simetría bilateral está presente en las hojas, algunos frutos, en muchas semillas y en flores como las orquídeas. Incluso podemos ver simetría esférica en muchas formas de polen.

Las flores a su vez suelen tener, salvo algunas excepciones, 3, 5, 8, 13, 21, 34 o 55 pétalos. Estos números forman la llamada “serie de Fibonacci”, donde cada número es resultado de la suma de los dos anteriores (el siguiente, claro, sería 34+55=89). Esta serie de números está además estrechamente relacionada con la proporción áurea o número “phi”, 1.618... que es como “pi” un número irracional porque es infinito. Ese número está estrechamente relacionado con otras formas de la simetría como las espirales de las conchas de los caracoles o los nautilus, o las que forman las semillas en flores como el girasol. También las hojas de las plantas o las ramas de los árboles aparecen en forma de una espiral regida por la secuencia de Fibonacci.

El sistema nervioso, incluso el humano, parece haber evolucionado desarrollando una sensibilidad especial a la simetría. Los neurocientíficos y los biólogos evolutivos señalan que la mayoría de los objetos biológicamente relevantes (los seres de nuestra especie, los depredadores y las presas) son simétricos, es razonable pensar que la atención a la simetría sirva como un sistema de advertencia de lo que es importante en nuestro entorno.

Los estudiosos de la muy reciente disciplina de la neuroestética, o estudio científico de la belleza, han observado que la simetría es esencial para que muchas cosas nos parezcan hermosas. El reconocido neurocientífico Vilayanur S. Ramachandran, considera a la simetría una de las ocho características que hacen que algo nos resulte estéticamente placentero. De hecho, se ha demostrado experimentalmente que diversos animales, incluidos los humanos, prefieren a parejas con rasgos simétricos por encima de las que muestran asimetría. Y esta tendencia es innata, no aprendida.

Quizá lo más asombroso es que la simetría del mundo vivo parece reflejar la que encontramos en el universo físico, de moléculas a cristales hasta las majestuosas espirales de las galaxias. El misterio que queda por resolver es si ambas están interconectadas de alguna forma.

Nuestra percepción

Hay otras formas de simetría que podemos ver en la naturaleza, como la de papel tapiz, donde un patrón se repite una y otra vez, tal como vemos en un panal de abejas o en la piel de algunas serpientes, o . Pero probablemente la más compleja es la simetría fractal, como la que podemos ver en el brécol romanescu.

Los fractales, en geometría, son formas complejas donde cada parte de un objeto tiene, en tamaños progresivamente más pequeños, el mismo patrón geométrico que se va repitiendo, teóricamente hasta el infinito.

Un Nobel de luz LED

"Proyección sobre una superficie de tres colores con componentes LED RGB" de Viferico.
(Imagen D.P. vía Wikimedia Commons)

De pronto, su casa, su ciudad, su mundo se han llenado de lámparas que utilizan LED. La historia de estos pequeños y eficaces productores de luz explica por qué.

El mundo está enamorado de las luces LED. Las tiene en la iluminación de las casas, en los faros de automóviles, en semáforos y anuncios luminosos. En relativamente poco tiempo ha sustituido a las formas de iluminación comunes creadas por el hombre. Son eficientes, resistentes y seguras.

Las bombillas incandescentes clásicas, como la de Thomas Alva Edison, calientan un filamento de tungsteno a altas temperaturas para que, al no poderse quemar por la falta de oxígeno (al estar al vacío o llena de algún gas) emite luz como producto de ese calor, del mismo modo en que lo hace un hierro al rojo vivo. Es por ello que las bombillas tradicionales producen una gran cantidad de calor, que no es sino energía desperdiciada que no se ha convertido en luz.

Las luces fluorescentes, en cambio, contienen un gas noble como el argón o el neón, más una minúscula cantidad de mercurio. El gas se estimula con electricidad, se agita y produce una radiación ultravioleta invisible, que choca contra las paredes de fósforo de la lámpara y produce una luz visible. Estas lámparas emiten menos calor y son, por tanto, más eficientes en el uso de la electricidad, aunque presentan problemas de contaminación por mercurio.

LED son las iniciales en inglés de diodo emisor de luz. Estos diodos producen luz directamente como respuesta al paso de la corriente eléctrica, en un fenómeno llamado electroluminiscencia. Un diodo es un componente electrónico formado por dos electrodos y un material semiconductor. En el caso de los LED, lo común es utilizar como semiconductores a elementos conocidos como tierras raras como el galio o el selenio. Al convertir la electricidad en luz directamente, producen una cantidad muy pequeña de calor, lo cual además de ser fuente de eficiencia permite que los diodos tengan una duración muy superior al no sufrir degradación por las altas temperaturas.

La electroluminiscencia fue descubierta en el año 1907 por Henry Joseph Round, pionero de la radio y asistente de Guiglielmo Marconi. Al pasar una corriente por una pieza de carburo de silicio, observó que éste emitía una tenue luz amarillenta. Independientemente, el inventor ruso Oleg Losev observó el mismo fenómeno en 1920. Pero el resplandor de esta primera sustancia electroluminiscente era demasiado débil como para ser de alguna utilidad y quedó solamente anotado como curiosidad.

Fue en la década de 1950 cuando empezó la exploración a fondo de los semiconductores, a partir de la invención del transistor, que permitió los primeros pasos para la miniaturización de aparatos como radiorreceptores y televisores, además de abrir la posibilidad de ordenadores prácticos.

Como resultado, en 1961, Robert Baird y Gary Pittman inventaron el primer LED infrarrojo. Ese primer paso todavía está presente en nuestros hogares, ya que los diodos emisores de infrarrojos se utilizan para transmitir la información de los mandos a distancia a aparatos como los televisores o los equipos de sonido. Un año después, Nick Holonyak Jr., considerado el verdadero padre de esta tecnología, creó el primer LED que emitía luz visible, roja, utilizando un compuesto de galio. Más adelante consiguió producir un LED que emitía luz láser.

Los LED de color rojo brillante serían los primeros que vería el público en general, en las pantallas de las primeras calculadoras y relojes digitales lanzados al mercado desde 1971 y durante toda la década, dispositivos en los cuales grupos de LED rojos daban forma a los números.

Durante los siguientes años, los LED de luz visible fueron subiendo a lo largo del espectro electromagnético. Si habían comenzado en el infrarrojo y el rojo, su carrera siguió con el desarrollo del primer LED amarillo en Monsanto en 1972, al que siguió el LED violeta ese mismo año, creado en los laboratorios de la RCA. Y en 1976, se desarrolló el primer LED de alta eficiencia y gran potencia que se utilizaría en las comunicaciones de fibra óptica.

Pero los LED seguían siendo una curiosidad para la gente en general hasta que en 1979, los investigadores japoneses Isamu Akasaki, Hiroshi Amano y Shuji Nakamura consiguieron por fin uno que emitiera luz de un color azul brillante. Este logro les mereció ser reconocidos con el Premio Nobel de Física en 2014. ¿Por qué era tan importante este logro comparado con los demás de la historia de este tipo de iluminación?

Por motivos de física, es imposible tener un LED que ofrezca luz blanca, que como sabemos está formada por una mezcla de todos los colores del espectro visual, de todas sus frecuencias. Cada compuesto de estos diodos sólo puede emitir luz en una frecuencia determinada. Se puede obtener luz blanca encendiendo tres LED, rojo, azul y verde, y a cierta distancia el ojo humano interpretará la suma de ellos como luz blanca, del mismo modo en que lo hacen los puntos de un televisor. Sin un LED azul, es imposible conseguir esta ilusión que, como vimos ,se emplea en enormes pantallas de televisión o vídeo como las que se pueden ver en Tokio o Nueva York.

Pero la luz LED azul de estos investigadores tenía además la capacidad de excitar al fósforo para que emitiera luz blanca, de modo similar a como lo estimula el gas de una lámpara fluorescente. Un LED azul recubierto por dentro de fósforo emite una brillante luz blanca, que es la que nos gusta tener pues es la que imita a la luz solar con la cual evolucionaron nuestros ojos y con la que mejor vemos.

A partir del LED azul, esta tecnología pudo al fin invadir nuestros hogares y ciudades como una opción altamente conveniente. Para obtener la misma cantidad de luz, un grupo de LED sólo necesita el 20% de la electricidad que las bombillas incandescentes. Su mantenimiento es barato, son muy seguros al utilizar poca tensión, y al ser direccionales disminuyen la contaminación lumínica de los cielos, y al no contener mercurio u otros productos peligrosos son mucho menos contaminantes.

Y, lo más interesante, muchos científicos ven a la luz LED como apenas el primer paso en la creación de un nuevo universo de iluminación mediante semiconductores. Las nuevas luces LED pronto podrían ser cosa del pasado.

El siguiente paso: OLED

En 1987 nació la tecnología llamada OLED, que ya está presente en muchas pantallas de diversos dispositivos. La “O” indica que el diodo emisor de luz tiene entre los dos electrodos una película de un compuesto orgánico, es decir, basada en el carbono en el sentido de la química orgánica, no de que provenga del mundo vivo, como pueden ser polímeros similares al plástico. Los OLED prometen hacer realidad, entre otras cosas, pantallas de vídeo flexibles, eficaces, brillantes y a precios muy bajos.

Schrödinger y su omnipresente gato

Pocas metáforas científicas están más difundidas que el “gato de Schrödinger” que, nos dicen, no está ni vivo ni muerto. Pero, ¿qué significa realmente?

Erwin Schrödinger, físico.
(Imagen de Robertson, copyright de la Smithsonian Institution,
via Wikimedia Commons)
A principios del siglo XX, la idea que teníamos de la física era muy incompleta. No se conocían los protones, la estructura del átomo era sujeto de especulación y muchos aspectos apenas empezaban a estudiarse.

Esto representó una explosión del conocimiento en la física que, entre otras cosas, vino a confirmar que nuestro sentido común no es buena herramienta para entender la realidad. Por sentido común podemos pensar, que los cielos giran alrededor de nuestro planeta, sin importar las pruebas de Copérnico, Kepler y Galileo. La ciencia a veces exige rechazar lo que sugiere nuestra intuición.

Así, en la revolución del siglo XX supimos que el tiempo no es constante, sino variable, que el movimiento no es absoluto, sino relativo, que la única constante universal es la velocidad de la luz... conclusiones de la teoría de la relatividad de Einstein para explicar el mundo macroscópico. Pero Einstein viajó también al mundo subatómico donde nuestra intuición es, si posible, aún más inútil.

En 1900, el físico Max Planck había postulado que la radiación (las ondas de radio, la luz visible, los rayos X, todas las formas que adopta el espectro electromagnético) no ocurría en un flujo continuo, sino que se emitía en paquetes, uno tras otro, como los vagones de un tren. Llamó a estos paquetes de energía “cuantos”. Cinco años después, Einstein desarrolló las ideas de Planck y propuso la existencia de un “cuanto” de luz, el fotón, su unidad menor e indivisible. Esto no era grave, podíamos percibir la luz como un continuo sin que lo fuera, del mismo modo en que percibimos una película como movimiento continuo sin ver que está formada por 24 fotogramas cada segundo.

Pero los cálculos de Einstein demostraron algo más: los fotones no eran ni ondas ni partículas o, desde nuestro punto de vista, a veces se comportan como ondas y a veces se comportan como partículas, cuando para la física clásica sólo existían ondas o partículas como fenómenos diferentes. ¿Cómo puede ser eso? La explicación, por supuesto, es que así ocurre y nuestro sentido común se equivoca al pensar que una manifestación física tiene que ser “onda o partícula” tanto como se equivocaba al creer que el universo giraba a nuestro alrededor. Esto dio origen a toda una rama de la física dedicada a estudiar el mundo subatómico, las leyes que rigen a las partículas elementales, la “mecánica cuántica”.

Los descubrimientos en la cuántica se sucedieron rápidamente pintando un panorama extraño, casi daliniano. En 1913, Niels Bohr desarrolla el primer modelo de cómo es un átomo que refleja con razonable precisión la realidad.  Y en 1926 entra en escena el físico austríaco Erwin Schrödinger, de sólo 39 años, que con tres artículos brillantes, el primero de los cuales describe cómo cambia el estado cuántico de un sistema físico al paso del tiempo, el equivalente de las leyes de Newton en el mundo a escala macroscópica. Si aplicamos la ecuación del movimiento de Newton a un objeto podemos saber dónde estará en el futuro en función de su aceleración . Para saber cómo evolucionará un sistema en la pequeñísima escala cuántica, se aplica la ecuación de Schrödinger.

Pero la ecuación de Schrödinger sólo nos da una probabilidad estadística de cómo evolucionará ese sistema. Un electrón puede tener probabilidad de estar en varios lugares... se diría que sus “funciones de onda” (su descripción matemática) están “superpuestas”, lo que quiere decir que ninguna se ha vuelto realidad. Pero cuando observamos el electrón (o lo registramos con un aparato, no es necesario que lo veamos con los ojos, lo cual además es imposible dado su diminuto tamaño) se dice que la “función de onda” del electrón, que incluye todas las probabilidades de dónde puede estar, se “colapsa” en una sola probabilidad del 100% y el electrón sólo está donde lo hemos observado. Esto significaría que el hecho mismo de observar un fenómeno cuántico (y es importante recordar que esto sólo ocurre a esala cuántica, es decir, a nivel microscópico) “provocaría” que tenga una u otra posición.

Poner esto en palabras, por supuesto, ha sido pretexto para que numerosos charlatanes y simuladores hablen como si supieran de cuántica y traten de extrapolar estos asombrosos acontecimientos a la realidad macroscópica, donde las cosas, claro, no ocurren así.

Incluso es posible que aún no tengamos completa la explicación. Como sea, el propio Erwin Schrödinger se sentía enormemente incómodo con estas paradojas, contradicciones y desafíos al sentido común que presenta la mecánica cuántica y las interpretaciones que daban sus colegas físicos, y en 1935 diseñó un experimento mental para ilustrar lo que a él le parecía un absurdo de las conclusiones que mencionamos.

En su experimento, hay un gato encerrado en una caja hermética y opaca con un dispositivo venenoso que se puede activar o no activar dependiendo de un fenómeno cuántico, como sería que un elemento radiactivo emita o no una partícula en un tiempo determinado. Si la probabilidad de que lo emita o no es del 50%, la conclusión sería que el gato no estaría ni vivo ni muerto (o su estado de vivo y muerto estarían “superpuestos”) porque mientras el sistema no sea observado no se hará 100% la probabilidad de que la partícula se emita o no. Al abrir la caja y ver si se ha emitido o no la partícula, su función de onda se colapsará y el veneno se habrá liberado o no, de modo que el gato estará o vivo o muerto.

Como es imposible que un gato esté a la vez vivo y muerto, según Schrödinger señaló, su experimento mental subrayaba que nuestra comprensión del mundo cuántico no es completa aún. Desde entonces, numerosas interpretaciones han intentado conciliar esta aparente paradoja, sin lograrlo.

Pero el experiento del mítico “gato de Schrödinger” en todo caso no tiene por objeto concluir que el pobre felino está realmente vivo y muerto al mismo tiempo, al contrario. Cosa que no tienen claro muchos que, de distintas formas, pretenden usar esta metáfora como aparente explicación de cuestiones que no tienen nada que ver con la física.

Los cuentos del gato

Son literalmente cientos los escritores y cineastas que han utilizado al gato de Schrödinger, ya sea como elemento de una historia, para ofrecer interpretaciones originales que resuelvan la paradoja o, simplemente, por su nombre. Douglas Adams, autor de El autoestopista galáctico, lo es de otra novela, Dirk Gently: agencia de investigaciones holísticas, donde el detective que le da nombre es contratado porque en vez de estar vivo o muerto, el gato simplemente ha desaparecido, harto de ser sometido una y otra vez al mismo experimento.

Café, té y chocolate

En el siglo XVII confluyeron en Europa, procedentes de Asia, África y América, tres bebidas estimulantes, calientes y reconfortantes que hoy siguen dominando nuestras culturas.

Tratado novedoso y curioso del café, el té y
el chocolate de Philippe Sylvestre Dufour
(Imagen D.P. via Wikimedia Commons)
Los seres humanos tenemos una relación muy estrecha con nuestras bebidas reconfortantes, las que servimos calientes y nos dan, paradójicamente, tanto una sensación de tranquilidad y relajación como un efecto estimulante. Aunque hay muchas de estas bebidas, como el mate suramericano, la kombucha, el té tuareg de menta y una cantidad prácticamente inagotable de infusiones diversas con creativas mezclas de distintas plantas, flores, frutos y hojas, las que predominan son el café, el té y el chocolate.

La más antigua de estas bebidas, o al menos de la que hay registros más tempranos es el té, que fue descubierto en la provincia de Yunán, en China, hacia el año 1000 antes de la Era Común y fue utilizado con propósitos medicinales durante 1600 años hasta que, hacia el año 618 de la Era Común empezó a popularizarse en China como bebida reconfortante y disfrutada por su sabor. Un siglo después llegó a Japón donde se naturalizó y se hizo parte de la cultura nipona, y tendrían que pasar otros mil años para que llegara a Europa, donde adquirió pasaporte británico gracias al rey Carlos II y su matrimonio con la portuguesa Catalina de Braganza, que llevó consigo el té a la corte inglesa a fines del siglo XVII.

Todo el té es una infusión de la planta cuyo nombre científico es Camellia sinensis, un arbusto nativo de Asia. Las distintas variedades dependen no de plantas diversas, sino del tratamiento que se le imparte a las hojas antes de preparar la infusión. El té blanco se hace con las hojas más tiernas, que sólo se tratan con vapor antes de ponerlas en el mercado. El té verde se hace con hojas más maduras, que se tuestan para deshidratarlas y para detener el proceso de fermentación que se inicia en ellas naturalmente. Si se deja continuar la fermentación un tiempo se obtiene un té oolong, mientras que si se deja que se desarrolle por completo se obtiene el té negro.

El té contiene como principal estimulante la teanina, una sustancia que reduce la tensión, mejora la cognición y estimula los sentidos y la cognición. Contiene también cafeína (en mayor proporción por peso que el propio café), teobromina y teofilina, que conjuntamente forman un cóctel estimulante y psicoactivo que explica en gran medida que sea la bebida reconfortante más popular del mundo.

El té también contiene unas sustancias llamadas catequinas, potentes antioxidantes que en la década de 1990 empezó a pensarse que podían ser beneficiosos para la salud. Vale la pena señalar que, sin embargo, los estudios realizados durante el último cuarto de siglo no ofrecen ninguna evidencia de que los antioxidantes tengan ninguna propiedad concreta para mejorar nuestra salud, mucho menos prevenir el cáncer.

El café es la más moderna de las tres grandes bebidas reconfortantes, aunque su principal ingrediente activo, la cafeína, es considerada por muchos expertos la droga más común y más consumida del mundo, ya que además de estar en el café que es el desayuno de gran parte de occidente la encontramos en numerosas bebidas refrescantes y energéticas, e incluso en algunos helados. El café contiene, además, teobromina.

La leyenda atribuye el descubrimiento del café a un pastor de cabras llamado Kaldi, que mantenía su rebaño en las tierras altas de Etiopía durante el siglo XIII de la Era Común. Allí vio que sus animales se mostraban más inquietos y animados cuando consumían las bayas de cierto árbol y decidió probarlas él mismo. Como fuera, para el siglo XV el café ya era cultivado en Yemen, y los árabes prohibieron su cultivo fuera de las tierras que controlaban y lo vendían a Europa, donde empezaron a aparecer los establecimientos donde se podía tomar una taza de café y participar en estimulantes conversaciones en las principales ciudades de Inglaterra, Austria, Francia, Alemania y Holanda. En 1616, los mercaderes holandeses, precisamente, sacaron de contrabando de Yemen semillas de café que empezaron a cultivar en invernaderos.

Más que otras bebidas, el café fue considerado por muchos un producto satánico, que exigió la intervención del papa Clemente VIII para autorizar su consumo en 1615.

El chocolate era, originalmente, una bebida esencialmente amarga, obtenida al tostar las semillas del árbol del cacao y luego molerlas para cocer el resultado en agua adicionado con vainilla aromatizante, algunas especias y, a veces, algo de chile o maíz molido y alguna miel natural. Puede sonar poco apetitoso, pero resulta que el chocolate (cuya etimología no es clara, por cierto) no era sólo una bebida que se consumía sólo por gusto. Si el gusto por el chocolate azteca era probablemente adquirido, como el gusto por el amargor de la cerveza, la energía que impartía al consumidor era su principal virtud. Al describirlo en una de sus cartas a Carlos V, Hernán Cortés exageraba un tanto asegurando que “una sola taza de esta bebida fortalece tanto al soldado que puede caminar todo el día sin necesidad de tomar ningún otro alimento”.

Como a tantas otras materias de origen vegetal, al chocolate se le atribuyeron en principio diversas propiedades terapéuticas y su llegada a Europa fue como bebida terapéutica, de lo que dio noticia el médico Alonso de Ledesma, que publicó un tratado al respecto en Madrid en 1631. Pero si no curaba tanto como se prometía, su preparación evolucionó con azúcar, canela, y preparado a veces con leche en lugar de agua y pronto se popularizó como bebida placentera.

El ingrediente activo que hace que el chocolate sea una bebida estimulante es la teobromina, una sustancia relacionada con la cafeína que no fue descubierta sino hasta 1841.

Las tres bebidas llegaron a Europa y compitieron por el favor de los consumidores que habían descubierto los placeres de un estimulante caliente donde antes sólo habían tenido cerveza y vino. En España y Francia, el chocolate adquirió personalidad propia, mientras que en Suiza asumió otras formas sólidas. El café se apoderó del continente europeo y, después, del americano con una sola excepción: Inglaterra, cuyo romance con el café apenas empieza a desarrollarse en el siglo XXI, después de 200 años de té.

El experimento de Gustavo III de Suecia

Gustavo III, rey de Suecia, estaba convencido de que el café que había invadido sus dominios era un peligroso veneno y se propuso probarlo. Se procuró a dos hermanos gemelos condenados a muerte y les conmutó la pena por cadena perpetua a cambio de que uno se tomara tres jarras de café al día y el otro hiciera lo mismo con tres jarras de té, bajo la supervisión de dos médicos. Gustavo III fue asesinado en 1792 y los dos médicos eventualmente también murieron, mientras los condenados seguían vivos. Se cuenta que el bebedor de té murió primero, a los 83 años de edad, y nadie sabe cuánto después murió el bebedor de café.

Pasado y futuro del elefante

El mayor animal terrestre tiene una larga historia evolutiva, y aunquesu supervivencia es aún incierta, hay señales de recuperación.

Elefante africano (Fotografía CC de Bernard Dupont, via Wikimedia
Commons)
La mayoría de nosotros conoce sólo dos especies de elefantes: el africano, reconocible por sus grandes orejas y lomo cóncavo, y el asiático, un poco más pequeño, de orejas más pequeñas y lomo convexo. Pero hay otra especie en África, el elefante del bosque, por lo que el más común y mayor se conoce ahora como “elefante de la sabana”. Para complicar más el panorama, la especie de la sabana está formada por al menos dos subespecies, mientras que el elefante asiático tiene hasta siete subespecies distintas. Y esto sin considerar la larga lista de sus antecesores, ya extintos, algunos bien reconocibles como el mamut lanudo o el mastodonte.

La línea evolutiva del elefante se remonta a 60 millones de años. Contrario a lo que presenta la fantasía, sus antecesores no convivieron con los dinosaurios. Todos los mamíferos de la época de los dinosaurios, los ancestros de todos los mamíferos que conocemos hoy, incluidos nosotros, eran pequeños, del tamaño de ratones, y correteaban por un mundo dominado por los grandes saurios.

Pero esos pequeños mamíferos consiguieron sobrevivir al evento que hace 65 millones de años ocasionó la extinción de los dinosaurios (dejando sólo como testimonio de su estirpe a las aves de hoy en día) y se encontraron con todo un medio ambiente lleno de nichos ecológicos desocupados. La evolución permitió que surgieran especies para ocuparlos todos, desde el mundo subterráneo de los topos hasta la tundra helada, desde los océanos hasta el desierto, desde la selva lluviosa hasta la sabana.

Y así, hace 60 millones de años apareció en los bosques africanos una especie de tranquilos hervíboros regordetes del tamaño de un cerdo, los Phosphaterium. Con metro y medio de largo y unos 50 kilos de peso, lo distinguía una trompa alargada. Esa trompa le daría nombre a todos los animales descendidos de él, Proboscidea, debido precisamente a su nariz o proboscis. Este animal vivió unos 5 millones de años dando lugar a otras especies como los Moeritherium, Barytherium y, finalmente Phiomia, el ancestro directo de los elefantes actuales y que hace 37 millones de años ya presentaba un aspecto imponente, con más de 3 metros de largo y media tonelada de peso, con el principio de los colmillos y la trompa que caracterizan a sus descendientes.

El elefante adquirió sus características definitivas a partir de los llamados gomphoterium, un género o genus que vivió aproximadamente desde hace 14 millones de años hasta hace 3,6 millones y del que descendieron los primeros miembros del orden Proboscidea con los que se encontraría el ser humano durante la última glaciación: los mastodontes y los mamuts. Los gomphoterium y sus descendientes se acomodaron a distintos hábitats en todo el mundo salvo Australia, donde no hay mamíferos placentarios nativos debido a que se separó de los demás continentes 35 millones de años antes de la extinción de los dinosaurios.

En varias ocasiones han aparecido elefantes enanos, poblaciones que se desarrollan en islas y desarrollan el llamado “enanismo insular” en respuesta a los límites del entorno van reduciendo su tamaño y sus necesidades de alimentación y espacio. Aunque hoy están todos extintos, fueron comunes en las islas del Mediterráneo como Chipre, Creta, Sicilia, Cerdeña y otras, y en las de Indonesia, en especial en Sulawesi, Timor y Flores, donde al parecer una variedad humana, el “hombre de Flores” experimentó también enanismo insular, por lo que se le ha llamado imprecisamente, “hobbitts” en recuerdo de los personajes de J.R.R. Tolkien.

Hay unos primos de los elefantes que también fueron conocidos por los seres humanos: los deinotherium, que quiere decir “mamífero terrible”, de hasta 5 metros de alto y 10 toneladas y que vivieron en Asia, África y Europa desde hace 10 millones de años hasta hace unos 10.000. De hecho, una de las hipótesis de su extinción incluye el haber sido presas de los cazadores humanos. Los elefantes modernos aparecieron en África hace apenas 5 millones de años. De allí, el elefante migraría a Asia donde se diversificó en varias subespecies.

Las dos especies de elefantes africanos enfrentaron una tragedia: sus colmillos están hechos del valioso marfil, y su obtención que motivó una cacería descontrolada que desde el siglo XIX redujo la población de elefantes africanos (que tienen los colmillos más largos y pesados) de 26 millones de ejemplares a entre 500.000 y 700.000 en la actualidad. Prohibido desde 1989, el comercio de marfil continúa ilegalmente apoyado sobre todo en la cacería furtiva, que sin embargo es mucho menor que la del pasado. De hecho, el elefante africano está considerado ahora como especie vulnerable, pero no en riesgo de extinción, y en algunas zonas su población ha crecido en las últimas décadas. Esto ha dado lugar a un conflicto adicional: su choque con las poblaciones humanas al invadir cultivos y aldeas, y se calcula que matan a unas 200 personas al año. Esto y la sobrepoblación de elefantes en algunas zonas ha motivado acciones de cacería para reducir sus números por parte de los propios estados africanos.

El elefante asiático, usado ampliamente como animal de trabajo y considerado sagrado, sí está en peligro, con una población de apenas entre 25.000 y 33.000 individuos, amenazados sobre todo por el crecimiento de las poblaciones humanas y el aislamiento de sus manadas, lo que afecta el flujo genético y la diversidad en sus poblaciones. En ese conflicto, los elefantes además matan a unas 300 personas al año en el Sudeste Asiático.

Como en todos los casos de especies puestas en peligro especialmente por la acción humana, sólo con un esfuerzo amplio, que incluya no sólo a las naciones donde viven los elefantes, sino a todos los países y organizaciones, se logrará estabilizar su situación y garantizar la supervivencia de las especies con poblaciones adecuadas y en una convivencia sostenible con los seres humanos. Sin eso, se perderá un legado de 60 millones de años y al mayor animal terrestre, que al final no es sino un gran herbívoro más bien pacífico... como sus más lejanos ancestros.

Los elefantes pintores

La inteligencia y el delicado manejo de su trompa, que conoce cualquiera que le haya dado algo de comer a un elefante y éste lo haya tomado de su mano, han sido aprovechados por el Proyecto de Arte y Conservación del Elefante Asiático, fundado por dos pintores que han enseñado pacientemente a algunos elefantes a pintar ciertas escenas. Cada elefante aprende una escena (la más famosa es el dibujo precisamente de un elefante) y la pinta diariamente frente a un público. Aunque no estén ejerciendo “creatividad” directamente, la hazaña es impresionante.

La imagen en movimiento

Una gran parte de nuestro entretenimiento e información vienen hoy en día en la forma de cine y vídeo. Dos medios que hace poco más de un siglo no eran más que el sueño de unos pocos.

William Henry Fitton, creador del
taumatropo y pionero del cine.
(Imagen CC vía Wikimedia Commons)
El cine nació en 1825. O al menos la primera ilusión óptica que hace que veamos movimiento a partir de imágenes fijas. Fue cuando el irlandés William Henry Fitton creó el "taumatropo" o rotoscopio, un disco con dos imágenes en sus dos caras que al ser girado con dos hilos en puntos opuestos de sus bordes dan la impresión de que ambas imágenes están juntas. El ejemplo clásico, que seguramente todos conocemos, tiene en un lado un pájaro y en el otro una jaula, y al girar el disco vemos al pájaro dentro de la jaula.

Es posible que los primeros intentos de representar el movimiento estén en algunas pinturas rupestres donde los animales parecen tener más patas de las normales, acaso la representación de su movimiento. Nunca lo sabremos. Sí sabemos quehay un vaso de cerámica de Irán que data de hace unos cinco mil años y que lleva cinco dibujos que, como fotogramas de una película, muestran momentos del salto de un antílope sobre unas plantas.

El camino hacia el cine siguió con una serie de inventos que mejoraban su capacidad de crear la ilusión al tiempo que adquirían nombres cada vez más enrevesados, como el fenakitoscopio del belga Joseph Plateau, de 1832, con dos discos que giraban sobre un mismo eje, uno con dibujos y el otro con ranuras. Al ver los dibujos en un espejo a través de las ranuras, parecían moverse. Dos años después nació el “daedalum” o “zoetropo” del matemático, William George Horner.

Es claro que, estando la fotografía en sus primeras etapas, los dibujos animados fueron los antecesores del cine, como los del “folioscopio” (esos libritos cuyas hojas llevan cada una un dibujo y al pasarse a gran velocidad se animan) del francés Pierre-Hubert Desvignes en 1860 y que podía incluir muchos más dibujos que los menos de veinte del zoetropo. El folioscopio fue usado por fotógrafos para animar por primera vez secuencias fotográficas a falta de proyectores.

En 1877, el profesor de ciencias francés Charles Émile Reynaud creó el mejor aparato de este tipo con su debido nombre de trabalenguas: el praxinoscopio, que mejoraba al zoetropo y le ganó a su inventor una Mención Honorífica en la Exposición de París de 1878. Un año después, le añadió un proyector de diapositivas, heredero de las linternas mágicas del siglo XVII.

Estas y otras ideas se unieron en el kinetoscopio, desarrollado en el laboratorio de Tomas Alva Edison, quien creó un proyector de imágenes fotográficas sucesivas. Pero era un aparato para una sola persona, que ponía una moneda en él y veía, inclinada en un visor, una cinta de un par de minutos.

Fueron los hermanos Auguste y Louis Lumière (y probablemente Léon Bouly) quienes crearon ina forma de registrar, proyectar e imprimir película fotográfica en secuencia sobre una pantalla para varias personas. Fue el “cinematógrafo” cuya primera proyección se hizo el 28 de septiembre de 1895.

Desde entonces, todo han sido mejoras, añadidos, avances tecnológicos y reelaboraciones sobre el concepto de los hermanos Lumière, su cámara, su proyector y su pantalla, que consiguieron crear una ilusión convincente para nuestro sistema nervioso.

Porque el cine, finalmente, no es otra cosa que una forma de magia, una ilusión, un engaño eficaz para los dispositivos de percepción y procesamiento de la imagen de los que disponemos, como el de un prestidigitador al hacernos creer que ha hecho desaparecer o aparecer algo por arte de magia.

A principios del siglo XX el cine ya estaba bien encaminado. Charles Chaplin había tenido la brillante idea de mover la cámara para cambiar de punto de vista. Georges Méliès había inventado los efectos especiales y el cine a color (vale, pintando a mano cada fotograma, la tecnología mejoraría el asunto en poco tiempo). El poco conocido Orlando Kellum había dado los pasos clave para añadirle sonido al cine y en 1914 Winsor McCay inventó los dibujos animados en el cine con su corto (que aún sobrevive) “Gertie, la dinosaurio amaestrada”.

El desafío que quedaba a la ciencia y la tecnología era lograr con la imagen en movimiento lo que habían conseguido Nikla Tesla y Guiglielmo Marconi con el sonido y la radio: transmitirlo remotamente en “tiempo real”. Ver lo que ocurría desde lejos o tele-visión.

El primer sistema de televisión factible desarrollado a partir del trabajo de Marconi en la radio fue el del estudiante de ingeniería alemán Paul Nipkow, que en 1884 patentó una televisión "mecánica" que capturaba imágenes explorándolas mediante un disco giratorio con 18 orificios en espiral, aunque no se sabe si alguna vez llevó su diseño a la práctica.

Lo que sí se sabe es que la palabra “televisión” fue acuñada por el ruso Constantin Perskyi en un discurso durante la Exposición Universal de París de 1900. Pero la primera demostración de un sistema real tuvo que esperar hasta 1926, cuando el ingeniero escocés John Logie Baird la ofreció en 1926 en Londres con otro sistema mecánico de captura de imágenes.

La televisión no se volvió viable sino hasta que se desarrollaron procedimientos electrónicos para la captura y reproducción de imágenes, ya que el sistema mecánico era de bajísima resolución y sólo podía transmitir imágenes de tamaño pequeño. El logro definitivo correspondió al estadounidense Philo T. Farnsworth, que había aprendido electricidad con un curso por correspondencia, y que el 7 de septiembre de 1927 llevó a cabo la primera emisión de televisión electrónica en San Francisco, California. El primer televisor se vendería apenas un año después en los Estados Unidos y en 1929 el invento se lanzaba en Inglaterra y Alemania.

Era televisión en blanco y negro, poco nítida y con pocas líneas de resolución, 60, una minucia comparadas con las 520 de la televisión común o las 1.125 de la televisión de alta definición. Pero, como ocurrió con el cine, las bases estaban puestas y todo era cosa de desarrollarlas y construir sobre ellas convirtiendo un logro de la ciencia y la tecnología, al mismo tiempo, en un negocio, una industria y, muchas veces, una forma de arte.

¿Por qué vemos como vemos?

Desde principios del siglo XIX se creyó que existía una "persistencia de la visión" mediante la cual la imagen de un objeto en la retina permanecía aún después de haber desaparecido su causa, y que tal fenómeno explicaba por qué percibíamos la ilusión del movimiento con imágenes fijas. La neurociencia actual ha desechado el concepto y diversas disciplinas buscan, primero, entender cómo vemos e interpretamos el movimiento. El misterio persiste y aún no sabemos por qué nos engañan el cine y la televisión... aunque los críticos de cine sigan hablando de la “persistencia de la visión”.

La lucha contra pelagra, entre el dogma y el prejuicio

La teoría de los gérmenes explicaba mucho, pero no lo explicaba todo. Demostrarlo fue la tarea de la vida de Joseph Goldberger.

El doctor Joseph Goldberger (Imagen CC de los Centers for
Disease Control [PHIL #8164] vía Wikimedia Commons)
Louis Pasteur y Robert Koch desarrollaron a mediados del siglo XIX las bases de la medicina científica al postular y demostrar la “teoría de los gérmenes”, es decir, que las enfermedades infecciosas lo eran debido a la acción de seres microscópicos. Su trabajo permitió empezar a entender al fin las infecciones, el contagio, las epidemias, la prevención mediante la higiene y la vacunación y una notable mejoría en la calidad y cantidad de vida de los seres humanos en general.

Pero en un caso que marcó un hito en la historia de la investigación médica, el entusiasmo por la teoría de los gérmenes resultó no sólo injustificado, sino que retrasó el tratamiento de una terrible enfermedad.

A principios del siglo XX, la pelagra había adquirido proporciones epidémicas en los Estados Unidos. Se le conocía por su horrendo desarrollo, una sucesión de síntomas que provocaban a sus víctimas un enorme sufrimiento que se podía desarrollar a lo largo de tres o cuatro años hasta que llegaba al fin la muerte, con alteraciones que iban desde la pérdida de cabello y descamación de la piel junto con gran sensibilidad al sol hasta descoordinación y parálisis muscular, hasta problemas cardiacos, agresividad, insomnio y pérdida de la memoria.

El Servicio de Salud Pública de los EE.UU. comisionó en 1914 al doctor Joseph Goldberger, que estaba al servicio de la institución desde 1899, para que encabezara su programa de lucha contra la pelagra, que estaba afectando a la población del sur del país y, de modo muy especial, a quienes vivían en orfanatos, manicomios y pueblos dedicados al hilado de algodón.

Goldberger era hijo de una familia pobre de inmigrantes judíos, con los que había llegado a Nueva York a los seis años de edad desde su natal Hungría. Educado en escuelas públicas, consiguió entrar a la Universidad de Bellevue y graduarse como médico en 1895. En el Servicio de Salud Pública había demostrado ser un brillante investigador en temas de epidemias, combatiendo por igual la fiebre amarilla que el dengue y el tifus en varios países... y siendo víctima de estas tres enfermedades. Para cuando se le comisionó a luchar contra la pelagra era uno de los más brillantes epidemiólogos y estaba precisamente trabajando en u programa contra la difteria. Entre sus varias aportaciones se contaba la demostración de que los piojos podían ser vectores de transmisión del tifus.

La razón por la que se le llamó a esa tarea era, precisamente, que la ciencia médica actuaba bajo el convencimiento de que la pelagra era una enfermedad contagiosa, y era necesario descubrir al patógeno responsable, virus o bacteria, para poder contener la epidemia.

Pero Goldberger pronto concluyó que la pelagra no era contagiosa, sino producto de una deficiencia alimentaria, una opinión muy minoritaria. Era la explicación que mejor se ajustaba al curioso hecho de que el personal y los administradores de las instituciones más afectadas por la pelagra, como orfanatos y psiquiátricos, nunca se contagiaban de la enfermedad.

El médico emprendió un experimento, cambiando la dieta de los niños y pacientes de algunas instituciones. Si solían comer pan de maíz y remolacha, empezaron a recibir leche, carne y verduras. Pronto, los enfermos se recuperaron y, entre los que se alimentaban con la nueva dieta, ya no aparecieron nuevos casos de la afección.

Parecía concluyente.

Pero los médicos del sur se rehusaron a aceptar los resultados de Goldberger. En su rechazo no sólo había convicciones médicas, sino prejuicios. El médico era de un servicio gubernamental, era del norte y era judío, tres características que aumentaban la suspicacia contra sus ideas.

Emprendió entonces un experimento que hoy ni siquiera se podría plantear: en 1916 tomó a un grupo de 11 prisioneros sanos voluntarios y a cinco de ellos les proporcionó una dieta abundante pero deficiente en proteínas, mientras que los otros seis mantuvieron su dieta normal. En poco tiempo, los cinco presos con mala dieta sufrieron de pelagra.

Aún así, la mayoría de los médicos del sur se negaban a aceptar la hipótesis de Goldberger. Su siguiente experimento fue aún más aterrador: él y su equipo intentaron contagiarse de pelagra comiendo e inyectándose secreciones, vómito, mucosidades y trozos de las lesiones de piel de enfermos de pelagra. Pese a sus heroicos pero repugnantes esfuerzos, ninguno de ellos desarrolló la afección.

La contundencia del experimento, sin embargo, fue insuficiente. Los experimentos de Goldberger habían sido suficientes para que el Servicio de Salud Pública emitiera un boletín señalando que la pelagra se podría prevenir con una dieta adecuada (aún sin saber exactamente cuál era la sustancia o sustancias responsables del trastorno). Pero en el sur, hasta 1920, muchísimos médicos se negaron a aceptarlo, de modo que no emprendieron acciones para mejorar la dieta de sus pacientes.

El motivo no era sólo médico. El razonamiento de Goldberger, después de todo hijo de pastores reconvertidos en comerciantes, era que si la pelagra era resultado de una alimentación deficiente y ésta era resultado de la pobreza, la mejor prevención para la pelagra no estaba en la medicina, sino en una reforma social que cambiara el modo de propiedad de la tierra, superviviente de las haciendas sostenidas en el siglo XVIII y XIX con trabajo esclavo. Esto no gustaba a los poderosos del Sur, que sentían que su región estaba siendo denigrada.

Joseph Goldberger siguió buscando las causas de la pelagra infructuosamente hasta su muerte en 1929. No fue sino hasta la década de 1930 cuando se descubrió que el ácido nicotínico, también llamado niacina y vitamina B3, curaba a los pacientes de pelagra. Pronto se descubrió que el triptofano, uno de los aminoácidos que necesitamos en nuestra dieta, era precursor de la niacina, es decir, que nuestro cuerpo lo utiliza para producir la vitamina, y que era la carencia de ésta la la que provocaba la pelagra, como la falta de vitamina C provoca el escorbuto. Se empezó a añadir triptofano a diversos alimentos como el pan... y la pelagra desapareció pronto del panorama de salud del mundo. Un homenaje póstumo al desafío de Goldberger, con datos y hechos, a una creencia dañina.

Maíz y pelagra

La pelagra se descubrió en Asturias en el siglo XVIII cuando la población rural empezó a alimentarse de maíz. El maíz contiene niacina, pero para que el cuerpo la pueda aprovechar, es necesario cocinar el maíz con una sustancia alcalina, como se hace en Centroamérica para producir las tortillas o tortitas de maíz, motivo por el cual las culturas que dieron origen al cultivo del maíz nunca conocieron la pelagra.

La guerra contra el frío

Somos animales tropicales que han invadido otras latitudes gracias a su tecnología. Pero, debajo de esa tecnología, seguimos siendo extremadamente vulnerables al frío.

Reconstrucción de la ropa
que llevaba Ötzi.
(Fotografía CC de Sandstein,
vía Wikimedia Commons)
Imagínese cruzando los Alpes austríacos a unos seis grados centígrados bajo cero o incluso, posiblemente, una temperatura aún más fría.

Esa hazaña no es nada sencilla. El frío alpino diezmó al ejército de Aníbal en su cruce de los Alpes en el 218 antes de la Era Común durante la segunda guerra, pero no parece haber sido obstáculo para un hombre que murió allí hace algo más de 5.000 años no de frío, sino por una flecha disparada a su espalda. Sus restos son hoy una de las momias más famosas, Ötzi, el hombre de hielo. Su descubrimiento en 1991, gracias al deshielo del glaciar donde murió, nos permitió echar un vistazo sin precedentes a la vida de nuestros antepasados neolíticos.

Entre los objetos que se recuperaron junto al cuerpo del hombre de 1,60 de estatura y unos 45 años de edad destacaba su ropa, eficaz para protegerlo del frío: un gorro de piel de oso, chaqueta, taparrabos y leggings de piel de cabra cosida con los tendones del propio animal y unos zapatos de exterior de piel de ciervo aislados con capas de hierba y paja.

Probablemente estaba mejor equipado que los hombres de Aníbal, y vivía no muy lejos del punto donde fue emboscado y encontrado, y sabía cómo enfrentar las inclemencias del tiempo.

El frío es uno de los grandes enemigos de la vida humana, aunque algunas especies claramente florecen a temperaturas por debajo del punto de congelación. De hecho, según científicos que han estudiado la evolución humana, es probable que nuestros ancestros sobrevivieron a la glaciación que se produjo hace entre 123.000 y 195.000 años refugiándose en una zona de la costa del Sur de África. Las exploraciones paleoantropológicas en Pinnacle Point sugieren que primeros Homo sapiens aprovecharon las condiciones únicas de la zona para sobrevivir y, eventualmente, extenderse por el continente, viajar al norte hacia el Medio Oriente y, finalmente, extenderse por el continente eurasiático. En su viaje muy probablemente llevaban ya consigo un enorme avance tecnológico contra el frío: el fuego, que junto con las pieles curtidas de animales producto de la cacería les permitirían vivir en temperaturas para las cuales el ser humano no está preparado según su constitución genética.

El triunfo contra el frío es un triunfo totalmente cultural y tecnológico. Sin él, los seres humanos sólo podríamos vivir en espacios muy delimitados, principalmente entre los trópicos, donde las condiciones son lo bastante amables como para vivir sin abrigo “artificial”. Y sin abrigo artificial el frío puede causar verdaderos estragos en el cuerpo humano.

Combatir el frío significa evitar que la pérdida de calor de nuestro cuerpo (por radiación de calor, por transmisión a los objetos y al aire, y mediante el sudor) sea tal que se reduzca nuestra temperatura basal, ésa que sabemos que se ubica alrededor de los 37 ºC, con una variación de alrededor de un grado según la hora del día y la actividad que se realiza. Sabemos los efectos que sufrimos si nuestra temperatura aumenta un par de grados, y la gravedad que puede llegar a tener el superar los 40 grados de fiebre.

Si, en el otro sentido, nuestros órganos internos bajan a una temperatura de 35 ºC, se presenta una hipotermia leve y comienza el peligro para la vida. Si baja de 33 ºC hay amnesia y un estupor que nubla el jucio, y la hipotermia se agrava. Al pasar los 30 grados se deja de tiritar de frío, y el corazón entra en arritmia, es decir, su latido se vuelve irregular, y el lento flujo sanguíneo dispara alucinaciones y una extraña reacción conocida como “desnudo paradójico” observada incluso en montañistas, que se arrancan la ropa afirmando que experimentan un calor abrasador. Al caer por debajo de los 28 ºC se pierde la consciencia y si nuestro cuerpo alcanza los 21 ºC la muerte es casi certera. La hipotermia puede desencadenar, entre otros efectos mortales, una insuficiencia cardiaca o una apoplejía.

Antes que las estrategias culturales para evitar que nuestra temperatura baje a niveles peligrosos están las reacciones que tiene nuestro propio cuerpo para defenderse. El centro nervioso a cargo de regular la temperatura, nuestro termostato biológico, es el hipotálamo.

Cuando la temperatura baja así sea levemente, entran en acción diversos mecanismos interconectados que conocemos bien. Primero, se reduce la sudoración y los vasos sanguíneos cerca de la piel se contraen, con lo que se reduce la pérdida de calor, con el efecto colateral de darle a la piel un color azulado por falta de riego. La constricción de los vasos sanguíneos, por cierto, provoca que el cuerpo se deshaga de líquidos excedentes por medio de los riñones, lo que explica que el frío provoque deseos de orinar. Además, el hipotálamo indica al cuerpo que produzca calor, lo que puede hacer primero aumentando el tono muscular y después contrayendo los músculos rítmicamente (tiritar de frío) o bien liberando hormonas que aumentan la tasa metabólica del cuerpo. También, comer alimentos altos en calorías y hacer ejercicio para “quemarlas” sirve para combatir el posible descenso en la temperatura corporal.

Pero si la situación es crítica, el hipotálamo toma decisiones terribles: su prioridad son los órganos internos y otras partes, como los dedos de las manos y los pies, parecen prescindibles (lo que se ejemplifica en los casos de congelación de dedos en montañistas).

Existen, por supuesto, casos extremos de personas que han sobrevivido temperaturas corporales bajísimas. Y es que no importa realmente el frío que hace afuera, sino la pérdida de calor que experimentamos nosotros. Con ropa adecuada y sin viento, una persona puede sobrevivir cómodamente a -29 ºC, pero si hay viento, la sensación de frío (o factor de congelación) puede marcar la diferencia hasta el congelamiento.

La protección adecuada contra el frío ha cambiado mucho respecto de la que llevaba Ötzi en su excursión, pero si es eficaz, nos puede garantizar la supervivencia sin necesidad de vivir en los trópicos.

Nuevos materiales

En los últimos años se han desarrollado materiales que sustituyen a los naturales y que ofrecen mayor protección con menor peso y capas más delgadas, ya que una buena ropa aislante del frío debe constar de varias capas que mantengan el calor y se deshagan de la humedad por capilaridad simultáneamente, que es lo que hacen los textiles “transpirables”. Más allá de telas como el fleece, o forro polar, o el thinsulate, hay proyectos que contemplan el uso de sensores y tejidos dinámicos para responder a las variables del cuerpo humano, permitiendo que sus usuarios funcionen a pleno rendimiento en temperaturas mortalmente bajas.

Libros para navidad

Comer sin miedo: Mitos, falacias y mentiras sobre la alimentación en el siglo XXI, J.M. Mulet, Destino

A veces parece que el mundo está dispuesto a decirnos cuán dañino y poco saludable es todo lo que comemos. Ya sea en Internet, en el taxi, en las reuniones de amigos, en la radio y la televisión, estamos rodeados de gente que nos informa que tal o cual alimento es en realidad un veneno peligrosísimo, una bomba de relojería cuyo consumo nos puede costar tiempo y calidad de vida. Y la solución que nos ofrecen, generalmente, incluye comer alimentos que llaman “naturales”, “orgánicos” o “ecológicos”

Pero la mayoría de quienes con toda buena fe nos informan de estos temibles peligros no tienen ni la más remota idea de cómo se obtienen esos alimentos, a duras penas han visto el campo en postales y lo más cercano a la agricultura que han hecho es germinar un par de alubias en la escuela cuando eran niños.

J.M. Mulet, investigador y profesor de biotecnología en la Universidad Politécnica de Valencia hace un recorrido por los grandes “miedos alimentarios” que conforman todo un zoo de leyendas urbanas y los desmonta explicándolos de manera amena y clara: ¿en realidad estamos envenenándonos con pesticidas, aditivos alimenticios y misteriosas sustancias químicas?, ¿los cultivos transgénicos causan daños a la salud?, ¿existen las dietas milagro?, ¿los alimentos “naturales” o “ecológicos” realmente son más sanos? La respuesta a todas estas preguntas es que no, pero lo fascinante es averiguar por qué, y descubrir que los alimentos que tenemos hoy a nuestro alcance son los más seguros de toda la historia de la humanidad y tenemos la seguridad científica de que podemos comer sin miedo y que la tecnología es lo más normal en nuestros alimentos desde la invención de la agricultura.

El bonobo y los diez mandamientos, Frans de Waal, Tusquets

Frans de Waal es un experto en comportamiento social de los primates con casi cuarenta años dedicado a explorar la cooperación, el altruismo, la resolución de conflictos y el sentido de la justicia de los primates, como punto de partida para descubrir cuáles son los orígenes evolutivos de nuestro sentido de la moral. Sus investigaciones han demostrado que los primates tienen una idea básica de la moral y saben lo que es la justicia, y en este libro ameno y sorprendente nos presenta cómo se expresa esa idea entre nuestros más cercanos parientes evolutivos, los pacíficos y muy sexuales bonobos.

El nanomundo en tus manos. Las claves de la nanociencia y la nanotecnología, Elena Casero Junquera, Carlos Briones Llorente, Pedro Serena Domingo, José Ángel Martín-Gago, Crítica

En el terreno de lo extremadamente pequeño, entre 0,1 y 100 o millonésimas de milímetro, se está gestando una de las grandes transformaciones del conocimiento. A esa escala hay materiales, estructuras e incluso máquinas formadas átomo a átomo y molécula a molécula con aplicaciones igual en la electrónica, la biotecnología o la medicina. Este libro, de científicos que trabajan en la vanguardia de esta disciplina que apenas cumple treinta años de existir, cuenta la historia, expectativas y riesgos previsibles de la nanotecnología, y nos cuenta cómo podremos disfrutar sus beneficios sin peligro.

Orígenes, Neil deGrasse Tyson y Donald Goldsmith, Paidós

Neil deGrasse Tyson se convirtió en una celebridad a nivel mundial gracias a su participación como presentador de “Cosmos”, la serie que continuó la legendaria incursión televisual de Carl Sagan. Pero Tyson era ya un experimentado divulgador que presentó varios programas en la televisión estadounidense, entre ellos “Orígenes”. La idea detrás de esa serie se plasmaría en este libro que relata los 14 mil millones de años que han transcurrido desde el Big Bang hasta llegar a donde estamos hoy, para conocer nuestros más profundos y genuinos orígenes, el punto de partida de lo que podemos llegar a ser.

Neurozapping. Aprende sobre el cerebro viendo la televisión, José Ramón Alonso, Laetoli

La televisión nos muestra con frecuencia personajes y situaciones que exhiben rasgos que para un neurocientífico son sus áreas de estudio y trastornos comunes. Utilizando la televisión como pretexto, José Ramón Alonso nos muestra muchoque las neurociencias saben sobre nuestro cerebro. ¿Cómo es una tartamudez como la del cerdito Porky? ¿Cómo saben los forenses del CSI en qué mometo se produce la muerte cerebral? ¿Qué es la psicopatía que afecta al enormemente popular Dexter? Un recorrido que nos permite aprender a partir de lo que hemos visto en la televisión y quizá empezar a verla con otros ojos.

En un metro de bosque, David George Haskell, Turner Noema

Un libro que demuestra una vez más lo artificial que resulta la separación entre ciencia y poesía, entre conocimiento y emociones. El autor, biólogo y poeta, asume la actitud del antiguo naturalista, como Darwin, de observar y registrar lo que ocurre en la naturaleza, pero elige para ello un solo metro de bosque al que acude diariamente durante un año para analizarlo desde todos los puntos de vista, ayudado sólo de una lupa y un cuaderno de campo. Aves, lombrices, depredadores, árboles, flores e insectos van pasando por el libro contándonos sus respectivas historias con un estilo rico y cordial.

Un físico en la calle, Eduardo Battaner, EUG

Esta esperada reedición de un libro de 2005 no es un libro de ensayos, sino una novela protagonizada por un profesor de física y sus conversaciones con una estudiante de historia y el tabernero del pueblo que comentan problemas de la física que se presentan en la vida cotidiana, incluso sin que nos demos cuenta de que son problemas de física. Battaner utiliza esta realidad inmediata para presentar, con todo rigor, los principios de la física que subyacen a ellos y cómo se llegó a ellos: la física de fluidos, la astrofísica, la entropía y algunas preocupaciones de la filosofía de la ciencia.

Crónicas de ciencia improbable, Pierre Barthelémy, Academia

No hay preguntas tontas, sino respuestas insuficientes. Se puede entender parte de la realidad desde el cuestionamiento más sencillo, de leyendas como la de que alguien puede encanecer en una noche, de la angustia por elegir siempre la fila más lenta del supermercado, o de cuestionamientos delirantes como la relación del Big Bang del inicio del universo con el molesto hecho de que las tostadas suelen caer del lado de la mantequilla. Barthelémy, popular blogger de ciencia de Le Monde, parte de estas preguntas para un viaje apasionante por el conocimiento en muchas de sus facetas interrelacionadas.

Si tú me dices Gen lo dejo todo, The Big Van Theory, La esfera de los libros

The Big Van Theory es un grupo de monologuistas de comedia que disfrutan de éxito en sus recorridos por España, parte de Europa y América Latina transmitiendo humor con temas científicos desde la singular perspectiva de que ellos mismos, los que nos cuentan temas de la ciencia y del trabajo cotidiano de la investigación, son científicos provenientes de distintos campos. Este libro no sólo reúne algunos de sus mejores monólogos, como, sino que incluye las explicaciones de los temas que les han dado origen, desde los aceleradores de partículas hasta las plantas transgénicas y los ejércitos de bacterias.