Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Café, té y chocolate

En el siglo XVII confluyeron en Europa, procedentes de Asia, África y América, tres bebidas estimulantes, calientes y reconfortantes que hoy siguen dominando nuestras culturas.

Tratado novedoso y curioso del café, el té y
el chocolate de Philippe Sylvestre Dufour
(Imagen D.P. via Wikimedia Commons)
Los seres humanos tenemos una relación muy estrecha con nuestras bebidas reconfortantes, las que servimos calientes y nos dan, paradójicamente, tanto una sensación de tranquilidad y relajación como un efecto estimulante. Aunque hay muchas de estas bebidas, como el mate suramericano, la kombucha, el té tuareg de menta y una cantidad prácticamente inagotable de infusiones diversas con creativas mezclas de distintas plantas, flores, frutos y hojas, las que predominan son el café, el té y el chocolate.

La más antigua de estas bebidas, o al menos de la que hay registros más tempranos es el té, que fue descubierto en la provincia de Yunán, en China, hacia el año 1000 antes de la Era Común y fue utilizado con propósitos medicinales durante 1600 años hasta que, hacia el año 618 de la Era Común empezó a popularizarse en China como bebida reconfortante y disfrutada por su sabor. Un siglo después llegó a Japón donde se naturalizó y se hizo parte de la cultura nipona, y tendrían que pasar otros mil años para que llegara a Europa, donde adquirió pasaporte británico gracias al rey Carlos II y su matrimonio con la portuguesa Catalina de Braganza, que llevó consigo el té a la corte inglesa a fines del siglo XVII.

Todo el té es una infusión de la planta cuyo nombre científico es Camellia sinensis, un arbusto nativo de Asia. Las distintas variedades dependen no de plantas diversas, sino del tratamiento que se le imparte a las hojas antes de preparar la infusión. El té blanco se hace con las hojas más tiernas, que sólo se tratan con vapor antes de ponerlas en el mercado. El té verde se hace con hojas más maduras, que se tuestan para deshidratarlas y para detener el proceso de fermentación que se inicia en ellas naturalmente. Si se deja continuar la fermentación un tiempo se obtiene un té oolong, mientras que si se deja que se desarrolle por completo se obtiene el té negro.

El té contiene como principal estimulante la teanina, una sustancia que reduce la tensión, mejora la cognición y estimula los sentidos y la cognición. Contiene también cafeína (en mayor proporción por peso que el propio café), teobromina y teofilina, que conjuntamente forman un cóctel estimulante y psicoactivo que explica en gran medida que sea la bebida reconfortante más popular del mundo.

El té también contiene unas sustancias llamadas catequinas, potentes antioxidantes que en la década de 1990 empezó a pensarse que podían ser beneficiosos para la salud. Vale la pena señalar que, sin embargo, los estudios realizados durante el último cuarto de siglo no ofrecen ninguna evidencia de que los antioxidantes tengan ninguna propiedad concreta para mejorar nuestra salud, mucho menos prevenir el cáncer.

El café es la más moderna de las tres grandes bebidas reconfortantes, aunque su principal ingrediente activo, la cafeína, es considerada por muchos expertos la droga más común y más consumida del mundo, ya que además de estar en el café que es el desayuno de gran parte de occidente la encontramos en numerosas bebidas refrescantes y energéticas, e incluso en algunos helados. El café contiene, además, teobromina.

La leyenda atribuye el descubrimiento del café a un pastor de cabras llamado Kaldi, que mantenía su rebaño en las tierras altas de Etiopía durante el siglo XIII de la Era Común. Allí vio que sus animales se mostraban más inquietos y animados cuando consumían las bayas de cierto árbol y decidió probarlas él mismo. Como fuera, para el siglo XV el café ya era cultivado en Yemen, y los árabes prohibieron su cultivo fuera de las tierras que controlaban y lo vendían a Europa, donde empezaron a aparecer los establecimientos donde se podía tomar una taza de café y participar en estimulantes conversaciones en las principales ciudades de Inglaterra, Austria, Francia, Alemania y Holanda. En 1616, los mercaderes holandeses, precisamente, sacaron de contrabando de Yemen semillas de café que empezaron a cultivar en invernaderos.

Más que otras bebidas, el café fue considerado por muchos un producto satánico, que exigió la intervención del papa Clemente VIII para autorizar su consumo en 1615.

El chocolate era, originalmente, una bebida esencialmente amarga, obtenida al tostar las semillas del árbol del cacao y luego molerlas para cocer el resultado en agua adicionado con vainilla aromatizante, algunas especias y, a veces, algo de chile o maíz molido y alguna miel natural. Puede sonar poco apetitoso, pero resulta que el chocolate (cuya etimología no es clara, por cierto) no era sólo una bebida que se consumía sólo por gusto. Si el gusto por el chocolate azteca era probablemente adquirido, como el gusto por el amargor de la cerveza, la energía que impartía al consumidor era su principal virtud. Al describirlo en una de sus cartas a Carlos V, Hernán Cortés exageraba un tanto asegurando que “una sola taza de esta bebida fortalece tanto al soldado que puede caminar todo el día sin necesidad de tomar ningún otro alimento”.

Como a tantas otras materias de origen vegetal, al chocolate se le atribuyeron en principio diversas propiedades terapéuticas y su llegada a Europa fue como bebida terapéutica, de lo que dio noticia el médico Alonso de Ledesma, que publicó un tratado al respecto en Madrid en 1631. Pero si no curaba tanto como se prometía, su preparación evolucionó con azúcar, canela, y preparado a veces con leche en lugar de agua y pronto se popularizó como bebida placentera.

El ingrediente activo que hace que el chocolate sea una bebida estimulante es la teobromina, una sustancia relacionada con la cafeína que no fue descubierta sino hasta 1841.

Las tres bebidas llegaron a Europa y compitieron por el favor de los consumidores que habían descubierto los placeres de un estimulante caliente donde antes sólo habían tenido cerveza y vino. En España y Francia, el chocolate adquirió personalidad propia, mientras que en Suiza asumió otras formas sólidas. El café se apoderó del continente europeo y, después, del americano con una sola excepción: Inglaterra, cuyo romance con el café apenas empieza a desarrollarse en el siglo XXI, después de 200 años de té.

El experimento de Gustavo III de Suecia

Gustavo III, rey de Suecia, estaba convencido de que el café que había invadido sus dominios era un peligroso veneno y se propuso probarlo. Se procuró a dos hermanos gemelos condenados a muerte y les conmutó la pena por cadena perpetua a cambio de que uno se tomara tres jarras de café al día y el otro hiciera lo mismo con tres jarras de té, bajo la supervisión de dos médicos. Gustavo III fue asesinado en 1792 y los dos médicos eventualmente también murieron, mientras los condenados seguían vivos. Se cuenta que el bebedor de té murió primero, a los 83 años de edad, y nadie sabe cuánto después murió el bebedor de café.

Pasado y futuro del elefante

El mayor animal terrestre tiene una larga historia evolutiva, y aunquesu supervivencia es aún incierta, hay señales de recuperación.

Elefante africano (Fotografía CC de Bernard Dupont, via Wikimedia
Commons)
La mayoría de nosotros conoce sólo dos especies de elefantes: el africano, reconocible por sus grandes orejas y lomo cóncavo, y el asiático, un poco más pequeño, de orejas más pequeñas y lomo convexo. Pero hay otra especie en África, el elefante del bosque, por lo que el más común y mayor se conoce ahora como “elefante de la sabana”. Para complicar más el panorama, la especie de la sabana está formada por al menos dos subespecies, mientras que el elefante asiático tiene hasta siete subespecies distintas. Y esto sin considerar la larga lista de sus antecesores, ya extintos, algunos bien reconocibles como el mamut lanudo o el mastodonte.

La línea evolutiva del elefante se remonta a 60 millones de años. Contrario a lo que presenta la fantasía, sus antecesores no convivieron con los dinosaurios. Todos los mamíferos de la época de los dinosaurios, los ancestros de todos los mamíferos que conocemos hoy, incluidos nosotros, eran pequeños, del tamaño de ratones, y correteaban por un mundo dominado por los grandes saurios.

Pero esos pequeños mamíferos consiguieron sobrevivir al evento que hace 65 millones de años ocasionó la extinción de los dinosaurios (dejando sólo como testimonio de su estirpe a las aves de hoy en día) y se encontraron con todo un medio ambiente lleno de nichos ecológicos desocupados. La evolución permitió que surgieran especies para ocuparlos todos, desde el mundo subterráneo de los topos hasta la tundra helada, desde los océanos hasta el desierto, desde la selva lluviosa hasta la sabana.

Y así, hace 60 millones de años apareció en los bosques africanos una especie de tranquilos hervíboros regordetes del tamaño de un cerdo, los Phosphaterium. Con metro y medio de largo y unos 50 kilos de peso, lo distinguía una trompa alargada. Esa trompa le daría nombre a todos los animales descendidos de él, Proboscidea, debido precisamente a su nariz o proboscis. Este animal vivió unos 5 millones de años dando lugar a otras especies como los Moeritherium, Barytherium y, finalmente Phiomia, el ancestro directo de los elefantes actuales y que hace 37 millones de años ya presentaba un aspecto imponente, con más de 3 metros de largo y media tonelada de peso, con el principio de los colmillos y la trompa que caracterizan a sus descendientes.

El elefante adquirió sus características definitivas a partir de los llamados gomphoterium, un género o genus que vivió aproximadamente desde hace 14 millones de años hasta hace 3,6 millones y del que descendieron los primeros miembros del orden Proboscidea con los que se encontraría el ser humano durante la última glaciación: los mastodontes y los mamuts. Los gomphoterium y sus descendientes se acomodaron a distintos hábitats en todo el mundo salvo Australia, donde no hay mamíferos placentarios nativos debido a que se separó de los demás continentes 35 millones de años antes de la extinción de los dinosaurios.

En varias ocasiones han aparecido elefantes enanos, poblaciones que se desarrollan en islas y desarrollan el llamado “enanismo insular” en respuesta a los límites del entorno van reduciendo su tamaño y sus necesidades de alimentación y espacio. Aunque hoy están todos extintos, fueron comunes en las islas del Mediterráneo como Chipre, Creta, Sicilia, Cerdeña y otras, y en las de Indonesia, en especial en Sulawesi, Timor y Flores, donde al parecer una variedad humana, el “hombre de Flores” experimentó también enanismo insular, por lo que se le ha llamado imprecisamente, “hobbitts” en recuerdo de los personajes de J.R.R. Tolkien.

Hay unos primos de los elefantes que también fueron conocidos por los seres humanos: los deinotherium, que quiere decir “mamífero terrible”, de hasta 5 metros de alto y 10 toneladas y que vivieron en Asia, África y Europa desde hace 10 millones de años hasta hace unos 10.000. De hecho, una de las hipótesis de su extinción incluye el haber sido presas de los cazadores humanos. Los elefantes modernos aparecieron en África hace apenas 5 millones de años. De allí, el elefante migraría a Asia donde se diversificó en varias subespecies.

Las dos especies de elefantes africanos enfrentaron una tragedia: sus colmillos están hechos del valioso marfil, y su obtención que motivó una cacería descontrolada que desde el siglo XIX redujo la población de elefantes africanos (que tienen los colmillos más largos y pesados) de 26 millones de ejemplares a entre 500.000 y 700.000 en la actualidad. Prohibido desde 1989, el comercio de marfil continúa ilegalmente apoyado sobre todo en la cacería furtiva, que sin embargo es mucho menor que la del pasado. De hecho, el elefante africano está considerado ahora como especie vulnerable, pero no en riesgo de extinción, y en algunas zonas su población ha crecido en las últimas décadas. Esto ha dado lugar a un conflicto adicional: su choque con las poblaciones humanas al invadir cultivos y aldeas, y se calcula que matan a unas 200 personas al año. Esto y la sobrepoblación de elefantes en algunas zonas ha motivado acciones de cacería para reducir sus números por parte de los propios estados africanos.

El elefante asiático, usado ampliamente como animal de trabajo y considerado sagrado, sí está en peligro, con una población de apenas entre 25.000 y 33.000 individuos, amenazados sobre todo por el crecimiento de las poblaciones humanas y el aislamiento de sus manadas, lo que afecta el flujo genético y la diversidad en sus poblaciones. En ese conflicto, los elefantes además matan a unas 300 personas al año en el Sudeste Asiático.

Como en todos los casos de especies puestas en peligro especialmente por la acción humana, sólo con un esfuerzo amplio, que incluya no sólo a las naciones donde viven los elefantes, sino a todos los países y organizaciones, se logrará estabilizar su situación y garantizar la supervivencia de las especies con poblaciones adecuadas y en una convivencia sostenible con los seres humanos. Sin eso, se perderá un legado de 60 millones de años y al mayor animal terrestre, que al final no es sino un gran herbívoro más bien pacífico... como sus más lejanos ancestros.

Los elefantes pintores

La inteligencia y el delicado manejo de su trompa, que conoce cualquiera que le haya dado algo de comer a un elefante y éste lo haya tomado de su mano, han sido aprovechados por el Proyecto de Arte y Conservación del Elefante Asiático, fundado por dos pintores que han enseñado pacientemente a algunos elefantes a pintar ciertas escenas. Cada elefante aprende una escena (la más famosa es el dibujo precisamente de un elefante) y la pinta diariamente frente a un público. Aunque no estén ejerciendo “creatividad” directamente, la hazaña es impresionante.

La imagen en movimiento

Una gran parte de nuestro entretenimiento e información vienen hoy en día en la forma de cine y vídeo. Dos medios que hace poco más de un siglo no eran más que el sueño de unos pocos.

William Henry Fitton, creador del
taumatropo y pionero del cine.
(Imagen CC vía Wikimedia Commons)
El cine nació en 1825. O al menos la primera ilusión óptica que hace que veamos movimiento a partir de imágenes fijas. Fue cuando el irlandés William Henry Fitton creó el "taumatropo" o rotoscopio, un disco con dos imágenes en sus dos caras que al ser girado con dos hilos en puntos opuestos de sus bordes dan la impresión de que ambas imágenes están juntas. El ejemplo clásico, que seguramente todos conocemos, tiene en un lado un pájaro y en el otro una jaula, y al girar el disco vemos al pájaro dentro de la jaula.

Es posible que los primeros intentos de representar el movimiento estén en algunas pinturas rupestres donde los animales parecen tener más patas de las normales, acaso la representación de su movimiento. Nunca lo sabremos. Sí sabemos quehay un vaso de cerámica de Irán que data de hace unos cinco mil años y que lleva cinco dibujos que, como fotogramas de una película, muestran momentos del salto de un antílope sobre unas plantas.

El camino hacia el cine siguió con una serie de inventos que mejoraban su capacidad de crear la ilusión al tiempo que adquirían nombres cada vez más enrevesados, como el fenakitoscopio del belga Joseph Plateau, de 1832, con dos discos que giraban sobre un mismo eje, uno con dibujos y el otro con ranuras. Al ver los dibujos en un espejo a través de las ranuras, parecían moverse. Dos años después nació el “daedalum” o “zoetropo” del matemático, William George Horner.

Es claro que, estando la fotografía en sus primeras etapas, los dibujos animados fueron los antecesores del cine, como los del “folioscopio” (esos libritos cuyas hojas llevan cada una un dibujo y al pasarse a gran velocidad se animan) del francés Pierre-Hubert Desvignes en 1860 y que podía incluir muchos más dibujos que los menos de veinte del zoetropo. El folioscopio fue usado por fotógrafos para animar por primera vez secuencias fotográficas a falta de proyectores.

En 1877, el profesor de ciencias francés Charles Émile Reynaud creó el mejor aparato de este tipo con su debido nombre de trabalenguas: el praxinoscopio, que mejoraba al zoetropo y le ganó a su inventor una Mención Honorífica en la Exposición de París de 1878. Un año después, le añadió un proyector de diapositivas, heredero de las linternas mágicas del siglo XVII.

Estas y otras ideas se unieron en el kinetoscopio, desarrollado en el laboratorio de Tomas Alva Edison, quien creó un proyector de imágenes fotográficas sucesivas. Pero era un aparato para una sola persona, que ponía una moneda en él y veía, inclinada en un visor, una cinta de un par de minutos.

Fueron los hermanos Auguste y Louis Lumière (y probablemente Léon Bouly) quienes crearon ina forma de registrar, proyectar e imprimir película fotográfica en secuencia sobre una pantalla para varias personas. Fue el “cinematógrafo” cuya primera proyección se hizo el 28 de septiembre de 1895.

Desde entonces, todo han sido mejoras, añadidos, avances tecnológicos y reelaboraciones sobre el concepto de los hermanos Lumière, su cámara, su proyector y su pantalla, que consiguieron crear una ilusión convincente para nuestro sistema nervioso.

Porque el cine, finalmente, no es otra cosa que una forma de magia, una ilusión, un engaño eficaz para los dispositivos de percepción y procesamiento de la imagen de los que disponemos, como el de un prestidigitador al hacernos creer que ha hecho desaparecer o aparecer algo por arte de magia.

A principios del siglo XX el cine ya estaba bien encaminado. Charles Chaplin había tenido la brillante idea de mover la cámara para cambiar de punto de vista. Georges Méliès había inventado los efectos especiales y el cine a color (vale, pintando a mano cada fotograma, la tecnología mejoraría el asunto en poco tiempo). El poco conocido Orlando Kellum había dado los pasos clave para añadirle sonido al cine y en 1914 Winsor McCay inventó los dibujos animados en el cine con su corto (que aún sobrevive) “Gertie, la dinosaurio amaestrada”.

El desafío que quedaba a la ciencia y la tecnología era lograr con la imagen en movimiento lo que habían conseguido Nikla Tesla y Guiglielmo Marconi con el sonido y la radio: transmitirlo remotamente en “tiempo real”. Ver lo que ocurría desde lejos o tele-visión.

El primer sistema de televisión factible desarrollado a partir del trabajo de Marconi en la radio fue el del estudiante de ingeniería alemán Paul Nipkow, que en 1884 patentó una televisión "mecánica" que capturaba imágenes explorándolas mediante un disco giratorio con 18 orificios en espiral, aunque no se sabe si alguna vez llevó su diseño a la práctica.

Lo que sí se sabe es que la palabra “televisión” fue acuñada por el ruso Constantin Perskyi en un discurso durante la Exposición Universal de París de 1900. Pero la primera demostración de un sistema real tuvo que esperar hasta 1926, cuando el ingeniero escocés John Logie Baird la ofreció en 1926 en Londres con otro sistema mecánico de captura de imágenes.

La televisión no se volvió viable sino hasta que se desarrollaron procedimientos electrónicos para la captura y reproducción de imágenes, ya que el sistema mecánico era de bajísima resolución y sólo podía transmitir imágenes de tamaño pequeño. El logro definitivo correspondió al estadounidense Philo T. Farnsworth, que había aprendido electricidad con un curso por correspondencia, y que el 7 de septiembre de 1927 llevó a cabo la primera emisión de televisión electrónica en San Francisco, California. El primer televisor se vendería apenas un año después en los Estados Unidos y en 1929 el invento se lanzaba en Inglaterra y Alemania.

Era televisión en blanco y negro, poco nítida y con pocas líneas de resolución, 60, una minucia comparadas con las 520 de la televisión común o las 1.125 de la televisión de alta definición. Pero, como ocurrió con el cine, las bases estaban puestas y todo era cosa de desarrollarlas y construir sobre ellas convirtiendo un logro de la ciencia y la tecnología, al mismo tiempo, en un negocio, una industria y, muchas veces, una forma de arte.

¿Por qué vemos como vemos?

Desde principios del siglo XIX se creyó que existía una "persistencia de la visión" mediante la cual la imagen de un objeto en la retina permanecía aún después de haber desaparecido su causa, y que tal fenómeno explicaba por qué percibíamos la ilusión del movimiento con imágenes fijas. La neurociencia actual ha desechado el concepto y diversas disciplinas buscan, primero, entender cómo vemos e interpretamos el movimiento. El misterio persiste y aún no sabemos por qué nos engañan el cine y la televisión... aunque los críticos de cine sigan hablando de la “persistencia de la visión”.

La lucha contra pelagra, entre el dogma y el prejuicio

La teoría de los gérmenes explicaba mucho, pero no lo explicaba todo. Demostrarlo fue la tarea de la vida de Joseph Goldberger.

El doctor Joseph Goldberger (Imagen CC de los Centers for
Disease Control [PHIL #8164] vía Wikimedia Commons)
Louis Pasteur y Robert Koch desarrollaron a mediados del siglo XIX las bases de la medicina científica al postular y demostrar la “teoría de los gérmenes”, es decir, que las enfermedades infecciosas lo eran debido a la acción de seres microscópicos. Su trabajo permitió empezar a entender al fin las infecciones, el contagio, las epidemias, la prevención mediante la higiene y la vacunación y una notable mejoría en la calidad y cantidad de vida de los seres humanos en general.

Pero en un caso que marcó un hito en la historia de la investigación médica, el entusiasmo por la teoría de los gérmenes resultó no sólo injustificado, sino que retrasó el tratamiento de una terrible enfermedad.

A principios del siglo XX, la pelagra había adquirido proporciones epidémicas en los Estados Unidos. Se le conocía por su horrendo desarrollo, una sucesión de síntomas que provocaban a sus víctimas un enorme sufrimiento que se podía desarrollar a lo largo de tres o cuatro años hasta que llegaba al fin la muerte, con alteraciones que iban desde la pérdida de cabello y descamación de la piel junto con gran sensibilidad al sol hasta descoordinación y parálisis muscular, hasta problemas cardiacos, agresividad, insomnio y pérdida de la memoria.

El Servicio de Salud Pública de los EE.UU. comisionó en 1914 al doctor Joseph Goldberger, que estaba al servicio de la institución desde 1899, para que encabezara su programa de lucha contra la pelagra, que estaba afectando a la población del sur del país y, de modo muy especial, a quienes vivían en orfanatos, manicomios y pueblos dedicados al hilado de algodón.

Goldberger era hijo de una familia pobre de inmigrantes judíos, con los que había llegado a Nueva York a los seis años de edad desde su natal Hungría. Educado en escuelas públicas, consiguió entrar a la Universidad de Bellevue y graduarse como médico en 1895. En el Servicio de Salud Pública había demostrado ser un brillante investigador en temas de epidemias, combatiendo por igual la fiebre amarilla que el dengue y el tifus en varios países... y siendo víctima de estas tres enfermedades. Para cuando se le comisionó a luchar contra la pelagra era uno de los más brillantes epidemiólogos y estaba precisamente trabajando en u programa contra la difteria. Entre sus varias aportaciones se contaba la demostración de que los piojos podían ser vectores de transmisión del tifus.

La razón por la que se le llamó a esa tarea era, precisamente, que la ciencia médica actuaba bajo el convencimiento de que la pelagra era una enfermedad contagiosa, y era necesario descubrir al patógeno responsable, virus o bacteria, para poder contener la epidemia.

Pero Goldberger pronto concluyó que la pelagra no era contagiosa, sino producto de una deficiencia alimentaria, una opinión muy minoritaria. Era la explicación que mejor se ajustaba al curioso hecho de que el personal y los administradores de las instituciones más afectadas por la pelagra, como orfanatos y psiquiátricos, nunca se contagiaban de la enfermedad.

El médico emprendió un experimento, cambiando la dieta de los niños y pacientes de algunas instituciones. Si solían comer pan de maíz y remolacha, empezaron a recibir leche, carne y verduras. Pronto, los enfermos se recuperaron y, entre los que se alimentaban con la nueva dieta, ya no aparecieron nuevos casos de la afección.

Parecía concluyente.

Pero los médicos del sur se rehusaron a aceptar los resultados de Goldberger. En su rechazo no sólo había convicciones médicas, sino prejuicios. El médico era de un servicio gubernamental, era del norte y era judío, tres características que aumentaban la suspicacia contra sus ideas.

Emprendió entonces un experimento que hoy ni siquiera se podría plantear: en 1916 tomó a un grupo de 11 prisioneros sanos voluntarios y a cinco de ellos les proporcionó una dieta abundante pero deficiente en proteínas, mientras que los otros seis mantuvieron su dieta normal. En poco tiempo, los cinco presos con mala dieta sufrieron de pelagra.

Aún así, la mayoría de los médicos del sur se negaban a aceptar la hipótesis de Goldberger. Su siguiente experimento fue aún más aterrador: él y su equipo intentaron contagiarse de pelagra comiendo e inyectándose secreciones, vómito, mucosidades y trozos de las lesiones de piel de enfermos de pelagra. Pese a sus heroicos pero repugnantes esfuerzos, ninguno de ellos desarrolló la afección.

La contundencia del experimento, sin embargo, fue insuficiente. Los experimentos de Goldberger habían sido suficientes para que el Servicio de Salud Pública emitiera un boletín señalando que la pelagra se podría prevenir con una dieta adecuada (aún sin saber exactamente cuál era la sustancia o sustancias responsables del trastorno). Pero en el sur, hasta 1920, muchísimos médicos se negaron a aceptarlo, de modo que no emprendieron acciones para mejorar la dieta de sus pacientes.

El motivo no era sólo médico. El razonamiento de Goldberger, después de todo hijo de pastores reconvertidos en comerciantes, era que si la pelagra era resultado de una alimentación deficiente y ésta era resultado de la pobreza, la mejor prevención para la pelagra no estaba en la medicina, sino en una reforma social que cambiara el modo de propiedad de la tierra, superviviente de las haciendas sostenidas en el siglo XVIII y XIX con trabajo esclavo. Esto no gustaba a los poderosos del Sur, que sentían que su región estaba siendo denigrada.

Joseph Goldberger siguió buscando las causas de la pelagra infructuosamente hasta su muerte en 1929. No fue sino hasta la década de 1930 cuando se descubrió que el ácido nicotínico, también llamado niacina y vitamina B3, curaba a los pacientes de pelagra. Pronto se descubrió que el triptofano, uno de los aminoácidos que necesitamos en nuestra dieta, era precursor de la niacina, es decir, que nuestro cuerpo lo utiliza para producir la vitamina, y que era la carencia de ésta la la que provocaba la pelagra, como la falta de vitamina C provoca el escorbuto. Se empezó a añadir triptofano a diversos alimentos como el pan... y la pelagra desapareció pronto del panorama de salud del mundo. Un homenaje póstumo al desafío de Goldberger, con datos y hechos, a una creencia dañina.

Maíz y pelagra

La pelagra se descubrió en Asturias en el siglo XVIII cuando la población rural empezó a alimentarse de maíz. El maíz contiene niacina, pero para que el cuerpo la pueda aprovechar, es necesario cocinar el maíz con una sustancia alcalina, como se hace en Centroamérica para producir las tortillas o tortitas de maíz, motivo por el cual las culturas que dieron origen al cultivo del maíz nunca conocieron la pelagra.

La guerra contra el frío

Somos animales tropicales que han invadido otras latitudes gracias a su tecnología. Pero, debajo de esa tecnología, seguimos siendo extremadamente vulnerables al frío.

Reconstrucción de la ropa
que llevaba Ötzi.
(Fotografía CC de Sandstein,
vía Wikimedia Commons)
Imagínese cruzando los Alpes austríacos a unos seis grados centígrados bajo cero o incluso, posiblemente, una temperatura aún más fría.

Esa hazaña no es nada sencilla. El frío alpino diezmó al ejército de Aníbal en su cruce de los Alpes en el 218 antes de la Era Común durante la segunda guerra, pero no parece haber sido obstáculo para un hombre que murió allí hace algo más de 5.000 años no de frío, sino por una flecha disparada a su espalda. Sus restos son hoy una de las momias más famosas, Ötzi, el hombre de hielo. Su descubrimiento en 1991, gracias al deshielo del glaciar donde murió, nos permitió echar un vistazo sin precedentes a la vida de nuestros antepasados neolíticos.

Entre los objetos que se recuperaron junto al cuerpo del hombre de 1,60 de estatura y unos 45 años de edad destacaba su ropa, eficaz para protegerlo del frío: un gorro de piel de oso, chaqueta, taparrabos y leggings de piel de cabra cosida con los tendones del propio animal y unos zapatos de exterior de piel de ciervo aislados con capas de hierba y paja.

Probablemente estaba mejor equipado que los hombres de Aníbal, y vivía no muy lejos del punto donde fue emboscado y encontrado, y sabía cómo enfrentar las inclemencias del tiempo.

El frío es uno de los grandes enemigos de la vida humana, aunque algunas especies claramente florecen a temperaturas por debajo del punto de congelación. De hecho, según científicos que han estudiado la evolución humana, es probable que nuestros ancestros sobrevivieron a la glaciación que se produjo hace entre 123.000 y 195.000 años refugiándose en una zona de la costa del Sur de África. Las exploraciones paleoantropológicas en Pinnacle Point sugieren que primeros Homo sapiens aprovecharon las condiciones únicas de la zona para sobrevivir y, eventualmente, extenderse por el continente, viajar al norte hacia el Medio Oriente y, finalmente, extenderse por el continente eurasiático. En su viaje muy probablemente llevaban ya consigo un enorme avance tecnológico contra el frío: el fuego, que junto con las pieles curtidas de animales producto de la cacería les permitirían vivir en temperaturas para las cuales el ser humano no está preparado según su constitución genética.

El triunfo contra el frío es un triunfo totalmente cultural y tecnológico. Sin él, los seres humanos sólo podríamos vivir en espacios muy delimitados, principalmente entre los trópicos, donde las condiciones son lo bastante amables como para vivir sin abrigo “artificial”. Y sin abrigo artificial el frío puede causar verdaderos estragos en el cuerpo humano.

Combatir el frío significa evitar que la pérdida de calor de nuestro cuerpo (por radiación de calor, por transmisión a los objetos y al aire, y mediante el sudor) sea tal que se reduzca nuestra temperatura basal, ésa que sabemos que se ubica alrededor de los 37 ºC, con una variación de alrededor de un grado según la hora del día y la actividad que se realiza. Sabemos los efectos que sufrimos si nuestra temperatura aumenta un par de grados, y la gravedad que puede llegar a tener el superar los 40 grados de fiebre.

Si, en el otro sentido, nuestros órganos internos bajan a una temperatura de 35 ºC, se presenta una hipotermia leve y comienza el peligro para la vida. Si baja de 33 ºC hay amnesia y un estupor que nubla el jucio, y la hipotermia se agrava. Al pasar los 30 grados se deja de tiritar de frío, y el corazón entra en arritmia, es decir, su latido se vuelve irregular, y el lento flujo sanguíneo dispara alucinaciones y una extraña reacción conocida como “desnudo paradójico” observada incluso en montañistas, que se arrancan la ropa afirmando que experimentan un calor abrasador. Al caer por debajo de los 28 ºC se pierde la consciencia y si nuestro cuerpo alcanza los 21 ºC la muerte es casi certera. La hipotermia puede desencadenar, entre otros efectos mortales, una insuficiencia cardiaca o una apoplejía.

Antes que las estrategias culturales para evitar que nuestra temperatura baje a niveles peligrosos están las reacciones que tiene nuestro propio cuerpo para defenderse. El centro nervioso a cargo de regular la temperatura, nuestro termostato biológico, es el hipotálamo.

Cuando la temperatura baja así sea levemente, entran en acción diversos mecanismos interconectados que conocemos bien. Primero, se reduce la sudoración y los vasos sanguíneos cerca de la piel se contraen, con lo que se reduce la pérdida de calor, con el efecto colateral de darle a la piel un color azulado por falta de riego. La constricción de los vasos sanguíneos, por cierto, provoca que el cuerpo se deshaga de líquidos excedentes por medio de los riñones, lo que explica que el frío provoque deseos de orinar. Además, el hipotálamo indica al cuerpo que produzca calor, lo que puede hacer primero aumentando el tono muscular y después contrayendo los músculos rítmicamente (tiritar de frío) o bien liberando hormonas que aumentan la tasa metabólica del cuerpo. También, comer alimentos altos en calorías y hacer ejercicio para “quemarlas” sirve para combatir el posible descenso en la temperatura corporal.

Pero si la situación es crítica, el hipotálamo toma decisiones terribles: su prioridad son los órganos internos y otras partes, como los dedos de las manos y los pies, parecen prescindibles (lo que se ejemplifica en los casos de congelación de dedos en montañistas).

Existen, por supuesto, casos extremos de personas que han sobrevivido temperaturas corporales bajísimas. Y es que no importa realmente el frío que hace afuera, sino la pérdida de calor que experimentamos nosotros. Con ropa adecuada y sin viento, una persona puede sobrevivir cómodamente a -29 ºC, pero si hay viento, la sensación de frío (o factor de congelación) puede marcar la diferencia hasta el congelamiento.

La protección adecuada contra el frío ha cambiado mucho respecto de la que llevaba Ötzi en su excursión, pero si es eficaz, nos puede garantizar la supervivencia sin necesidad de vivir en los trópicos.

Nuevos materiales

En los últimos años se han desarrollado materiales que sustituyen a los naturales y que ofrecen mayor protección con menor peso y capas más delgadas, ya que una buena ropa aislante del frío debe constar de varias capas que mantengan el calor y se deshagan de la humedad por capilaridad simultáneamente, que es lo que hacen los textiles “transpirables”. Más allá de telas como el fleece, o forro polar, o el thinsulate, hay proyectos que contemplan el uso de sensores y tejidos dinámicos para responder a las variables del cuerpo humano, permitiendo que sus usuarios funcionen a pleno rendimiento en temperaturas mortalmente bajas.