Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El difícil oficio de seguir vivo: las defensas en la naturaleza

Un lenguado confundiéndose con el fondo marino
(CC Wikimedia Commons)
La vida es un asunto peligroso. En la naturaleza, ese peligro se conjura con los más originales y sorprendentes sistemas de defensa.

Todo ser vivo tiene un enorme valor... como alimento. Visto exclusivamente desde el punto de vista gastronómico, es una colección de proteínas que se pueden descomponer en aminoácidos en el sistema digestivo de otro ser vivo que usará éstos para hacer sus propias proteínas, y contiene además carbohidratos, grasas para obtener energía, azúcares, vitaminas, minerales... una enorme riqueza que debe protegerse o algún otro ser vivo la robará, nos comerá.

Pero ser fuente de nutrientes para otro ser vivo (cosa que finalmente somos todos al morir, reciclados por roedores, gusanos, insectos varios y diversas plantas) es sólo uno de los riesgos que comporta ser parte del concierto vital.

En este enfrentamiento destacan las armas más diversas, y un arsenal defensivo de primer orden que es en gran medida responsable de la diversidad en la naturaleza.

Si a uno no lo puede ver el enemigo, no necesita defensas mucho más complejas. El camuflaje (palabra procedente del francés “camouflet”, bocanada de humo) es la primera línea de defensa para muchos seres. Además de confundir al enemigo, permite acechar a las presas con tranquilidad hasta el momento del golpe final.

Famosos por su camuflaje fundiéndose con el entorno son los distintos tipos de insectos que semejan ramas, palitos u hojas. Muchos animales nos informan con su aspecto de cómo son su entorno o su sociedad, aunque no se camuflen para defenderse. El color del león refleja la sabana donde caza, mientras que el tigre se confunde en la espesura de la jungla. Las polillas se ocultan a la vista en la corteza de los árboles y las cebras utilizan el mismo sistema de defensa que las grandes manchas de peces: su número y el dibujo de su piel han evolucionado para confundir al depredador y dificultarle la tarea base de toda cacería exitosa: elegir a una sola presa de entre todas, concentrarse en ella y hacer caso omiso del resto de la manada.

Un camuflaje sencillo lo muestran los peces que han evolucionado para ser más oscuros en su mitad superior y más claros por debajo, pues así se confunden con el fondo contra el que se les ve: la oscura profundidad abajo o el claro cielo arriba.

El problema de este tipo de camuflaje es que el animal, fuera de su entorno habitual, es totalmente vulnerable. El mejor camuflaje es el que cambia, y ese lo exhiben varias especies de pulpo que pueden cambiar la coloración, opacidad y reflectividad de su epidermis, e incluso su textura, a gran velocidad. Entre sus defensas secundarias, el pulpo utiliza la velocidad, arma defensiva esencial para numerosas presas, desde la liebre hasta la gacela, desde el atún hasta la mosca.

Los seres vivos, en general, son de constitución más bien suave, gelatinosa, pues el agua es el principal componente de todos los seres vivos. El desarrollo de partes duras, como cuernos y corazas, es una excelente estrategia que vemos en acción en la corteza de los árboles o los gruesos cuernos quitinosos de los escarabajos rinoceronte, en el caparazón de las tortugas (tan eficaz que lleva más de 200 millones de años de éxito) o los cuernos de cabras, rebecos o bisontes. A algunos animales les ha bastado que su piel evolucione para ser gruesa y fuerte, aunque no rígida, como al rinoceronte o el propio elefante.

Para encontrar las más impresionantes armaduras, sin embargo, debemos trasladarnos hacia atrás en el tiempo, a la época (o, más precisamente, las épocas) en que vivieron los dinosaurios, con enormes placas óseas en el cuerpo, amenazantes espinas a lo largo del lomo y cuernos de aspecto aterrador. En esta armería prehistórica destacan los anquilosaurios, dinosaurios blindados que vivieron en los períodos jurásico y cretácico y que, creemos, convivieron con depredadores tan terribles como el Tirannosaurus Rex.

El más asombroso miembro de este género fue el euplocephalus, que además de desarrollar una especie de maza al final de la cola, tenía blindados incluso los párpados. Seguramente un animal difícil de cazar.

En el mundo vegetal, la dureza también es una eficaz defensa. Muchas semillas han evolucionado para ser duras de modo que sobrevivan al paso por el tracto digestivo de diversos animales. La estrategia que ha evolucionado es asombrosa: la planta envuelve la semilla en una fruta atractiva para ciertos animales, que la comen junto con las semillas y se alejan, esparciendo las semillas en distintos lugares. La dureza de la semilla es una forma de aprovechar la movilidad de los animales para extender la presencia de la especie.

Distintas sustancias químicas son el arma defensiva de elección de muchas especies animales y vegetales, en ocasiones con resultados inesperados. La savia aceitosa de la hiedra venenosa evolucionó con el componente llamado urushiol, que le ayuda a combatir las enfermedades, pero por azar esta sustancia resultó causar alergia al 90% de los seres humanos (y no a ningún otro animal).

El veneno resulta un eficaz disuasor que sirve como defensa y como ataque. Curiosamente, el animal más venenoso de la tierra es una diminuta rana de apenas unos 4 centímetros de largo, cuyo nombre científico ya es revelador: Phyllobates terribilis. Cada pequeña rana dardo, de vivo color dorado, tiene veneno suficiente para matar entre 10 y 20 seres humanos, lo que hace palidecer a envenenadores más conocidos como la víbora de cascabel, la cobra real, el escorpión o la viuda negra.

En este incompleto listado de los sistemas defensivos que nos ofrece la naturaleza no pueden quedar fuera las diez especies de pacíficas mofetas y su arma de pestilencia masiva. Una combinación de sustancias químicas que contienen azufre, y cuyo olor se ha descrito como una mezcla de huevos podridos, ajo y caucho quemado, bastan para mantener a buen recaudo a posibles depredadores, sin causarles más daño que un terrible mal rato. Pacifismo eficaz, dirían algunos.

Las defensas del ser humano

El ser humano carece de una dentadura aterradora, garras potentes, partes acorazadas, cuernos, la capacidad de camuflarse o alguna sustancia química tan aterradora como la de la mofeta o la rana dardo. Sus defensas se limitan a las que rechazan o atacan invasores microscópicos: la piel, las mucosas y el sistema inmune. Pero el ser humano inventó un sistema de defensa totalmente original en la naturaleza: un cerebro flexible, capaz de la abstracción y el pensamiento original, que puede crear defensas tan eficaces como las de muchos animales. La eficacia de estas defensas se demuestra en el hecho de que hace muchos miles de años que Homo sapiens sapiens ya no está en el menú habitual de las especies que consumieron como alimento a sus antepasados.

La modificación genética

ADN replicándose
(D.P. vía Wikimedia
Commons)
Todos los seres vivos modifican genéticamente a todos los seres con los que interactúan. Ése es uno de los hechos principales de la evolución y de toda la biología.

La relación entre el guepardo y los tipos de gacela que caza es un buen ejemplo. Durante los millones de años de su interacción, esta pareja de depredador y presa han establecido una verdadera carrera armamentística. Las gacelas más rápidas tienen más posibilidad de sobrevivir, y así la presión de selección hace que las gacelas sean cada vez más rápidas. Pero los guepardos más rápidos serán los que tengan más probabilidades de alimentarse y por tanto la especie en general es cada vez más rápida.

El resultado es que el guepardo es hoy el animal terrestre más rápido, con capacidad de alcanzar los 120 Km/H durante breves períodos. Pero también ocurre que el guepardo fracasa con frecuencia, o en ocasiones queda tan exhausto después de una cacería exitosa que su presa es robada por otros oportunistas, en particular los leones. En su modificación genética del otro, ambas especies se han puesto en peligro sin saberlo.

De hecho, fue la observación de las variaciones genéticas de los pinzones de las Galápagos lo que le dio a Charles Darwin la pista sobre la forma en que se daba la evolución. El pico de los pinzones en las distintas islas estaba adaptado a distintas formas de alimentarse: fruta, insectos, cactus, semillas.

En este concierto biológico, el ser humano ha sido una poderosa influencia en la modificación genética de gran cantidad de plantas y animales. De hecho, el proceso de domesticación, sea del trigo o de las reses, es modificación genética, tanta que la gran mayoría de las plantas y animales domesticados por el ser humano no se encuentran en la naturaleza y sus versiones originales desaparecieron hace mucho.

Sin embargo, no es esto en lo que pensamos cuando se habla de modificación genética, sino en procedimientos de ingeniería genética que alteran directamente a los organismos.

La ingeniería genética nació en 1973, cuando Herbert Boyer y Stanley Cohen utilizaron enzimas para cortar el ADN extranuclear de una bacteria e insertar un segmento de ADN entre los dos extremos cortados. La cadena de ADN resultante, no existente hasta entonces, se llama ADN recombinante. Este logro abría posibilidades que iban desde la creación de complejos híbridos hasta la clonación.

La primera aplicación práctica de las nuevas herramientas de modificación genética llegó a la vida de la gente tan sólo nueve años después. En se autorizó la insulina producida por bacterias a las que se les había añadido el gen humano que produce esta hormona.

Hasta 1982, la insulina que necesitaban los diabéticos se obtenía de cerdos y reses. Hoy, la ingeniería genética le ofrece a los diabéticos distintas variedades de insulina producida por distintas bacterias, plantas y levaduras, y que permite un mejor control de la afección.

La introducción en un ser de una especie de un gen de otra especie, como en el caso de la insulina, es lo que se conoce como “ingeniería transgénica”. Esto, que el ser humano está empezando a hacer es, sin embargo, un fenómeno relativamente común en la naturaleza, especialmente en seres unicelulares, llamado “transferencia genética horizontal”, que se descubrió en 1959 y que hoy se considera que ocurre también en plantas y animales superiores.

La ingeniería genética aplicada a los alimentos, que es motivo de fuertes campañas por parte de diversos grupos, se ha utilizado para introducir cambios en los alimentos con distintos objetivos, como hacerlos resistentes a ciertos insectos, virus o herbicidas, o hacer que maduren más lentamente para que lleguen al mercado en mejores condiciones sin necesidad de conservantes.

Sin embargo, los organismos genéticamente modificados, sean o no transgénicos, presentan varias interrogantes que la ciencia está tratando de responder. Existen temores razonables de que los genes modificados de un organismo puedan transferirse a otro. No al que los consume, pues los procesos digestivos lo impiden y así lo han demostrado diversos estudios, pero sí, por ejemplo, a bacterias de su flora intestinal. Igualmente, se pueden introducir en una especie genes de otra a la que existan alergias. Existe también la preocupación de que se afecte la biodiversidad y el equilibrio ecológico.

Sin embargo, los mayores escándalos son de orden económico. Los organismos con ADN recombinante pueden ser patentados, lo que crea un nuevo universo de problemas legales. Además, las prácticas de algunas multinacionales que producen semillas son, cuando menos, cuestionables, por ejemplo al diseñar sus semillas de modo que su descendencia sea estéril, de modo que los agricultores se vean obligados a comprarle semillas a la empresa año tras año.

Estas prácticas, que pertenecen al reino de la economía y los riesgos del mercado sin controles, han contaminado sin embargo la visión del público respecto de los alimentos sometidos a ingeniería genética, sin que por otra parte haya información suficiente sobre estas modificaciones y si realmente pueden o no afectar al ser humano. El debate, por desgracia, se está moviendo en terrenos de la propaganda y lo emocional antes que en los niveles de la razón y los datos.

La promesa de la ingeniería genética es, sin embargo, demasiado grande. La posibilidad de curar o prevenir multitud de enfermedades, de alargar nuestra vida o de contar con alimentos más baratos, más nutritivos o más fáciles de transportar para luchar contra el hambre, entre otros muchos posibles beneficios, son también parte del debate, y la solución a ese debate está en los estudios que se realizan sobre el verdadero impacto de los organismos genéticamente modificados.

Hoy, afortunadamente, podemos debatir y orientar la modificación de organismos por medio de la ingeniería genética, cuidando del medio ambiente y la biodiversidad. Durante los anteriores 20.000 años, el hombre modificó irreversiblemente miles de organismos sin tener ni esa conciencia ni las herramientas para minimizar los efectos negativos de su, por otro lado, natural incidencia en la genética de otros organismos.

El arroz dorado

En el año 2000, el científico suizo Ingo Potrykus creó una variedad de arroz capaz de sintetizar beta-caroteno, un precursor de la vitamina A, para ayudar a los niños, principalmente en el sureste asiático donde el arroz es el alimento básico, que sufren deficiencia de la vitamina A. Esta afección provoca ceguera o la muerte a cientos de miles de niños cada año. Siendo gratuito para los agricultores de subsistencia del Tercer Mundo, el arroz dorado no se ha extendido porque grupos como Greenpeace se oponen a su cultivo, manteniendo una política estricta contra todos los organismos genéticamente modificados.

La ciencia que estudia nuestras decisiones

John Von Neumann, fundador de la
teoría de juegos.
(foto CC via Wikimedia Commons)
Suponga que usted es uno de dos detenidos como sospechosos de un delito. No teniendo pruebas, la policía los separa y le dice a cada uno que si uno testifica traicionando al otro, y el otro se mantiene callado, el traidor saldrá libre y el otro irá 10 años a la cárcel. Sin embargo, si ambos callan (son leales entre sí), ambos serán encarcelados durante sólo seis meses por una acusación menor. Y si ambos hablan (cada uno traicionando al otro) ambos recibirán una condena de cinco años. Se les dice que no se informará al otro si hay una traición. La pregunta es, “¿cómo debe actuar el prisionero, o sea usted?”

Esta situación, conocida como el “dilema del prisionero”, se puede estudiar matemáticamente, con objeto de determinar qué estrategia es la más conveniente para cada uno de los jugadores. De hecho, resulta que independientemente de lo que haga el otro, matemáticamente el mayor beneficio para un jugador se encuentra siempre en traicionar y hablar.

Si el otro calla, al traicionarlo saldremos libres en vez de pasar seis meses en la cárcel. Si el otro habla, al traicionarlo reducimos a la mitad la posible pena, de diez a cinco años. Quizá no sea lo más moral o cooperativo, pero es la estrategia más conveniente.

Sin embargo, si el juego se repite varias veces, el llamado “dilema del prisionero iterativo” y sabemos qué hizo el otro prisionero la vez anterior, como se hizo en un torneo organizado por Robert Axelrod, profesor de ciencias políticas de la Universidad de Michigan, la mejor estrategia parte de no traicionar, pero en caso de que el otro traicione, responder traicionando en la siguiente partida, saber perdonar cuando el otro vuelva a la actitud cooperativa y finalmente nunca tratar de ganar más que el oponente.

Interacciones estratégicas como la que se presenta en el dilema del prisionero, con participantes o jugadores racionales y sus resultados de acuerdo con las preferencias o beneficios de los jugadores son, precisamente, el campo de estudio de la “teoría de juegos”. En estas situaciones, el éxito de las decisiones que tomamos depende de las decisiones que tomen otros, de la forma en que tales decisiones se interrelacionan entre sí, y de los distintos resultados posibles, pueden ser analizados matemáticamente y darnos una visión más amplia y clara de las distintas avenidas que pueden recorrer los acontecimientos.

La teoría de juegos como tal, más allá de los antecedentes y trabajos previos tanto en filosofía como en matemáticas, fue la creación del matemático estadounidense John Von Neumann, considerado como uno de los más destacados científicos de su ramo del siglo XX por sus aportaciones a disciplinas tan diversas como la teoría de conjuntos, el análisis funcional, la mecánica cuántica, la economía, la informática, el análisis numérico, la hidrodinámica de las explosiones y la estadística.

Von Neumann se interesaba principalmente por el área de las matemáticas aplicadas, como lo demuestran las aportaciones arriba enumeradas, y en 1928 enunció el teorema “minimax”, según el cual en juegos de suma cero (donde las ganancias de uno dependen de las pérdidas del otro) y de información perfecta (ambos jugadores saben qué movimientos se han hecho hasta el momento), hay una estrategia concreta para cada jugador de modo que ambos reduzcan al mínimo sus pérdidas máximas.

Este teorema fue el punto de partida para que el matemático estudiara otros tipos de juegos con información imperfecta o con resultados distintos de la suma cero. El resultado de su trabajo fue el libro La teoría de juegos y el comportamiento económico, escrito en colaboración con Oskar Morgenstern y publicado de 1944.

A partir de entonces, la teoría de juegos se desarrolló a gran velocidad y se determinó su utilidad en el estudio de numerosas disciplinas más allá de la economía, desde la biología, concretamente en la evolución de individuos y especies en un medio determinado, hasta la ingeniería, las ciencias políticas, las relaciones internacionales y la informática.

En la teoría de juegos participan agentes que buscan obtener utilidades o beneficios mediante sus acciones, utilidades que pueden ser económicas, alimenticias, estéticas, sexuales o simplemente de supervivencia, entre otras posibilidades.

El juego al que se refiere la teoría no tiene nada que ver con una diversión, por supuesto. Se trata de una situación en la que un agente sólo puede actuar para conseguir la máxima utilidad adelantándose a las respuestas que otros agentes puedan tener ante sus acciones. Y los agentes son racionales sólo en tanto que tienen capacidad de evaluar los posibles resultados y determinar las rutas que llevan a tales resultados. Pero esto no forzosamente significa un análisis abstracto, un organismo que busca alimentarse tiene una actitud racional en términos de la teoría de juegos, aunque no realice operaciones mentales de alto nivel.

La teoría de juegos tiene al menos dos aplicaciones de gran valor. En algunos casos, puede utilizarse para ayudar a encontrar la mejor estrategia en una situación compleja, o al menos eliminar las estrategias más débiles. La situación puede ser política, militar, diplomática o de relaciones humanas. Si puede cuantificarse, se puede analizar.

En otros casos, la teoría de juegos ayuda a comprender la forma en que se dan ciertos procesos, como la evolución de las especies o el desarrollo vital de una persona, puede analizar cómo las consideraciones de tipo ético, por ejemplo, pueden alterar profundamente las estrategias de personas y grupos, o encontrar los beneficios ocultos en estrategias aparentemente incorrectas o débiles.

Desde determinar si nos conviene más comprar una entrada para el cine el día antes por Internet con un sobreprecio o llegar temprano al cine a hacer cola hasta decidir la compra de una casa o la renuncia a un empleo, todos los días tomamos decisiones, sin imaginar que estamos resolviendo problemas de teoría de juegos y definiendo las rutas que calculamos nos llevarán a obtener el resultado que deseamos. Y eso ciertamente no es ningún juego.

El altruismo en la teoría de juegos

Cuando un organismo actúa de modo tal que beneficia a otros en perjuicio de sí mismo, actúa de modo altruista. Generalmente la acción altruista no es racional y calculada, sino instintiva, un impulso irrefrenable. La teoría de juegos demuestra, sin embargo, que este hecho biológico aparentemente incongruente tiene explicaciones en las otras "utilidades" que puede obtener el altruista, desde el sentimiento de actuar como es debido hasta el ayudar indirectamente a aumentar la probabilidad de supervivencia del grupo a futuro. Lo que parece irracional resulta así la mejor forma de actuar, y la biológicamente natural, aunque a algunos cínicos la idea no les agrade.

Ramón y Cajal, padre de las neurociencias

El cerebro, ese órgano que ha sido capaz de cuestionar al universo, empezó a entenderse sólo cuando supimos que lo formaban las asombrosas neuronas.

Santiago Ramón y Cajal
(D.P. via Wikimedia Commons)
Si el científico se caracteriza por su visión creativa, por su rebeldía, por su cuestionamiento continuo de todo cuanto lo rodea, por su tenacidad y su amplitud de miras, Santiago Ramón y Cajal jugó a la perfección su papel, desde una niñez conflictiva hasta la obtención de los máximos galardones de la ciencia durante su vida, incluido el Premio Nobel de Medicina en 1906 y, quizás de modo más importante, por ser considerado hoy en día como el gran pionero de las neurociencias.

Es difícil sobreestimar la aportación de Ramón y Cajal al conocimiento. Simplemente en número, sus más de 100 publicaciones científicas y artículos escritos en español, francés o alemán, superan con mucho a las de la gran mayoría de los científicos, de su tiempo y posteriores.

Pero el número de sus publicaciones no es lo fundamental, sino su calidad, pues su observación y descripción de los tejidos nerviosos llevó a una de las grandes revoluciones en la comprensión de nuestro cuerpo.

En 1839, el fisiólogo alemán Theodor Schwann había propuesto la hipótesis de que los tejidos de todos los organismos estaban compuestos de células, una idea que hoy parece evidente, pero que era inimaginable antes del siglo XIX. Desde el antiguo Egipto, se creía que los seres vivos eran resultado de una fuerza misteriosa, diferente de la materia común y distinta de los procesos y reacciones bioquímicos.

La supuesta energía vital recibió distintos nombres y explicaciones en distintas culturas. Para los latinos era la vis vitalis, para los chinos el chi, para el hinduísmo el prana, y eran los desequilibrios de esta energía los que se consideraban las causas de las enfermedades, y las prácticas curativas precientíficas estaban todas orientadas a restablecer el equilibrio de la energía vital: por ejemplo mediante sangrías, aplicación de agujas o las prácticas ayurvédicas.

Incluso los proponentes de la “teoría celular” que cambió nuestra forma de vernos a nosotros mismos mantenían, sin embargo, que el sistema nervioso, supuestamente residencia del alma, era una excepción y no estaba formado por células, sino que era una materia singular, distinta.

El tenaz trabajo de Ramón y Cajal al microscopio, observando atentamente los tejidos del cerebro, y dibujando cuanto veía con una mano de artista que aún hoy asombra, junto con el de coetáneos como Camillo Golgi, permitió que, en 1891, el anatomista alemán Heinrich Wilhelm Gottfried von Waldeyer-Hartz propusiera que el tejido nervioso también estaba formado por células. Las células estudiadas por Ramón y Cajal, y a las que llamó neuronas. De hecho, Waldeyer aprendió español con el único propósito de poderse comunicar con el genio español, con el que formó una estrecha amistad.

Santiago Ramón y Cajal nació en Petilla de Aragón, Navarra, el 1º de mayo de 1852, y desde niño reaccionó con rebeldía ante el autoritarismo de la educación de su tiempo, lo que influyó para que recorriera diversas escuelas. Sus inquietudes lo llevaron, por ejemplo, a la construcción de un cañón empleando un tronco de árbol. Al probar su funcionamiento, el joven Santiago destrozó el portón de un vecino.

Su inquietud también se tradujo al aspecto profesional. Además de ser desde pequeño un hábil dibujante, fue aprendiz de barbero y de zapatero remendón, y un enamorado del físicoculturismo. Fue su padre, que era profesor de anatomía aplicada en la universidad de Zaragoza, quien lo convenció de orientarse a la medicina, carrera en la que se licenció en 1873.

Un año después, Ramón y Cajal se embarcaba en la expedición a Cuba como médico militar. Allí contrajo malaria y tuberculosis, llegando a sufrir un debilitamiento y adelgazamiento crónico extremos, lo que llevó al ejército español a licenciarlo como “inutilizado en campaña”.

A su vuelta, adquirió su primer microscopio, de su propio bolsillo, y entró a trabajar como asistente en la escuela de anatomía de la facultad de medicina en Zaragoza, además de realizar su doctorado, que completó en 1877.

A partir de entonces, se dedicó no sólo a los puestos como catedrático que fue alcanzando, sino a la investigación, gran parte de ella realizada en su cocina, reconvertida como laboratorio. Se ocupó primero de la patología de la inflamación, la microbiología del cólera y la estructura de las células y tejidos epiteliales.

Por entonces, otro pionero del estudio científico de los tejidos humanos, el italiano Camillo Golgi, que también trabajaba en su cocina, desarrolló un método que permitía teñir sólo ciertas partes de un preparado histológico, lo que permitía ver las células nerviosas individuales. Ramón y Cajal, que acudía continuamente a textos de otros países para mantenerse al día en investigación, se interesó por el sistema de tinturas de Golgi y orientó su atención hacia el sistema nervioso central.

Golgi y una parte de los científicos de la época consideraban que el cerebro era una red, una especie de malla homogénea en la que la información fluía en todas direcciones, hipótesis llamada “reticular”. Por su parte, Ramón y Cajal se orientaba a la teoría celular, y su trabajo fue poco a poco sustentando la idea de que existían células independientes, individuales, en las que la información fluía en un solo sentido.

Las evidencias observadas por el científico zaragozano, ilustradas con sus brillantes y precisos dibujos, empezaron a desentrañar la composición del tejido nervioso, los distintos tipos de células que lo conformaban en las distintas regiones del cerebro y los puntos de contacto entre ellas, las sinapsis, donde la información pasa de una a otra neurona, todo lo cual se iba revelando en sucesivas publicaciones.

El trabajo Ramón y Cajal consiguió, conjuntamente con el de su amigo Camillo Golgi, el Premio Nobel de Medicina en 1906. Ramón y Cajal obtuvo además doctorados honorarios en las universidades de Cambridge, Würzburg y Clark, y fue miembro de las más destacadas academias científicas de la época. Pero su máximo logro fue, sin duda, la creación del instituto de biología experimental que hoy lleva su nombre, el Instituto Cajal, que dirigió hasta su merte en 1934.

Ramón y Cajal, autor de ciencia ficción

En 1905, Santiago Ramón y Cajal publicó Cuentos de vacaciones, un volumen con cinco relatos satíricos y pedagógicos que él llamó “seudocientíficos” y que son muy cercanos a lo que hoy llamamos ciencia ficción. Acaso preocupado por no comprometer su prestigio profesional, o bien temeroso de la censura imperante en la época, firmó el libro como “Doctor Bacteria”. La primera edición la hizo de modo privado para sus amigos y conocidos, y quizás no esperaba que tuviera mayor difusión, aunque en la actualidad es de fácil acceso en varias ediciones firmadas no por “Doctor Bacteria”, sino por el ganador del Premio Nobel de Medicina en 1906.

Medir la inteligencia

Kim Peek, el famoso savant.
(Copyright Dr. Darold A. Treffert
y la Wisconson Medical Society,
usada con permiso)
La inteligencia: intentamos medirla sin tener, todavía, una definición debidamente consensuada de ella. En el proceso, hemos aprendido mucho de nuestros errores metodológicos.

Para llamar a un perro “inteligente”, basta que responda a un adiestramiento para realizar tareas de rescate, actuar en cine, descubrir drogas o ser el lazarillo de un ciego. Sin embargo, los científicos hablan de la inteligencia de animales mucho más sencillos, y por otra parte, socialmente solemos imponer estrictos –y variables– niveles de exigencia para señalar que alguien es “inteligente”.

Llamamos inteligencia a muchísimos atributos distintos sin tener la certeza de que están relacionados entre sí: una memoria prodigiosa, una acumulación desusada de datos, la capacidad de resolver problemas complejos, la capacidad de inducción o predicción, la creatividad, al pensamiento original, el uso del idioma y a el pensamiento abstracto, entre otros muchos. El propio diccionario de la RAE ofrece cuatro acepciones distintas de “inteligencia”,

Quizá estos elementos no están interrelacionados, o quizá tienen relaciones diversas y en grados variables. De hecho, la ciencia se ha visto enfrentada a casos que dejan muy claro que estos elementos pueden existir con independencia, obligándonos a replantearnos algunas ideas.

Kim Peek, el recientemente fallecido modelo del protagonista de la película Rain Man, leía los libros dos páginas a la vez, una con cada ojo, podía realizar cómputos matemáticas a una enorme velocidad y exhibía una impresionante memoria fotográfica o eidética que reunía datos por igual deportivos que sobre la monarquía británica, compositores, películas, literatura, etc., y se sabía de memoria en un 98% los más de 76.000 libros que había leído en toda su vida.

Sin embargo, por su macrocefalia congénita no podía arreglárselas solo en la vida cotidiana, tardó hasta los 4 años en aprender a caminar, nunca supo abotonarse la ropa, y le resultaba casi imposible entender los giros idiomáticos, los chistes y las metáforas.

Como Peek, muchos otros savants exhiben simultáneamente rasgos que consideraríamos de gran inteligencia y otros de graves retrasos mentales, desarrollo social insuficiente o problemas de autismo.

Por otra parte, en las primeras “pruebas de inteligencia" realizadas en Estados Unidos, los negros alcanzaron notas muy inferiores a las de los blancos, y pasó tiempo antes de determinar que tales pruebas de inteligencia en realidad tenían un fuerte sesgo al medir en realidad conocimientos escolares a los que los blancos tenían un mayor acceso, y habilidades culturales concretas de la clase media blanca.

Así como las pruebas parecieron validar algunas concepciones racistas, negaban el sexismo, pues desde el principio no mostraron diferencia entre hombres y mujeres. Ello no obstó, sin embargo, para que socialmente siguiera vigente la falacia de una inteligencia deficiente de la mujer como pretexto para justificar los obstáculos a su acceso a la educación, a puestos de responsabilidad, a los procesos electorales y a espacios en numerosas disciplinas.

En 1983, el Doctor Howard Gardner, de la Universidad de Harvard, propuso que en realidad existen múltiples inteligencias: lingüística, lógico-matemática, espacial, corporal-cinestésica, musical, interpersonal, intrapersonal y naturalista. Aunque tiene numerosos críticos por motivos metodológicos y falta de constatación experimental, la visión de Gardner sirve al menos para ilustrar el problema de la definición de inteligencia y sus aspectos, tanto en el terreno de la ciencia como en el de la sociedad, y el debate (más político que biológico) sobre las raíces biológicas y medioambientales de la inteligencia.

El primer intento por medir la inteligencia lo hizo el británico Francis Galton en el siglo XIX, al fundar la psicometría. Poco después, Alfred Binet creó una prueba para medir el desarrollo intelectual (o edad mental) de los niños. En 1912, el psicólogo alemán Wiliam Stern desarrolló el concepto de cociente intelectual o IQ (Intelligenz-Quotient), resultado de dividir la edad mental por la edad cronológica, para cuantificar los resultados de las pruebas de Binet, sin que éste aceptara dicha escala.

Aunque el concepto de IQ o CI ya no es el de Stern, su uso sigue extendido en las diversas pruebas que se han desarrollado para esdudiar a la elusiva inteligencia. Tales pruebas se afinan continuamente para eliminar los sesgos raciales, culturales o de otro tipo, y ponderar las diferencias conocidas, por ejemplo, en las habilidades espaciales de hombres y mujeres. Pero aún así, la abrumadora cantidad de factores que influyen en el desarrollo de la inteligencia (o las inteligencias) sigue haciendo que estas pruebas sean sólo indicadores generales y en modo alguno predictores precisos como lo serían algunos análisis médicos.

Esto no significa, sin embargo, que las pruebas de inteligencia no tengan utilidad, aunque sean perfectibles. Los estudios estadísticos demuestran una correlación importante entre las altas puntuaciones de las pruebas y resultados como el desempeño en el trabajo o el rendimiento escolar que les dan una cierta utilidad si se interpretan como indicadores más que como diagnósticos.

De otra parte, numerosos estudios demuestran que la inteligencia no es un valor estático, sino que puede cambiarse, moldearse, incrementarse o, ciertamente, disminuirse, es decir, que nuestro cerebro es neuroplástico. Por ello, aunque desde un punto de vista estadístico, un cociente intelectual de 100 idealmente debería ser la media de la población, una cifra inferior no es forzosamente medida de tontería, ni una puntuación alta indica directamente genialidad.

El conocimiento de nosotros mismos, nuestra conducta y procesos mentales, es una de las más recientes disciplinas, compartido por la psicología, la sociología y las neurociencias. Sus rápidos avances nos permiten esperar que en pocas décadas tendremos mejores herramientas para conocer la inteligencia, su definición, sus procesos químicos y fisiológicos, su medición y, sobre todo, cómo ampliarla en todos los seres humanos. Que sería lo verdaderamente importante.

La inteligencia en el cerebro

El estudio de la inteligencia requiere conocer al órgano del que es función, el cerebro. En 2004, científicos de la Universidad de California utilizaron la resonancia magnética (MRI) para determinar que la inteligencia en general se relacionada con el volumen de la materia gris (neuronas y sus conexiones) en el cerebro, y su ubicación en diversos puntos del cerebro, sugiriendo que las fortalezas y debilidades intelectuales de una persona pueden depender de su materia gris en cada zona. Sin embargo, de toda la materia gris del cerebro, sólo el 6% parece relacionado con el cociente intelectual.

Evidencias y dudas sobre el calentamiento global

Previsiones del calentamiento global según
8 distintas instituciones científicas.
(Imagen CC de Robert A. Rohde para
Global Warming Art, vía Wikimedia Commons)
Más allá de los intereses creados, del temor de las grandes industrias o el entusiasmo de algunas organizaciones ciudadanas, de la propaganda y las afirmaciones no siempre muy precisas de los medios, es importante conocer los datos reales sobre el calentamiento global, datos que nos dan bases sólidas para tomar posición en un debate más mediático que científico.

El clima es un conjunto de condiciones meteorológicas con complejas interrelaciones entre las que están la temperatura, las lluvias, el viento, la humedad, la presión atmosférica, la irradiación solar, la nubosidad, y la evapotranspiración (la suma de la evaporación del agua y la transpiración de las plantas hacia la atmósfera), promediadas a lo largo del tiempo.

El clima nunca ha sido constante en la historia de nuestro planeta. En ese sentido, la frase “cambio climático” podría ser considerado una obviedad.

Dada la complejidad del sistema meteorológico de nuestro planeta, son numerosos los factores que pueden influir en la forma que adopte este cambio: los ciclos solares, como el del aumento y disminución de las manchas solares, la deriva continental, la dinámica del océano y sus corrientes, las erupciones volcánicas, las variaciones en la órbita de la Tierra o los niveles de gases de invernadero en nuestra atmósfera.

Los cambios del clima ocurren sobre todo a escalas de tiempo muy grandes, y nuestro registro del clima en distintos puntos del planeta es relativamente reciente. Tenemos datos previos a que hubiera mediciones precisas gracias al estudio de aspectos como las morrenas o restos dejados atrás por los glaciares al retirarse o el hielo de la Antártida, que nos ha permitido conocer la composición de la atmósfera en otros tiempos.

Existe, pues, un enorme acervo de conocimientos sobre un sistema enormemente complejo, pero en modo alguno se podría decir que conocemos perfectamente nuestro clima y su dinámica.

A escalas más humanas, tenemos informes relevantes acerca del clima. Por ejemplo, en la época medieval hubo un período cálido de temperaturas cercanas a la media histórica, y a continuación hubo un notable descenso en la temperatura que se ha llamado, como metáfora únicamente, la “pequeña edad del hielo” europea. Hacia 1300, los veranos dejaron de ser tan cálidos en el norte de Europa. Entre 1315 y 1317, las torrenciales lluvias y las bajas temperaturas hicieron fracasar las cosechas disparando una terrible hambruna y en 1650 se llegó a una temperatura mínima que desde ese momento empezó a subir.

Y ese ascenso es precisamente lo que se ha llamado “calentamiento global”.

La observación de las temperaturas a nivel mundial durante el siglo XX ha determinado que existe una tendencia al aumento en la temperatura media del planeta. A lo largo del siglo XX, la temperatura superficial media del planeta aumentó entre 0,56 y 0,92 ºC, superando rápidamente las temperaturas medias del período cálido medieval y, a nivel medio, las de los últimos dos mil años, que se han mantenido relativamente estables independientemente de variaciones locales como la “pequeña edad del hielo” limitada a Europa.

Esto podría parecer poco, pero se calcula que la diferencia entre una Tierra totalmente glacial y una tierra sin hielo en la superficie es únicamente de 10°C.

En realidad no existe forma de saber en qué medida este aumento en la temperatura, imperceptible para las personas, pero de gran relevancia a nivel del clima, está provocada por el hombre o, en términos técnicos, es antropogénico, y en qué medida es parte de un ciclo totalmente natural debido a los factores que ya conocemos o incluso a factores de los que aún no estamos conscientes o no se han probado.

Sin embargo, hay evidencias e indicaciones de que el hombre puede tener una influencia cuando menos relevante en este proceso. El proceso en sí, sin embargo, no está en duda salvo para un minúsculo grupo de personas. El aumento en las temperaturas es un hecho observado, aunque algunos, sin ofrecer evidencia, sostienen que las mediciones podrían ser imprecisas o tendenciosas.

Uno de los elementos fundamentales para determinar la temperatura en la superficie de nuestro planeta es la presencia de gases de invernadero en la atmósfera. Se trata de gases que absorben y emiten calor, causando así el “efecto invernadero” al atrapar el calor de las capas inferiores de la atmósfera. Se ha calculado que la temperatura media de la Tierra sería de unos -19 ºC (19 grados Celsius bajo cero), pero es mucho más alta por el efecto invernadero, de unos 14 ºC.

Los gases de invernadero son el sello distintivo de la civilización industrial, ya que son producto de quemar combustibles fósiles para la producción de energía y para el transporte. Las emisiones de CO2 de las actividades humanas son el aspecto en que más podemos hacer, y más rápidamente, para mitigar la posible influencia humana en el cambio climático, según los modelos con los que contamos. Es por ello que gran parte del debate político sobre el calentamiento global se han centrado en la emisión de CO2 a la atmósfera.

Los científicos, en su enorme mayoría, consideran muy poco probable que este calentamiento ocurriera sólo por causas naturales y que, por contraparte, es muy probable (95% de probabilidad) que el aumento en las temperaturas se deba al aumento de emisiones antropogénicas de gases de invernadero.

La complejidad del tema, nuestros limitados conocimientos sobre la dinámica del clima, y una cautela natural en los científicos, parece dejar un espacio de duda mucho mayor que el que realmente existe, y del que se aprovechan los medios para presentar un panorama de debate e incertidumbre alejado de la realidad científica.

El debate esencial es, en todo caso, cuánto influye la actividad humana en el calentamiento global. Y esta interpretación se hace, con frecuencia, más en base a posiciones económicas, políticas o ideológicas que de acuerdo a las mejores evidencias.

En todo caso, por simple precaución, muchos consideran preferible emprender acciones para disminuir la emisión de CO2 a la atmósfera, lo cual además tendrá la ventaja de disminuir el ritmo de gasto de los combustibles fósiles. En una situación de incertidumbre, probablemente es mejor ser cauto, pero no catastrofista, que ser audaz e irreflexivo.

El consenso científico

En los Estados Unidos, uno de los países más afectados económicamente por las reducciones propuestas en emisiones de CO2, la totalidad de las organizaciones, academias y sociedades científicas apoyan la idea básica de que “hay evidencia nueva y más fuerte de que el calentamiento observado en los últimos 50 años es atribuíble a actividades humanas”. Y desde 2007, ningún grupo científico internacional reconocido ha mantenido lo contrario, a diferencia de algunos científicos individuales.

El sueño de la fusión nuclear

Dispositivo Tokamak de contención
en un reactor de fusión en Suisse Euratom
(foto CC de Claude Raggi)
Más allá de los mitos, el hombre desarrolló diversas explicaciones científicas para el sol, esa asombrosa bola incandescente que daba luz y calor, marcaba las estaciones y era fuente de vida. Anaxágoras lo imaginó como una bola de metal ardiente, y otros intentaron entender su naturaleza, su tamaño, la distancia que nos separaba de él y la fuente de su asombroso fuego.

El desarrollo de la física y la aparición de la teoría atómica de la materia permitió que en 1904 Ernest Rutherford especulara sobre la posibilidad que la energía del sol fuera producto de la desintegración radiactiva recién descubierta, la fisión nuclear.

Sin embargo, una vez que Albert Einstein estableció en 1906 que la materia y la energía eran equivalentes, y que se podían convertir una en la otra con la fórmula más famosa de la historia, se abrió la posibilidad de una mejor explicación.

La fórmula de Einstein es, claro, E=mC2, y explica en cuánta energía se puede convertir una porción de masa. La energía es igual a la masa por la velocidad de la luz al cuadrado. Esto significa que la masa contiene o es igual a una enorme cantidad de energía. En una bomba atómica como la que arrasó Hiroshima, por ejemplo, sólo se convirtieron en energía alrededor de 600 miligramos de la masa del uranio 235 que la conformaba. Cada pequeña porción de materia es una colosal cantidad de energía concentrada, y por tanto la materia puede ser la mejor fuente para satisfacer el hambre energética del ser humano, si podemos convertirla en energía.

En 1920, Sir Arthur Eddington propuso que la presión y temperaturas en el centro del sol podrían producir una reacción de en la que se unieran, fundieran o fusionaran dos núcleos de hidrógeno para obtener un elemento más pesado, un núcleo de helio y convirtiendo un neutrón en energía en el proceso. En 1939, el germanoestadounidense Hans Bethe consiguió explicar los procesos del interior del sol, lo que le valió el Premio Nobel de Física en 1967. Muy pronto, en 1941, el italiano Enrico Fermi propuso la posibilidad de lograr una fusión nuclear controlada y autosostenida que generaría energía abundante, barata y limpia, un verdadero ideal en términos de economía, ecología, sociedad e incluso política.

Allí comenzó un sueño que todavía no se ha realizado.

Mientras que para realizar una fisión nuclear simplemente es necesario alcanzar una “masa crítica” a partir de la cual se desarrolla una reacción en cadena y los núcleos se dividen, ya sea descontroladamente como en una bomba nuclear, o de modo controlado, como en una central nucleoeléctrica, la fusión nuclear exige condiciones mucho más complejas. Podemos crear una fusión nuclear descontrolada, en las aterradoras bombas H o de hidrógeno, en las que se produce una fusión brutal y súbita, pero no una fusión controlada y sostenida, pese a que una y otra vez se ha anunciado este logro en falso.

Los obstáculos que impone una fusión controlada son varios. Primero, los núcleos se repelen simplemente por la fuerza electrostática entre sus protones, de carga positiva, como se repelen dos imanes cuando se enfrentan sus polos positivos o negativos. Esta repulsión es mayor conforme más se acercan los núcleos, formando la llamada “barrera de Coulomb”. Para superarla, se deben calentar los núcleos a enormes temperaturas para que pueda producirse la reacción de fusión nuclear, y se debe poder confinar o aprisionar una cantidad suficiente de núcleos que estén reaccionando, de modo que la energía producida sea mayor que la que se ha utilizado para calentar y aprisionar a los núcleos.

Al calentar el hidrógeno a alrededor de 100.000 ºC, todos sus átomos se ionizan o liberan sus electrones, por lo que se encuentra en el estado de la materia llamado plasma, con núcleos positivos y electrones libres negativos. Con temperaturas tan elevadas, no es posible contener el plasma en recipientes materiales, ya que el calor los destruiría. Las opciones son un fuerte campo gravitacional, como el que existe en las estrellas, o un campo magnético.

Desde mediados del siglo pasado se han diseñado distintas formas de lograr la confinación magnética del plasma, sin éxito hasta ahora. Se han producido reacciones termonucleares artificiales, algunas de ellas triviales desde 1938, cuando el inventor de la primera televisión totalmente electrónica, creó un fusor que demuestra en la práctica la fusión nuclear. Pero, hasta hoy, la energía obtenida por la fusión siempre ha resultado menor a la que se consume en el calentamiento y confinamiento magnético del plasma.

Se han propuesto otros sistemas, como el confinamiento inercial, donde el combustible se coloca en una esfera de vidrio y es bombardeado en varios sentidos por haces láser o de iones pesados, que disparan la fusión al imposionar la esfera, pero hasta hoy el confinamiento magnético parece la mejor opción.

En la búsqueda de una fusión controlada, las afirmaciones exageradas y cierta charlatanería están presentes desde 1951, cuando un proyecto secreto peronista afirmó haber conseguido el sueño.

Especialmente conocidos fueron Martin Fleischmann y Stanley Pons, que en 1989 afirmaron haber conseguido la fusión fría con un sencillo aparato de electrólisis. El anuncio fue un verdadero sismo en la comunidad científica, que se lanzó a confirmar los datos y replicar los experimentos, pese a que desde el principio se entendía que las afirmaciones de los dos físicos contravenían lo que sabemos de física nuclear.

Fue imposible reproducir los resultados presentados, pese a que países como Japón y la India invirtieron en ello, y finalmente se concluyó que simplemente habían realizado mal sus mediciones. Ambos científicos pasaron al mundo de la energía gratis y las máquinas de movimiento perpetuo, donde siguen afirmando que sus resultados eran reales aunque nadie pudiera replicarlos.

La promesa de la fusión nuclear como fuente de energía con muchas ventajas y pocas desventajas provoca entusiasmos desmedidos y, como ocurrió con la fusión fría, puede llevar a creencias irracionales. El trabajo, sin embargo, como en todos los emprendimientos humanos, con tiempo y originalidad, será el único que podrá, eventualmente, conseguir este santo grial de la crisis energética.

Europa a la cabeza

Un esfuerzo conjunto europeo llamado Joint European Torus, JET (Toro Conjunto Europeo, no por el animal, sino por la forma de donut que los topólogos llaman precisamente “toro”), es el mayor experimento de física de plasma en confinamiento magnético que existe en el mundo. Esta instalación situada en Oxfordshire, Reino Unido, está en operación desde 1983, y en 1991 consiguió por primera vez una fusión nuclear que produjera más energía de la que consumía. Sigue en operación, explorando cómo crear un reactor de fusión viable, y en él trabajan asociaciones EURATOM de más de 20 países europeos.

Las misteriosas causas

Un péndulo de Foucault en el Museo de Ciencias de Valencia.
Su comportamiento se debe a la rotación de la Tierra.
(foto CC Manuel M. Vicente via Wikimedia Commons)
En ocasiones no es tan fácil como quisiéramos saber por qué ocurren ciertas cosas, y muchas veces aplicamos un pensamiento poco riguroso, y poco recomendable, a los acontecimientos.

Supongamos que sufrimos una larga enfermedad y nos sometemos a tratamiento con dos o tres médicos o, desesperados por la duración de las molestias, acudimos a una persona que afirma poder lograr curas milagrosas, y que puede ser igual el practicante de alguna terapia dudosa o, directamente, un brujo.

Y supongamos que al cabo de una semana, nuestra enfermedad empieza a remitir y dos semanas después ha desaparecido sin dejar rastro.

No es desusado que le adjudiquemos el efecto (nuestra curación) a la causa más cercana en el tiempo, en este caso el terapeuta dudoso o el brujo. La convicción que produce en nosotros esa atribución de curación es tal que no dudaremos en recomendar al terapeuta dudoso o al brujo a cualquier persona con una afección similar... o con cualquier afección. La frase que solemos escuchar en tales casos es: “A mí me funcionó”.

Pero la verdad es que en tal caso, como en muchos otros, no tenemos bases reales para atribuirle la curación a ninguna de todas sus posibles causas, como la acción retardada de una de las terapias médicas, la sinergia de la dos terapias médicas, un cambio ambiental que altere las condiciones de la enfermedad, algún alimento que disparara nuestro sistema inmune o, incluso, que nuestro cuerpo se haya curado sin ayuda externa, con sus procesos de defensa. Hasta podría ser que un hada invisible proveniente de Islandia se haya apiadado de nosotros en su viaje a ver a su novio sátiro en Ibiza y nos señalara con su varita mágica.

Gran parte de la historia de la ciencia es la historia de la identificación de las causas reales de ciertos acontecimientos y de los hechos que se correlacionan con dichos efectos sin realmente causarlos.

Un ejemplo clásico es un estudio estadístico sobre el tamaño del calzado y la capacidad de lectura, que sin duda demostraría que mientras mayor es el tamaño del calzado de una persona, más tiende a tener buenas habilidades de lectoescritura. Esto podría interpretarse como que la alfabetización hace crecer los pies o que el tamaño de los pies afecta la inteligencia, cuando en realidad lo que ocurre, simplemente, es que los niños pequeños tienen pies pequeños y sus pies crecen paralelamente a su aprendizaje de la lectura.

Dos acontecimientos pueden estar relacionados porque que uno de ellos cause al otro, o que ambos sean producto de una tercera causa, que se influyan entre sí de distintos modos o, simplemente, a una coincidencia.

La ciencia debe enfrentarse a la natural tendencia de nuestro cerebro de encontrar patrones y relaciones donde no los hay, como cuando vemos formas en las nubes o en las rocas, o convertimos el ruido blanco de la ducha en voces que creemos oír.

Por ello, hemos desarrollado armas como el “control de variables”. Hacemos uniformes todas las variables que pueden incidir en un efecto, como la temperatura, la presión atmosférica la iluminación, etc., menos aquélla que estamos poniendo a prueba, digamos un medicamento. Si se observa que al ocurrir nuestra variable se produce el efecto, tenemos una buena indicación de que lo ha causado. Esto es lo que se conoce como un “estudio controlado”.

Cuando en los experimentos intervienen seres humanos, los controles se multiplican debido al hecho de que los resultados pueden verse influidos por las opiniones, prejuicios, deseos, expectativas, rechazos y preconcepciones de los sujetos experimentales, y también los del experimentador. Si un experimentador, digamos, tiene una sólida convicción de que un medicamento es altamente efectivo, o por el contrario cree que es inservible, puede enviarle una gran cantidad de mensajes sutiles a los pacientes y afectar sus expectativas de éxito.

Por ello, la medicina utiliza el control llamado “de doble ciego”, donde ni los médicos que llevan a cabo el experimento ni los sujetos experimentales saben quiénes están tomando un medicamento y quiénes reciben un placebo o sustancia neutra. Al hacer estos estudios en poblaciones razonablemente grandes, tenemos bases para creer que los efectos observados que se aparten del azar están siendo efectivamente causados por el medicamento.

Finalmente, muchas relaciones causales las inferimos a partir de evidencias indirectas. Nadie ha visto al humo del tabaco entrar al pulmón, mutar una célula y provocar un cáncer, pero hay evidencias estadísticas suficientes para suponer que existe una relación causal, observando por ejemplo que los fumadores tienden a una mayor incidencia de cáncer sin importar dónde viven, su edad y otras variables.

Muchos estudios de los que informan los medios de comunicación establecen correlaciones, pero se presentan con frecuencia como si hablaran de relaciones causales. Por ejemplo, una sustancia puede estar correlacionada con un aumento de cáncer en ratas, pero los medios tienden a presentar el estudio como si afirmara que dicha sustancia “causa” cáncer, aunque no exista tal certeza. Al traducirse al público en general, la cautela habitual de los informes científicos suele desvanecerse.

La discusión sobre el calentamiento global se centra en saber si la actividad del hombre es una causa (al menos parcial) del calentamiento global o si la actividad industrial y el calentamiento están sólo correlacionados. Esto aún no se sabe, y las posiciones se toman por convicciones políticas y no con bases científicas. La evidencia parece indicar que hay una relación causal y la cautela nos dice que quizás convenga controlar la emisión de gases de invernadero, pero mientras no haya pruebas más contundentes, o más evidencia, no se puede afirmar que quienes promueven la irresponsabilidad en emisiones de gas carbónico estén equivocados, aunque puedan resultarnos antipáticos.

Las herramientas de la ciencia también son útiles en nuestra vida cotidiana. Es muy sano cuestionarnos la posibilidad de que estemos atestiguando una correlación simple cada vez que tenemos la tentación de adjudicarle a un acontecimiento una causa, especialmente si ésta nos resulta agradable, va de acuerdo con nuestras ideas u opiniones, o parece demasiado buena como para ser cierta.

Piratas y calentamiento global

La religión paródica del Monstruo Volador de Espagueti ha propuesto una correlación que, si se asumiera como causación, daría un resultado curioso. En el período histórico en el que ha disminuido el número de piratas tradicionales de parche en el ojo y pata de palo, ha aumentado el calentamiento global. Si en vez de profundizar en las causas de esta correlación inferimos que el calentamiento global está causado por la falta de piratas, lo mejor que podríamos hacer para controlar dicho cambio climático sería, claro, volvernos piratas.

James Maxwell, el gran unificador

James Clerk Maxwell
(D.P. vía Wikimedia Commons)
Uno de los físicos más importantes de la historia es poco conocido por lo complejo de sus aportaciones, sin las cuales, sin embargo, la física del siglo XIX habría sido mucho menos fructífera.

James Clerk Maxwell está considerado como el tercer físico más importante de la historia, superado sólo por Newton y Einstein. Sin embargo, en la percepción popular, la historia de la electricidad y el magnetismo está dominada por personajes como Michael Faraday, Luigi Galvani o Benjamin Franklin.

Esta mala fortuna se debe en gran medida al nivel altamente teórico del trabajo de Maxwell, sobre todo si lo comparamos con los espectaculares experimentos de Galvani, electrizando animales muertos cuyos músculos se contraían para sobrecogimiento de los espectadores, las dinamos y aparatosas chispas de Faraday (quien por su parte no hizo matemáticas, todos sus descubrimientos son resultado de sus geniales experimentos), y la figura colosal de Franklin que además de su cometa y su suerte al sobrevivir a su imprudente experimento con la cometa (varios de sus émulos dejaron la vida en el intento) destacó en la política, la diplomacia, la literatura y la filosofía.

Sin embargo, la importancia de Maxwell se puede evaluar considerando que Einstein tenía en su mesa de trabajo dos retratos, el de Newton y el de Maxwell, y llegó a decir sobre el trabajo del modesto, metódico escocés, que era "lo más profundo y más fructífero que había experimentado la física desde tiempos de Newton”. En otro momento, Einstein explicó que “la teoría de la relatividad especial debe sus orígenes a las ecuaciones de Maxwell del campo electromagnético”.

Este barbado revolucionario del siglo XIX nació en 1831 en Edimburgo, Escocia, donde asistió a la academia de los 10 a los 16 años. Su amigo desde entonces Peter Guthrie Tait recuerda que el chico era considerado rústico, tímido y aburrido, y pasaba su tiempo libre leyendo baladas, haciendo diagramas y preparando modelos mecánicos burdos. Como suele ocurrir, tales actividades resultaban incomprensibles para sus compañeros de clase, pero pronto se mostró como el más brillante, y frecuente ganador de premios en matemáticas y poesía inglesa.

Su primer trabajo matemático conocido fue un artículo sobre medios mecánicos para dibujar curvas matemáticas, y las propiedades de las elipses y otras curvas con varios focos, fue presentado a la Real Sociedad de Edimburgo en 1846, que quedó impresionada con el joven.

En 1847, a los 16 años de edad, Maxwell entró a la Universidad de Edimburgo, que le resultó poco exigente y le dejó tiempo para seguir sus estudios independientemente, ocupándose de estudios relacionados con la óptica. Ese mismo año escribió dos artículos sobre teoría de curvas y uno sobre la refracción de la luz en distintos sólidos elásticos.

El mundo para Maxwell era ya un acertijo que sólo podía resolverse mediante las matemáticas. Como diría después: “Todas las ciencias matemáticas están fundadas entre leyes físicas y las leyes de los números, de modo que el objetivo de la ciencia exacta es reducir los problemas de la naturaleza a la determinación de cantidades mediante operaciones con números”.

De Edimburgo marchó a Cambridge en 1850 para realizar sus estudios de postgrado, y allí permanecería hasta 1856 y donde empezó a ocuparse del magnetismo y la electricidad. En 1855 presentó un modelo simplificado del trabajo de Faraday y de la forma en que se relacionaban estos dos fenómenos. Todo el conocimiento que existía en ese momento fue reducido por Maxwell a 20 ecuaciones en 20 variables.

En 1861, su artículo Sobre las líneas físicas de fuerza presenta las ecuaciones que, con ligeras variaciones, son conocidas hoy en día como las “Ecuaciones de Maxwell”. En ellas describía matemáticamente cómo el flujo eléctrico generaba campos magnéticos y cómo el movimiento de un campo magnético puede generar electricidad. También establecía el concepto de la “corriente de desplazamiento”, una forma de la corriente eléctrica en la que el campo magnético no está generado por el movimiento de la corriente en sí, sino por su variación en el tiempo.

Habiendo determinado que la propagación de las ondas electromagnéticas en el vacío ocurría a una velocidad similar a la de la luz, propuso que ésta era una perturbación electromagnética que se propagaba de acuerdo con las leyes electromagnéticas. La idea de que la luz podía ser una expresión de los fenómenos que en esos tiempos capturaban la atención del mundo conforme se entendía la electricidad y sus posibilidades era totalmente revolucionaria.

En 1865, en el artículo Una teoría dinámica del campo electromagnético, Maxwell reúne finalmente la electricidad, el magnetismo y la óptica en una sola teoría unificada mediante la ecuación de la onda electromagnética.

Más aún, la teoría electromagnética de la luz de Maxwell sugería la posibilidad de que las ondas eléctricas existieran en el espacio libre. No fue sino hasta 1887, ocho años después de la prematura muerte de Maxwell en 1879, que Heinrich Hertz, el físico alemán que da su nombre al “hertzio” como unidad de frecuencia, demostró experimentalmente la existencia de tales ondas eléctricas en el espacio, las ondas que hoy utilizamos para la comunicación por radio, televisión, telefonía móvil y otros sistemas que emplean ondas electromagnéticas.

La aportación de Maxwell, sin embargo, no se limitó a ese singular logro de unificación. Dejó importantes logros en la óptica y la percepción del color, descubriendo que se pueden crear fotografías a color con filtros rojo, azul y verde, y tomó la primera fotografía permanente a color en 1861. Se ocupó de la teoría cinética de los gases, es decir, del movimiento de las moléculas en los gases a distintas temperaturas, y también consiguió importantes avances en la termodinámica. Con todo esto, tuvo tiempo para ordenar y editar los papeles de Henry Cavendish, el físico británico descubridor del hidrógeno, y diseñar e instalar el laboratorio Cavendish en Cambridge. Una enorme labor para una vida que sólo duró 48 años.

Las unificaciones y revoluciones en la física

Con frecuencia se afirma que “la ciencia” se “equivoca” en muchas ocasiones y cambia de posición con cierta frecuencia. Quienes así hablan sueñan con que eventualmente la ciencia acepte algunas propuestas descabelladas. Pero la afirmación no es válida. Es aventurado hablar de ciencia en sentido estricto antes del Renacimiento, y después los genios como Einstein y Maxwell ampliaron, afinaron y unificaron los conocimientos ya existentes, no los eliminaron. Maxwell no borró lo que se sabía sobre magnetismo y electricidad, simplemente lo unificó coherentemente y le dio sentido. La ciencia no funciona cambiando de rumbo caprichosamente, sino por la acumulación de conocimientos e ideas.

El misterio de las mentiras

Saber cuándo alguien miente es un antiguo sueño. Pero los intentos por conseguirlo de modo fiable, hasta hoy, parecen condenados al fracaso.

Dieric Bouts El Viejo: La ordalía por
fuego de la emperatriz ante el
emperador Otto III
(D-P. Wikimedia Commons)
Como especie, mentimos. La mentira es una forma de evitar situaciones desagradables y de obtener satisfacciones, de conseguir lo que queremos, y es parte del desarrollo humano.

Los psicólogos del desarrollo nos dicen que los niños muy pequeños no saben mentir en el sentido adulto. Es decir, crean historias, no son fieles a la verdad, pero no saben que están mintiendo, pues para ellos las frontera entre la realidad y la fantasía no es clara. Sin embargo, cuando cometen una transgresión, los niños hasta los tres años con frecuencia confiesan, mientras que los mayores de esa edad invariablemente mienten.

Pero si mentir es esencialmente humano, como especie y como sociedad también tenemos un enorme interés en poder determinar cuándo alguien miente, sea en algo tan sencillo como una declaración de amistad, tan grave como la comisión de un delito o tan potencialmente grave como el espionaje en tiempos de guerra. Y de ahí que muchos, crédulamente o como charlatanes, hayan diseñado diversos métodos para “detectar mentiras”, desde el juicio por ordalía, donde se sometía al acusado a una experiencia dolorosa como tomar entre las manos un hierro al rojo vivo, y si era culpable (es decir, si mentía al declarar su inocencia), la deidad lo castigaría, mientras que si era inocente (y no mentía), la misma deidad lo protegería del daño o aceleraría su curación. El procedimiento resultó poco fiable.

En 1917 apareció un aparato que pretendía poder detectar las mentiras mediante la medición de cuatro variables fisiológicas: la presión sanguínea, la frecuencia respiratoria, la frecuencia cardiaca y la resistencia galvánica de la piel. Como el aparato grafica estas cuatro variables en un papel, se le llamó “polígrafo”, aunque popularmente se le conoce como “detector de mentiras”. Si bien es cierto fisiológicamente que estas variables se ven afectadas cuando una persona está nerviosa o inquieta. Pero no todo mentiroso se pone nervioso y no todo nerviosismo es producto de la mentira, como se ha descubierto en el campo.

El aparato, creado por William Moulton Marston, que después sería el creador de Wonder Woman el personaje de cómic, no fue sometido nunca a una evaluación científica amplia, pero como parecía lógico y su promesa era enorme, fue rápidamente adoptado.

Al mismo tiempo aparecieron numerosos métodos, especialmente entre los criminales habituales y organizados, para engañar al polígrafo. Así, hay quien simula una tranquilidad inexistente consumiendo ansiolíticos como el Valium, mientras que otros logran engañar al aparato simplemente pensando en situaciones que les resulten estresantes sin importar la pregunta, de modo que el aparato siempre registre los mismos niveles de excitación. Morderse la lengua en cada pregunta, o pellizcarse el muslo, son también efectivos.

El polígrafo es tan poco confiable que se usa cada vez en menos países, y en Estados Unidos se ha visto bajo tales ataques que el Congreso de los EE.UU. promulgó una ley que impide que los patrones sometan a sus empleados a pruebas de polígrafo, y ni siquiera el sistema judicial estadounidense admite los estudios de polígrafo como pruebas en tribunales.

Un segundo sistema de detección de mentiras que se ha difundido es el “analizador computarizado de estrés en la voz”, (CSVA por sus siglas en inglés), que supone que la voz cambia cuando mentimos. Si bien esto es cierto, los críticos nos recuerdan que la voz también cambia si comemos mucha sal, si pensamos en sexo y, además de muchas otras causas, cambia cuando queremos que cambie. La falta de estudios científicos que validen la capacidad del CSVA de detectar cuándo alguien miente, ni mucho menos aún que nos digan cuáles cambios exactamente mide dicho aparato y cómo se detectan.

La crítica de los estudiosos a las afirmaciones sobre el CSVA ha llevado incluso a que uno de los fabricantes de este aparato amenace con demandar por difamación a un grupo de científicos suecos que publicaron, en una prestigiosa revista dedicada al lenguaje hablado y la ley, un resumen de los últimos 50 años del análisis forense de la voz y la charlatanería en esa disciplina, por lo demás seria y en la que trabajan fisiólogos, psicólogos, expertos en fonética y otros. El resultado del estudio de los investigadores: “no hay evidencia científica que sustente las afirmaciones de los fabricantes”.

El último sistema de detección de mentiras puesto de moda por los medios es el estudio de las “microexpresiones”, que aún siendo un terreno con muchas más bases científicas ha sido también mal comprendido, en parte debido a los excesos fantásticos de la ficción en el cine y la televisión, que por otra parte, es claro, no tienen la obligación de ser fieles a los hechos científicos mientras dejen claro que son obras de fantasía.

Lo que hoy llamamos microexpresiones fueron descritas por Kenneth S. Isaacs y Ernest. A. Haggard en un artículo científico de 1966 donde las llamaron “expresiones micromomentáneas”. Tales expresiones faciales que duran entre una décima de segundo y unos pocos segundos, según descubrieron, son indicadoras de coflicto emocional en la persona, especialmente cuando tiene mucho en juego. Pero como en el caso de las variables del polígrafo y el CSCVA, la aparición de microexpresiones que denotan emociones no indican el origen de dichas emociones.

Las microexpresiones no son el único indicador de conflictos emocionales. Toda la conducta no verbal, o lenguaje corporal, puede ser tenida en cuenta para analizar a un posible mentiroso. La frecuencia del parpadeo, la dirección de movimiento de los ojos, el tocarse en ciertas zonas, son conducta no verbal pero no microexpresiones. Después de todo, según algunos investigadores, el 80% de nuestra comunicación es no verbal, aunque no nos demos cuenta de ello.

David Matsumoto, considerado por muchos el máximo investigdor en el terreno de la comunicación no verbal, explica sin embargo que conocer las emociones y aprender a leerlas en otras personas no es sólo asunto de la policía o las fuerzas de seguridad, sino que puede ser útil para muchos profesionales y, quizás, para todos, aunque siempre corermos el peligro de enterarnos de emociones que experimentan otros y que preferiríamos no conocer.

Los magos de la verdad

La serie televisual Miénteme incluye entre sus protagonistas a una persona que sin entrenamiento alguno tiene gran capacidad para descubrir cuando alguien miente. Tales personas existen en realidad. En 2004, la psicóloga Maureen O’Sullivan descubrió a 13 personas así, a las que llamó “magos de la verdad” en un estudio que incluyó a 13.000 sujetos experimentales. Los otros 12.987 tendrían que entrenarse para ser igual de perceptivos.

El canto de las ballenas

Experiencia estremecedora, para algunos espiritual, el canto de las ballenas es una puerta para entender a nuestros gigantescos primos marinos.

Sello postal de las Islas Faroe
dedicado a la ballena azul
Los profundos gemidos de la ballena jorobada, que se repiten en patrones regulares, resultan, cuando menos, profundamente cautivadores para el ser humano. Tanto así que les llamamos “canto” en lugar de mugidos, bramidos o cualquier otro sustantivo más basto, y se han editado varios discos con estos sonidos, con un éxito singular, tratándose de seres no humanos.

El primer disco, publicado en 1970 con el nombre Songs of the humpback whale (Canciones de la ballena jorobada), se hizo a partir de las grabaciones realizadas por el biólogo Roger Payne, el descubridor del canto de las ballenas.

Parece extraño que en los miles de años de relación del hombre con las ballenas, nuestra especie no se hubiera percatado de que los gigantescos mamíferos producían sonidos. Después de todo, la ballena está presente en nuestras culturas al menos desde tiempos bíblicos, y en todo el mundo. Sin embargo, debido a su gigantesco tamaño, estos animales fueron objeto de lo que podríamos llamar campañas de prensa negativas a lo largo de la historia, sobre todo en occidente.

Aunque culturas como las de Ghana, Vietnam o los maoríes de Nueva Zelanda tenían una visión más equilibrada de las ballenas, situándolas con frecuencia en el plano de divinidades, lo común en Europa y América ha sido situarlas como villanos. Desde la historia de Jonás tragado por la ballena, que está presente en la Biblia y en el Corán, hata el Moby Dick de Herman Melville o la feroz ballena del Pinocho de Carlo Collodi, la ballena se representó como un terrible peligro de los procelosos mares, una bestia que no parecía tener más ocupación que lanzarse sobre las embarcaciones destrozándolas, tragarse cuanto encontraba y aterrorizar a los pobres pescadores que, en todo caso, sólo querían matarlas para aprovecharlas industrialmente.

En 1967, Roger Payne y Scott McVay dieron a conocer su descubrimiento de que las ballenas jorobadas producían los profundos sonidos que hoy nos resultan familiares. Pero no se trataba solamente de sonidos agradables. Payne y McVay descubrieron que las ballenas desarrollaban canciones que duraban hasta 30 minutos, con “frases musicales” que se repetían regularmente y que podían ser producidos, o cantados, por grupos de varios machos de ballena jorobada. Las canciones se repiten de modo continuo durante horas, a veces durante más de 24 horas.

El canto de las ballenas jorobadas es, evidentemente, parte del cortejo en su especie, pero no para atraer a las hembras, sino probablemente como desafío territorial. Esto se deduce de que son los machos los que más frecuentemente cantan, especialmente en la temporada de apareamiento, y el canto atrae principalmente a otros machos.

A diferencia de los sonidos fijos, en gran medida genéticamente determinados, de otros animales, el canto de la ballena jorobada no se mantiene igual al paso del tiempo. Las canciones que cantan los grupos de machos cambian año con año, se añaden nuevas “frases musicales” y se abandonan otras, creando un complejo rompecabezas para los científicos que se dedican a su estudio. En algunos grupos y áreas geográficas, las canciones evolucionan rápidamente, mientras que en otros los cambios son más lentos. Sin embargo, una vez que se introduce un cambio, todo el grupo de machos lo adopta para seguir cantando en su peculiar “coro”.

No todas las ballenas cantan, sin embargo. Las 90 especies de cetáceos, el orden de los mamíferos adaptados a la vida marina que incluye a los delfines, las ballenas y las marsopas, se dividen en dos grandes subórdenes, los odontocetos o ballenas dentadas, y los misticetos o ballenas francas.

Los más conocidos ejemplos de odontocetos son el cachalote o ballena blanca de Moby Dick, las orcas y los delfines. Los cetáceos de este suborden se comunican con diversos sonidos y vocalizaciones, como los chillidos y chasquidos de los delfines que se hicieron populares por la serie de televisión Flipper en los años 60, además de los ultrasonidos que emplean para la ecolocalización. Las ballenas blancas, por su parte, utilizan bajas frecuencias para comunicarse.

Son las ballenas francas o misticetas las que producen los hipnóticos cantos que descubriera Payne. Estas ballenas no tienen los aparatos fónicos con los que cuentan los odontocetos para producir sus sonidos y chasquidos, y la forma en que producen los sonidos en la laringe, sin necesidad de exhalar aire, sigue siendo un misterio.

Además de ser parte del cortejo entre las ballenas jorobadas, el canto de la ballena azul parece ser una forma de comunicación a larga distancia. Los gemidos más profundos de la ballena azul, que canta en solitario, son inaudibles para el oído humano, ocurren en frecuencias subsónicas como las que también emplean los elefantes en tierra, y no sabemos si esto es sólo una coincidencia o tiene un sentido evolutivo. El hecho es que los sonidos producidos por la ballena azul se transmiten a muy grandes distancias en el agua, tanto que Roger Payne ha propuesto que se emplean para comunicarse con un océano de distancia.

Finalmente, otras ballenas misticetas como el rorcual, la ballena gris o la ballena de Groenlandia cantan todo el año, lo cual convierte sus interpretaciones en un misterio aún mayor. Por desgracia, dado que su canto no tiene en el ser humano los profundos efectos emocionales que ciertamente tienen los cantos de la ballena jorobada o la ballena azul, su estudio es menos intenso y es probable que la explicación se tome más tiempo para llegar.

Y es que en parte el estudio del canto de las ballenas se ha visto condicionado por apreciaciones subjetivas, convicciones ideológicas y otros elementos profundamente humanos. Los más apasionados de la conservación quieren hallar un elemento místico en la voz de las ballenas, mientras que quienes aún viven de la caza de ballenas prefieren creer que tales cantos no son distintos del mugido de una vaca.

Probablemente, la verdad está en algún otro punto, alejada de las pasiones y enfrentamientos de los observadores.

De los murciélagos a las ballenas


Roger Payne comenzó su carrera como investigador en biología dedicado a la ecolocalización de los murciélagos y la audiolocalización de los búhos, y las distintas formas en que las presas de estos animales evitaban ser cazadas. Eran los años del surgimiento de la conciencia ecológica, y Payne decidió dedicarse a un área en la que pudiera colaborar con la conservación de las especies y el medio ambiente, y se centró en las ballenas. Con cierta vena poética, describió los sonidos producidos por los cetáceos como “exuberantes ríos ininterrumpidos de sonido”. Actualmente trabaja como zoólogo y encabeza una organización no lucrativa para la conservación de los océanos.

Vitaminas: las famosas desconocidas

Estructura de la Vitamina C (ácido ascórbico)
(Imagen de Wikimedia Commons)
Son innumerables los alimentos y productos para el consumidor que dicen contener suplementos vitamínicos, sin decir si eso es forzosamente bueno... o por qué.

En 1749, el médico escocés de la armada británica, James Lind, llevó a cabo el primer experimento controlado que comparó los resultados de una variable en dos poblaciones. Añadió dos naranjas y un limón a la dieta de parte de la tripulación de un barco en alta mar, mientras que el resto de la tripulación consumió la misma dieta sin los frutos cítricos. Los resultados demostraron que los cítricos prevenían el escorbuto, temida enfermedad de los marineros.

En 1897, el médico holandés Christian Eijkman descubrió que había algo en la cáscara del arroz por lo que quienes comían arroz integral eran menos vulnerables a la debilitante enfermedad del beri-beri que quienes lo consumían procesao, y en 1912 el bioquímico polaco Casimir Funk consiguió descubrir dicha sustancia, la tiamina. Como tenía un grupo amina, Funk la bautizó “vita amina” o amina vital, la B1. Con base en su descubrimiento, Funk tuvo la intuición de que otras enfermedades como el raquitismo, la pelagra y el escorbuto también podrían ser tratadas con “vitaminas” o, dicho de otra manera, que la falta de estos nutrientes era la responsable de esas –y otras– enfermedades.

La definición actual de las “vitaminas” no incluye, sin embargo, el concepto de “aminas”, pues muchas de ellas no incluyen este grupo en su composición química. Una vitamina es un compuesto orgánico complejo que ocurre naturalmente en las plantas y animales, y que es indispensable, en cantidades minúsculas, para mantener las funciones vitales y evitar enfermedades. La vitamina se define por su función, y no por su estructura, de modo que hay diversas sustancias (o vitámeros) que exhiben la actividad de cada vitamina.

Las vitaminas se consideran micronutrientes, por las pequeñas cantidades que necesita nuestro cuerpo, junto con los minerales de los que necesitamos menos de 100 microgramos al día, como el hierro, cobalto, cromo, cobre, yodo, manganeso, selenio, cinc y molibdeno.

Las vitaminas se distinguen por su solubilidad. Las vitaminas del complejo B (8 distintas vitaminas) y C son solubles en agua (y son eliminadas por la orina, a veces con un olor característico), mientras que las A, D, E y K se disuelven en la grasa (son liposolubles) y permanecen más tiempo en el cuerpo.

No todos los animales y plantas sintetizan todas las vitaminas que necesitan, de modo que es necesario obtenerlas de los alimentos. Esto es aprovechado por fabricantes de suplementos alimenticios, alimentos, cosméticos y otros productos para añadirles vitaminas y presentarlos así como más potentes, eficaces, sanos y convenientes, cosa que no siempre es cierta.

Nuestra flora intestinal, cuando está sana, produce vitamina B7 (biotina) y vitamina K, y es bien sabido que una de las formas de la vitamina D, cuya deficiencia provoca el raquitismo, la sintetiza nuestra piel al exponerse a los rayos ultravioleta, por lo que tomar moderadamente el sol ayuda a prevenir la osteoporosis. Igualmente, nuestro cuerpo puede producir vitamina A a partir de las sustancias conocidas como carotenoides, incluido el beta caroteno que da su color rojo-anaranjado a alimentos como la zanahoria y la remolacha.

Sin embargo, como ocurre con prácticamente cualquier sustancia o nutriente, “más” no significa “mejor”. Una deficiencia en vitamina A, por ejemplo, provoca ceguera nocturna y sequedad en la córnea, que se corrigen con una dosis para adultos de unos 900 microgramos (900 millonésimas de gramo) de vitamina A al día. Pero una dosis excesiva durante un tiempo prolongado causa síntomas tan inocuos como la decoloración de la piel o la resequedad excesiva... y tan graves como defectos congénitos, problemas hepáticos, disminución en la densidad ósea y el aumento patológico de la presión intracraneal.

Otro ejemplo es la vitamina B3, cuya deficiencia es culpable de la pelagra, terrible enfermedad que se identifica por cuatro elementos: diarrea, dermatitis, demencia y muerte. Esta grave afección se previene (y cura, al menos impidiendo que los daños sigan) con una dosis de tan sólo 16 miligramos diarios de vitamina B3. Esta misma vitamina, en dosis de más de 1,5 gramos al día, puede ocasionar problemas de la piel, como resequedad y erupciones, fallo hepático fulminante, arritmias cardiacas y defectos congénitos, entre otras afecciones.

Ese riesgo, con frecuencia no es considerado por quienes recomiendan terapias sin bases científicas en las que se aumenta sensiblemente el consumo de micronutrientes o se dan dosis masivas de vitaminas (megavitaminas). Pero la publicidad que se da a quienes nos advierten de todo tipo de peligros, y que afirman que nuestro cuerpo necesita todo tipo de ayudas externas, han convertido a los suplementos nutricionales, y especialmente a los complejos vitamínicos en un producto de consumo más.

Incluso, de modo inexplicable, algunos vendedores de vitaminas hablan de “vitaminas naturales” que resultan, de algún modo, “mejores” que las “artificiales” o sintéticas. Cada vitamina es el mismo compuesto químico, idéntico átomo por átomo, independientemente de haber sido sintetizado en una planta, un animal o una fábrica con los más modernos equipos técnicos.

Y, lo más lamentable, resulta que las vitaminas que se ofrecen como suplementos en tiendas que afirman ser “naturales”, “ecológicas”, “biológicas” o “alternativas” llegan a tener costos de hasta el doble de las mismas vitaminas en versión genérica, e incluso más que las vitaminas “de marca” que tampoco tienen ninguna diferencia respecto de las genéricas. Sin mencionar otras terapias peligrosas que administran megadosis de vitaminas directamente en vena.

Las vitaminas no son, como se llegó a creer a principios del siglo XX, ninguna panacea o curación para todo. No nos dan “vitalidad” como creen quienes recomiendan a los niños tomar sus vitaminas para “estar fuertes”. De hecho, en los países desarrollados las deficiencias vitamínicas han casi desaparecido, pese a las dietas pletóricas de alimentos dudosos que nos administramos.

Pelagra y ceguera nocturna

Varias zonas de Europa que durante alguna época se alimentaron principalmente de maíz fueron sede de brotes extensos de pelagra debido a que el maíz contiene poco triptofano, que nuestro cuerpo usa para fabricar vitamina B3. Sin embargo, los indígenas mesoamericanos utilizan un sistema llamado “nixtamalización”,  que implica cocinar el grano de maíz en una solución alcalina, lo cual corrige la deficiencia de niacina en el maíz. Éste es de los pocos conocimientos empíricos sobre vitaminas de la antigüedad, junto con la recomendación de comer hígado que los antiguos médicos egipcios daban a quienes sufrían de ceguera nocturna por falta de vitamina A.