Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Tecnología y ciencia de los metales

La llegada del metal a la tecnología humana representó una revolución tan radical que, de hecho, continúa en nuestros días.

Casco de bronce procedente de Tracia, de
alrededor del siglo IV antes de la Era Común.
 (Foto CC de Ann Wuyts
vía Wikimedia Commons)
“La edad de piedra” es un concepto que se utiliza frecuentemente como sinónimo de falta de avance y primitivismo. Esto olvida que la tecnología de piedra desarrollada por varias especies de humanos, como los neandertales y nosotros, llegó a ser de una enorme complejidad y detalle. Y de hecho fue requisito esencial para dar el gran salto tecnológico hacia los metales.

Curiosamente, sin embargo, el primer metal que encontramos asociado a la historia humana es el oro, es decir, como riqueza y adorno antes que por su valor práctico. Según los estudiosos de la historia de los metales, la relación del hombre con el oro comenzó encontrando pepitas de este metal en los ríos. Las pepitas son producto de la erosión de vetas de oro por causa del agua. Y la primera forma de trabajar el metal fue unir pepitas de oro empleando martillos.

El oro, como la plata, el cobre, el estaño y el hierro procedente de meteoritos (cuyo contenido en cinc lo hace resistente a la corrosión), se pueden encontrar en forma metálica en la naturaleza. Estos metales, sucesivamente descubiertos y procesados mediante una tecnología en constante desarrollo, muchas veces mediante la producción de armas más eficaces y letales, como la primera hacha de cobre descubierta hasta la fecha, con una edad de 7.500 años procedentes de la cultura Vincha, en los Balcanes.

El acceso a los metales, su procesamiento y utilización, fueron esenciales para el paso del ser humano de la vida nómada del cazador recolector al establecimiento de asentamientos, pueblos, ciudades y estados cuyo poder iba en relación directa a su fuerza militar y su riqueza, ambos aspectos dependientes de los metales en una situación que no ha cambiado mucho hasta hoy.

Pero para encontrar y trabajar con los metales que no se encuentran aislados en la naturaleza, se tuvieron que desarrollar técnicas diversas. Primero, es necesario identificar el metal, es decir, reconocer las características de un mineral que indican la presencia de una cantidad de metal suficiente como que su recuperación sea económicamente viable. Una vez reconocido el mineral y su potencial de rendimiento, es necesario extraer del mineral los metales y concentrarlos (lo que se conoce también como su “beneficio”) mediante diversos procesos.

La extracción de los metales se puede realizar con agua a la que se añaden otras sustancias para disolver en ella los minerales y recuperar los metales mediante procesos como la precipitación, la destilación o la electrólisis entre otros. O bien se puede realizar utilizando el calor de varias formas. La fundición como proceso de extracción, por cierto, no implica simplemente fundir el metal para separarlo del mineral, ya que en la mayoría de los minerales el metal no está presente como elemento, sino como parte de compuestos químicos, como por ejemplo óxidos, sulfuros, cloruros o carbonatos. La fundición emplea el calor y otras sustancias para que reaccionan con los otros elementos del compuesto para obtener el metal libre, a veces realizando procesos previos que alteran los compuestos químicos convirtiéndolos en otros más adecuados para la extracción.

El metal refinado puede procesarse para darle distintas formas y modificar algunas de sus características originarias para que sirvieran mejor a diversas necesidades. Uno de los mejores ejemplos de estos procesos es el forjado, durante el cual un metal calentado al rojo vivo es golpeado para darle forma y hacer que sus características sean uniformes en toda su extensión, como se hace con las espadas, y después se tiempla, aumentando y disminuyendo su temperatura de forma controlada para alterar su estructura cristalina y hacerlo más resistente, más dúctil y maleable, menos propenso a desarrollar grietas y menos duro.

Los metales que conocemos y usamos generalmente no están formados por un solo elemento, sino que son aleaciones como el bronce (aleación de cobre y estaño) o el acero (de hierro y carbono). Los componentes minoritarios de las aleaciones sirven también para alterar y controlar las características físicas del metal principal, aumentando de modo asombroso la diversidad de sus aplicaciones. Lo que llamamos aluminio es en realidad una variedad de aleaciones cuyo principal componente es, efectivamente, aluminio en más del 90%, pero aleado con diversos metales y en variadas cantidades.

Así, por ejemplo, el aluminio de una lata de una bebida comercial es una aleación llamada 3104-H19 o una similar, con aproximadamente 1% de magnesio y 1% de manganeso, pero la tapa se fabrica con la aleación 5182-H48, más rígida y dura (la “H” de la denominación del a aleación significa ‘hardness’, dureza en inglés), y la lengüeta para abrir la lata es de otra aleación más.

Hoy sería difícil imaginar un mundo con sólo siete metales, que eran los que la humanidad conoció desde la antigüedad y hasta el siglo XIII. Además de oro, plata, hierro y cobre, se conocían el plomo, el estaño y el misterioso mercurio, el metal líquido que ha fascinado a la humanidad desde el primer emperador chino, Chin Shi Huandig, quien murió envenenado por consumirlo creyendo que prolongaba la vida. En la Edad Media se descubrieron apenas cuatro metales más (arsénico, antimonio, cinc y bismuto), el platino en el siglo XVI, doce metales más en el siglo XVIII, mas de cuarenta en el siglo XIX y los restantes metales naturales, además de los transuránidos sintetizados por el hombre, en el siglo XX.

Pese a que hoy conocemos todos los metales y sus características, en gran medida se puede decir que seguimos viviendo la edad del hierro. Nuestro mundo tecnológico es fundamentamente de acero, una aleación de hierro con carbono y otros diversos metales que permiten que lo utilicemos para una variedad de aplicaciones más amplia que la de ningún otro metal, desde la humilde hoja de afeitar hasta los cohetes espaciales.

Sin embargo, el maravilloso logro que es la Estación Espacial Internacional no es de acero, es fundamentalmente del mismo metal que una lata de refresco: aluminio.

La abundancia de los metales

Los metales son la mayoría de los elementos que existen en el universo. De los 92 elementos naturales, 86 son metales, aunque el elemento más abundante sea el hidrógeno. Una cuarta parte de la corteza terrestre está formada por metales diversos, de los cuales los más abundantes son el aluminio, el magnesio, el estaño, el hierro y el manganeso. El núcleo del planeta es principalmente de hierro. En cambio nosotros tenemos pocos metales y en pequeñas cantidades, pero esenciales para la vida: calcio, sodio, magnesio, hierro, cobalto, cobre, cinc, yodo, selenio forman menos del 4% de nuestro cuerpo.

De qué está hecho el universo

Puede parecernos evidente que lo que hay a nuestro alrededor no es uniforme, que no todo tiene el mismo color, textura, dureza, densidad y otras propiedades. Un trozo de metal y una rama de árbol, un vaso de agua y un venado son claramente distintos.

Monumento a Mendeleev y su tabla periódica en la
Universidad Tecnológica de Bratislava
(Foto CC de mmmdirt, usuario de Flickr,
vía Wikimedia Commons)
Ya en los albores de la historia humana, esto llamaba al asombro. ¿Cuáles eran los componentes de las cosas, las sustancias esenciales que las hacían tan distintas? Entre los griegos, las distintas escuelas filosóficas se inclinaron por distintos componentes básicos que no se pudieran subdividir en más componentes o sustancias distintas.

Según las reflexiones de Tales de Mileto, el elemento primordial de toda la materia era el agua. Pocos años después, Anaxímenes, también en Mileto, basó toda su filosofía en la idea de que el material esencial del universo era el aire. Y apenas unos años después, el brillante Heráclito de Efeso que enunció el concepto de que “todo fluye, nada permanece”, argumentó que el elemento más fundamental era el fuego.

No mucho tiempo pasó antes de que Empédocles intentara la síntesis de los maestros anteriores diciendo que los tres elementos enunciados eran todos componentes básicos del cosmos, añadiéndoles la tierra para tener los cuatro elementos o raíces que se convirtieron en la creencia fundamental del mundo occidental gracias a su adopción por parte de Aristóteles. En China se creyó en cinco elementos: fuego, tierra, agua, metal y madera, mientras que los indostanos y budistas argumentaron sobre los tres elementos del zoroastrianismo: fuego, agua y tierra (luego añadirían el aire y el éter). En las tres culturas se intentó clasificar todo según el número de los elementos de su filosofía, especialmente el misterio de la vida. Los griegos creían que el cuerpo humano estaba formado por cuatro humores, base de toda la medicina occidental precientífica. Los chinos en cambio postularon cinco funciones de la energía vital mística llamada “chi”, y con ello diseñaron su medicina precientífica. Y los indostanos argumentaron que el cuerpo estaba controlado por tres doshas o fuerzas, sobre las que crearon su propia práctica médico-mística.

Estas ideas consideraban a los “elementos” como una fuerza más bien mística, sin relación con los elementos químicos que ya se conocían y utilizaban, algunos desde la prehistoria, como el cobre, el oro, el plomo, la plata, el hierro, el carbono y otros más. Los metales, en particular, eran objeto del interés de la alquimia que intentó transmutar de unos en otros utilizando los cuatro elementos clásicos y procedimientos más bien mágicos.

El paso al estudio científico de la química llegó de la mano de Robert Boyle en 1661, cuando publicó en Londres su libro ‘El químico escéptico, o dudas y paradojas quimico-físicas’, donde relataba sus experiencias, lanzaba un llamamiento a que los químicos experimentaran, estableciendo que precisamente los experimentos indicaban que los elementos químicos no eran los cuatro clásicos.

Con este libro, Boyle sentó las bases de una disciplina distinta de la alquimia; una disciplina científica, rigurosa, donde sólo se podía considerar verdadero lo que hubiera sido probado experimentalmente. La nueva química, aunque usaba herramientas y procesos de la alquimia, era algo radicalmente nuevo y diferente, que en breve marcó el fin de la alquimia y sus apasionantes especulaciones.

El libro de Boyle fue el banderazo de salida para la reevaluación de todo lo que se había creído sobre la composición del universo. Desde el descubrimiento del fósforo en 1669 a cargo del alemán Hennig Brand, todavía alquimista, comenzó una sucesión de descubrimientos de otros elementos químicos, casi una veintena sólo en el siglo XVIII y más de 50 en el siglo XIX.

En 1787, el francés Antoine de Lavoisier, descubridor del oxígeno y el hidrógeno (demostrando así que el aire no era un elemento esencial sino una mezcla), hizo la primera lista de 33 elementos, tratando de normalizar tanto la nomenclatura de los mismos como la de los compuestos que forman, en el primer esfuerzo por sistematizar la química como disciplina.

En los años siguientes, el descubrimiento de nuevos elementos y la observación de sus propiedades y la forma en que creaban compuestos, con qué otros elementos se combinaban más frecuentemente, y las características de los mismos compuestos, se empezó a vislumbrar que los elementos tenían una peculiar característica llamada “periodicidad”, es decir, que organizados de acuerdo a sus números atómicos, algunos elementos compartían propiedades químicas que se repetían periódicamente.

En 1869, un profesor de química, el ruso Dmitri Ivanovich Mendeleev, publicó una tabla de los elementos que los ordenaba por su peso atómico pero en columnas que indicaban la repetición de las características químicas de los elementos. Así, por ejemplo, los llamados “gases nobles”, helio, neón, argón, xenón, kriptón y radón son todos gases cuyas moléculas tienen un solo átomo, no son inflamables en condiciones normales y tienen muy poca reactividad química, de modo que están en la misma columna pese a sus diversos pesos químicos.

Mendeleev incluyó en su tabla todos los elementos conocidos hasta entonces, pero además predijo las propiedades químicas que deberían tener los elementos no conocidos, según su peso atómico: el germanio, el galio y el escandio. Estas predicciones se confirmaron conforme se descubrieron dichos elementos, y otros nuevos que también ocupaban su lugar en la tabla de Mendeleev.

En la naturaleza existen 92 elementos. El hidrógeno, el más ligero tiene un protón en su núcleo, y por tanto tiene el número atómico 1. El uranio, en el otro extremo de la tabla, tiene 92 protones y es el más pesado de los elementos que se encuentran en la naturaleza. Más allá del uranio hay elementos con más de 92 protones en su núcleo que ha producido el hombre artificialmente, y son todos radiactivos. A la fecha se han sintetizado elementos con hasta 118 protones, de algunos de los cuales sólo se han detectado literalmente unos pocos átomos porque se degradan rápidamente.

Así podemos responder que el universo, en toda su complejidad, está hecho de materia en la forma de sólo 92 elementos, y, claro, de energía.

El año internacional de la química

La Unión Internacional de Química Pura y Aplicada y la UNESCO han designado a 2011 como el Año Internacional de la Química, y ha preparado una serie de actividades para dar a conocer mejor las aportaciones e importancia de la química en nuestra vida, bajo el tema “Química: nuestra vida, nuestro futuro”. En España, esta conmemoración estará encabezada por el Foro Química y Sociedad, con concursos, conferencias, actividades prácticas y un camión científico, Movilab, que recorrerá España con talleres para todas las edades.

Cómo se hace un fósil

Reconstrucción de Tyrannosaurus Rex
en el Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
El proceso natural de la vida incluye, como uno de sus principios más esenciales, la descomposición de los cuerpos de los seres que han muerto.

Ya sean minúsculas bacterias, insectos de duro exoesqueleto, grandes árboles o enormes animales, sus componentes se someten a reciclaje prácticamente desde el momento mismo de su muerte. La naturaleza no desperdicia nada y, al paso del tiempo, todos se degradan, incluso los más fuertes o sólidos, como huesos, dientes o caparazones.

Sin embargo, nuestro conocimiento de la vida depende de los rastros que se conservan de los seres que vivieron en el pasado remoto. Esos restos son los fósiles, evidencias físicas que nos cuentan cómo fue la vida y cómo evolucionó para llegar hasta donde estamos hoy.

En general, cuando hablamos de fósiles pensamos en objetos hechos de piedra: huesos, impresiones de partes blandas de plantas y animales o, incluso, pisadas y hasta excrementos. Pero también son fósiles los seres que han quedado atrapados en el hielo, como los mamuts congelados durante la última glaciación; en resinas, como los insectos que podemos encontrar en el ámbar, o en turberas y pozos de alquitrán o parafina. Y también restos desecados como momias.

Para utilizar los fósiles en el proceso de reconstrucción de la vida en el pasado, primero debían reconocerse como restos de seres vivos, algo que no es tan trivial como parece. Para algunos como el filósofo Jenófanes del siglo VI antes de la Era Común, eran clara evidencia de seres vivos, al grado de que propuso que los fósiles marinos hallados en tierra eran evidencia de que esa área en el pasado había estado cubierta por agua, hipótesis que hoy sabemos certera.

Sin embargo, más de dos mil años después, en 1677, el naturalista inglés Robert Plot publicaba un libro que seguía sosteniendo otra hipótesis, popular a lo largo de toda la historia, según la cual la tierra tenía la propiedad de generar en su interior cosas con las mismas formas que tenía en su superficie. Así, describió rocas que se asemejaban a flores, ojos, orejas y cerebros humanos. Esto casaba además con la idea de la “generación espontánea” de Aristóteles, que creía que los fósiles eran ejemplos incompletos de las “semillas de la vida” que la tierra generaba espontáneamente.

En general, sin embargo, los distintos pueblos que encontraban restos fósiles les dieron explicaciones míticas relacionándolos con animales como el grifo, los dragones y las quimeras, o bien los explicaban como razas de gigantes (animales o humanos) que habrían vivido antes de algún desastre cósmico como los fines de las eras entre los aztecas o el diluvio universal en el cristianismo europeo. E incluso, como cuenta el paleontólogo José Luis Sanz, en la zona de Cameros las huellas fósiles de manos y pies de dinosaurios se interpretaron durante mucho tiempo como pertenecientes al caballo del apóstol Santiago.

No fue sino hasta principios del siglo XIX cuando tres naturalistas ingleses Willliam Buckland, Gideon Algernon Mandell y Richard Owen, y uno francés, Georges Cuvier, empezaron el estudio sistemático, ordenado y científico de los fósiles, descubriendo en el proceso la existencia de numerosos animales prehistóricos, entre ellos un grupo de reptiles antiquísimos y, muchos de ellos, enormes: los dinosaurios. Empezaron así a reunir datos que señalaban que la Tierra era un planeta mucho más antiguo de lo que jamás habíamos creído hasta entonces, y que la vida antes de nosotros había sido tremendamente compleja y muy distinta de la que narraba la Biblia.

¿Podemos hacer un fósil?
La fosilización más conocida es aquélla en la que los huesos y dientes de los animales o los tejidos de las plantas se ven sustituidos por minerales diversos, reproduciendo la forma y tamaño que tuvieron, pero no su peso, color o composición química. Este proceso debe ocurrir en una zona donde los restos se vean recubiertos bastante rápidamente por sedimentos, por ejemplo, hundiéndose en el lecho de un cuerpo de agua.

Los restos en esas condiciones pueden sufrir varios procesos. En uno, llamado permineralización, los sedimentos a su alrededor se endurecen formando roca sedimentaria y crean un molde de los huesos y, en ocasiones de los tejidos blandos, mismos que finalmente se descomponen. Este molde externo es en sí un fósil. Pero en algunos casos, las corrientes de agua pueden depositar minerales en el “molde” hasta reproducir un vaciado de la materia original. En otra, el hueso puede verse reemplazado gradualmente con otros minerales, preservando además del aspecto externo gran parte de la estructura interna de huesos, caparazones y dientes.

Hay otras formas de fosilización, entre ellas la recristalización de las sustancias de los restos, la adpresión con la que se preservan impresiones (como las huellas de dinosaurios o los pocos ejemplos de moldes de piel, alas y plumas), y un proceso mediante el cual los huesos de un organismo rodean y conservan a otro, o al menos su impresión.

La fosilización puede ocurrir en unos pocos años o desarrollarse a lo largo de prolongados períodos. Además, para que los paleontólogos puedan hallar estos fósiles, los estratos sobre ellos deben erosionarse para que afloren nuevamente. En ese tiempo pueden ocurrir numerosos percances que destruyan los restos, como terremotos o erupciones volcánicas.

Es por ello que la fosilización es un fenómeno muy infrecuente. Aunque existen microfósiles que nos ayudan a contar la historia de la vida en nuestro planeta desde hace unos 4 mil millones de años, suelen fosilizarse principalmente seres con conchas o caparazones, seres muy extendidos geográficamente y los que vivieron durante mucho tiempo antes de extinguirse. Esas tres características aumentan la probabilidad de fosilización.

Por ello mismo, el registro fósil, es decir, la colección de todos los fósiles que conocemos, es una imagen incompleta de la historia de la vida. Nos faltan restos de un número indeterminable de especies de cuerpo totalmente blando, o que sólo vivían en pequeñas zonas geográficas, o que no existieron durante mucho tiempo, ya sea por extinguirse o porque evolucionaron hacia otras formas.

Los seres que faltan

Los paleontólogos apenas han explorado una mínima parte de la superficie de nuestro planeta y menos aún de sus profundidades. Aún si hay pocos fósiles, también sabemos que apenas hemos descubierto una fracción minúscula de las especies que nos precedieron en estos miles de millones de años. Si hemos clasificado más de 520 géneros de dinosaurios (cada uno con varias especies), los expertos calculan, conservadoramente, que pudo haber casi dos mil géneros distintos. Y si hablamos de seres más abundantes y variados, como los insectos, el cálculo es aún más difícil y enorme. Por más que aprendamos siempre queda mucho, muchísimo más por saber.

El minúsculo centro de nuestras emociones

Amygdala
Imagen del cerebro con las
amígdalas señaladas en rojo
(CC de Life Science Databases (LSDB),
vía Wikimedia Commons
Aproximadamente a la altura de nuestros ojos, en lo más profundo de la base de nuestro cerebro, directamente debajo de la corteza, existen dos pequeñas estructuras con la forma y el tamaño de dos almendras a las que se llama, precisamente, “amígdalas”, que es la palabra griega para “almendra”, una en cada lóbulo cerebral.

Estos cuerpos son parte esencial del sistema límbico, un complejo circuito neuronal que controla el comportamiento emocional y los impulsos que nos mueven a hacer las cosas, y tienen numerosas y complejas conexiones con el resto del sistema límbico, el hipotálamo, el tallo cerebral, la corteza cererbral y otras estructuras de nuestro sistema nervioso central.

Las amígdalas, formadas por varios núcleos, son responsables, entre otras cosas, de nuestra capacidad de sentir miedo. Una lesión en estos pequeños cuerpos y podríamos pasar sin miedo entre una manada de leones hambrientos. El miedo es un viejo compañero desagradable que nos mantiene vivos, como el dolor.

El cerebro está formado por capas que la evolución ha ido añadiendo, con las más antiguas debajo y las más modernas encima, como si fueran los estratos geológicos de la Tierra. Las estructuras más antiguas tienen alrededor de 500 millones de años, y corresponden a nuestro tallo cerebral y cerebelo. Después aparecieron las estructuras conocidas como ganglios basales, que se ocupan del control motor y las emociones, entre ellas todo el sistema límbico, incluidas las amígdalas. Finalmente, la estructura más reciente es la corteza cerebral, que en el caso de los seres humanos es la principal responsable de interpretar la información de los sentidos, realizar asociaciones y desarrollar el pensamiento creativo y racional.

La antigüedad evolutiva de las amígdalas se explica precisamente por su función en la descodificación y el control de las respuestas autonómicas (es decir, no voluntarias) asociadas al miedo, la excitación sexual y la estimulación emocional en general. Dado que un sistema de alarma así es fundamental para sobrevivir, había una real presión de selección para su desarrollo. Una de las principales funciones de la amígdala es que recordemos situaciones que nos puedan haber dañado y las evitemos en el futuro.

En 1888, Sanger Brown y Edward Albert Shäfer publicaron sus estudios. Habían extirpado quirúrgicamente partes del cerebro de monos rhesus y observado los cambios en la conducta de los animales. Su trabajo fue retomado en la década de 1930 por Heinrich Klüver y Paul Bucy, y sucesivos investigadores que pudieron determinar que al extirparse la amígdala a los monos con los que trabajaban, éstos dejaban de mostrar temor, entre otras alteraciones conocidas precisamente como Síndrome de Klüver-Bucy.

Por otra parte, si las amígdalas se estimulan eléctricamente, evocan el comportamiento de miedo y ansiedad tanto en humanos como animales, un comportamiento que es, en realidad, una compleja colección de respuestas: aumento en la tensión arterial, liberación de hormonas relacionadas con el estrés, gritos u otros ruidos e incluso la congelación o inmovilización total, lo que llamamos en lenguaje coloquial quedar “paralizados por el miedo”.

Con el tiempo se ha demostrado que estas pequeñísimas estructuras participan en una asombrosa variedad de actividades de nuestro cerebro, recibiendo información, procesándola y enviando impulsos a distintas zonas del cerebro para la liberación de neurotransmisores y hormonas que influyen en nuestras emociones. Por ejemplo, la noradrenalina, hormona que prepara al cuerpo para pelear o huir, aumentando la frecuencia cardiaca, liberando glucosa para atender las necesidades de los músculos, y aumentando el flujo de sangre a los mismos y el cerebro (retirándolo de otras zonas, lo que explica por qué palidecemos cuando tenemos miedo), entre otros efectos.

Si la amígdala es esencial en el aprendizaje motivado por el miedo, como cuando aprendemos a no meter la mano en el fuego por temor a repetir una experiencia dolorosa, se ha determinado que los pequeños núcleos de las amígdalas también juegan un papel en el aprendizaje que se consigue con estímulos positivos, como los alimentos, el sexo o las drogas.

La amígdala es como un centro complejísimo, y diminuto, de procesamiento de emociones que controla la memoria no sólo dentro de sus estructuras, sino a nivel de todo el cerebro, generando recuerdos, ordenando almacenarlos y echando mano de ellos para evaluar situaciones en las que nos podamos encontrar.

Esto tiene implicaciones importantes para quienes padecen de estrés excesivo, ansiedad, depresión, ataques de pánico y otros trastornos en los cuales la amígdala se comporta (o es llevada a comportarse) de modo extremo. Conocer estas estructuras y su funcionamiento guarda una gran promesa para manejar mejor, ya sea por medio de fármacos, psicoterapia u otro tipo de intervención, alteraciones emocionales y de conducta que muchas veces son socialmente incapacitantes para muchas personas.

Lo que sabemos de este centro esencial de nuestras emociones es, sin embargo, aún muy poco y muy impreciso. Como ejemplo, se ha determinado que el tamaño de la amígdala está correlacionado con nuestras redes sociales, mientras más grande sea nuestra amígdala, mayor será el número de amigos y conocidos que tengamos. Aún si esto es cierto, quedaría por saber si una amígdala grande nos hace más amistosos, o las relaciones sociales provocan que crezca la amígdala… o bien, como muchas veces pasa en ciencia, que haya un tercer elemento que afecte ambos temas o bien, incluso, que la correlación sea una simple coincidencia irrelevante.

Algo que sí sabemos es que no tenemos que ser esclavos de nuestros miedos y ansiedades. Tanto la experiencia de las personas controlando su miedo como las complejas conexiones anatómicas de la amígdala nos recuerdan que tenemos estructuras mentales que complementan, y pueden dirigir, al sistema autonómico del que la amígdala es parte importante. El miedo es útil como sistema de alarma, pero es también controlable.

La mujer sin miedo

A fines de 2010 se conoció el caso de una mujer estudiada en Estados Unidos que es normal en inteligencia, memoria y lenguaje, y puede experimentar todas las emociones … salvo el miedo. Recuerda haber sentido miedo cuando en su adolescencia la acorraló un perro, pero nunca después de que una enfermedad, la proteinosis lipoide, destruyó sus amígdalas. Una noche, en un parque, se acercó sin más a un sujeto de amenazante aspecto, que la amenazó con un cuchillo. La misma falta de temor que la metió en el problema al parecer sirvió para que su atacante la dejara ir inquieto por su reacción. Pero a la noche siguiente, volvió a cruzar el parque sin ninguna preocupación ni miedo.

Astrología, historia de una ilusion

Astrologer-ad
Anuncio de un astrólogo en EE.UU.
siglo XIX.
(Imagen D.P. via Wikimedia Commons)
Entre las formas de predicción más populares está una vieja conocida del hombre, la astrología, un nombre relativamente inocente que significa, “estudio de los astros”, pero cuya pretensión es usarlos para predecir el futuro. Toda forma adivinatoria basada en la observación del cielo y los objetos que hay en él es “astrología”, sea china, hindú o maya. La prevaleciente en el mundo occidental es la astrología solar en los doce “signos” o constelaciones del zodíaco.

El zodíaco es un anillo de constelaciones situado en la ruta que el sol parece recorrer durante el año en la esfera celeste, una banda de unos 16 grados de ancho llamada eclíptica. La astrología supone que estas constelaciones se corresponden con doce signos en los que se divide la eclíptica, y que su posición en relación con los planetas tiene un significado que puede interpretarse. Para la astrología, curiosamente tanto el sol como la luna son planetas, además de Mercurio, Venus, Marte, Júpiter y Saturno, que son los planetas conocidos desde la antigüedad.

La idea de que estas constelaciones y cuerpos celestes o “planetas” tenían alguna influencia sobre la vida humana y sus acontecimientos es parte de todo el esquema de las adivinaciones, es decir, del intento de ver el futuro mediante la inspiración divina, interpretando (con ayuda de los dioses) algunas “señales” presentes a nuestro alrededor o utilizando algún otro medio. Si se creía que el futuro estaba predeterminado, lo que tenía que hacer el adivinador para conocerlo era descifrar algún código colocado por la divinidad: el vuelo de las aves, la disposición de las entrañas de un animal sacrificado, las líneas de la mano, el agua, el fuego, la disposición de las hojas del té o los posos del café, los reflejos en una bola de cristal y, literalmente, cientos de formas adivinatorias más.

Si tantas cosas podían ser señales del destino esperando a ser descifradas, también podría serlo la posición de los planetas (cuerpos celestes que se movían en relación con la bóveda celeste, por algo su nombre significa, precisamente, “vagabundo” en griego) y las constelaciones, peculiares agrupamientos de estrellas que parecían estáticas unas respecto de las otras, formando dibujos que sugerían distintos animales y seres preternaturales.

La astrología tiene su origen en la Babilonia del siglo IV antes de la Era Común, pero no fue sino hasta el siglo II de nuestra era cuando Claudio Ptolomeo, científico y astrólogo romano de Alejandría, sistematizó la astrología que conocemos hoy en día, y que se popularizó entre los romanos y, por su intermedio, llegó a la Europa conquistada. En el medievo, fue practicada en el mundo musulmán (y criticada con bases científicas) y en Europa, donde convivió con la astronomía, pero con poca relevancia. En el Renacimiento resurgió brevemente como parte del interés de la época por el universo, pero pronto volvió a los márgenes de la sociedad donde se mantuvo durante la Ilustración y la Revolución Industrial.

Fue sólo a comienzos del siglo XX cuando la astrología experimentó un renacimiento en los Estados Unidos y de allí volvió a popularizarse en todo el mundo en la forma en que actualmente la conocemos y que, ciertamente, no es milenaria ni tradicional.

A lo largo de los siglos se han señalado algunos de los sinsentidos que caracterizan a la astrología. Si los objetos celestes nos afectan, ¿por qué habrían de afectarnos sólo las constelaciones del zodíaco y no los cientos de miles de millones de estrellas más que hay en el universo, muchas de ellas más cercanas? Después de todo, las constelaciones son ilusiones debidas a nuestro punto de vista, pero los astros que las componen pueden estar a enormes distancias entre ellos. Tan solo en la constelación de Perseo, como ejemplo, tenemos el sistema de tres estrellas Algol a 93 años luz de nosotros, y también un grupo de estrellas llamado NGC 869 que está a la friolera de 7600 años luz. ¿No es raro que los cuerpos estelares sean tan selectivos con nosotros?

Un problema más grave es que las constelaciones del Zodiaco no son doce, sino 13. En efecto, el sol pasa por la constelación de Ofiuco durante más de la mitad de diciembre. Y otro aún más interesante es que el eje de rotación de nuestro planeta no es estático, sino que va cambiando lenta pero inexorablemente en un proceso llamado “precesión” debido a la gravedad de la luna y el sol. La consecuencia de esta precesión es que las constelaciones del zodiaco ya no están donde estaban cuando Claudio Ptolomeo hizo sus cálculos. Así, si usted nació el 1º de enero, los astrólogos le dirán que sus características son las del signo de Capricornio, cuando en la actualidad el sol está en el signo de Sagitario.

Pero nada de esto importaría, claro, si la astrología funcionara… es decir, si pudiera predecir el futuro o al menos describir correctamente a las personas divididas en 12 categorías claramente diferenciadas. Sin embargo, todos los estudios que se han hecho tratando de demostrar que las descripciones astrológicas se corresponden con la realidad han sido incapaces de demostrar una relación estadísticamente significativa entre las predicciones astrológicas y lo que realmente ocurre.

Pero, ¿por qué hoy en día hay personas que creen que la astrología tiene algo relevante que decirnos pese a que evidentemente no sirve para predecir cosas importante, como cuándo hay que evacuar un edificio porque va a haber un incendio? En buena medida, dicen los psicólogos, porque queremos creer, y también porque los astrólogos suelen expresar sus “lecturas” en términos tan vagos y generales que son aplicables a cualquier persona, un efecto conocido como “efecto Forer”. Finalmente, como toda forma de adivinación, se apoya en que tendemos a recordar los aciertos y no los fallos. Si se hacen numerosas predicciones, alguna de ellas acabará cumpliéndose, y nuestra buena fe, mejor entusiasmo y mala memoria ayudan a que olvidemos todas las que nunca se cumplieron.

La astronomía no viene de la astrología

Contrario a lo que se suele creer, la observación sistemática de los cielos y su significado (por ejemplo, el ciclo de los solsticios y equinoccios para definir el momento de siembra y cosecha) y los cálculos matemáticos astronómicos datan de hace más de 3500 años. La astronomía y la astrología nacieron juntas, pero independientes, y así han estado durante toda la historia. Para los babilonios, egipcios y griegos, la astronomía ya era un asunto distinto de la astrología, mientras que en el Renacimiento muchos de los astrónomos que revolucionaron nuestro conocimiento del universo, como Tycho Brahe y Galileo, eran también astrólogos, sin mezclar ambas actividades y sin que sus creencias influyeran en los hechos que estudiaban, cosa que identifica al buen científico.

La ciencia de la nieve

Copo de nieve tomado con un
microscopio electrónico
(foto D.P. Depto. de Agricultura de
EE.UU. vía Wikimedia Commons)
El solsticio de invierno es sinónimo con la nieve, al menos en las latitudes al norte de los trópicos donde las estaciones son más acusadas. Y sin embargo, entre los trópicos, la gente gusta de imaginarse la nieve, decorar sus árboles (herederos de la vieja tradición druídica adoptada por el cristianismo) con nieve artificial y soñar que su paisaje sufra la tremenda transformación que implica la caída de un manto de nieve.

Quizá la nieve sea la forma más apasionante y atractiva que puede asumir el agua. Y es también, alternativamente, un desafío apasionante (o, mejor dicho, muchos desafíos apasionantes distintos) para la ciencia, un peligro cuando se descontrola – ya sea al caer o al deslizarse en avalanchas –, una inspiración deportiva para actividades como las diversas formas de esquí, el snowboard o las carreras en trineo, una fuerza de la selección natural debido a la que muchos animales que viven en la nieve tengan un rico pelaje blanco… y un excelente material para jugar.

La nieve se forma en regiones de la atmósfera donde el aire tiene un movimiento hacia arriba alrededor de un sistema de baja presión al que los meteorólogos llaman “ciclón extratropical”, en condiciones de muy baja temperatura (de 0 ºC o menos) y de un elevado contenido de humedad.

El agua de los copos de nieve está “superenfriada”, porque las moléculas de agua suspendidas en la atmósfera pueden mantenerse sin congelarse hasta los -35 ºC a menos que se reúnan alrededor de un núcleo de polvo, arcilla, arena, bacteria o cualquier otra partícula que pueda hallarse suspendida en el aire. No es sino hasta llegar a menos 35 grados que se pueden formar copos sin necesidad de polvo. Una vez que comienza el proceso de congenación, rápidamente se forman cristales de agua.

La forma característica del copo de nieve hexagonal plano que con frecuencia se utiliza para representar las festividades de la época, es sólo una de las que pueden adoptar los cristales de nieve. En función de la temperatura y la humedad del ambiente, se pueden dar también cristales en forma de agujas, de columnas huecas o de prismas, o copos de nieve tridimensionales llamados “dendritas”, entre otros muchos, incluidas unas curiosas columnas que desarrollan un cristal hexagonal en un extremo, y bolas que son resultado de sucesivas congelaciones y descongelaciones que ocurren mientras los cristales de nieve aún están suspendidos en la atmósfera, incluso mientras caen.

La nieve no se clasifica solamente por la forma y tamaño de los copos, sino también por su velocidad de acumulación y la forma en que se reúne en el suelo. La ideal “nieve polvo” de los esquiadores es una nieve ligera, muy seca y suave, a veces tanto que con ella no se pueden hacer bolas de nieve porque se deshace. Sin embargo, desde el momento en que la nieve se deposita en el suelo, se ve sujeta a la compactación y a cambios de temperatura en ciclos de congelación y descongelación que van haciendo que esta nieve polvo se vuelva granular, desarrolle una capa o costra de hielo y acabe convirtiéndose ya sea en hielo o en agua fangosa.

La compactación es fundamental para algunos de los usos más festivos de esta forma de agua, como las guerras de bolas de nieve y la fabricación de esculturas en nieve, desde el más sencillo y común muñeco hasta las fantasías nevadas que año tras año producen escultores especializados en este material.

Uno de los principales estudiosos de la nieve, el Dr. Ed Adams, investigador de materiales en la Universidad de Montana, destaca la enorme complejidad que se oculta detrás de la aparente sencillez de la nieve: “si pongo una caja de nieve en la nevera y vuelvo una hora después, habrá cambiado significativamente”.

Avalanchas

El estudio de las avalanchas o aludes, deslizamientos de nieve que se cobran numerosas víctimas todos los años, es una de las más activas áreas de investigación de este peculiar material, y la que ocupa al Dr. Adams.

Como ocurre con las erupciones volcánicas, los terremotos y otros desastres naturales, grandes esfuerzos se han invertido en tratar de predecir cuándo ocurrirán. En el caso de las avalanchas, además, es posible provocarlas preventivamente (y, se espera, controladamente) utilizando sistemas como cargas explosivas.

La complejidad de la nieve es un elemento clave en la formación de avalanchas. Las zonas de acumulación de nieve no son uniformes, sino que están formadas de capas con distintas propiedades y a distintas temperaturas, que se mantienen unidas entre sí y sobre la tierra por la fricción de los cristales entre sí.

En pendientes de entre 25 y 60 grados de inclinación, se pueden formar acumulaciones o losas de nieve. Cuando la fricción disminuye y se presenta además un detonante (como un árbol que cae, un cambio brusco en la temperatura y, casi nunca, por un ruido fuerte como suele presentarlo Hollywood), la nieve se desliza sobre las capas inferiores o directamente sobre el suelo, arrasándolo todo a su paso.

El estudio de las avalanchas se ha llevado al laboratorio para duplicar las condiciones que afectan a la nieve. El Dr. Adams ha concluido así que la causa más común de las avalanchas es una capa débil de nieve sobre una más sólida. Las capas débiles tienen cristales con facetas que tienen menor fricción y por tanto se pueden deslizar más fácilmente en lugar de permanecer unidos al resto de la nieve. La comprensión de la dinámica de la capa superior de las acumulaciones de nieve, espera el Dr. Adams, puede mejorar la predicción de las avalanchas.

Una mejor predicción de las avalanchas nos ayuda a tener una blanca navidad más segura. Lo que nos lleva a un último aspecto de la nieve que ha ocupado a la ciencia: ¿por qué es blanca? El impactante color de la nieve se debe a que el hielo es traslúcido, y la luz se refracta o cambia de dirección al pasar del aire al agua congelada que forma los cristales de nieve, de nuevo al pasar al aire y luego al chocar con otro cristal en otra posición. En resumen, la luz “rebota” por los cristales hasta que sale nuevamente de la nieve. Y como el hielo refracta de igual modo las distintas frecuencias de la luz, la que sale de la nieve es tan blanca como la luz del sol que entra en ella.

¿Los 400 nombres de la nieve?

Uno de los mitos más extendidos respecto de la nieve es que los pueblos inuit tienen una gran cantidad de palabras para distintos tipos de nieve. En 1911 el antropólogo Franz Boaz comentó que los inuit tenían cuatro palabras para la nieve, y… la bola de nieve creció hasta hablar de 400 vocablos. Resultó falso. Las lenguas de los grupos inuit tienen a lo mucho dos palabras para nieve. Siendo muy laxos, se contaría a lo mucho una docena, según el lingüista Steven Pinker. Pero incluirían los sinónimos de palabras en español como “ventisca”, “avalancha” y “granizo”.

Somos ecosistemas

House Dust Mite
Ácaro común del polvo, Dermatophagoides
pteronyssinus.
(foto D.P. gobierno de los EE.UU.,
vía Wikimedia Commons) 
La idea de tener parásito nos horroriza y, sin embargo, asombrosas cantidades de seres vivos que nos habitan e incluso nos ayudan a vivir.

El piojo, la pulga, las infestaciones por hongos y, por supuesto, las abundantísimas infecciones ocasionadas por bacterias, protozoarios e incluso virus conforman una enorme proporción de las enfermedades que pueden afectarnos. Pero hay otros muchos seres que viven en nosotros y de los que habitualmente no estamos conscientes. Quizá, en gran medida, porque la sola idea de albergar diversos seres vivos es difícil de tolerar para muchas personas.

Afortunadamente, es imposible deshacernos de la enorme cantidad de seres vivos que viven en nosotros y sobre nosotros. Han sido siempre parte de nuestra vida y la de nuestros antepasados, y muchas de las especies que nos habitan no sólo no nos causan daños, sino que tienen una relación mutualista con nosotros, realizando tareas benéficas y con frecuencia fundamentales para nuestra vida.

Y si pretendemos tener una mayor cosciencia ecológica, es oportuno asumir también que nosotros, nuestro cuerpo, somos un entorno ecológico, con nichos de gran diversidad que atraen a habitantes igualmente variados y que nos acompañan desde el momento del nacimiento en nuestra piel, en nuestro tracto respiratorio y en el tracto digestivo. Son parte de lo que somos.

Los seres vivos más conocidos que viven en nosotros, y que nos parecen los menos amenazantes, son las numerosas bacterias y otros microorganismos que conforman nuestra “flora intestinal”, esencial para la vida aunque, si sale del entorno donde nos resulta útil, se pueden volver patógenas. En casos de ruptura de nuestros órganos, por ejemplo, esas mismas bacterias causan la infección de la cavidad abdominal llamada peritonitis.

Los participantes más conocidos de la flora intestinal, debido a la publicidad a veces exagerada de ciertos productos, son los del genus Bifidobacterium, unas bacterias que viven sin necesidad de oxígeno y que ayudan a la digestión, colaboran con el sistema inmunitario y fermentan ciertos carbohidratos. Estas bacterias conviven en nuestro tracto intestinal (y en la vagina), con los lactobacilos, que convierten la lactosa y otras azúcares en ácido láctico, provocando en su entorno niveles de acidez que impiden la proliferación de otras bacterias dañinas.

Nuestro intestino es hogar de otros lactobacilos, así como de bacterias del genus Streptococcus. Aunque solemos identificar a estas últimas, los estreptococos, como patógenos causantes de enfermedades como la neumonía, la meningitis, las caries y la fiebre reumática, hay variedades inocuas que viven en nuestra boca, piel, intestinos y tracto respiratorio superior. Algunas especies, por cierto, son indispensables para la producción del queso emmentaler.

Es en el intestino grueso donde encontramos una verdadera selva rica en vida formada por bacterias de más de 700 especies en números elevadísimos. Estos seres hacen de nuestro intestino grueso un enorme recipiente de fermentación donde digieren ciertos componentes de los que no se puede hacer cargo nuestra digestión, como la fibra alimenticia, que convierten en ácidos grasos que sí puede absorber el intestino y producen parte de las vitaminas que necesitamos, como la K y la B12 y producen algunos anticuerpos.

Si el intestino grueso es el Amazonas, nuestra boca es un océano vibrante lleno de vida. Se calcula que en cada mililitro de saliva se pueden encontrar hasta mil millones de bacterias diversas, parte de un ecosistema altamente complejo de más de 800 especies de bacterias, algunas de las cuales viven sólo en ciertas zonas de nuestra boca, como la superficie de los dientes o entre ellos, donde hay poco oxígeno (formando la placa dental que puede conducir a la caries).

Y queda además la compleja orografía de nuestra piel, con bacterias que buscan lugares húmedos y oscuros, como los sobacos, las ingles y los pies con zapatos, sobreviviendo y reproduciéndose alegremente, sin siquiera enterarse de que provocan olores que los seres humanos hallamos ofensivos y contra los cuales se han montado industrias enteras, como las de los desodorantes, así como prácticas higiénicas.

Los ácaros

Los ácaros son parientes de las garrapatas y ambos pertenecen a la clase Arachnida, que comparten con todas las arañas y escorpiones. De hecho, los ácaros son uno de los grupos más exitosos de invertebrados, ocupando numerosos hábitats aprovechando su arma fundamental: su tamaño microscópico. A la fecha, se han identificado más de 48.000 especies de ácaros, algunos de los cuales son parásitos de plantas, animales y hongos, mientras que hotros son unos bien conocidos comensales de nuestras casas: los ácaros del polvo.

Los ácaros del polvo viven en nuestros muebles y se alimentan principalmente de las escamas de piel que vamos dejando caer todos los días y que forman buena parte del polvo doméstico. Generalmente inofensivos, los ácaros del polvo sin embargo pueden provocar en algunas personas reacciones alérgicas que pueden ser graves.

Pero hay otras dos especies de ácaros que viven no sólo con nosotros, sino en nosotros, especialmente en nuestros rostros. Uno es Demodex folliculorum, que vive, como su nombre lo indica, en los folículos pilosos de las pestañas, cejas y pelos de la nariz de la gran mayoría de las personas. Este ácaro, del que se han llegado a observar hasta 25 en un solo folículo piloso, se alimenta de piel, hormonas y el sebo que produce nuestra piel. El otro habitante arácnido más común de nuestro rostro es Demodex brevis, pariente del anterior, que vive preferentemente en las glándulas sebáceas.

Al mirarnos la cara al espejo estamos viendo un mundo de vida, aunque sea microscópica, un universo apasionante de ácaros, hongos, virus y bacterias que, en lugar de provocarnos rechazo o asco, deberían servir como un constante recordatorio de la enorme capacidad de la vida de manifestarse y florecer donde quiera que haya un nicho habitable. En el complejo engranaje del equilibrio ecológico, no somos simples individuos, participamos como ecosistemas.

Antibióticos en nuestro ecosistema

El uso de antibióticos de “amplio espectro” (lo que quiere decir que son capaces de atacar a bacterias de muchas distintas variedades) puede disminuir nuestra flora intestinal, provocando diarrea, con el consecuente peligro de la deshidratación, y permitiendo que se reproduzcan otras bacterias patógenas resistentes a los antibióticos, que pueden provocar enfermedades más difíciles de tratar. Una forma de evitar estos riesgos, o minimizarlos, radica en no utilizar antibióticos innecesariamente, en siempre llevar hasta su fin previsto cualquier tratamiento con antibióticos y consumir probióticos (siempre bajo recomendación del médico) junto con el tratamiento.

La ciencia del deporte

Cuando miramos hacia atrás, a los deportistas del pasado, no podemos sino admirarnos de las hazañas que algunos de ellos consiguieron con equipaciones y formas de entrenamiento que hoy se nos antojan arcaicas e, incluso, peligrosas.

Eddie Merckx en 1966
(Foto CC de Foto43 vía Wikimedia Commons)
Como ejemplo de esto último, Eddie Merckx, leyenda belga del ciclismo que ganó cinco veces el Tour de France entre 1969 y 1974 y conquistó el récord de la hora en 1972, casi nunca utilizó casco, o lo que se consideraba tal en el ciclismo: un curioso adminículo formado por tres o cuatro tiras de piel acolchadas.

El primer casco para ciclismo útil apareció a mediados de la década de 1970, demasiado tarde para el belga, y tenía poco que ver con los actuales, diseñados con materiales de máxima seguridad, malla de nylon, espuma protectora y un exterior ligero diseñado con orificios de ventilación para añadir comodidad a la seguridad del ciclista. Por no mencionar los cascos aerodinámicos extremos que aparecieron hasta los años 80, cuyos descendientes hoy vemos en las pruebas contrarreloj y algunas pruebas de pista.

Lo que desde tiempos de la Grecia clásica se consideraba solamente un enfrentamiento entre las capacidades, fuerza, agilidad, astucia y potencia de los contendientes, se ha convertido hoy también en una competencia científica. Los principios científicos dentro de las más diversas disciplinas se han orientado a la competición deportiva buscando optimizar la preparación y rendimiento del deportista. Los científicos detrás de cada deportista son actualmente un factor fundamental del éxito… o el fracaso.

La implantación de la ciencia en el deporte es, sin embargo, una consecuencia inevitable de la curiosidad científica misma, al plantearse preguntas sobre el tiempo de reacción, la resistencia muscular, los límites de la velocidad, la nutrición, la forma en que el cuerpo humano corre, salta, gira… la ropa usada por los deportistas y el rendimiento del equipamiento: balones, zapatos y zapatillas, jabalinas, canoas, raquetas, palos… y también sobre algunos aspectos especialmente atractivos, como el efecto o curvado de la trayectoria de las pelotas en el fútbol o el béisbol.

Así, por ejemplo, en septiembre de 2010 los medios informaron de un estudio publicado en la respetada revista científica ‘New Journal of Physics’ que analizaba y explicaba en detalle y en base a las leyes de la física el famoso “gol imposible” que Roberto Carlos marcó a la selección francesa en un amistoso previo al Mundial de 1998.

A los campos deportivos acudieron los científicos con sus aparatos de medición, cuando no llevaron a los propios deportistas a sus laboratorios, para analizar minuciosamente cada detalle que marcaba la diferencia entre el primer lugar y los demás. Y conforme la ciencia iba entendiendo cada vez mejor los distintos aspectos que se conjuntan en un excelente rendimiento deportivo, los entrenadores, los preparadores físicos, los patrocinadores y los propios atletas fueron acudiendo a ellos para obtener una ayuda en la consecución del ideal olímpico: citius, altius, fortius… más rápido, más alto, más fuerte.

El entrenamiento y preparación física de los deportistas, así como su nutrición, han sufrido extraordinarios cambios en las últimas décadas, maximizando sus resultados por medio del conocimiento de sistemas y técnicas probados para conseguir sus objetivos deportivos, sustituyendo a muchas creencias y supersticiones que durante mucho tiempo dominaron los entrenamientos

La tecnología de materiales es una de las más visibles en el desarrollo del deporte. La fibra de carbono, desarrollada en 1958, llegó al mundo deportivo en la década de 1980, es uno de los materiales más utilizados. Se trata de hilos formados por miles de filamentos de carbono, de gran resistencia y flexibilidad, que se emplean en materiales compuestos, formados por la fibra incrustada en una resina. Desde 1980, la fibra de carbono se encontró sirviendo por igual a los ciclistas que a los tenistas, con raquetas mucho más duras y ligeras, a los golfistas. El propio Eddy Merckx, hoy de 65 años y fabricante de bicicletas, las ofrece producidas en fibra de carbono y en aleaciones de aluminio-escandio, mucho más resistentes y ligeras que aquéllas en las que conquistó la gloria.

Los nuevos materiales se encontraron en la década de 1970 con los primeros conocimientos sólidos sobre la biomecánica del pie y la pierna… y la zapatilla deportiva pasó a ser elemento dedicado a maximizar el uso de la energía, devolviendo al pie parte de la que invierte en cada paso, acolchando, guiando y colocando el pie para conseguir el “paso perfecto”. También incluyen tecnologías de ventilación o de conservación del calor, diseños y materiales repartidos en toda su estructura para responder a la torsión, tensión y choques que sufren las distintas partes del pie, o incluso para impedir que entren al zapato piedrecillas durante las carreras a campo traviesa. Cada milisegundo de cada paso, patada, salto, giro o aterrizaje que haga un deportista se mide, registra y estudia para mejorar el rendimiento mediante sus zapatillas.

En las carreras de todo tipo, desde los míticos 100 metros lisos hasta las carreras de patines sobre hielo o la natación, la ciencia de la aerodinámica está jugando también un importante papel. Y los túneles de viento, como los usados para probar los diseños de los autos de Fórmula Uno, se emplean también para conocer la resistencia aerodinámica y el gasto energético de distintos tejidos, incluyendo detalles en apariencia tan poco relevantes como la colocación de los medios de sujeción (cremalleras, botones, cintas, etc.) que pueden representar una o dos centésimas de segundo en la crono final.

¿Puede la ciencia realmente decidir una competición? Si todos los participantes cuentan con lo último en tecnología y ciencia, tanto en su preparación como en su equipamiento, las condiciones son equitativas y el resultado seguirá siendo esencialmente responsabilidad del atleta, de su capacidad y actitud. El magistral Jesse Owens que dominó los juegos olímpicos de 1936 en Berlín, humillando las ideas racistas, también tenía lo último en tecnología de su tiempo, por más que nos parezca tecnología arcaica 74 años después.

Beneficios para todos

La ciencia y tecnología del deporte no se agota en las grandes competiciones de alto rendimiento, sino que ha ofrecido apoyo a todos quienes se ejercitan o practican cualquier deporte como aficionados. Porque no se trata únicamente de tener mejores resultados, sino también de ejercitarnos con mayor eficacia y seguridad. El moderno equipamiento tiene entre sus objetivos el evitar lesiones y problemas que eran comunes en el pasado y representaban muchas veces un gran obstáculo para el disfrute y ejercicio de nuestro deporte favorito.

Pasado y futuro de las bibliotecas

Tablilla sumeria de entre el 2400 y
2200 de la Era Común con
los nombres de los dioses en
orden de importancia.
(Imagen D.P. vía Wikimedia Commons)
De los templos sumerios a Internet, los depósitos de libros siguen siendo herramientas esenciales de la enseñanza y la cultura.

Fue Francis Bacon, uno de los fundadores del método científico en los siglos XVI-XVII quien puso en palabras un concepto que hoy nos parece obvio: “El conocimiento es poder”. Y por ello, la biblioteca, como depósito de conocimiento de fácil acceso, es parte esencial del concepto del poder ejercido por toda la población consustancial a lo que consideramos que debe ser la democracia.

Las bibliotecas tienen una imponente historia de al menos cinco mil años, desde la “Casa de las tablillas” del templo de Nippur (hoy Nuffar, en Irak), la más antigua encontrada hasta hoy. Allí se guardaban más de 2000 tablillas de cerámica de escritura cuneiforme sumeria, algunas datadas alrededor del año 3.000 antes de la Era Común.

Esta biblioteca no guardaba sólo textos sagrados o administrativos. En sus libros/tablilla encontramos poemas épicos de diversos héroes e historias míticas que encontramos rescatadas y reescritas en el Antiguo Testamento bíblico.

Dos mil trescientos años más tarde, en el siglo VII antes de la Era Común, el legendario monarca asirio Asurbanipal hizo reunir y organizar una colección de la cual se conservan más de 20.000 tablillas y fragmentos. Esta gigantesca colección, conservada en su palacio y en el de su abuelo, fue la primera biblioteca con una organización sistemática y es hoy en día una de las fuentes más ricas para el conocimiento de la historia, el arte, la ciencia y la religión de la antigua Mesopotamia.

Fue a partir del siglo V a.E.C. cuando aparecieron las bibliotecas personales en la Grecia clásica, merced a coleccionistas como Pisístrato, tirano de Atenas, el geómetra Euclides, el poeta Eurípides y el filósofo Aristóteles.

Aristóteles estaba destinado a jugar un papel singular en la historia de las colecciones de libros. En el 343 a.E.C., Filipo II de Macedonia lo llamó para que dejara su natal Estagira y trabajara como tutor de su joven heredero, Alejandro, para lo cual el filósofo fue nombrado director de la Real Academia de Macedonia. Allí, además de instruir al que sería poco después Alejandro Magno, tuvo como alumno a Ptolomeo Soter, que sería uno de los principales generales de Alejandro Magno.

A la muerte de Alejandro, Ptolomeo se hizo con la corona de Egipto, llevando consigo los restos del conquistador Macedonio desde Babilonia hasta Alejandría, en Egipto. Allí, Ptolomeo encargó a Demetrio de Falerón, también discípulo de Aristóteles, la organización de la legendaria Biblioteca de Alejandría y su adjunto Musaeum (donde trabajarían numerosos sabios, entre ellos Hipatia, que recientemente inspiró a un personaje cinematográfico). La riqueza de Egipto se puso al servicio de enviados de Ptolomeo que recorrieron el mundo conocido comprando o mandando hacer copias de todos los textos guardados en bibliotecas, templos y palacios.

Mientras tanto, en Roma, Julio César soñó una biblioteca pública que nunca pudo construir, pero sí lo hizo su sucesor, César Augusto. La más famosa biblioteca pública, la Bibliotheca Ulpia, fundada por Trajano en el 114 de nuestra era, que llegó a contener 40.000 pergaminos. Eran comunes, además las bibliotecas privadas que certificaban la importancia que daban los romanos a saber leer y escribir aunque, en algún caso y según acusación de Séneca que bien podría hacerse hoy, a veces eran simple ostentación de romanos ricos que no solían dedicar tiempo a la lectura.

En los siglos VIII y IX de nuestra era toca a la cultura islámica conservar y ampliar la idea de la biblioteca en todos los dominios musulmanes. Para el siglo X, la mayor biblioteca del mundo islámico, con entre 400.000 y 600.000 volúmenes, se encontraba en Córdoba, la capital de Al-Andalus. El mundo islámico ilustrado también tuvo bibliotecas públicas como la “Sala de la sabiduría” de Bagdad, que ponía a disposición de los lectores miles de manuscritos griegos y romanos.

Esta conservación de los libros clásicos por parte del Islam ilustrado fue esencial para el renacimiento de la cultura europea después del oscurantismo. Las bibliotecas europeas, primero patrimonio de los monasterios y la realeza, poco a poco se trasladan a las universidades, y la invención de la imprenta de tipos movibles de Gutemberg en 1450, se hace posible llevar los libros a más gente que nunca antes.

Entre los años 1600 y 1700, el interés por las bibliotecas alcanza cotas nunca antes registradas. El fácil acceso a los libros hace además posible instituir de modo definitivo la biblioteca pública, esa escuela gratuita, esa oferta asombrosa para todo el público y no sólo para los miembros de una institución, que nace en Inglaterra al crearse la biblioteca Francis Trigge en Lincolnshire, mientras que en España se crea la Biblioteca Real, antecesora de la Biblioteca Nacional de España.

Pero es hasta 1850 cuando el Parlamento británico, en una acción sin precedentes, ordena que todas las ciudades de 10.000 personas o más paguen un impuesto para apoyar las bibliotecas públicas. Mientras tanto, en Estados Unidos, el impresor y polígrafo Benjamin Franklin instituía la primera biblioteca que prestaba libros al público.

Hoy, cuando Internet se ha convertido en la mayor biblioteca pública de acceso gratuito que pudiera haber imaginado cualquier bibliotecario del pasado, quizá la vanguardia la lleva la “Bibliotheca Alexandrina”, la nueva biblioteca de Alejandría creada por el gobierno egipcio, la Universidad de Alejandría y la UNESCO, como un centro de investigación que reúne, al mismo tiempo, capacidad para varios millones de volúmenes físicos, un archivo de Internet, librerías y museos especializados, un planetario y otros atractivos para la divulgación de la ciencia además de ocho centros académicos y de investigación, galerías y otras instituciones y centros de reunión. Un lugar para el pasado y el futuro de la biblioteca, institución esencial para las culturas humanas.

El libro

Comenzando como tablillas de cerámica y siguiendo en forma de rollos de papiro o pergamino durante un par de milenios, el libro sólo empezó a tener un aspecto familiar para nosotros en el siglo I d.N.E., cuando en Roma aparece el “códex”: hojas de papiro o pergamino encuadernados mediante costura y protegidos por dos cubiertas. La llegada del papel a Europa en el siglo XIII y de la imprenta en el XV, lanzaron al libro a dominar la transmisión de conocimientos y el entretenimiento, sobreviviendo hasta la fecha con cambios mínimos. Hoy, sin embargo, con el libro electrónico, que guarda el contenido en formato digital y lo muestra en una pantalla de “tinta digital” de bajo consumo eléctrico, el libro “analógico” podría estar al final de sus cinco mil años de historia.

¿Usted le debe la vida a Ignaz Semmelweis?

Ignaz Semmelweis 1861
Ignaz Semmelweis
(Fotografía D.P. de "Borsos und Doctor",
vía Wikimedia Commons)
El médico apasionado hasta el tormento por combatir el dolor y las muertes que sabía evitables.

Es muy probable que usted, y yo, y muchos más tengamos una deuda impagable con un médico húngaro del siglo XIX, Ignaz Philipp Semmelweis, que a la temprana edad de 29 años hizo un descubrimiento que salvó vidas mientras amargó la suya, y quizás terminó con ella.

Nacido en 1818 en Budapest, Semmelweis estudió medicina en la Universidad de Viena, doctorándose en 1844 en la especialidad de obstetricia, el cuidado médico prenatal, durante el parto y después de éste. Dos años después entró como asistente en la Primera Clínica Obstétrica del Hospital General de Viena.

Lo que encontró allí le horrorizó. En aquel tiempo, la mayoría de las mujeres daban a luz en sus casas, con una alta tasa de mortalidad. La mitad de los fallecimientos se debían a la llamada “fiebre puerperal”, lo que hoy sabemos que es producto de una infección que a su vez provoca una inflamación generalizada, llamada sepsis. Y lo más terrible era que las mujeres que daban a luz en los hospitales, y los niños que allí nacían, tenían una mucho mayor incidencia de fiebre puerperal que las que daban a luz en sus casas.

La enfermedad se atribuía al hacinamiento en los hospitales, a la mala ventilación e incluso al comienzo de la lactancia. Aunque el británico Oliver Wendell Holmes ya había notado que la enfermedad era transmisible, y un probable vehículo eran los médicos y comadronas, no había comprobaciones experimentales.

Semmelweis observó que, en su clínica, la mortalidad era del 13,1% de las mujeres y recién nacidos, una cifra aterradora (y en los hospitales Europeos en general la cifra llegaba al 25 al 30%), mientras que en la Segunda Clínica Obstétrica del mismo hospital la mortalidad sólo era de 2,03%.

Analizando ambas clínicas, el genio húngaro observó que la única diferencia era que su clínica se dedicaba a la preparación de estudiantes de medicina y la otra se dedicaba a preparar comadronas. Y los alumnos de medicina, como en la actualidad, realizaban disecciones con cadáveres como parte fundamental de su formación, cosa que no hacían las comadronas.

En 1847, Jakob Kolletschka, profesor de medicina forense y amigo de Semmelweis, se cortó un dedo accidentalmente con el escalpelo durante una autopsia. El estudio del cuerpo de Kolletshka reveló síntomas idénticos a los de las mujeres que morían de fiebre puerperal.

Semmelweis concluyó que debía haber algo, una sustancia, un agente desconocido presente en los cadáveres y que era llevado por los estudiantes de la sala de disecciones a la de maternidad donde causaba la fiebre puerperal. Era la hipótesis del “envenenamiento cadavérico”.

En mayo de 1847 propuso que los médicos y los estudiantes se lavaran las manos con una solución de hipoclorito y cloruro de calcio entre las disecciones y la atención a las parturientas. Los estudiantes y el personal de la clínica protestaron, Semmelweis insistió y en un solo mes la mortalidad en la Primera Clínica se desplomó del 12,24% al 2,38. Para 1848, la mortalidad de las parturientas en ambas clínicas era igual, del 1,3%, y en los años siguientes se mantuvieron con mínimas diferencias.

Era una demostración contundente de que la hipótesis era sólidas, y su colega Ferdinand von Hebra escribió pronto dos artículos que explicaban las causas de la fiebre puerperal y la profilaxis propuesta para disminuir su incidencia. Y para Semelweiss, la terrible convicción de que él, con sus manos sucias, había llevado la muerte a muchas pacientes a las que deseaba servir. Esta idea lo perseguiría hasta la muerte y animaría su lucha por la profilaxis.

Los médicos que vieron los datos contundentes de Semmelweis procedieron a rechazarlos. La medicina precientífica de entonces sostenía la creencia de que la enfermedad era un desequilibrio de los cuatro supuestos humores del cuerpo humano (sangre, flema, bilis negra y bilis amarilla). Esta creencia de milenios no tenía ni una sola evidencia científica en su favor, pero se aceptaba sin titubeos, y ante los hechos, los colegas del magyar se aferraron a sus prejuicios, rechazando que una enfermedad pudiera “transmitirse” por las manos humanas y no por los “malos aires”, los “miasmas” u otros orígenes misteriosos.

De hecho, la medicina precientífica de la época, como muchas formas de pseudomedicina de la actualidad, afirmaba que no había causas comunes y enfermedades iguales, sino que cada enfermedad era única, producto de un desequilibrio integral del organismo. De hecho, pese a los datos, los médicos de la época solían afirmar que la fiebre puerperal no era una sola enfermedad, sino varias distintas, una por paciente.

El éxito del húngaro y su participación en los disturbios por los derechos civiles en 1848 le llevaron a un violento enfrentamiento con Johann Klein, el director de la clínica, que saboteó sus posibles avances. Semmelweis optó por volver a Hungría, donde pasó por diversos puestos.

Estando al frente del pabellón de maternidad del Hospital St. Rochus, Semmelweis combatió con éxito una epidemia de fiebre puerperal en 1851. Mientras en Praga y Viena morían entre 10 y 15% de las parturientas, en St. Rochus los fallecimientos cayeron al 0,85%. Con pruebas suficientes, en 1861 publicó al fin su libro sobre la etiología de la fiebre puerperal y su profilaxis. Y nuevamente sus datos y pruebas fueron rechazados.

Enfrentado a sus colegas, convencido de que era fácil salvar muchas vidas, Semmelweis empezó a dar muestras de trastornos mentales y en 1865 fue finalmente internado en un asilo para lunáticos, tan precientífico y falto de esperanza como el pabellón de maternidad al que había llegado en 1846. Si su enfermedad era grave o fue internado por presiones de quienes rechazaban sus pruebas y datos es todavía asunto de debate.

Ignaz Semmelweis murió en el asilo a sólo dos semanas de su internamiento. Según la historia más conocida, sufrió una paradójica fiebre puerperal, o septicemia, por un corte en un dedo. Otros estudiosos indican que murió después de ser violentamente golpeado por los guardias del manicomio, procedimiento por entonces común y tradicional para tranquilizar a los “locos”.

Pasteur, Líster y Koch

Mientras Semmelweis vivía el fin de su tragedia, los trabajos de Louis Pasteur ofrecían una explicación a los descubrimientos del médico húngaro: los microorganismos patógenos. En 1883, el cirujano Joseph Lister implanta al fin la idea de la cirugía estéril desinfectando personas e instrumentos. Y en 1890, Robert Koch publica los cuatro postulados que relacionan causalmente a un microbio con una enfermedad. Era el principio del fin de la superstición de los “humores”, que hoy sólo algunas pseudomedicinas sostienen, y el nacimiento de la medicina científica.

Para leer noticias sobre ciencia

Science and Mechanics Nov 1931 cover
Una de las primeras revistas de divulgación
de Hugo Gernsback
(ilustración D.P. de Frank R. Paul
vía Wikimedia Commons
En la tarea de transmitir información sobre ciencia, los lectores tienen un desafío mayor del que podríamos creer.

La ciencia es una de las actividades humanas más apasionantes.

Pero su proceso suele ser poco vistoso. Los avances raras veces son tan impactantes como la vacuna de Jenner, la gravitación de Newton, la relatividad de Einstein o el avión de los hermanos Wright. Más bien son lentos y poco impresionantes a primera vista, y se van acumulando en un goteo que puede ser desesperante.

Los detalles que apasionan a quienes viven en la labor de científica y tecnológica porque conocen las implicaciones de cada avance y su contexto, no se llevan fácilmente al público con la emoción y pasión con la que se informa de unas elecciones reñidas, un partido de fútbol o una importante acción policiaca.

Esta misma semana, la prestigiosa revista científica ‘Nature' publica cinco artículos y un editorial dedicados a las células gliales del sistema nervioso, que se creía que eran sólo la estructura de soporte de las neuronas que transmiten impulsos nerviosos. De hecho “glia” es la palabra griega para “pegamento”.

En las últimas dos décadas, varios estudios indican que estas células tienen una función más compleja. Si se confirma esto, se abriría todo un campo nuevo de más preguntas que respuestas. Un tema estremecedor para los neurocientíficos que ofrece nuevas avenidas para comprender nuestro cerebro.

Pero a nivel de calle, todos tendemos a preguntar “¿qué significa eso para mí?”, y no nos gustan mucho las respuestas que empiezan diciendo “de momento, nada, pero en un futuro...”

Queremos resultados hoy mismo, y de ser posible ayer. Vivimos una comunicación cada vez más ágil y al mismo tiempo más breve. Una nota de 140 caracteres en Twitter puede ser cuando mucho de tres minutos en televisión, un cuarto de página en un diario o tres o cuatro páginas en una revista.

Pero uno solo de los cinco artículos de investigación dedicados a las células gliales (un misterio de nuestro cerebro, 84 mil millones de células gliales junto a los 86 mil millones de neuronas que tenemos) es una serie larga de páginas sobre un tema tan arcano como “Genética del desarrollo de las células gliales de los vertebrados: especificación celular".

Por supuesto, los autores, David H. Rowitch y Arnold R. Kriegerstein, mencionan que la comprensión de la genética del desarrollo de las células llamadas macroglia “tiene un gran potencial para mejorar nuestra comprensión de diversos trastornos neurológicos en los seres humanos”.

Ese lenguaje no es muy deslumbrante, sin duda. Los científicos tienden a ser extremadamente cautos en sus artículos profesionales, llamados ‘papers’, y así se los exigen, con buenas razones, las publicaciones especializadas o ‘journals’. Deben ser precisos en su explicación sobre la metodología que siguieron, para que cualquier otro científico de su área pueda duplicar con toda exactitud sus experimentos para confirmarlos o descartarlos. Deben concretar la hipótesis que pretenden probar y mostrar todas sus cartas, sus procedimientos, sus análisis matemáticos, incluso sus posibles errores o dudas.

Para asegurarse de que así lo hagan, las revistas someten cada ‘paper’ propuesto a una revisión por científicos reconocidos de la disciplina a la que se refiere. Es lo que se llama “arbitraje por pares”, y sirve como filtro contra investigaciones defectuosas en su metodología o conclusiones. Y aún así, ocasionalmente las mejores revistas publican artículos con algún error importante.

Y, por ello mismo, las conclusiones de los ‘papers’ suelen utilizar de modo abundante construcciones como "creemos que", "los resultados sugieren", "estudios adicionales podrían revelar", "la confirmación tiene el potencial de", "es probable que" y demás formas igualmente vagas y cautelosas.

La labor del periodista con frecuencia es trasladar esto a un idioma accesible, transmitir la emoción de los científicos por haber dado “un pequeño paso” adicional y tocar al lector para que perciba que el trabajo científico es merecedor de todo nuestro apoyo, sobre todo en una época en que el conocimiento científico es una fuente de riqueza mayor que muchas actividades industriales del siglo XIX y XX.

Muchas veces, sin embargo, el lector debe leer entre líneas, sabiendo que todas las semanas se publica una enorme cantidad de ‘papers’ o artículos en todas las disciplinas imaginables, desde la física de partículas hasta la geología, desde la biología molecular hasta la gastroenterología, desde las neurociencias hasta la informática. Y muchas veces lo que llega a la atención de los medios no son los trabajos más prometedores, sino los que universidades o laboratorios quieren destacar, o los realizados por científicos más “mediáticos”, simpáticos o bien relacionados.

El lector debe añadir cautela a la información de los medios. Cuando un periodista omite las construcciones cautas y condicionales de los científicos, siempre conviene suponerlas. Especialmente en temas delicados como la investigación sobre el cáncer y otras áreas de la medicina que nos preocupan mucho. Y más especialmente cuando lo que se anuncia es tan revolucionario y tan maravilloso que suena demasiado bueno para ser cierto. Probablemente lo es.

Cuando las noticias no proceden de publicaciones científicas sino de ruedas de prensa o libros recién lanzados y en proceso de comercialización, o empresas que venden servicios de salud, estética o bienestar, hay que ser aún más cauto, pues no ha existido el útil filtro del “arbitraje por pares”. Especialmente cuando el investigador se presenta como víctima de una conspiración malévola en contra de su incomprendida genialidad.

La difusión de los logros de la ciencia requiere una implicación cada vez mayor del lector común, del no científico. Quizás no basta que tengamos información sobre los avances de la ciencia y debamos educarnos para conocer el pensamiento crítico y sus métodos, que son más accesibles que los datos de la ciencia, y son la vacuna perfecta contra la desinformación y el sensacionalismo en cualquier rama de la comunicación. Y nos permiten evaluar información que, literalmente, está cambiando el mundo en que vivimos, paso a paso.


Periodismo pseudocientífico

Una buena parte de lo que se presenta como divulgación o periodismo más o menos científico es, por el contrario, promoción de creencias y afirmaciones pseudocientíficas altamente sensacionalistas y amarillistas, echando mano de supuestos expertos (generalmente autoproclamados) para promover la anticiencia, la magia, las más diversas conspiraciones y creencias irracionales varias. Un motivo adicional para educarnos en las bases de la ciencia y estar alerta ante los negociantes de supuestos misterios presentados falsamente como ciencia.

La ciencia falsificada de Lysenko

Al pretender doblegar la ciencia a los dictados de la política, Lysenko arruinó vidas, causó hambrunas y sumió en el retraso la biología en el que era el país más grande del mundo.

Trofim Denisovich Lysenko
(imagen D.P. Sovfoto vía Wikimedia Commons)
El 20 de noviembre de 1976 moría en Kiev, Ucrania, entonces parte de la Unión Soviética, Trofim Denisovich Lysenko, cubierto de honores por sucesivos gobiernos desde Stalin y que había sido la fuerza más relevante de la agricultura soviética (y en gran medida china) durante décadas.

Hijo de campesinos ucranianos, Lysenko estudió en el Instituto Agrícola de Kiev para luego trabajar en una estación experimental agrícola. Allí, en 1927, anunció un método para obtener cosechas sin fertilizantes y dijo que podía obtener una cosecha invernal de guisantes. El diario oficial soviético Pravda elogió sin límites a este “científico campesino” como prototipo de héroe soviético.

Lysenko sabía poco de herencia y genética, pero creía que los organismos cambiaban su genética de acuerdo al medio ambiente, siguiendo la teoría lamarckiana.

Jean-Baptiste Lamarck (1744-1829) fue uno de los primeros proponentes de la evolución de las especies, pero pensaba que su mecanismo era que los caracteres adquiridos podían heredarse. Por ejemplo, cortarle las orejas a un perro adulto haría que su descendencia naciera con orejas cortas. Los experimentos demostraron que esto no ocurre, y pronto Charles Darwin propuso una teoría correcta, basada en la variación genética natural de los seres vivos.

De vuelta en Ucrania, y junto con el filósofo I. Prezent, Lysenko desarrolló sus ideas como un rechazo a la genética de Mendel, “capitalista y burguesa”. Para los dirigentes soviéticos, no era cuestión de verdad o falsedad, sino de tener bases para asegurar que los cambios que experimentara la clase trabajadora definirían fatalmente el futuro.

Las afirmaciones exageradas de Lysenko sobre su capacidad de obtener cultivos abundantes y en clima adverso, y sus afirmaciones sobre híbridos absurdos (llegó a afirmar podía hacer que plantas de trigo produjeran semillas de centeno y cebada) entusiasmaron a Stalin tanto como la capacidad retórica de Lysenko. Para los científicos, sus posiciones voluntaristas y poco rigurosas resultaban casi risibles, pero dejaron de serlo cuando se vieron acompañadas de un inmenso poder político.

En 1929, Stalin declaró que se debía privilegiar la "práctica" por sobre la "teoría", donde la visión del partido era más importante que la "ciencia", y que ir al campo y hacer cosas (aunque fueran inútiles o descabelladas) era mejor que estudiar cosas extrañas en un laboratorio. Esto se ajustaba a Lysenko como un guante, y los críticos de Lysenko empezaron a enfrentar crecientes acciones de censura.

Cuando en 1935 fue puesto al frente de la Academia de Ciencias Agrícolas de la URSS, Trofim Lysenko empezó una larga purga de científicos de ideas “incorrectas” o “perjudiciales”.

El más importante biólogo soviético y padre de la genética rusa, además de feroz crítico de Lysenko, Nikolai Vavilov, murió de hambre en las cárceles de la policía política, la NKVD, en 1943, después de tres años de confinamiento por orden de Lysenko. La genética desapareció como disciplina en la URSS y la biología, la herencia y la medicina se vieron contaminadas con las ideas descabelladas del Lysenko.

Pronto, en las escuelas soviéticas se enseñaban cosas como: el gen es una parte mítica de las estructuras vivientes que en las teorías reaccionarias, como el Mendelismo-Veysmanismo-Morganismo, determina la herencia. Los cientificos soviéticos bajo el mando de Lysenko probaron científicamente que los genes no existen en la naturaleza.

Tales pruebas eran, por supuesto, imaginarias. Las teorías de Lysenko eran producto de la filosofía política y no de la práctica de la ciencia. Y sus técnicas se aplicaban por decreto, obligatoriamente, en el campo soviético y sin haberlas probado científicamente. Esto, junto con la colectivización forzada del campo que implantó Stalin, ocasionó hambrunas varias.

Nada de esto impidió que Lysenko siguiera siendo la máxima autoridad en biología en la Unión Soviética, al menos hasta el 5 de marzo de 1953, cuando murió Joseph Stalin. Durante su reinado, más de 3000 biólogos fueron despedidos, arrestados o ejecutados.

El sucesor, Nikita Kruschev, mantuvo a Lysenko en su puesto, pero al emprender la llamada "desestalinización" para terminar con el culto a la personalidad de su predecesor, y sabiendo, como campesino que era, que pese a la propaganda oficial, las ideas de Lysenko no habían beneficiado la agricultura soviética, abrió la posibilidad de tolerar las críticas al todopoderoso agrónomo.

Mientras decaían en la URSS, las ideas de Lysenko fueron adoptadas por el gobierno chino. Mao llamó "El Gran Salto Adelante" a la implantación del lysenkoísmo y la colectivización forzosa del campo con el mismo resultado amplificado: la terrible hambruna china de 1958-1961 que mató a entre 30 y 40 millones de personas, más de los que había perdido la URSS en la Segunda Guerra Mundial.

En 1961, algunos miembros del gobierno chino se rebelaron a las ideas de Mao y ordenaron el abandono de sus políticas en diversas provincias, deteniendo la hambruna. Un año después, tres físicos soviéticos proclamaron que el trabajo de Lysenko era falsa ciencia.

Lysenko fue destituido, pero no se le criticó oficialmente sino hasta que Kruschev fue retirado del poder en 1964, y una comisión oficial fue a investigar su granja experimental, demostrando su total falta de rigor y seriedad científica.

Ese año, el físico nuclear Andrei Sakharov, hoy Premio Nobel, dijo en la Asamblea General de la Academia de Ciencias que Lysenko era: responsable del vergonzoso atraso de la biología soviética y de la genética en particular, de la divulgación de visiones seudocientíficas, de aventurerismo, de la degradación del aprendizaje y por la difamación, despido, arresto, incluso muerte, de muchos científicos genuinos.

El daño hecho por Lysenko, visto a la distancia del tiempo, fue quizá el ejemplo más aterrador del peligro que corremos todos cuando la política pretende decretar la ciencia en lugar de utilizar y entender la ciencia real.

Stanislav Lem y Lysenko

En la universidad Jagielloniana de Polonia, a fines de la década de 1940, el estudiante de medicina Stanislav Lem llegó a satirizar al agrónomo soviético en una revista. Así, cuando tuvo que presentar su examen final como médico, sus principios le impidieron dar las respuestas "correctas" consagradas por el Lysenkoísmo oficial soviético. Ya que no podía recibirse como médico sin someterse a Lysenko, Stanislav Lem procedió a convertirse en uno de los más influyentes y originales escritores de la historia de la ciencia ficción, conocido sobre todo por su novela "Solaris".