Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La dura vida de los niños genio

Leonhard Euler by Handmann
Leonhard Euler, genial matemático
(Pintura D.P. de Emanuel Handmann,
vía Wikimedia Commons)
Admirados por los adultos, rechazados por sus iguales y con frecuencia explotados por sus padres y medios, los niños prodigio no son un milagro.

Un niño que puede desempeñarse igual o mejor que un adulto destacado en algún campo de actividad exigente como ser la música, las matemáticas, el ajedrez o los deportes, es inevitablemente el centro de atención de todos a su alrededor. Muchos quisieran que sus hijos fueran así, e incluso se esfuerzan por impulsar o empujar a los suyos para que alcancen metas poco realistas. Otros simplemente se preguntan qué elementos confluyen para que un niño destaque de modo singular.

Sin embargo, no tenemos una receta para crear niños prodigio. No hay un sistema de educación que favorezca la aparición de la genialidad infantil, y ni siquiera estamos seguros de que la educación pueda realmente impulsar la genialidad. El matemático indostano Srinivasa Ramanujan, nacido en un ambiente nada favorecedor, descubrió las matemáticas formales a los 10 años y dos años después no sólo había dominado la trigonometría, sino que había a empezado a descubrir sus propios teoremas, emprendiendo una carrera que aún hoy es estudiada (sin descifrar por completo) por los matemáticos de todo el mundo.

No sabemos, siquiera, si el concepto “niño prodigio” o “niño genio” significa lo mismo cuando se trata de niños con habilidades distintas. Es posible que un niño de los llamados “calculadores”, capaces de realizar complejísimas operaciones matemáticas, sea totalmente distinto de un precoz ajedrecista, un pintor precoz como Picasso o de genios musicales como el violinista Yehudi Menuhin o el máximo niño prodigio de la música, Wolfgang Amadeus Mozart, el compositor nacido en Salzburgo, Bavaria, hoy Austria, en 1756, que empezó a componer a los 5 años de edad, recorrió Europa de los 6 a los 17 años asombrando al público y se convirtió en uno de los más importantes nombres de la música formal, componiendo prolíficamente hasta su muerte a los 35 años.

Se calcula que un 3% de todos los niños pueden ser considerados altamente dotados o niños prodigio aunque no todos son identificados y estimulados para desarrollar sus habilidades, de modo que la cifra podría ser mucho más alta o más baja.

Es por esto, así como porque la delimitación de qué es o no un niño superdotado es bastante poco clara, hay pocos estudios realizados sobre niños prodigio. En cuanto a edades, distintos grupos y definiciones consideran a los menores de 18, otros a los menores de 15 o 13 años y los más exigentes únicamente a los mejores de 11 años. En cuanto a habilidades, el problema es similar, y no existe un baremo consensuado sobre dónde termina el ser “muy listo o hábil” y comienza la genialidad que, finalmente, es un concepto totalmente subjetivo y humano.

Es por ello que la mayoría de los estudios realizados explorando el funcionamiento del cerebro de los niños prodigio se haya hecho con niños de los llamados “calculadores”, ya que la capacidad de resolver problemas matemáticos es de las que mejor podemos medir y definir con cierta objetividad, a diferencia, por ejemplo, de los talentos artísticos como en las artes plásticas o la música.

En un estudio de Brian Butterworth, publicado en la revista ‘Nature’ en 2001 se realizaron escaneos de tomografía de emisión de positrones (PET) en niños prodigio matemáticos, y los resultados sugirieron que estos niños utilizaban la memoria de trabajo a largo plazo, una forma en la que se pueden recordar enormes cantidades de datos durante un breve tiempo, y hacían uso intenso de la corteza visual, la zona del cerebro que descodifica las imágenes que vemos y que también empleamos para la imaginación visual. Otros estudios indican que el cerebelo, la zona del cerebro implicada en el control motor, la atención y el idioma, sirve a estos niños para ordenar sus funciones cognitivas y puede influir en su hablidad matemática.

Para muchos niños prodigio, su vocación y talento originales se convierte en su actividad para toda la vida, frecuentemente con enorme éxito. Está Leonhard Euler, matemático suizo que entró en la universidad de Basel a los 13 años y pasó a convertirse en uno de los fundadores de las matemáticas modernas descubriendo, entre otras cosas, el cálculo infinitesimal al mismo tiempo que Newton. El matemático y físico Blas Pascal, que escribió un tratado sobre cuerpos vibrantes a los 9 años y realizaría numerosas aportaciones a la ciencia y la filosofía durante toda su vida. O John Von Neumann, influyente matemático húngaro que en su niñez fue famoso como calculador matemático y polìglota.

Son también comunes los casos de niños prodigio que después de alcanzar logros impresionantes antes de la edad adullta, terminan abandonando todo y no vuelven a realizar las aportaciones por las que fueron conocidos o se retraen como lo hizo de modo espectacular el ajedrecista Bobby Fisher, que ganó ocho campeonatos estadounidenses consecutivos, fue gran maestro a los 15 años y a los 28 se convirtió en campeón mundial, después de lo cual no volvió a competir oficialmente y terminó expatriado en Noruega, con problemas mentales cada vez más evidentes hasta su muerte.

El ejemplo extremo de estos ex-niños prodigio es William James Sidis, dueño de asombrosas habilidades matemáticas y lingüísticas que entró a Harvard a los 11 años. Acosado por sus compañeros y, más tarde, por la prensa sensacionalista, y arrestado por participar en una manifestación de izquierdas (era 1918), acabó aislándose de la sociedad y de las matemáticas trabajando como cobrador de tranvía, anónimo y amargado.

Quien mejor puede definir qué es ser un niño prodigio es, precisamente, alguien que lo ha sido. Justin Clark, campeón de ajedrez a los 8 años y estudiante universitario a los 10: “Lo que pocas personas entienden es que ser un niño prodigio, o ser considerado así, no es inherentemente bueno o malo”. Por más que muchos padres crean que tener un genio es maravilloso, para cualquier niño lo más importante será ser querido y aceptado. Y su peor tragedia es, sin duda, que sus padres o el mundo a su alrededor le pidan más de lo que puede dar, cosa que con frecuencia le exigimos a los genios y a los que no lo son.

El savant, genio en su mundo

Un caso especial de los niños prodigio son los savants, que suelen tener una sola capacidad destacada al extremo humano, como puede ser una memoria eidética o fotográfica de un solo aspecto de su vida (como recordar el tiempo que hubo día a día o hacer complejos cálculos matemáticos al instante). Casi la totalidad de los savants tienen problemas de desarrollo, la mitad de ellos asociados al autismo. El ejemplo más conocido de este prodigio es Kim Peek, que fuera la base para el personaje que interpretó Dustin Hoffman en la película “Rain Man”.

Nuestras inconstantes memorias

"La persistencia de la memoria", cuadro de Salvador
Dalí (Creative Commons)
Creíamos que registrábamos las memorias como en un vídeo, de modo fiel y secuencial. Un episodio de terror multitudinario nos enseñó a desconfiar de nuestros recuerdos.

En la década de 1980 se desarrolló una situación de pánico en los Estados Unidos. De pronto, psicoterapeutas, policías y trabajadores sociales encontraban multitud de casos de personas que decían haber sido sometidas a terribles abusos sexuales y obligadas a participar en sangrientos rituales satánicos, tanto niños como adultos. Afirmaban que, de acuerdo a las hipótesis de Freud, esas memorias habían sido “reprimidas” durante décadas, y habían vuelto a la superficie debido a terapias que con frecuencia incluían entre otras cosas la hipnosis y preguntas sugerentes.

Las descripciones eran sobrecogedoras. Se llegó a hablar de 1 millón de satanistas que abusaban de niños y cometían incluso asesinatos y se popularizó la llamada “Terapia de Memoria Recuperada”, que guiaba al paciente para que “recuperara” recuerdos traumáticos de su infancia, incluso de la más temprana, cuando hoy sabemos que no se pueden formar memorias por el insuficiente desarrollo de nuestro cerebro. Entre el 15 y el 20% de los pacientes, un número enorme, recuperaban memorias de abuso infantil y rituales satánicos.

Se rompieron familias, los hijos perdían toda confianza en sus padres, los repudiaban e incluso los denunciaban por abusos. Algunos padres fueron condenados a penas de prisión mientras afirmaban su inocencia y su amor por sus hijos. La sociedad estadounidense se convulsionaba.

Sin embargo, aparecieron cuestionamientos. Se hablaba de miles de bebés asesinados en rituales de filme de horror, pero no había cuerpos, ni reportes de niños extraviados suficientes para dar cuenta de las historias que ocupaban los medios, especialmente los sensacionalistas.

Los científicos de la conducta entraron en acción. A principios de la década de 1990, un estudio de la Universidad de California investigó más de 12.000 acusaciones y analizó a más de 11.000 miembros del personal de servicios psiquiátricos, de servicio social y de cuerpos policiacos sin , encontrar pruebas que corroboraran sólidamente ni un solo caso de abuso ritual satánico.

Kenneth Lanning, agente especializado en abuso infantil de la Unidad de Ciencia Conductual del FBI, hoy famosa por una serie de televisión, escribió un estudio concluyendo que no había ni una prueba en ninguno de los casos de “abuso satánico” que había investigado desde 1981. Escribió: “Tenemos ahora a cientos de víctimas alegando que miles de delincuentes están abusando de decenas de miles de personas e incluso asesinándolas, como parte de sectas satánicas organizadas, y la evidencia para corroborarlo es escasa o nula”.

Lo más inquietante: quienes decían que habían sido víctimas no estaban mintiendo, realmente creían en la fidelidad de las memorias “recuperadas”.

Las falsas memorias

En 1974, la doctora Elizabeth Loftus, de la Universidad de California, había explorado la imprecisión de la memoria que empezaba a conocerse, con un estudio que demostró que los recuerdos de las personas se veían alterados por lo que implicaban las preguntas que se les hacían. Después de ver un vídeo de un choque, tendían a considerar que la velocidad de los autos era mayor si en la pregunta se usaba el verbo “chocar” o “colisionar” que si se usaba de “golpear” o “entrar en contacto”. En otro caso, si se les preguntaba por los “cristales rotos” (que no se veían en el vídeo), tendían a “recordarlos”.

Éstos y otros estudios establecieron no sólo que nuestras memorias son poco fiables, sino que son sensibles a la sugestión. El tipo de preguntas que se hacen a una persona, la afirmación de que ocurrió algo o cualquier otra observación, por inocente que sea, puede remodelar nuestras memorias.

Los terapeutas, trabajadores sociales y miembros de las fuerzas policiales, según se demostró, en parte víctimas de su celo profesional y su repulsa tanto al abuso infantil como a la idea de las sectas satánicas, habían moldeado las memorias de las supuestas víctimas, en gran medida impulsados por el libro Michelle, que se había presentado en 1980 como un “caso real” aunque años después se descubrió que había sido un fraude.

El testimonio del testigo presencial, prueba reina en los procesos judiciales de todas las culturas, se ha convertido en una incertidumbre. Multitud de estudios en las últimas dos décadas han demostrado que nuestra memoria, en algunos asuntos, es mudable. Nuestro cerebro “llena los espacios” con fabulaciones o con suposiciones de sentido común, y los recuerdos cambian más conforme más tiempo pasa, haciendo menos fiables muchas de las cosas de las que “estamos seguros”.

Hoy sabemos que una persona, al identificar a un delincuente, puede verse infuida por un simple comentario de un policía indicando que uno de los sospechosos, por ejemplo, tiene un historial delictivo, o incluso por el orden en el que se le presentan tales sospechosos. Y su falsa memoria no es una mentira, la considera absolutamente veraz. Apenas descubrimos que ser humano implica que ciertas cosas no las evocamos con tanta precisión como las tablas de multiplicar que nos aprendimos en la escuela.

Pero, si la moderna investigación en neurociencias nos alerta contra las alteraciones de nuestra memoria y ello puede resultar inquietante, pues en gran medida nuestra personalidad son nuestras memorias, también ha servido para evitar que seamos víctimas de las falsas memorias de otras personas. El recuerdo de un testigo o víctima expresado en el juicio fue fundamental para el 75% de las condenas que han sido revocadas en los Estados Unidos debido a las pruebas de ADN sobre casos antiguos.

Al mismo tiempo, se han abierto enormes campos para explorar la memoria ya no desde perspectivas filosóficas, sino mediante modelos que pueden someterse a experimentación, y estudios tanto fisiológicos como genéticos. La identificación de ciertos tipos de memoria, el estudio de los recuerdos inmutables (como las tablas de multiplicar) y la activación de distintas áreas del cerebro cuando aprendemos o recordamos quizá nos permitan reconciliarnos con la idea de que nuestra memoria es menos perfecta de lo que nos gustaría.

Sobre la autoridad y la memoria

Hoy en día, la idea del abuso ritual satánico y la terapia de recuperación de memorias están totalmente desacreditadas entre psiquiatras, psicólogos y fuerzas policiacas. Su supervivencia está limitada al terreno de los medios sensacionalistas de sucesos y supuestos hechos paranormales con pocos escrúpulos, y a pequeños grupos que suelen incluirlo entre otras creencias conspiranoicas. La idea de las “memorias reprimidas” por otra parte, ha sido descartada en lo esencial ante la falta de pruebas de que realmente existan.

Un mundo de fibras y tejidos

Broken carbon fiber bar
Fibras de carbono
(Foto CC de Michael Bemmerl,
vía Wikimedia Commons
Pensar en fibras aún evoca telas, hilados de algodón, ricas sedas y medias de nylon, aunque cada vez más, también, las fibras y los tejidos artificiales significan también piezas de aviones, carrocerías de automóviles de Fórmula 1 e incluso materiales de construcción.

Y quizá todo comenzó con una intuición sencilla, afortunada y genial.

Un tallo de una planta podía servir para atar objetos y para tirar de cargas. Pero se podía romper con relartiva facilidad. Quizá, sólo quizá, hace 40 mil años o más, un ser humano se dio cuenta de que cuando el tallo se retorcía, resistía más. Tal vez, especulamos, empezó a retorcer un tallo, y luego probó a poner dos o tres tallos en paralelo y a retorcerlos y entretejerlos. El resultado era una cuerda, la primera cuerda de la historia de la humanidad, y ataba con más firmeza y soportaba cargas mucho más pesadas que ningún tallo utilizado antes.

Si esto no lo hizo un personaje en concreto, sino quizá un grupo, o varios grupos simultáneamente en distintos espacios geográficos y temporales, al menos sabemos que la humanidad sí lo hizo colectivamente en un momento de su desarrollo.

Si se machacaban los tallos para obtener las fibras que les daban su resistencia, y se retorcían o hilaban en formas mucho más delgadas, se obtuvo el hilo que, tejido, creó toda una nueva forma de vida.

Muchas plantas y el pelo de muchos animales, así como los tendones, se han utilizado como fibras, en función de su disponibilidad para las diversas culturas.

Se cree que el lino fue la primera fibra vegetal que utilizó el hombre. Apenas en 2010, la arqueóloga Ofer Bar-Yosef, de la Universidad de Harvard, encontró en la cueva de Dzudzuana de Georgia fibras de lino anudadas y teñidas de color negro, gris, turquesa y rosa, cuya antigüedad se calcula en 30.000 años, poco tiempo comparado con los más de 100.000 años que nos separan del primer momento en que el hombre usó pieles para vestirse.

El lino, la ortiga, el ramio, el yute y el cáñamo fueron durante milenios algunas de las principales fibras vegetales, complementadas con las fibras animales o lanas, que se empezaron a utilizar (hiladas y tejidas) hace quizás hasta 10.000 años. No fue sino hasta el siglo IX cuando los árabes introdujeron en Europa el algodón, una planta que ya Alejandro Magno había descrito en la India como “el árbol de lana”, cultivada durante mies de años en el valle del Indo. La seda, por su parte, tiene una singular procedencia: el gusano de la seda, que teje el capullo para convertirse en mariposa con un solo filamento de esta singular fibra, conocida en China desde el 2.600 antes de la Era Común.

Los tejidos y cuerdas de fibras naturales tenían, ciertamente, un valor utilitario que alteró y revolucionó en muchas ocasionesa las culturas. Pero también marcaban las diferencias sociales. La seda como distinción de las clases altas es un ejemplo evidente, junto con el aún más caro y exclusivo terciopelo de seda. No olvidemos que los intereses comerciales que dispararon la era de las exploraciones con los viajes de Cristóbal Colón no sólo eran los de las especias. La “ruta de la seda” que abastecía a las clases altas europeas también fue bloqueada por el imperio otomano en 1453, a la caída del imperio bizantino.

La revolución industrial fue, en gran medida, la revolución del algodón. La invención de la lanzadera volante, las máquinas de hilar y la máquina de vapor a fines del siglo XVIII dispararon la mayor producción de telas a menor precio. La industria textil tiraría de todas las demás formas de producción para cambiar radicalmente la forma de vida del ser humano en todo el mundo.

Fibras artificiales y sintéticas

Durante la segunda mitad del siglo XIX, los conocimientos de la química alcanzaron un punto en el que se podía intentar crear materiales nuevos, y mejorar los existentes.

En 1855, el químico suizo Audemars logró crear la primera fibra artificial, una “seda” obtenida disolviendo y purificando la corteza de un árbol para obtener celulosa. Pasaron treinta años para que estas nuevas fibras se utilizaran para crear tejidos de muestra y cuatro años más para que comenzara la producción industrial de esta fibra, el “rayón”.

Pero no fue sino hasta el siglo XX, en 1931, cuando apareció la primera fibra totalmente sintética, el nylon, que comenzó su producción industrial en 1939, democratizando, en gran medida, prendas de ropa como las medias femeninas, que antes eran de seda para las clases pudientes y de algodón para las trabajadoras.

En los años posteriores a la Segunda Guerra Mundial, aparecieron numerosas nuevas fibras como el acrílico, el poliéster, el spandex (lycra) o el sulfar, resistentes, algunas de ellas elásticas, baratas y que se arrugaban mucho menos que las fibras naturales, lo que las convirtió pronto en favoritas del mercado.

Otras fibras, como las aramidas, dan lugar a tejidos especiales como los utilizados en los trajes espaciales o el kevlar utilizado en chalecos antibalas. Y otras de ellas, como el tereftalato de polietileno, se someten a procesos especiales para crear un tejido de pelillo ligero y altamente aislante, el “polar” o “fleece”, la lana artificial.

Más allá de los tejidos, se siguen creando materiales en largos filamentos o fibras que puedan satisfacer con eficacia distintas necesidades. La fibra de carbono, utilizada para reforzar distintos plásticos, está sustituyendo al acero y al aluminio en numerosas aplicaciones que necesitan resistencia, fuerza y un menor peso: bicicletas, raquetas de tenis, piraguas o el fuselaje de aviones como Airbus A350 XWB se fabrican hoy con tejidos de carbono.

Químicos e ingenieros siguen buscando crear nuevas fibras capaces de cambiar de color, de reinventar fibras tradicionales como la seda, modificando genéticamente a los gusanos para ofrecer un producto mejor y más atractivo o de encontrar formas de cultivo más sostenibles y rentables. Ecotextiles, nanotextiles y textiles inteligentes son algunas palabras que pronto pueden ser parte de nuestro léxico tan comúnmente como “seda”, “nylon” y “kevlar”.

La peligrosa fibra mineral

El amianto (o asbesto) es el nombre de seis materiales que son las únicas fibras minerales que ocurren de modo natural y que se encuentran, incluso, en el aire que respiramos, aunque en cantidades inapreciables. Debido a sus propiedades aislantes, especialmente de las llamas, y su bajo costo, se utilizó masivamente desde la antigüedad como material de construcción y materia prima. A lo largo del siglo XX se demostró que la inhalación de fibras de asbesto provocaba con frecuencia fibrosis y cáncer pulmonar y a partir de 1991, el amianto empezó a prohibirse en cada vez más países. La prohibición en España se dio en 2001, aunque sigue en el aire el problema de eliminar el amianto utilizado en el pasado.

LUCA, nuestro más lejano abuelo

Prokaryote cell diagram es
La célula procariota, la forma más primitiva que
existe, podría darnos una idea de cómo fue el LUCA
(Imagen D.P. Mariana Ruiz traducida por
JMPerez, vía Wikimedia Commons)
Uno de los más grandes desafíos de la ciencia es ir hacia atrás en la historia de la vida para averiguar cómo comenzó todo.

Todos los seres vivos, usted y una rosa, un insecto y un elefante, un sencillo virus y un astuto cuervo, todos, tenemos un solo ancestro común, una célula que se calcula que vivió hace 3 o 4 mil millones de años y de la que surgio toda la vida, algo que ya se imaginaba Darwin en su teoría de la evolución mediante la selección natural.

Este ser hipotético es el Último Ancestro Común Universal o, en inglés, ‘Last Universal Common Ancestor’, LUCA por sus iniciales.

¿Cómo sabemos que los seres vivos no procedemos de distintos ancestros surgidos independientemente? O, cuando menos, ¿cómo sabemos que lo más probable es este ancestro común, esta semilla que fructificó en toda la vida del planeta, todas las especies que ya desaparecieron, las que existen y las que, sin duda alguna, vendrán en el futuro?

Para comprenderlo, tenemos que remontarnos a una época en la que no había vida en nuestro planeta.

El universo mismo nació hace unos 13.700 millones de años, según calcula hoy la cosmología. Nuestro sistema solar no fue parte del universo, al menos en su forma actualmente reconocible, durante la mayor parte de este tiempo. Fue hace aproximadamente 4.600 millones de años cuando una nube de polvo y gas que giraba sobre sí misma en el espacio empezó a contraerse. Como un patinador que acerca los brazos al cuerpo para girar más rápido, la contracción hizo que la nube girara más rápido, su gravedad también aumentó y asumió la forma de un disco.

Unos 60 millones de años después se formó nuestro planeta y empezó a sufrir una sucesion de cambios. Hace alrededor de unos 4.000 millones de años, según se cree con base en lo que sabemos, la materia, alguna de las sustancias que componían nuestro planeta, de pronto adquirió una capacidad e independencia sin precedentes, experimentó un cambio cualitativo extraordinario y, no habiendo estado vivo… empezó a estarlo. Según especula la ciencia, este primer ser vivo fue una molécula capaz de producir copias de sí misma, una hazaña singular.

Lo que aún no sabemos es cómo pudo haber sido esa molécula autorreplicante. Quizás las condiciones de nuestro planeta, relámpagos, volcanes, una atmósfera con ciertas caracteristicas, provocaron la creación de diversas moléculas complejas hasta que, por simple azar, alguna de ellas resultó capaz de autocopiarse.

Alguna de ellas o varias de ellas.

Nada indica que la vida haya surgido una sola vez en nuestro planeta. De hecho, es muy probable que haya surgido varias veces, en distintos lugares, bajo distintas condiciones, en distintos momentos y a partir de distintas sustancias. Las condiciones que provocaron el surgimiento de la vida una vez, pudieron provocarla en diversas ocasiones mientras duraron.

La primera evidencia de que existía este hipotético ser que es nuestro origen común se encontró hace apenas 50 años, en la década de 1960, cuando se descifró el código genético del ADN y se determinó que era exactamente el mismo en todas las formas de vida de nuestro planeta. Esto, que hoy nos parece evidente, resultó sorpresivo en su momento: bastaba el ADN para explicar toda la asombrosa variabilidad de todas las formas de vida. Todas tenían genes escritos con el mismo lenguaje.

De hecho, esta “intercambiabilidad” de genes es lo que permite que los genes de una especie se puedan insertar en otra, ya sea de modo natural, en la transferencia horizontal de genes, o artificial, mediante ingeniería genética. Y la transferencia horizontal es uno de los problemas que tiene la biología en la búsqueda de “Luca”.

El “código genetico” con el que la vida transmite información está sorprendentemente está formado por genes o palabras de diversas longitudes, pero todas compuestas por sólo cuatro letras. La hebra de ADN es como una escalera de mano, donde cada uno de los rieles tiene “medios peldaños” de sólo cuatro sustancias: adenina, citosina, guanina y timina (ACGT). El otro riel tiene los medios peldaños correspondientes. Si un medio peldaño es de adenina, el otro será de timina, y si es de guanina, su mitad correspondiente será de citosina.

Con este sencillo alfabeto de cuatro letras se pueden “escribir” todas las proteínas de todos los seres vivos a partir de 20 aminoácidos, utilizando como intermediario al ARN, una molécula similar al una de las mitades del ADN. Cada aminoácido (salvo alguna excepción) se codifica con tres de las letras del ADN y el ARN, y su secuencia determina la proteína que se produce.

Al analizar los pequeños cambios que los genes van experimentando a lo largo de la evolución, la biología ha podido crear un árbol de la vida muy preciso, que nos sirve para calcular, por ejemplo, no sólo cuánta similitud o diferencia hay entre dos especies, como el ser humano y el chimpancé, sino también hace cuánto tiempo nos separamos de un ancestro común y empezamos a evolucionar independientemente (hace 5-6 millones de años en este caso).

Igualmente, al desandar nuestro camino evolutivo podemos encontrar ancestros comunes de otros seres. El de todos los mamiferos, por ejemplo, vivió hace unos 225 millones de años. El de todos los vertebrados nado por los océanos hace unos 530 millones de años. Y el de todos los animales hace unos 610 millones de años.

Con estos datos, hoy se postula que ese último ancestro común universal, ese “Luca” que nos recuerda la canción de Suzanne Vega era un ser unicelular más primitivo que los seres unicelulares con núcleo (procariotes) que conocemos hoy, que utilizaba el ARN para replicarse y para crear sus proteínas (el ADN fue probablemente un desarrollo posterior), vivió en un microclima menos cálido que el predominante en el planeta hace 3-4 mil millones de años y tenía algo muy similar a los genes comunes a todos los seres vivos de la actualidad.

Sin embargo, los biólogos no lo tienen claro. La transferencia horizontal de genes que haya ocurrido a lo largo de la historia de la vida, la cantidad de genes en los que pueda darse y otras variables, podrían alterar completamente nuestra visión de cómo era “Luca”.

Pero la búsqueda sigue adelante. Saber cómo era “Luca” sería un gran paso hacia la comprensión de cómo surgió la vida en nuestro planeta, lo cual a su vez nos permitiría calcular con mayor precisión las probabilidades de que haya vida en otros lugares del universo.

La probabilidad de los ancestros

El que todos los seres vivos tengamos un mismo ancestro no es una certeza, pero es lo más probable. En 2010 se calculó que el que la vida procediera de un ancestro comun era al menos 102860 veces más probable que lo hiciera de dos o más formas de vida que hubieran surgido independientemente. Un 1 seguido de 2861 ceros es un argumento de peso, sin duda alguna.

Tecnología y ciencia de los metales

La llegada del metal a la tecnología humana representó una revolución tan radical que, de hecho, continúa en nuestros días.

Casco de bronce procedente de Tracia, de
alrededor del siglo IV antes de la Era Común.
 (Foto CC de Ann Wuyts
vía Wikimedia Commons)
“La edad de piedra” es un concepto que se utiliza frecuentemente como sinónimo de falta de avance y primitivismo. Esto olvida que la tecnología de piedra desarrollada por varias especies de humanos, como los neandertales y nosotros, llegó a ser de una enorme complejidad y detalle. Y de hecho fue requisito esencial para dar el gran salto tecnológico hacia los metales.

Curiosamente, sin embargo, el primer metal que encontramos asociado a la historia humana es el oro, es decir, como riqueza y adorno antes que por su valor práctico. Según los estudiosos de la historia de los metales, la relación del hombre con el oro comenzó encontrando pepitas de este metal en los ríos. Las pepitas son producto de la erosión de vetas de oro por causa del agua. Y la primera forma de trabajar el metal fue unir pepitas de oro empleando martillos.

El oro, como la plata, el cobre, el estaño y el hierro procedente de meteoritos (cuyo contenido en cinc lo hace resistente a la corrosión), se pueden encontrar en forma metálica en la naturaleza. Estos metales, sucesivamente descubiertos y procesados mediante una tecnología en constante desarrollo, muchas veces mediante la producción de armas más eficaces y letales, como la primera hacha de cobre descubierta hasta la fecha, con una edad de 7.500 años procedentes de la cultura Vincha, en los Balcanes.

El acceso a los metales, su procesamiento y utilización, fueron esenciales para el paso del ser humano de la vida nómada del cazador recolector al establecimiento de asentamientos, pueblos, ciudades y estados cuyo poder iba en relación directa a su fuerza militar y su riqueza, ambos aspectos dependientes de los metales en una situación que no ha cambiado mucho hasta hoy.

Pero para encontrar y trabajar con los metales que no se encuentran aislados en la naturaleza, se tuvieron que desarrollar técnicas diversas. Primero, es necesario identificar el metal, es decir, reconocer las características de un mineral que indican la presencia de una cantidad de metal suficiente como que su recuperación sea económicamente viable. Una vez reconocido el mineral y su potencial de rendimiento, es necesario extraer del mineral los metales y concentrarlos (lo que se conoce también como su “beneficio”) mediante diversos procesos.

La extracción de los metales se puede realizar con agua a la que se añaden otras sustancias para disolver en ella los minerales y recuperar los metales mediante procesos como la precipitación, la destilación o la electrólisis entre otros. O bien se puede realizar utilizando el calor de varias formas. La fundición como proceso de extracción, por cierto, no implica simplemente fundir el metal para separarlo del mineral, ya que en la mayoría de los minerales el metal no está presente como elemento, sino como parte de compuestos químicos, como por ejemplo óxidos, sulfuros, cloruros o carbonatos. La fundición emplea el calor y otras sustancias para que reaccionan con los otros elementos del compuesto para obtener el metal libre, a veces realizando procesos previos que alteran los compuestos químicos convirtiéndolos en otros más adecuados para la extracción.

El metal refinado puede procesarse para darle distintas formas y modificar algunas de sus características originarias para que sirvieran mejor a diversas necesidades. Uno de los mejores ejemplos de estos procesos es el forjado, durante el cual un metal calentado al rojo vivo es golpeado para darle forma y hacer que sus características sean uniformes en toda su extensión, como se hace con las espadas, y después se tiempla, aumentando y disminuyendo su temperatura de forma controlada para alterar su estructura cristalina y hacerlo más resistente, más dúctil y maleable, menos propenso a desarrollar grietas y menos duro.

Los metales que conocemos y usamos generalmente no están formados por un solo elemento, sino que son aleaciones como el bronce (aleación de cobre y estaño) o el acero (de hierro y carbono). Los componentes minoritarios de las aleaciones sirven también para alterar y controlar las características físicas del metal principal, aumentando de modo asombroso la diversidad de sus aplicaciones. Lo que llamamos aluminio es en realidad una variedad de aleaciones cuyo principal componente es, efectivamente, aluminio en más del 90%, pero aleado con diversos metales y en variadas cantidades.

Así, por ejemplo, el aluminio de una lata de una bebida comercial es una aleación llamada 3104-H19 o una similar, con aproximadamente 1% de magnesio y 1% de manganeso, pero la tapa se fabrica con la aleación 5182-H48, más rígida y dura (la “H” de la denominación del a aleación significa ‘hardness’, dureza en inglés), y la lengüeta para abrir la lata es de otra aleación más.

Hoy sería difícil imaginar un mundo con sólo siete metales, que eran los que la humanidad conoció desde la antigüedad y hasta el siglo XIII. Además de oro, plata, hierro y cobre, se conocían el plomo, el estaño y el misterioso mercurio, el metal líquido que ha fascinado a la humanidad desde el primer emperador chino, Chin Shi Huandig, quien murió envenenado por consumirlo creyendo que prolongaba la vida. En la Edad Media se descubrieron apenas cuatro metales más (arsénico, antimonio, cinc y bismuto), el platino en el siglo XVI, doce metales más en el siglo XVIII, mas de cuarenta en el siglo XIX y los restantes metales naturales, además de los transuránidos sintetizados por el hombre, en el siglo XX.

Pese a que hoy conocemos todos los metales y sus características, en gran medida se puede decir que seguimos viviendo la edad del hierro. Nuestro mundo tecnológico es fundamentamente de acero, una aleación de hierro con carbono y otros diversos metales que permiten que lo utilicemos para una variedad de aplicaciones más amplia que la de ningún otro metal, desde la humilde hoja de afeitar hasta los cohetes espaciales.

Sin embargo, el maravilloso logro que es la Estación Espacial Internacional no es de acero, es fundamentalmente del mismo metal que una lata de refresco: aluminio.

La abundancia de los metales

Los metales son la mayoría de los elementos que existen en el universo. De los 92 elementos naturales, 86 son metales, aunque el elemento más abundante sea el hidrógeno. Una cuarta parte de la corteza terrestre está formada por metales diversos, de los cuales los más abundantes son el aluminio, el magnesio, el estaño, el hierro y el manganeso. El núcleo del planeta es principalmente de hierro. En cambio nosotros tenemos pocos metales y en pequeñas cantidades, pero esenciales para la vida: calcio, sodio, magnesio, hierro, cobalto, cobre, cinc, yodo, selenio forman menos del 4% de nuestro cuerpo.

De qué está hecho el universo

Puede parecernos evidente que lo que hay a nuestro alrededor no es uniforme, que no todo tiene el mismo color, textura, dureza, densidad y otras propiedades. Un trozo de metal y una rama de árbol, un vaso de agua y un venado son claramente distintos.

Monumento a Mendeleev y su tabla periódica en la
Universidad Tecnológica de Bratislava
(Foto CC de mmmdirt, usuario de Flickr,
vía Wikimedia Commons)
Ya en los albores de la historia humana, esto llamaba al asombro. ¿Cuáles eran los componentes de las cosas, las sustancias esenciales que las hacían tan distintas? Entre los griegos, las distintas escuelas filosóficas se inclinaron por distintos componentes básicos que no se pudieran subdividir en más componentes o sustancias distintas.

Según las reflexiones de Tales de Mileto, el elemento primordial de toda la materia era el agua. Pocos años después, Anaxímenes, también en Mileto, basó toda su filosofía en la idea de que el material esencial del universo era el aire. Y apenas unos años después, el brillante Heráclito de Efeso que enunció el concepto de que “todo fluye, nada permanece”, argumentó que el elemento más fundamental era el fuego.

No mucho tiempo pasó antes de que Empédocles intentara la síntesis de los maestros anteriores diciendo que los tres elementos enunciados eran todos componentes básicos del cosmos, añadiéndoles la tierra para tener los cuatro elementos o raíces que se convirtieron en la creencia fundamental del mundo occidental gracias a su adopción por parte de Aristóteles. En China se creyó en cinco elementos: fuego, tierra, agua, metal y madera, mientras que los indostanos y budistas argumentaron sobre los tres elementos del zoroastrianismo: fuego, agua y tierra (luego añadirían el aire y el éter). En las tres culturas se intentó clasificar todo según el número de los elementos de su filosofía, especialmente el misterio de la vida. Los griegos creían que el cuerpo humano estaba formado por cuatro humores, base de toda la medicina occidental precientífica. Los chinos en cambio postularon cinco funciones de la energía vital mística llamada “chi”, y con ello diseñaron su medicina precientífica. Y los indostanos argumentaron que el cuerpo estaba controlado por tres doshas o fuerzas, sobre las que crearon su propia práctica médico-mística.

Estas ideas consideraban a los “elementos” como una fuerza más bien mística, sin relación con los elementos químicos que ya se conocían y utilizaban, algunos desde la prehistoria, como el cobre, el oro, el plomo, la plata, el hierro, el carbono y otros más. Los metales, en particular, eran objeto del interés de la alquimia que intentó transmutar de unos en otros utilizando los cuatro elementos clásicos y procedimientos más bien mágicos.

El paso al estudio científico de la química llegó de la mano de Robert Boyle en 1661, cuando publicó en Londres su libro ‘El químico escéptico, o dudas y paradojas quimico-físicas’, donde relataba sus experiencias, lanzaba un llamamiento a que los químicos experimentaran, estableciendo que precisamente los experimentos indicaban que los elementos químicos no eran los cuatro clásicos.

Con este libro, Boyle sentó las bases de una disciplina distinta de la alquimia; una disciplina científica, rigurosa, donde sólo se podía considerar verdadero lo que hubiera sido probado experimentalmente. La nueva química, aunque usaba herramientas y procesos de la alquimia, era algo radicalmente nuevo y diferente, que en breve marcó el fin de la alquimia y sus apasionantes especulaciones.

El libro de Boyle fue el banderazo de salida para la reevaluación de todo lo que se había creído sobre la composición del universo. Desde el descubrimiento del fósforo en 1669 a cargo del alemán Hennig Brand, todavía alquimista, comenzó una sucesión de descubrimientos de otros elementos químicos, casi una veintena sólo en el siglo XVIII y más de 50 en el siglo XIX.

En 1787, el francés Antoine de Lavoisier, descubridor del oxígeno y el hidrógeno (demostrando así que el aire no era un elemento esencial sino una mezcla), hizo la primera lista de 33 elementos, tratando de normalizar tanto la nomenclatura de los mismos como la de los compuestos que forman, en el primer esfuerzo por sistematizar la química como disciplina.

En los años siguientes, el descubrimiento de nuevos elementos y la observación de sus propiedades y la forma en que creaban compuestos, con qué otros elementos se combinaban más frecuentemente, y las características de los mismos compuestos, se empezó a vislumbrar que los elementos tenían una peculiar característica llamada “periodicidad”, es decir, que organizados de acuerdo a sus números atómicos, algunos elementos compartían propiedades químicas que se repetían periódicamente.

En 1869, un profesor de química, el ruso Dmitri Ivanovich Mendeleev, publicó una tabla de los elementos que los ordenaba por su peso atómico pero en columnas que indicaban la repetición de las características químicas de los elementos. Así, por ejemplo, los llamados “gases nobles”, helio, neón, argón, xenón, kriptón y radón son todos gases cuyas moléculas tienen un solo átomo, no son inflamables en condiciones normales y tienen muy poca reactividad química, de modo que están en la misma columna pese a sus diversos pesos químicos.

Mendeleev incluyó en su tabla todos los elementos conocidos hasta entonces, pero además predijo las propiedades químicas que deberían tener los elementos no conocidos, según su peso atómico: el germanio, el galio y el escandio. Estas predicciones se confirmaron conforme se descubrieron dichos elementos, y otros nuevos que también ocupaban su lugar en la tabla de Mendeleev.

En la naturaleza existen 92 elementos. El hidrógeno, el más ligero tiene un protón en su núcleo, y por tanto tiene el número atómico 1. El uranio, en el otro extremo de la tabla, tiene 92 protones y es el más pesado de los elementos que se encuentran en la naturaleza. Más allá del uranio hay elementos con más de 92 protones en su núcleo que ha producido el hombre artificialmente, y son todos radiactivos. A la fecha se han sintetizado elementos con hasta 118 protones, de algunos de los cuales sólo se han detectado literalmente unos pocos átomos porque se degradan rápidamente.

Así podemos responder que el universo, en toda su complejidad, está hecho de materia en la forma de sólo 92 elementos, y, claro, de energía.

El año internacional de la química

La Unión Internacional de Química Pura y Aplicada y la UNESCO han designado a 2011 como el Año Internacional de la Química, y ha preparado una serie de actividades para dar a conocer mejor las aportaciones e importancia de la química en nuestra vida, bajo el tema “Química: nuestra vida, nuestro futuro”. En España, esta conmemoración estará encabezada por el Foro Química y Sociedad, con concursos, conferencias, actividades prácticas y un camión científico, Movilab, que recorrerá España con talleres para todas las edades.

Cómo se hace un fósil

Reconstrucción de Tyrannosaurus Rex
en el Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
El proceso natural de la vida incluye, como uno de sus principios más esenciales, la descomposición de los cuerpos de los seres que han muerto.

Ya sean minúsculas bacterias, insectos de duro exoesqueleto, grandes árboles o enormes animales, sus componentes se someten a reciclaje prácticamente desde el momento mismo de su muerte. La naturaleza no desperdicia nada y, al paso del tiempo, todos se degradan, incluso los más fuertes o sólidos, como huesos, dientes o caparazones.

Sin embargo, nuestro conocimiento de la vida depende de los rastros que se conservan de los seres que vivieron en el pasado remoto. Esos restos son los fósiles, evidencias físicas que nos cuentan cómo fue la vida y cómo evolucionó para llegar hasta donde estamos hoy.

En general, cuando hablamos de fósiles pensamos en objetos hechos de piedra: huesos, impresiones de partes blandas de plantas y animales o, incluso, pisadas y hasta excrementos. Pero también son fósiles los seres que han quedado atrapados en el hielo, como los mamuts congelados durante la última glaciación; en resinas, como los insectos que podemos encontrar en el ámbar, o en turberas y pozos de alquitrán o parafina. Y también restos desecados como momias.

Para utilizar los fósiles en el proceso de reconstrucción de la vida en el pasado, primero debían reconocerse como restos de seres vivos, algo que no es tan trivial como parece. Para algunos como el filósofo Jenófanes del siglo VI antes de la Era Común, eran clara evidencia de seres vivos, al grado de que propuso que los fósiles marinos hallados en tierra eran evidencia de que esa área en el pasado había estado cubierta por agua, hipótesis que hoy sabemos certera.

Sin embargo, más de dos mil años después, en 1677, el naturalista inglés Robert Plot publicaba un libro que seguía sosteniendo otra hipótesis, popular a lo largo de toda la historia, según la cual la tierra tenía la propiedad de generar en su interior cosas con las mismas formas que tenía en su superficie. Así, describió rocas que se asemejaban a flores, ojos, orejas y cerebros humanos. Esto casaba además con la idea de la “generación espontánea” de Aristóteles, que creía que los fósiles eran ejemplos incompletos de las “semillas de la vida” que la tierra generaba espontáneamente.

En general, sin embargo, los distintos pueblos que encontraban restos fósiles les dieron explicaciones míticas relacionándolos con animales como el grifo, los dragones y las quimeras, o bien los explicaban como razas de gigantes (animales o humanos) que habrían vivido antes de algún desastre cósmico como los fines de las eras entre los aztecas o el diluvio universal en el cristianismo europeo. E incluso, como cuenta el paleontólogo José Luis Sanz, en la zona de Cameros las huellas fósiles de manos y pies de dinosaurios se interpretaron durante mucho tiempo como pertenecientes al caballo del apóstol Santiago.

No fue sino hasta principios del siglo XIX cuando tres naturalistas ingleses Willliam Buckland, Gideon Algernon Mandell y Richard Owen, y uno francés, Georges Cuvier, empezaron el estudio sistemático, ordenado y científico de los fósiles, descubriendo en el proceso la existencia de numerosos animales prehistóricos, entre ellos un grupo de reptiles antiquísimos y, muchos de ellos, enormes: los dinosaurios. Empezaron así a reunir datos que señalaban que la Tierra era un planeta mucho más antiguo de lo que jamás habíamos creído hasta entonces, y que la vida antes de nosotros había sido tremendamente compleja y muy distinta de la que narraba la Biblia.

¿Podemos hacer un fósil?
La fosilización más conocida es aquélla en la que los huesos y dientes de los animales o los tejidos de las plantas se ven sustituidos por minerales diversos, reproduciendo la forma y tamaño que tuvieron, pero no su peso, color o composición química. Este proceso debe ocurrir en una zona donde los restos se vean recubiertos bastante rápidamente por sedimentos, por ejemplo, hundiéndose en el lecho de un cuerpo de agua.

Los restos en esas condiciones pueden sufrir varios procesos. En uno, llamado permineralización, los sedimentos a su alrededor se endurecen formando roca sedimentaria y crean un molde de los huesos y, en ocasiones de los tejidos blandos, mismos que finalmente se descomponen. Este molde externo es en sí un fósil. Pero en algunos casos, las corrientes de agua pueden depositar minerales en el “molde” hasta reproducir un vaciado de la materia original. En otra, el hueso puede verse reemplazado gradualmente con otros minerales, preservando además del aspecto externo gran parte de la estructura interna de huesos, caparazones y dientes.

Hay otras formas de fosilización, entre ellas la recristalización de las sustancias de los restos, la adpresión con la que se preservan impresiones (como las huellas de dinosaurios o los pocos ejemplos de moldes de piel, alas y plumas), y un proceso mediante el cual los huesos de un organismo rodean y conservan a otro, o al menos su impresión.

La fosilización puede ocurrir en unos pocos años o desarrollarse a lo largo de prolongados períodos. Además, para que los paleontólogos puedan hallar estos fósiles, los estratos sobre ellos deben erosionarse para que afloren nuevamente. En ese tiempo pueden ocurrir numerosos percances que destruyan los restos, como terremotos o erupciones volcánicas.

Es por ello que la fosilización es un fenómeno muy infrecuente. Aunque existen microfósiles que nos ayudan a contar la historia de la vida en nuestro planeta desde hace unos 4 mil millones de años, suelen fosilizarse principalmente seres con conchas o caparazones, seres muy extendidos geográficamente y los que vivieron durante mucho tiempo antes de extinguirse. Esas tres características aumentan la probabilidad de fosilización.

Por ello mismo, el registro fósil, es decir, la colección de todos los fósiles que conocemos, es una imagen incompleta de la historia de la vida. Nos faltan restos de un número indeterminable de especies de cuerpo totalmente blando, o que sólo vivían en pequeñas zonas geográficas, o que no existieron durante mucho tiempo, ya sea por extinguirse o porque evolucionaron hacia otras formas.

Los seres que faltan

Los paleontólogos apenas han explorado una mínima parte de la superficie de nuestro planeta y menos aún de sus profundidades. Aún si hay pocos fósiles, también sabemos que apenas hemos descubierto una fracción minúscula de las especies que nos precedieron en estos miles de millones de años. Si hemos clasificado más de 520 géneros de dinosaurios (cada uno con varias especies), los expertos calculan, conservadoramente, que pudo haber casi dos mil géneros distintos. Y si hablamos de seres más abundantes y variados, como los insectos, el cálculo es aún más difícil y enorme. Por más que aprendamos siempre queda mucho, muchísimo más por saber.

El minúsculo centro de nuestras emociones

Amygdala
Imagen del cerebro con las
amígdalas señaladas en rojo
(CC de Life Science Databases (LSDB),
vía Wikimedia Commons
Aproximadamente a la altura de nuestros ojos, en lo más profundo de la base de nuestro cerebro, directamente debajo de la corteza, existen dos pequeñas estructuras con la forma y el tamaño de dos almendras a las que se llama, precisamente, “amígdalas”, que es la palabra griega para “almendra”, una en cada lóbulo cerebral.

Estos cuerpos son parte esencial del sistema límbico, un complejo circuito neuronal que controla el comportamiento emocional y los impulsos que nos mueven a hacer las cosas, y tienen numerosas y complejas conexiones con el resto del sistema límbico, el hipotálamo, el tallo cerebral, la corteza cererbral y otras estructuras de nuestro sistema nervioso central.

Las amígdalas, formadas por varios núcleos, son responsables, entre otras cosas, de nuestra capacidad de sentir miedo. Una lesión en estos pequeños cuerpos y podríamos pasar sin miedo entre una manada de leones hambrientos. El miedo es un viejo compañero desagradable que nos mantiene vivos, como el dolor.

El cerebro está formado por capas que la evolución ha ido añadiendo, con las más antiguas debajo y las más modernas encima, como si fueran los estratos geológicos de la Tierra. Las estructuras más antiguas tienen alrededor de 500 millones de años, y corresponden a nuestro tallo cerebral y cerebelo. Después aparecieron las estructuras conocidas como ganglios basales, que se ocupan del control motor y las emociones, entre ellas todo el sistema límbico, incluidas las amígdalas. Finalmente, la estructura más reciente es la corteza cerebral, que en el caso de los seres humanos es la principal responsable de interpretar la información de los sentidos, realizar asociaciones y desarrollar el pensamiento creativo y racional.

La antigüedad evolutiva de las amígdalas se explica precisamente por su función en la descodificación y el control de las respuestas autonómicas (es decir, no voluntarias) asociadas al miedo, la excitación sexual y la estimulación emocional en general. Dado que un sistema de alarma así es fundamental para sobrevivir, había una real presión de selección para su desarrollo. Una de las principales funciones de la amígdala es que recordemos situaciones que nos puedan haber dañado y las evitemos en el futuro.

En 1888, Sanger Brown y Edward Albert Shäfer publicaron sus estudios. Habían extirpado quirúrgicamente partes del cerebro de monos rhesus y observado los cambios en la conducta de los animales. Su trabajo fue retomado en la década de 1930 por Heinrich Klüver y Paul Bucy, y sucesivos investigadores que pudieron determinar que al extirparse la amígdala a los monos con los que trabajaban, éstos dejaban de mostrar temor, entre otras alteraciones conocidas precisamente como Síndrome de Klüver-Bucy.

Por otra parte, si las amígdalas se estimulan eléctricamente, evocan el comportamiento de miedo y ansiedad tanto en humanos como animales, un comportamiento que es, en realidad, una compleja colección de respuestas: aumento en la tensión arterial, liberación de hormonas relacionadas con el estrés, gritos u otros ruidos e incluso la congelación o inmovilización total, lo que llamamos en lenguaje coloquial quedar “paralizados por el miedo”.

Con el tiempo se ha demostrado que estas pequeñísimas estructuras participan en una asombrosa variedad de actividades de nuestro cerebro, recibiendo información, procesándola y enviando impulsos a distintas zonas del cerebro para la liberación de neurotransmisores y hormonas que influyen en nuestras emociones. Por ejemplo, la noradrenalina, hormona que prepara al cuerpo para pelear o huir, aumentando la frecuencia cardiaca, liberando glucosa para atender las necesidades de los músculos, y aumentando el flujo de sangre a los mismos y el cerebro (retirándolo de otras zonas, lo que explica por qué palidecemos cuando tenemos miedo), entre otros efectos.

Si la amígdala es esencial en el aprendizaje motivado por el miedo, como cuando aprendemos a no meter la mano en el fuego por temor a repetir una experiencia dolorosa, se ha determinado que los pequeños núcleos de las amígdalas también juegan un papel en el aprendizaje que se consigue con estímulos positivos, como los alimentos, el sexo o las drogas.

La amígdala es como un centro complejísimo, y diminuto, de procesamiento de emociones que controla la memoria no sólo dentro de sus estructuras, sino a nivel de todo el cerebro, generando recuerdos, ordenando almacenarlos y echando mano de ellos para evaluar situaciones en las que nos podamos encontrar.

Esto tiene implicaciones importantes para quienes padecen de estrés excesivo, ansiedad, depresión, ataques de pánico y otros trastornos en los cuales la amígdala se comporta (o es llevada a comportarse) de modo extremo. Conocer estas estructuras y su funcionamiento guarda una gran promesa para manejar mejor, ya sea por medio de fármacos, psicoterapia u otro tipo de intervención, alteraciones emocionales y de conducta que muchas veces son socialmente incapacitantes para muchas personas.

Lo que sabemos de este centro esencial de nuestras emociones es, sin embargo, aún muy poco y muy impreciso. Como ejemplo, se ha determinado que el tamaño de la amígdala está correlacionado con nuestras redes sociales, mientras más grande sea nuestra amígdala, mayor será el número de amigos y conocidos que tengamos. Aún si esto es cierto, quedaría por saber si una amígdala grande nos hace más amistosos, o las relaciones sociales provocan que crezca la amígdala… o bien, como muchas veces pasa en ciencia, que haya un tercer elemento que afecte ambos temas o bien, incluso, que la correlación sea una simple coincidencia irrelevante.

Algo que sí sabemos es que no tenemos que ser esclavos de nuestros miedos y ansiedades. Tanto la experiencia de las personas controlando su miedo como las complejas conexiones anatómicas de la amígdala nos recuerdan que tenemos estructuras mentales que complementan, y pueden dirigir, al sistema autonómico del que la amígdala es parte importante. El miedo es útil como sistema de alarma, pero es también controlable.

La mujer sin miedo

A fines de 2010 se conoció el caso de una mujer estudiada en Estados Unidos que es normal en inteligencia, memoria y lenguaje, y puede experimentar todas las emociones … salvo el miedo. Recuerda haber sentido miedo cuando en su adolescencia la acorraló un perro, pero nunca después de que una enfermedad, la proteinosis lipoide, destruyó sus amígdalas. Una noche, en un parque, se acercó sin más a un sujeto de amenazante aspecto, que la amenazó con un cuchillo. La misma falta de temor que la metió en el problema al parecer sirvió para que su atacante la dejara ir inquieto por su reacción. Pero a la noche siguiente, volvió a cruzar el parque sin ninguna preocupación ni miedo.

Astrología, historia de una ilusion

Astrologer-ad
Anuncio de un astrólogo en EE.UU.
siglo XIX.
(Imagen D.P. via Wikimedia Commons)
Entre las formas de predicción más populares está una vieja conocida del hombre, la astrología, un nombre relativamente inocente que significa, “estudio de los astros”, pero cuya pretensión es usarlos para predecir el futuro. Toda forma adivinatoria basada en la observación del cielo y los objetos que hay en él es “astrología”, sea china, hindú o maya. La prevaleciente en el mundo occidental es la astrología solar en los doce “signos” o constelaciones del zodíaco.

El zodíaco es un anillo de constelaciones situado en la ruta que el sol parece recorrer durante el año en la esfera celeste, una banda de unos 16 grados de ancho llamada eclíptica. La astrología supone que estas constelaciones se corresponden con doce signos en los que se divide la eclíptica, y que su posición en relación con los planetas tiene un significado que puede interpretarse. Para la astrología, curiosamente tanto el sol como la luna son planetas, además de Mercurio, Venus, Marte, Júpiter y Saturno, que son los planetas conocidos desde la antigüedad.

La idea de que estas constelaciones y cuerpos celestes o “planetas” tenían alguna influencia sobre la vida humana y sus acontecimientos es parte de todo el esquema de las adivinaciones, es decir, del intento de ver el futuro mediante la inspiración divina, interpretando (con ayuda de los dioses) algunas “señales” presentes a nuestro alrededor o utilizando algún otro medio. Si se creía que el futuro estaba predeterminado, lo que tenía que hacer el adivinador para conocerlo era descifrar algún código colocado por la divinidad: el vuelo de las aves, la disposición de las entrañas de un animal sacrificado, las líneas de la mano, el agua, el fuego, la disposición de las hojas del té o los posos del café, los reflejos en una bola de cristal y, literalmente, cientos de formas adivinatorias más.

Si tantas cosas podían ser señales del destino esperando a ser descifradas, también podría serlo la posición de los planetas (cuerpos celestes que se movían en relación con la bóveda celeste, por algo su nombre significa, precisamente, “vagabundo” en griego) y las constelaciones, peculiares agrupamientos de estrellas que parecían estáticas unas respecto de las otras, formando dibujos que sugerían distintos animales y seres preternaturales.

La astrología tiene su origen en la Babilonia del siglo IV antes de la Era Común, pero no fue sino hasta el siglo II de nuestra era cuando Claudio Ptolomeo, científico y astrólogo romano de Alejandría, sistematizó la astrología que conocemos hoy en día, y que se popularizó entre los romanos y, por su intermedio, llegó a la Europa conquistada. En el medievo, fue practicada en el mundo musulmán (y criticada con bases científicas) y en Europa, donde convivió con la astronomía, pero con poca relevancia. En el Renacimiento resurgió brevemente como parte del interés de la época por el universo, pero pronto volvió a los márgenes de la sociedad donde se mantuvo durante la Ilustración y la Revolución Industrial.

Fue sólo a comienzos del siglo XX cuando la astrología experimentó un renacimiento en los Estados Unidos y de allí volvió a popularizarse en todo el mundo en la forma en que actualmente la conocemos y que, ciertamente, no es milenaria ni tradicional.

A lo largo de los siglos se han señalado algunos de los sinsentidos que caracterizan a la astrología. Si los objetos celestes nos afectan, ¿por qué habrían de afectarnos sólo las constelaciones del zodíaco y no los cientos de miles de millones de estrellas más que hay en el universo, muchas de ellas más cercanas? Después de todo, las constelaciones son ilusiones debidas a nuestro punto de vista, pero los astros que las componen pueden estar a enormes distancias entre ellos. Tan solo en la constelación de Perseo, como ejemplo, tenemos el sistema de tres estrellas Algol a 93 años luz de nosotros, y también un grupo de estrellas llamado NGC 869 que está a la friolera de 7600 años luz. ¿No es raro que los cuerpos estelares sean tan selectivos con nosotros?

Un problema más grave es que las constelaciones del Zodiaco no son doce, sino 13. En efecto, el sol pasa por la constelación de Ofiuco durante más de la mitad de diciembre. Y otro aún más interesante es que el eje de rotación de nuestro planeta no es estático, sino que va cambiando lenta pero inexorablemente en un proceso llamado “precesión” debido a la gravedad de la luna y el sol. La consecuencia de esta precesión es que las constelaciones del zodiaco ya no están donde estaban cuando Claudio Ptolomeo hizo sus cálculos. Así, si usted nació el 1º de enero, los astrólogos le dirán que sus características son las del signo de Capricornio, cuando en la actualidad el sol está en el signo de Sagitario.

Pero nada de esto importaría, claro, si la astrología funcionara… es decir, si pudiera predecir el futuro o al menos describir correctamente a las personas divididas en 12 categorías claramente diferenciadas. Sin embargo, todos los estudios que se han hecho tratando de demostrar que las descripciones astrológicas se corresponden con la realidad han sido incapaces de demostrar una relación estadísticamente significativa entre las predicciones astrológicas y lo que realmente ocurre.

Pero, ¿por qué hoy en día hay personas que creen que la astrología tiene algo relevante que decirnos pese a que evidentemente no sirve para predecir cosas importante, como cuándo hay que evacuar un edificio porque va a haber un incendio? En buena medida, dicen los psicólogos, porque queremos creer, y también porque los astrólogos suelen expresar sus “lecturas” en términos tan vagos y generales que son aplicables a cualquier persona, un efecto conocido como “efecto Forer”. Finalmente, como toda forma de adivinación, se apoya en que tendemos a recordar los aciertos y no los fallos. Si se hacen numerosas predicciones, alguna de ellas acabará cumpliéndose, y nuestra buena fe, mejor entusiasmo y mala memoria ayudan a que olvidemos todas las que nunca se cumplieron.

La astronomía no viene de la astrología

Contrario a lo que se suele creer, la observación sistemática de los cielos y su significado (por ejemplo, el ciclo de los solsticios y equinoccios para definir el momento de siembra y cosecha) y los cálculos matemáticos astronómicos datan de hace más de 3500 años. La astronomía y la astrología nacieron juntas, pero independientes, y así han estado durante toda la historia. Para los babilonios, egipcios y griegos, la astronomía ya era un asunto distinto de la astrología, mientras que en el Renacimiento muchos de los astrónomos que revolucionaron nuestro conocimiento del universo, como Tycho Brahe y Galileo, eran también astrólogos, sin mezclar ambas actividades y sin que sus creencias influyeran en los hechos que estudiaban, cosa que identifica al buen científico.

La ciencia de la nieve

Copo de nieve tomado con un
microscopio electrónico
(foto D.P. Depto. de Agricultura de
EE.UU. vía Wikimedia Commons)
El solsticio de invierno es sinónimo con la nieve, al menos en las latitudes al norte de los trópicos donde las estaciones son más acusadas. Y sin embargo, entre los trópicos, la gente gusta de imaginarse la nieve, decorar sus árboles (herederos de la vieja tradición druídica adoptada por el cristianismo) con nieve artificial y soñar que su paisaje sufra la tremenda transformación que implica la caída de un manto de nieve.

Quizá la nieve sea la forma más apasionante y atractiva que puede asumir el agua. Y es también, alternativamente, un desafío apasionante (o, mejor dicho, muchos desafíos apasionantes distintos) para la ciencia, un peligro cuando se descontrola – ya sea al caer o al deslizarse en avalanchas –, una inspiración deportiva para actividades como las diversas formas de esquí, el snowboard o las carreras en trineo, una fuerza de la selección natural debido a la que muchos animales que viven en la nieve tengan un rico pelaje blanco… y un excelente material para jugar.

La nieve se forma en regiones de la atmósfera donde el aire tiene un movimiento hacia arriba alrededor de un sistema de baja presión al que los meteorólogos llaman “ciclón extratropical”, en condiciones de muy baja temperatura (de 0 ºC o menos) y de un elevado contenido de humedad.

El agua de los copos de nieve está “superenfriada”, porque las moléculas de agua suspendidas en la atmósfera pueden mantenerse sin congelarse hasta los -35 ºC a menos que se reúnan alrededor de un núcleo de polvo, arcilla, arena, bacteria o cualquier otra partícula que pueda hallarse suspendida en el aire. No es sino hasta llegar a menos 35 grados que se pueden formar copos sin necesidad de polvo. Una vez que comienza el proceso de congenación, rápidamente se forman cristales de agua.

La forma característica del copo de nieve hexagonal plano que con frecuencia se utiliza para representar las festividades de la época, es sólo una de las que pueden adoptar los cristales de nieve. En función de la temperatura y la humedad del ambiente, se pueden dar también cristales en forma de agujas, de columnas huecas o de prismas, o copos de nieve tridimensionales llamados “dendritas”, entre otros muchos, incluidas unas curiosas columnas que desarrollan un cristal hexagonal en un extremo, y bolas que son resultado de sucesivas congelaciones y descongelaciones que ocurren mientras los cristales de nieve aún están suspendidos en la atmósfera, incluso mientras caen.

La nieve no se clasifica solamente por la forma y tamaño de los copos, sino también por su velocidad de acumulación y la forma en que se reúne en el suelo. La ideal “nieve polvo” de los esquiadores es una nieve ligera, muy seca y suave, a veces tanto que con ella no se pueden hacer bolas de nieve porque se deshace. Sin embargo, desde el momento en que la nieve se deposita en el suelo, se ve sujeta a la compactación y a cambios de temperatura en ciclos de congelación y descongelación que van haciendo que esta nieve polvo se vuelva granular, desarrolle una capa o costra de hielo y acabe convirtiéndose ya sea en hielo o en agua fangosa.

La compactación es fundamental para algunos de los usos más festivos de esta forma de agua, como las guerras de bolas de nieve y la fabricación de esculturas en nieve, desde el más sencillo y común muñeco hasta las fantasías nevadas que año tras año producen escultores especializados en este material.

Uno de los principales estudiosos de la nieve, el Dr. Ed Adams, investigador de materiales en la Universidad de Montana, destaca la enorme complejidad que se oculta detrás de la aparente sencillez de la nieve: “si pongo una caja de nieve en la nevera y vuelvo una hora después, habrá cambiado significativamente”.

Avalanchas

El estudio de las avalanchas o aludes, deslizamientos de nieve que se cobran numerosas víctimas todos los años, es una de las más activas áreas de investigación de este peculiar material, y la que ocupa al Dr. Adams.

Como ocurre con las erupciones volcánicas, los terremotos y otros desastres naturales, grandes esfuerzos se han invertido en tratar de predecir cuándo ocurrirán. En el caso de las avalanchas, además, es posible provocarlas preventivamente (y, se espera, controladamente) utilizando sistemas como cargas explosivas.

La complejidad de la nieve es un elemento clave en la formación de avalanchas. Las zonas de acumulación de nieve no son uniformes, sino que están formadas de capas con distintas propiedades y a distintas temperaturas, que se mantienen unidas entre sí y sobre la tierra por la fricción de los cristales entre sí.

En pendientes de entre 25 y 60 grados de inclinación, se pueden formar acumulaciones o losas de nieve. Cuando la fricción disminuye y se presenta además un detonante (como un árbol que cae, un cambio brusco en la temperatura y, casi nunca, por un ruido fuerte como suele presentarlo Hollywood), la nieve se desliza sobre las capas inferiores o directamente sobre el suelo, arrasándolo todo a su paso.

El estudio de las avalanchas se ha llevado al laboratorio para duplicar las condiciones que afectan a la nieve. El Dr. Adams ha concluido así que la causa más común de las avalanchas es una capa débil de nieve sobre una más sólida. Las capas débiles tienen cristales con facetas que tienen menor fricción y por tanto se pueden deslizar más fácilmente en lugar de permanecer unidos al resto de la nieve. La comprensión de la dinámica de la capa superior de las acumulaciones de nieve, espera el Dr. Adams, puede mejorar la predicción de las avalanchas.

Una mejor predicción de las avalanchas nos ayuda a tener una blanca navidad más segura. Lo que nos lleva a un último aspecto de la nieve que ha ocupado a la ciencia: ¿por qué es blanca? El impactante color de la nieve se debe a que el hielo es traslúcido, y la luz se refracta o cambia de dirección al pasar del aire al agua congelada que forma los cristales de nieve, de nuevo al pasar al aire y luego al chocar con otro cristal en otra posición. En resumen, la luz “rebota” por los cristales hasta que sale nuevamente de la nieve. Y como el hielo refracta de igual modo las distintas frecuencias de la luz, la que sale de la nieve es tan blanca como la luz del sol que entra en ella.

¿Los 400 nombres de la nieve?

Uno de los mitos más extendidos respecto de la nieve es que los pueblos inuit tienen una gran cantidad de palabras para distintos tipos de nieve. En 1911 el antropólogo Franz Boaz comentó que los inuit tenían cuatro palabras para la nieve, y… la bola de nieve creció hasta hablar de 400 vocablos. Resultó falso. Las lenguas de los grupos inuit tienen a lo mucho dos palabras para nieve. Siendo muy laxos, se contaría a lo mucho una docena, según el lingüista Steven Pinker. Pero incluirían los sinónimos de palabras en español como “ventisca”, “avalancha” y “granizo”.

Somos ecosistemas

House Dust Mite
Ácaro común del polvo, Dermatophagoides
pteronyssinus.
(foto D.P. gobierno de los EE.UU.,
vía Wikimedia Commons) 
La idea de tener parásito nos horroriza y, sin embargo, asombrosas cantidades de seres vivos que nos habitan e incluso nos ayudan a vivir.

El piojo, la pulga, las infestaciones por hongos y, por supuesto, las abundantísimas infecciones ocasionadas por bacterias, protozoarios e incluso virus conforman una enorme proporción de las enfermedades que pueden afectarnos. Pero hay otros muchos seres que viven en nosotros y de los que habitualmente no estamos conscientes. Quizá, en gran medida, porque la sola idea de albergar diversos seres vivos es difícil de tolerar para muchas personas.

Afortunadamente, es imposible deshacernos de la enorme cantidad de seres vivos que viven en nosotros y sobre nosotros. Han sido siempre parte de nuestra vida y la de nuestros antepasados, y muchas de las especies que nos habitan no sólo no nos causan daños, sino que tienen una relación mutualista con nosotros, realizando tareas benéficas y con frecuencia fundamentales para nuestra vida.

Y si pretendemos tener una mayor cosciencia ecológica, es oportuno asumir también que nosotros, nuestro cuerpo, somos un entorno ecológico, con nichos de gran diversidad que atraen a habitantes igualmente variados y que nos acompañan desde el momento del nacimiento en nuestra piel, en nuestro tracto respiratorio y en el tracto digestivo. Son parte de lo que somos.

Los seres vivos más conocidos que viven en nosotros, y que nos parecen los menos amenazantes, son las numerosas bacterias y otros microorganismos que conforman nuestra “flora intestinal”, esencial para la vida aunque, si sale del entorno donde nos resulta útil, se pueden volver patógenas. En casos de ruptura de nuestros órganos, por ejemplo, esas mismas bacterias causan la infección de la cavidad abdominal llamada peritonitis.

Los participantes más conocidos de la flora intestinal, debido a la publicidad a veces exagerada de ciertos productos, son los del genus Bifidobacterium, unas bacterias que viven sin necesidad de oxígeno y que ayudan a la digestión, colaboran con el sistema inmunitario y fermentan ciertos carbohidratos. Estas bacterias conviven en nuestro tracto intestinal (y en la vagina), con los lactobacilos, que convierten la lactosa y otras azúcares en ácido láctico, provocando en su entorno niveles de acidez que impiden la proliferación de otras bacterias dañinas.

Nuestro intestino es hogar de otros lactobacilos, así como de bacterias del genus Streptococcus. Aunque solemos identificar a estas últimas, los estreptococos, como patógenos causantes de enfermedades como la neumonía, la meningitis, las caries y la fiebre reumática, hay variedades inocuas que viven en nuestra boca, piel, intestinos y tracto respiratorio superior. Algunas especies, por cierto, son indispensables para la producción del queso emmentaler.

Es en el intestino grueso donde encontramos una verdadera selva rica en vida formada por bacterias de más de 700 especies en números elevadísimos. Estos seres hacen de nuestro intestino grueso un enorme recipiente de fermentación donde digieren ciertos componentes de los que no se puede hacer cargo nuestra digestión, como la fibra alimenticia, que convierten en ácidos grasos que sí puede absorber el intestino y producen parte de las vitaminas que necesitamos, como la K y la B12 y producen algunos anticuerpos.

Si el intestino grueso es el Amazonas, nuestra boca es un océano vibrante lleno de vida. Se calcula que en cada mililitro de saliva se pueden encontrar hasta mil millones de bacterias diversas, parte de un ecosistema altamente complejo de más de 800 especies de bacterias, algunas de las cuales viven sólo en ciertas zonas de nuestra boca, como la superficie de los dientes o entre ellos, donde hay poco oxígeno (formando la placa dental que puede conducir a la caries).

Y queda además la compleja orografía de nuestra piel, con bacterias que buscan lugares húmedos y oscuros, como los sobacos, las ingles y los pies con zapatos, sobreviviendo y reproduciéndose alegremente, sin siquiera enterarse de que provocan olores que los seres humanos hallamos ofensivos y contra los cuales se han montado industrias enteras, como las de los desodorantes, así como prácticas higiénicas.

Los ácaros

Los ácaros son parientes de las garrapatas y ambos pertenecen a la clase Arachnida, que comparten con todas las arañas y escorpiones. De hecho, los ácaros son uno de los grupos más exitosos de invertebrados, ocupando numerosos hábitats aprovechando su arma fundamental: su tamaño microscópico. A la fecha, se han identificado más de 48.000 especies de ácaros, algunos de los cuales son parásitos de plantas, animales y hongos, mientras que hotros son unos bien conocidos comensales de nuestras casas: los ácaros del polvo.

Los ácaros del polvo viven en nuestros muebles y se alimentan principalmente de las escamas de piel que vamos dejando caer todos los días y que forman buena parte del polvo doméstico. Generalmente inofensivos, los ácaros del polvo sin embargo pueden provocar en algunas personas reacciones alérgicas que pueden ser graves.

Pero hay otras dos especies de ácaros que viven no sólo con nosotros, sino en nosotros, especialmente en nuestros rostros. Uno es Demodex folliculorum, que vive, como su nombre lo indica, en los folículos pilosos de las pestañas, cejas y pelos de la nariz de la gran mayoría de las personas. Este ácaro, del que se han llegado a observar hasta 25 en un solo folículo piloso, se alimenta de piel, hormonas y el sebo que produce nuestra piel. El otro habitante arácnido más común de nuestro rostro es Demodex brevis, pariente del anterior, que vive preferentemente en las glándulas sebáceas.

Al mirarnos la cara al espejo estamos viendo un mundo de vida, aunque sea microscópica, un universo apasionante de ácaros, hongos, virus y bacterias que, en lugar de provocarnos rechazo o asco, deberían servir como un constante recordatorio de la enorme capacidad de la vida de manifestarse y florecer donde quiera que haya un nicho habitable. En el complejo engranaje del equilibrio ecológico, no somos simples individuos, participamos como ecosistemas.

Antibióticos en nuestro ecosistema

El uso de antibióticos de “amplio espectro” (lo que quiere decir que son capaces de atacar a bacterias de muchas distintas variedades) puede disminuir nuestra flora intestinal, provocando diarrea, con el consecuente peligro de la deshidratación, y permitiendo que se reproduzcan otras bacterias patógenas resistentes a los antibióticos, que pueden provocar enfermedades más difíciles de tratar. Una forma de evitar estos riesgos, o minimizarlos, radica en no utilizar antibióticos innecesariamente, en siempre llevar hasta su fin previsto cualquier tratamiento con antibióticos y consumir probióticos (siempre bajo recomendación del médico) junto con el tratamiento.

La ciencia del deporte

Cuando miramos hacia atrás, a los deportistas del pasado, no podemos sino admirarnos de las hazañas que algunos de ellos consiguieron con equipaciones y formas de entrenamiento que hoy se nos antojan arcaicas e, incluso, peligrosas.

Eddie Merckx en 1966
(Foto CC de Foto43 vía Wikimedia Commons)
Como ejemplo de esto último, Eddie Merckx, leyenda belga del ciclismo que ganó cinco veces el Tour de France entre 1969 y 1974 y conquistó el récord de la hora en 1972, casi nunca utilizó casco, o lo que se consideraba tal en el ciclismo: un curioso adminículo formado por tres o cuatro tiras de piel acolchadas.

El primer casco para ciclismo útil apareció a mediados de la década de 1970, demasiado tarde para el belga, y tenía poco que ver con los actuales, diseñados con materiales de máxima seguridad, malla de nylon, espuma protectora y un exterior ligero diseñado con orificios de ventilación para añadir comodidad a la seguridad del ciclista. Por no mencionar los cascos aerodinámicos extremos que aparecieron hasta los años 80, cuyos descendientes hoy vemos en las pruebas contrarreloj y algunas pruebas de pista.

Lo que desde tiempos de la Grecia clásica se consideraba solamente un enfrentamiento entre las capacidades, fuerza, agilidad, astucia y potencia de los contendientes, se ha convertido hoy también en una competencia científica. Los principios científicos dentro de las más diversas disciplinas se han orientado a la competición deportiva buscando optimizar la preparación y rendimiento del deportista. Los científicos detrás de cada deportista son actualmente un factor fundamental del éxito… o el fracaso.

La implantación de la ciencia en el deporte es, sin embargo, una consecuencia inevitable de la curiosidad científica misma, al plantearse preguntas sobre el tiempo de reacción, la resistencia muscular, los límites de la velocidad, la nutrición, la forma en que el cuerpo humano corre, salta, gira… la ropa usada por los deportistas y el rendimiento del equipamiento: balones, zapatos y zapatillas, jabalinas, canoas, raquetas, palos… y también sobre algunos aspectos especialmente atractivos, como el efecto o curvado de la trayectoria de las pelotas en el fútbol o el béisbol.

Así, por ejemplo, en septiembre de 2010 los medios informaron de un estudio publicado en la respetada revista científica ‘New Journal of Physics’ que analizaba y explicaba en detalle y en base a las leyes de la física el famoso “gol imposible” que Roberto Carlos marcó a la selección francesa en un amistoso previo al Mundial de 1998.

A los campos deportivos acudieron los científicos con sus aparatos de medición, cuando no llevaron a los propios deportistas a sus laboratorios, para analizar minuciosamente cada detalle que marcaba la diferencia entre el primer lugar y los demás. Y conforme la ciencia iba entendiendo cada vez mejor los distintos aspectos que se conjuntan en un excelente rendimiento deportivo, los entrenadores, los preparadores físicos, los patrocinadores y los propios atletas fueron acudiendo a ellos para obtener una ayuda en la consecución del ideal olímpico: citius, altius, fortius… más rápido, más alto, más fuerte.

El entrenamiento y preparación física de los deportistas, así como su nutrición, han sufrido extraordinarios cambios en las últimas décadas, maximizando sus resultados por medio del conocimiento de sistemas y técnicas probados para conseguir sus objetivos deportivos, sustituyendo a muchas creencias y supersticiones que durante mucho tiempo dominaron los entrenamientos

La tecnología de materiales es una de las más visibles en el desarrollo del deporte. La fibra de carbono, desarrollada en 1958, llegó al mundo deportivo en la década de 1980, es uno de los materiales más utilizados. Se trata de hilos formados por miles de filamentos de carbono, de gran resistencia y flexibilidad, que se emplean en materiales compuestos, formados por la fibra incrustada en una resina. Desde 1980, la fibra de carbono se encontró sirviendo por igual a los ciclistas que a los tenistas, con raquetas mucho más duras y ligeras, a los golfistas. El propio Eddy Merckx, hoy de 65 años y fabricante de bicicletas, las ofrece producidas en fibra de carbono y en aleaciones de aluminio-escandio, mucho más resistentes y ligeras que aquéllas en las que conquistó la gloria.

Los nuevos materiales se encontraron en la década de 1970 con los primeros conocimientos sólidos sobre la biomecánica del pie y la pierna… y la zapatilla deportiva pasó a ser elemento dedicado a maximizar el uso de la energía, devolviendo al pie parte de la que invierte en cada paso, acolchando, guiando y colocando el pie para conseguir el “paso perfecto”. También incluyen tecnologías de ventilación o de conservación del calor, diseños y materiales repartidos en toda su estructura para responder a la torsión, tensión y choques que sufren las distintas partes del pie, o incluso para impedir que entren al zapato piedrecillas durante las carreras a campo traviesa. Cada milisegundo de cada paso, patada, salto, giro o aterrizaje que haga un deportista se mide, registra y estudia para mejorar el rendimiento mediante sus zapatillas.

En las carreras de todo tipo, desde los míticos 100 metros lisos hasta las carreras de patines sobre hielo o la natación, la ciencia de la aerodinámica está jugando también un importante papel. Y los túneles de viento, como los usados para probar los diseños de los autos de Fórmula Uno, se emplean también para conocer la resistencia aerodinámica y el gasto energético de distintos tejidos, incluyendo detalles en apariencia tan poco relevantes como la colocación de los medios de sujeción (cremalleras, botones, cintas, etc.) que pueden representar una o dos centésimas de segundo en la crono final.

¿Puede la ciencia realmente decidir una competición? Si todos los participantes cuentan con lo último en tecnología y ciencia, tanto en su preparación como en su equipamiento, las condiciones son equitativas y el resultado seguirá siendo esencialmente responsabilidad del atleta, de su capacidad y actitud. El magistral Jesse Owens que dominó los juegos olímpicos de 1936 en Berlín, humillando las ideas racistas, también tenía lo último en tecnología de su tiempo, por más que nos parezca tecnología arcaica 74 años después.

Beneficios para todos

La ciencia y tecnología del deporte no se agota en las grandes competiciones de alto rendimiento, sino que ha ofrecido apoyo a todos quienes se ejercitan o practican cualquier deporte como aficionados. Porque no se trata únicamente de tener mejores resultados, sino también de ejercitarnos con mayor eficacia y seguridad. El moderno equipamiento tiene entre sus objetivos el evitar lesiones y problemas que eran comunes en el pasado y representaban muchas veces un gran obstáculo para el disfrute y ejercicio de nuestro deporte favorito.