Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Cómo nos construyen las proteínas

Traducción del ARN en los ribosomas para sintetizar proteínas.
(imagen CC LadyofHats traducida por Parri,
vía Wikimedia Commons)
El cuerpo humano se puede considerar como una edificación de largas y complejas moléculas formadas por cadenas de aminoácidos llamadas proteínas, sustentada sobre un entramado mineral de huesos, accionada por sustancias energéticas y que utiliza otros compuestos y sustancias para desarrollar sus actividades, como vitaminas o minerales.

Un buen ejemplo de la presencia de estas moléculas orgánicas (es decir, basadas en el carbono) son las varias formas del colágeno, que forma el 35% de todas las proteínas que nos componen. El colágeno es esencial en estructuras tales como los ligamentos y tendones, de la piel, los vasos sanguíneos y la córnea, y está en los huesos, el sistema digestivo, los músculos… y en en la superficie de las células. De todas nuestras células.

Hay muchos tipos de proteínas, como la queratina que forma nuestro cabello y uñas, la miosina y la actina, responsables de la contracción de nuestros músculos, la albúmina que forma gran parte de nuestro plasma sanguíneo (pariente de la albúmina de las claras de huevo), los ácidos nucleicos (el ADN y el ARN), todas las enzimas que promueven multitud de reacciones químicas en nuestras células, y todas, todas nuestras hormonas, desde la insulina que nos ayuda a metabolizar el azúcar hasta los neurotransmisores y las hormonas sexuales.

Estas son proteínas muy abundantes en nuestro cuerpo, pero hay muchas más. En total, se calcula que nuestro cuerpo tiene al menos dos millones de proteínas que actúan como reguladoras, para defenderlo (anticuerpos), transportar oxígeno (hemoglobina) y de muchas otras formas.

Asombrosamente, estos millones de proteínas, y las al menos diez millones más que son parte de los demás seres vivos (que comparten algunas) son producidas con sólo 20 aminoácidos principales como materia prima.

¿Cómo es esto posible? Pensemos en la escala musical que conocemos: tiene 12 notas, pero las escalas tradicionales usan sólo siete de esas notas, aunque las armonías modernas pueden usar más.

Con sólo doce notas, la capacidad humana ha creado literalmente millones de variaciones, desde la música más chabacana y sencilla hasta las más complejas creaciones de Bach, desde las tonadillas publicitarias hasta las obras conceptuales de Pink Floyd, de las nanas al heavy metal. La enorme variedad de la música nos permite olvidar fácilmente que, pese a todo, son sólo doce notas.

Los más o menos 25.000 genes capaces de crear proteínas que tenemos en los núcleos de nuestras células pueden sintetizar esa millonaria variedad formando largas cadenas de aminoácidos unidos entre sí. Para producir una proteína, el ADN del núcleo forma primero una cadena de ARN mensajero a la que le traslada su código químico para llevarlo fuera del núcleo. El lenguaje del ARN tiene cuatro letras únicamente, AGCU o adenina, guanina, citosina y uracilo. Cada grupo de tres bases o letras del ARN se llama “codón” porque codifica la captura de un aminoácido determinado. La secuencia de codones se traduce en la secuencia de aminoácidos de la proteína.

Como hay 64 palabras posibles combinando en grupos de tres las cuatro letras del lenguaje del ARN, hay “palabras” redundantes. Por ejemplo, los codones o palabras “UAU” y “UAC” corresponden al aminoácido llamado tirosina, mientras que otros aminoácidos como la arginina pueden ser codificados con hasta seis codones. Así, se van “escribiendo” o sintetizando proteínas que pueden ser cadenas de menos de 10 aminoácidos o llegar a tener más de 100.

En palabras de uno de los descubridores del ADN, Sir Francis Crick, “el ADN hace ARN, el ARN hace proteínas… y las proteínas nos hacen a nosotros”.

Nuestro cuerpo puede producir 10 de los 20 aminoácidos que utiliza para hacer todas sus proteínas, pero los otros 10 tiene que obtenerlos por medio de su dieta, no hay opción. Y siendo tan relevantes, parecería curioso que ningún alimento se anuncie como fuente de algún aminoácido u otro, digamos, cereales ricos en metionina, o galletas con valores elevados de triptofano y valina.

Esto se debe a que los aminoácidos que consumimos no se nos presentan aislados sino, precisamente, en forma de proteínas. Aunque los distintos seres vivos tienen proteínas distintas de las humanas, específicas de cada especie, podemos comerlos y derivar nutrición de ellos precisamente porque nuestro proceso digestivo se ocupa en parte de descomponer las proteínas que consumimos separando los aminoácidos que las forman para poder reutilizarlos. Cada proteína tiene como contraparte a otra proteína, llamada proteasa, que es la enzima que la descompone en sus aminoácidos.

Es como si el ADN de un organismo utilizara los aminoácidos para tejer un tapiz asombrosamente complejo, y luego, durante la digestión, las proteasas pudiera destejer este tapiz, separando sus hilos de distintos colores y grosores para llevarlo a las células donde se tejerán otros tapices distintos reciclando esos hilos.

Y, para llevar el paralelo un poco más allá, nuestro cuerpo también puede producir 10 de los hilos que necesita partiendo de distintas materias primas. Así, nuestras células pueden tomar el ácido glutámico, responsable del sabor llamado “umami”, que es característico de las algas, entre otros alimentos, y modificarlo para crear tres de los aminoácidos no esenciales.

Podemos almacenar algunos de los nutrientes que necesitamos. Pero los aminoácidos excedentes no se guardan como tales, sino que se convierten en glucosa para obtener energía o en ácidos grasos para guardarlos como tejido adiposo. Es por ello que necesitamos proteína en nuestros alimentos diarios para mantener la maquinaria de producción de nuestras propias proteínas en marcha. Cuando no tenemos aminoácidos suficientes en nuestra dieta, el cuerpo puede tomar las proteínas de nuestros músculos y descomponerlas para llevar sus aminoácidos a órganos más esenciales.

Queda, claro, el origen del nombre de estas moléculas fundamentales. Fue el químico suizo Jöns Jakob Berzelius quien en 1838 se convirtió en el primero en describirlas y en quien les puso nombre. Creó el nombre “proteína” tomando la raíz griega “prota”, que significa “de principal importancia”.

Las proteínas y los vegetarianos

Uno de los problemas que presenta la opción alimenticia de los vegetarianos estrictos, que no comen lácteos ni huevo, es que deben elegir con cuidado sus alimentos. La carne, la leche y el huevo son fuentes de “proteínas completas”, ya que sus proteínas más largas y complejas contienen todos los aminoácidos esenciales. Pero ningún vegetal tiene tales proteínas completas, de modo que el vegetariano consciente debe combinar sus alimentos para no sufrir deficiencias. Un solo aminoácido faltante puede tener efectos negativos en la salud. Ser vegetariano requiere especial atención.

Niels Bohr: cuando la física se hizo mayor

Niels Bohr (a la derecha) con
Albert Einstein en 1930.
(Foto D.P. de Paul Ehrenfest,
vía Wikimedia Commons) 
Una de las mentes clave de la época en que los físicos no sólo revolucionaron el conocimiento, sino que asumieron la importancia moral, filosófica y política de su labor.

Entre 1900 y 1945, poco más o menos, el mundo de la física fue no sólo una apasionante vorágine del conocimiento y de la audacia intelectual que logró avanzar como nunca antes en la historia humana en la comprensión del universo e impuso nuevos desafíos a los científicos.

Hasta el siglo XIX, la ciencia se había ocupado de las cosas, por así decirlo, a escala humana: lapsos de tiempo medidos en segundos o años, espacios medidos en milímetros o kilómetros. Especialmente desde Newton, la física se ocupó de los objetos a su alrededor y sus leyes, de la óptica, de los gases, de los choques, del electromagnetismo, de la gravedad, del movimiento.

A principios del siglo XX se habían dado las condiciones para escudriñar los extremos, lo enormemente grande y lo enormemente pequeño, donde no sirve el sentido común, forjado por la evolución para permitirnos vivir en la escala media.

En la escala de lo grande había cuerpos y galaxias en un espacio medido en años luz y en un tiempo de millones y miles de millones de años. La teoría de la relatividad de Einstein nos mostró que el espacio es curvo, que la velocidad de la luz es la única constante del universo, que un campo gravitacional muy fuerte puede curvar la luz o que el tiempo puede transcurrir más rápido o más lento en función de la velocidad.

En la escala de lo pequeño, la situación era aún más desafiante. En 1901, Max Planck sentó las bases de la mecánica cuántica, al determinar que la energía se emite en “paquetes” o “cuantos” y no de forma continua. Einstein aplicó esta visión al efecto fotoeléctrico (por el cual recibió su único Premio Nobel) viendo a la luz no como un flujo continuo de energía, sino una corriente de cuantos, paquetes de energía que hoy llamamos “fotones”.

En el huracán de avances que siguieron, Niels Bohr incorporaría un ejemplo singular de esfuerzo intelectual y de las preocupaciones filosóficas y sociales por el enorme poder que la física puso en manos humanas.

Niels Henrik David Bohr nació en 1885 en Copenhague, Dinamarca, en una familia dedicada ya a la ciencia, pues su padre, Christian, era profesor de fisiología en la Universidad de Copenhague. A ella ingresó Niels en 1903 para estudiar matemáticas y filosofía, aunque pronto se pasaría a la física, disciplina en la que se doctoró a los 26 años.

En 1913, Bohr revolucionó la física al unir el modelo atómico de Ernest Rutherford con las todavía novedosa ideas de los “cuantos” de Planck, y sugirió que los electrones del átomo existían a cierta distancia del núcleo (formado de neutrones y protones) según la energía de que dispusiera cada electrón. Si recibía un cuanto de energía, pasaba a un nivel más alto, mientras que si emitía un cuanto de energía, pasaba a uno inferior.

El modelo de Bohr por primera vez daba una explicación compatible con las observaciones obtenidas en los experimentos que se llevaban a cabo en los laboratorios de física de su época. Hoy en día, con algunas modificaciones menores, sabemos que su modelo es correcto, es decir, que los átomos se comportan tal como decían las ecuaciones del danés. Por este logro, obtuvo el Premio Nobel de física en 1922.

La mecánica cuántica planteaba problemas que muchos físicos, incluso Einstein y Planck esperaban que se disiparan con el tiempo. No fue así. Niels Bohr planteó el Principio de la Complementariedad, según el cual la materia puede exhibir al mismo tiempo propiedades de partícula o de onda, y que ambos puntos de vista no son contradictorios, sino complementarios. Junto con el Principio de Incertidumbre de Heisenberg, que dice que no podemos conocer todas las propiedades de un sistema cuántico al mismo tiempo, y lo desconocido sólo lo podemos expresar como probabilidades, estableció claramente que la cuántica era un mundo distinto de la física clásica.

La descripción cuántica de grandes sistemas, sin embargo, da los mismos resultados que la física clásica. Es decir, los desafíos al sentido común que plantea la cuántica no son visibles ni relevantes a escala humana (algo que suelen olvidar quienes quieren aplicar las observaciones de la mecánica cuántica a nuestra vida cotidiana).

El debate intelectual se enfrentó de pronto al hecho político. La toma del poder de los nazis en Alemania exigía tomas de posición. Niels Bohr, casado y con seis hijos, recibió en su casa de Copenhague a numerosos colegas que huían de la barbarie de Hitler y donó su medalla de oro del Premio Nobel al esfuerzo Finlandés de guerra.

Fue Bohr quien informó a los Estados Unidos en 1930 que los científicos alemanes estaban tratando de dividir el átomo, el primer paso para aprovechar y usar la energía nuclear. Esta información promovió el lanzamiento del Proyecto Manhattan que desarrolló la bomba atómica estadounidense.

Después de tres años de ocupación nazi en Dinamarca, Bohr huyó a Estados Unidos, donde colaboró en el Proyecto Manhattan. Preocupado por las consecuencias que implicaba la existencia de un arma nuclear, Bohr propuso a los gobiernos de Estados Unidos y Gran Bretaña que se compartieran los secretos atómicos con la Unión Soviética, lo que provocó que Winston Churchill legara a considerar al físico un riesgo de seguridad “cercano a la comisión de crímenes mortales”.

No resulta extraño que, al terminar la guerra, Niels Bohr dedicara todos sus esfuerzos al control del armamento nuclear y a los esfuerzos por el uso pacífico de la energía atómica, organizando el congreso “Átomos por la paz” en Ginebra, Suiza, en 1955.

El trabajo de Bohr por la física, sin embargo, no se detuvo, y además de encabezar el instituto hoy llamado precisamente Niels Bohr en la Universidad de Copenhague, realizó un esfuerzo titánico por crear un laboratorio internacional dedicado al conocimiento de la estructura interna de la materia, lo que hoy conocemos como CERN. Allí, el mayor instrumento científico jamás creado por el hombre, el LHC, continúa tratando de explicar cómo es el tejido del universo

Los debates Bohr Einstein

Entre 1927 y 1955 (cuando murió Einstein), ambos físicos tuvieron una serie de debates públicos sobre la interpretación de la teoría cuántica. A Einstein le molestaba la incertidumbre que postulaba la cuántica, mientras que Bohr la defendía como un hecho al que hay que plegarse. Como ambos científicos cambiaron de posición sobre distintos temas al paso del tiempo, los amables debates (resumidos en un libro por Bohr) son una lección sobre filosofía de la ciencia, pero también sobre la honesta actitud del científico capaz de abandonar aún sus teorías más amadas si hay otra más coherente con la realidad.

La evolución: diseño no tan inteligente

Primate skull series no legend
Cráneos de macaco, orangután, chimpancé
y ser humano.
 (Foto CC de Christopher Walsh, modificada
por Tim Vickers, vía Wikimedia Commons)
El mismo proceso evolutivo que nos ha hecho humanos es responsable de algunos de nuestros problemas y malestares, desde las hernias hasta el dolor de parto.

El guepardo es hoy el animal terrestre más rápido, como resultado de un proceso evolutivo que le permite cazar gacelas, animales que a su vez han adquirido una capacidad creciente de correr velozmente y huir del guepardo.

Los guepardos han evolucionado así porque los que por azar son más rápidos cazan más gacelas, y pueden alimentar mejor a sus crías, probablemente resultan parejas más atractivas y tienen así más probabilidades de que sus genes sobrevivan y se difundan entre las poblaciones futuras.

Partiendo de la variación natural, del hecho evidente de que las crías de cualquier ser vivo son distintas de sus padres y entre sí, y mediante la interacción de esa variación con el medio ambiente, se favorecen algunos rasgos y las poblaciones sucesivas cambian como si hubieran sido moldeadas a propósito.

Pero la velocidad del guepardo tiene un precio. En la evolución, todo cambio es resultado de un toma y daca entre varios aspectos y las ventajas que dan unos a cambio de otras desventaja. La evolución, también, puede dejar intocados ciertos rasgos antiguos que ya no tienen ninguna utilidad.

El precio que paga el guepardo por su velocidad es que suele terminar la cacería en un estado de agotamiento tal que resulta fácil para otros cazadores como los leones robarles su presa. Su velocidad ha implicado una desventaja que puede costarle incluso la supervivencia como especie, pues probablemente no tenga tiempo suficiente para emprender otro camino y finalmente su creciente velocidad lo vuelva inviable como especie.

Nosotros también hemos pagado un precio por ser como somos. Un precio del que no solemos estar conscientes-

El ser humano imperfecto

Un ejemplo del precio que hemos pagado es la curiosa relación entre nuestros dientes y nuestro cerebro. En el proceso de evolución, una mutación nos permitió tener cráneos más espaciosos que albergaran cerebros mayores, lo cual nos ha permitido entender y alterar nuestro mundo. Esa mutación apartó parte del hueso de nuestras mandíbulas, haciéndolas más pequeñas y delgadas, pero no afectó a nuestros dientes, que siguen teniendo el mismo tamaño que antes. Así, nuestras muelas del juicio con frecuencia “no caben” en nuestras bocas y es necesario extraerlas.

El habla es otra característica peculiarmente humana por la que pagamos un claro riesgo de muerte. En la mayoría de los animales, la tráquea y el esófago están orientados de tal modo que son totalmente independientes y permiten a sus dueños respirar y tragar al mismo tiempo. La evolución de la tráquea para el habla y nuestra posición erguida llevaron a ambos conductos en una posición tal que para tragar tenemos que dejar de respirar y viceversa, so pena de correr el riesgo de ahogarnos.

Según podemos reconstruir la historia de nuestra especie, un paso clave que nos diferenció de otros primates ocurrió hace unos cuatro millones de años, cuando nuestro ancestro Australopithecus pasó a andar sobre dos pies. Las importantes ventajas del bipedalismo para la especie fueron tales que se desarrolló y se conservó pese al precio que nos impone, y del que no siempre estamos conscientes.

Al andar a cuatro patas, los órganos de los animales cuelgan de la columna vertebral, alineados y sostenidos por los músculos del abdomen. Al pasar a una posición erguida, nuestros órganos se apilaron unos sobre otros, creando una presión que que facilita la aparición de hernias, que ocurren cuando un esfuerzo excesivo crea tensión en el abdomen y desgarra los músculos abdominales.

La propia columna vertebral, al pasar a una posición vertical, se vio sometida a fuerzas para las que no estaba diseñada, pues incluso otros animales bípedos, como los dinosaurios o los avestruces, mantienen la columna horizontal. La nuestra se encontró “de pronto” (en términos evolutivos) recta, con las vértebras unas sobre otras, presionándose y asumiendo una forma de “S” poco frecuente en el mundo animal. El resultado son problemas en los discos intervertebrales, escoliosis y los dolores en la parte baja de la espalda que afectan a muchas personas.

Nuestros pies y piernas son otras víctimas que pagan nuestra postura erguida. Las venas varicosas sufren de los efectos de la gravedad como nuestros órganos internos. La presión de la sangre sobre las venas de nuestras piernas aumenta su tamaño y debilita sus válvulas dándoles un aspecto hinchado y grisáceo.

Al mismo tiempo, el pie pasó de ser un órgano prensil a una plataforma para sostener el cuerpo, desarrollando un arco que le da una locomoción más eficaz donde el peso pasa del talón al borde externo del pie y hasta el dedo gordo, pasando por las articulaciones entre los metatarsos y las falanges. Pero el arco también puede fallar, dando lugar a los pies planos. De hecho, entre un 20 y 30% de todas las personas nunca desarrollan el arco del pie.

Pero uno de los más dramáticos cambios producidos por el bipedalismo, grave desventaja que se pagó para andar de pie, son los problemas y dolores del parto.

Para sostener el cuerpo erguido, la pelvis humana se vio presionada para desarrollar un tremendo cambio. Se hizo más corta, apoyando la columna vertebral más cerca de las articulaciones de las piernas, que a su vez se hicieron más grandes y fuertes, y evolucionó hacia una forma que le permite gestionar mejor el equilibrio y la locomoción. El ángulo de la pelvis cambió y el canal del parto se hizo más estrecho.

La pelvis femenina debía dejar paso a las crías para su alumbramiento, pero mientras la pelvis cambiaba, también las crías iban naciendo con cabezas cada vez más grandes. Así, en el proceso del parto el bebé debe realizar un extraño giro, infrecuente entre los demás primates, en el que varias cosas pueden salir mal.

Las numerosas complicaciones del parto humano, que están presentes desde que aparecimos como especie claramente diferenciada y que no tienen otras especies, no son pues un castigo, ni producto de la modernidad y sus problemas, sino una parte del precio que pagamos por ser quienes somos, y un testimonio de nuestro pasado, de lo que fuimos y de cómo devinimos en Homo sapiens

La inútil piel de gallina

Ante el frío y ciertas emociones, nuestra piel adopta el aspecto de “piel de gallina”, por la contracción simultánea de los pequeños músculos erectores que tenemos en cada folículo piloso. El objetivo de esta contracción es erizar el pelo para que el animal parezca más amenazante o para crear una capa de aire caliente contra el frío. Aunque hemos perdido casi todo el pelo corporal, mantenemos esa reacción como un vestigio inservible que nos recuerda cuando tuvimos una lustrosa piel peluda.

La dura vida de los niños genio

Leonhard Euler by Handmann
Leonhard Euler, genial matemático
(Pintura D.P. de Emanuel Handmann,
vía Wikimedia Commons)
Admirados por los adultos, rechazados por sus iguales y con frecuencia explotados por sus padres y medios, los niños prodigio no son un milagro.

Un niño que puede desempeñarse igual o mejor que un adulto destacado en algún campo de actividad exigente como ser la música, las matemáticas, el ajedrez o los deportes, es inevitablemente el centro de atención de todos a su alrededor. Muchos quisieran que sus hijos fueran así, e incluso se esfuerzan por impulsar o empujar a los suyos para que alcancen metas poco realistas. Otros simplemente se preguntan qué elementos confluyen para que un niño destaque de modo singular.

Sin embargo, no tenemos una receta para crear niños prodigio. No hay un sistema de educación que favorezca la aparición de la genialidad infantil, y ni siquiera estamos seguros de que la educación pueda realmente impulsar la genialidad. El matemático indostano Srinivasa Ramanujan, nacido en un ambiente nada favorecedor, descubrió las matemáticas formales a los 10 años y dos años después no sólo había dominado la trigonometría, sino que había a empezado a descubrir sus propios teoremas, emprendiendo una carrera que aún hoy es estudiada (sin descifrar por completo) por los matemáticos de todo el mundo.

No sabemos, siquiera, si el concepto “niño prodigio” o “niño genio” significa lo mismo cuando se trata de niños con habilidades distintas. Es posible que un niño de los llamados “calculadores”, capaces de realizar complejísimas operaciones matemáticas, sea totalmente distinto de un precoz ajedrecista, un pintor precoz como Picasso o de genios musicales como el violinista Yehudi Menuhin o el máximo niño prodigio de la música, Wolfgang Amadeus Mozart, el compositor nacido en Salzburgo, Bavaria, hoy Austria, en 1756, que empezó a componer a los 5 años de edad, recorrió Europa de los 6 a los 17 años asombrando al público y se convirtió en uno de los más importantes nombres de la música formal, componiendo prolíficamente hasta su muerte a los 35 años.

Se calcula que un 3% de todos los niños pueden ser considerados altamente dotados o niños prodigio aunque no todos son identificados y estimulados para desarrollar sus habilidades, de modo que la cifra podría ser mucho más alta o más baja.

Es por esto, así como porque la delimitación de qué es o no un niño superdotado es bastante poco clara, hay pocos estudios realizados sobre niños prodigio. En cuanto a edades, distintos grupos y definiciones consideran a los menores de 18, otros a los menores de 15 o 13 años y los más exigentes únicamente a los mejores de 11 años. En cuanto a habilidades, el problema es similar, y no existe un baremo consensuado sobre dónde termina el ser “muy listo o hábil” y comienza la genialidad que, finalmente, es un concepto totalmente subjetivo y humano.

Es por ello que la mayoría de los estudios realizados explorando el funcionamiento del cerebro de los niños prodigio se haya hecho con niños de los llamados “calculadores”, ya que la capacidad de resolver problemas matemáticos es de las que mejor podemos medir y definir con cierta objetividad, a diferencia, por ejemplo, de los talentos artísticos como en las artes plásticas o la música.

En un estudio de Brian Butterworth, publicado en la revista ‘Nature’ en 2001 se realizaron escaneos de tomografía de emisión de positrones (PET) en niños prodigio matemáticos, y los resultados sugirieron que estos niños utilizaban la memoria de trabajo a largo plazo, una forma en la que se pueden recordar enormes cantidades de datos durante un breve tiempo, y hacían uso intenso de la corteza visual, la zona del cerebro que descodifica las imágenes que vemos y que también empleamos para la imaginación visual. Otros estudios indican que el cerebelo, la zona del cerebro implicada en el control motor, la atención y el idioma, sirve a estos niños para ordenar sus funciones cognitivas y puede influir en su hablidad matemática.

Para muchos niños prodigio, su vocación y talento originales se convierte en su actividad para toda la vida, frecuentemente con enorme éxito. Está Leonhard Euler, matemático suizo que entró en la universidad de Basel a los 13 años y pasó a convertirse en uno de los fundadores de las matemáticas modernas descubriendo, entre otras cosas, el cálculo infinitesimal al mismo tiempo que Newton. El matemático y físico Blas Pascal, que escribió un tratado sobre cuerpos vibrantes a los 9 años y realizaría numerosas aportaciones a la ciencia y la filosofía durante toda su vida. O John Von Neumann, influyente matemático húngaro que en su niñez fue famoso como calculador matemático y polìglota.

Son también comunes los casos de niños prodigio que después de alcanzar logros impresionantes antes de la edad adullta, terminan abandonando todo y no vuelven a realizar las aportaciones por las que fueron conocidos o se retraen como lo hizo de modo espectacular el ajedrecista Bobby Fisher, que ganó ocho campeonatos estadounidenses consecutivos, fue gran maestro a los 15 años y a los 28 se convirtió en campeón mundial, después de lo cual no volvió a competir oficialmente y terminó expatriado en Noruega, con problemas mentales cada vez más evidentes hasta su muerte.

El ejemplo extremo de estos ex-niños prodigio es William James Sidis, dueño de asombrosas habilidades matemáticas y lingüísticas que entró a Harvard a los 11 años. Acosado por sus compañeros y, más tarde, por la prensa sensacionalista, y arrestado por participar en una manifestación de izquierdas (era 1918), acabó aislándose de la sociedad y de las matemáticas trabajando como cobrador de tranvía, anónimo y amargado.

Quien mejor puede definir qué es ser un niño prodigio es, precisamente, alguien que lo ha sido. Justin Clark, campeón de ajedrez a los 8 años y estudiante universitario a los 10: “Lo que pocas personas entienden es que ser un niño prodigio, o ser considerado así, no es inherentemente bueno o malo”. Por más que muchos padres crean que tener un genio es maravilloso, para cualquier niño lo más importante será ser querido y aceptado. Y su peor tragedia es, sin duda, que sus padres o el mundo a su alrededor le pidan más de lo que puede dar, cosa que con frecuencia le exigimos a los genios y a los que no lo son.

El savant, genio en su mundo

Un caso especial de los niños prodigio son los savants, que suelen tener una sola capacidad destacada al extremo humano, como puede ser una memoria eidética o fotográfica de un solo aspecto de su vida (como recordar el tiempo que hubo día a día o hacer complejos cálculos matemáticos al instante). Casi la totalidad de los savants tienen problemas de desarrollo, la mitad de ellos asociados al autismo. El ejemplo más conocido de este prodigio es Kim Peek, que fuera la base para el personaje que interpretó Dustin Hoffman en la película “Rain Man”.

Nuestras inconstantes memorias

"La persistencia de la memoria", cuadro de Salvador
Dalí (Creative Commons)
Creíamos que registrábamos las memorias como en un vídeo, de modo fiel y secuencial. Un episodio de terror multitudinario nos enseñó a desconfiar de nuestros recuerdos.

En la década de 1980 se desarrolló una situación de pánico en los Estados Unidos. De pronto, psicoterapeutas, policías y trabajadores sociales encontraban multitud de casos de personas que decían haber sido sometidas a terribles abusos sexuales y obligadas a participar en sangrientos rituales satánicos, tanto niños como adultos. Afirmaban que, de acuerdo a las hipótesis de Freud, esas memorias habían sido “reprimidas” durante décadas, y habían vuelto a la superficie debido a terapias que con frecuencia incluían entre otras cosas la hipnosis y preguntas sugerentes.

Las descripciones eran sobrecogedoras. Se llegó a hablar de 1 millón de satanistas que abusaban de niños y cometían incluso asesinatos y se popularizó la llamada “Terapia de Memoria Recuperada”, que guiaba al paciente para que “recuperara” recuerdos traumáticos de su infancia, incluso de la más temprana, cuando hoy sabemos que no se pueden formar memorias por el insuficiente desarrollo de nuestro cerebro. Entre el 15 y el 20% de los pacientes, un número enorme, recuperaban memorias de abuso infantil y rituales satánicos.

Se rompieron familias, los hijos perdían toda confianza en sus padres, los repudiaban e incluso los denunciaban por abusos. Algunos padres fueron condenados a penas de prisión mientras afirmaban su inocencia y su amor por sus hijos. La sociedad estadounidense se convulsionaba.

Sin embargo, aparecieron cuestionamientos. Se hablaba de miles de bebés asesinados en rituales de filme de horror, pero no había cuerpos, ni reportes de niños extraviados suficientes para dar cuenta de las historias que ocupaban los medios, especialmente los sensacionalistas.

Los científicos de la conducta entraron en acción. A principios de la década de 1990, un estudio de la Universidad de California investigó más de 12.000 acusaciones y analizó a más de 11.000 miembros del personal de servicios psiquiátricos, de servicio social y de cuerpos policiacos sin , encontrar pruebas que corroboraran sólidamente ni un solo caso de abuso ritual satánico.

Kenneth Lanning, agente especializado en abuso infantil de la Unidad de Ciencia Conductual del FBI, hoy famosa por una serie de televisión, escribió un estudio concluyendo que no había ni una prueba en ninguno de los casos de “abuso satánico” que había investigado desde 1981. Escribió: “Tenemos ahora a cientos de víctimas alegando que miles de delincuentes están abusando de decenas de miles de personas e incluso asesinándolas, como parte de sectas satánicas organizadas, y la evidencia para corroborarlo es escasa o nula”.

Lo más inquietante: quienes decían que habían sido víctimas no estaban mintiendo, realmente creían en la fidelidad de las memorias “recuperadas”.

Las falsas memorias

En 1974, la doctora Elizabeth Loftus, de la Universidad de California, había explorado la imprecisión de la memoria que empezaba a conocerse, con un estudio que demostró que los recuerdos de las personas se veían alterados por lo que implicaban las preguntas que se les hacían. Después de ver un vídeo de un choque, tendían a considerar que la velocidad de los autos era mayor si en la pregunta se usaba el verbo “chocar” o “colisionar” que si se usaba de “golpear” o “entrar en contacto”. En otro caso, si se les preguntaba por los “cristales rotos” (que no se veían en el vídeo), tendían a “recordarlos”.

Éstos y otros estudios establecieron no sólo que nuestras memorias son poco fiables, sino que son sensibles a la sugestión. El tipo de preguntas que se hacen a una persona, la afirmación de que ocurrió algo o cualquier otra observación, por inocente que sea, puede remodelar nuestras memorias.

Los terapeutas, trabajadores sociales y miembros de las fuerzas policiales, según se demostró, en parte víctimas de su celo profesional y su repulsa tanto al abuso infantil como a la idea de las sectas satánicas, habían moldeado las memorias de las supuestas víctimas, en gran medida impulsados por el libro Michelle, que se había presentado en 1980 como un “caso real” aunque años después se descubrió que había sido un fraude.

El testimonio del testigo presencial, prueba reina en los procesos judiciales de todas las culturas, se ha convertido en una incertidumbre. Multitud de estudios en las últimas dos décadas han demostrado que nuestra memoria, en algunos asuntos, es mudable. Nuestro cerebro “llena los espacios” con fabulaciones o con suposiciones de sentido común, y los recuerdos cambian más conforme más tiempo pasa, haciendo menos fiables muchas de las cosas de las que “estamos seguros”.

Hoy sabemos que una persona, al identificar a un delincuente, puede verse infuida por un simple comentario de un policía indicando que uno de los sospechosos, por ejemplo, tiene un historial delictivo, o incluso por el orden en el que se le presentan tales sospechosos. Y su falsa memoria no es una mentira, la considera absolutamente veraz. Apenas descubrimos que ser humano implica que ciertas cosas no las evocamos con tanta precisión como las tablas de multiplicar que nos aprendimos en la escuela.

Pero, si la moderna investigación en neurociencias nos alerta contra las alteraciones de nuestra memoria y ello puede resultar inquietante, pues en gran medida nuestra personalidad son nuestras memorias, también ha servido para evitar que seamos víctimas de las falsas memorias de otras personas. El recuerdo de un testigo o víctima expresado en el juicio fue fundamental para el 75% de las condenas que han sido revocadas en los Estados Unidos debido a las pruebas de ADN sobre casos antiguos.

Al mismo tiempo, se han abierto enormes campos para explorar la memoria ya no desde perspectivas filosóficas, sino mediante modelos que pueden someterse a experimentación, y estudios tanto fisiológicos como genéticos. La identificación de ciertos tipos de memoria, el estudio de los recuerdos inmutables (como las tablas de multiplicar) y la activación de distintas áreas del cerebro cuando aprendemos o recordamos quizá nos permitan reconciliarnos con la idea de que nuestra memoria es menos perfecta de lo que nos gustaría.

Sobre la autoridad y la memoria

Hoy en día, la idea del abuso ritual satánico y la terapia de recuperación de memorias están totalmente desacreditadas entre psiquiatras, psicólogos y fuerzas policiacas. Su supervivencia está limitada al terreno de los medios sensacionalistas de sucesos y supuestos hechos paranormales con pocos escrúpulos, y a pequeños grupos que suelen incluirlo entre otras creencias conspiranoicas. La idea de las “memorias reprimidas” por otra parte, ha sido descartada en lo esencial ante la falta de pruebas de que realmente existan.

Un mundo de fibras y tejidos

Broken carbon fiber bar
Fibras de carbono
(Foto CC de Michael Bemmerl,
vía Wikimedia Commons
Pensar en fibras aún evoca telas, hilados de algodón, ricas sedas y medias de nylon, aunque cada vez más, también, las fibras y los tejidos artificiales significan también piezas de aviones, carrocerías de automóviles de Fórmula 1 e incluso materiales de construcción.

Y quizá todo comenzó con una intuición sencilla, afortunada y genial.

Un tallo de una planta podía servir para atar objetos y para tirar de cargas. Pero se podía romper con relartiva facilidad. Quizá, sólo quizá, hace 40 mil años o más, un ser humano se dio cuenta de que cuando el tallo se retorcía, resistía más. Tal vez, especulamos, empezó a retorcer un tallo, y luego probó a poner dos o tres tallos en paralelo y a retorcerlos y entretejerlos. El resultado era una cuerda, la primera cuerda de la historia de la humanidad, y ataba con más firmeza y soportaba cargas mucho más pesadas que ningún tallo utilizado antes.

Si esto no lo hizo un personaje en concreto, sino quizá un grupo, o varios grupos simultáneamente en distintos espacios geográficos y temporales, al menos sabemos que la humanidad sí lo hizo colectivamente en un momento de su desarrollo.

Si se machacaban los tallos para obtener las fibras que les daban su resistencia, y se retorcían o hilaban en formas mucho más delgadas, se obtuvo el hilo que, tejido, creó toda una nueva forma de vida.

Muchas plantas y el pelo de muchos animales, así como los tendones, se han utilizado como fibras, en función de su disponibilidad para las diversas culturas.

Se cree que el lino fue la primera fibra vegetal que utilizó el hombre. Apenas en 2010, la arqueóloga Ofer Bar-Yosef, de la Universidad de Harvard, encontró en la cueva de Dzudzuana de Georgia fibras de lino anudadas y teñidas de color negro, gris, turquesa y rosa, cuya antigüedad se calcula en 30.000 años, poco tiempo comparado con los más de 100.000 años que nos separan del primer momento en que el hombre usó pieles para vestirse.

El lino, la ortiga, el ramio, el yute y el cáñamo fueron durante milenios algunas de las principales fibras vegetales, complementadas con las fibras animales o lanas, que se empezaron a utilizar (hiladas y tejidas) hace quizás hasta 10.000 años. No fue sino hasta el siglo IX cuando los árabes introdujeron en Europa el algodón, una planta que ya Alejandro Magno había descrito en la India como “el árbol de lana”, cultivada durante mies de años en el valle del Indo. La seda, por su parte, tiene una singular procedencia: el gusano de la seda, que teje el capullo para convertirse en mariposa con un solo filamento de esta singular fibra, conocida en China desde el 2.600 antes de la Era Común.

Los tejidos y cuerdas de fibras naturales tenían, ciertamente, un valor utilitario que alteró y revolucionó en muchas ocasionesa las culturas. Pero también marcaban las diferencias sociales. La seda como distinción de las clases altas es un ejemplo evidente, junto con el aún más caro y exclusivo terciopelo de seda. No olvidemos que los intereses comerciales que dispararon la era de las exploraciones con los viajes de Cristóbal Colón no sólo eran los de las especias. La “ruta de la seda” que abastecía a las clases altas europeas también fue bloqueada por el imperio otomano en 1453, a la caída del imperio bizantino.

La revolución industrial fue, en gran medida, la revolución del algodón. La invención de la lanzadera volante, las máquinas de hilar y la máquina de vapor a fines del siglo XVIII dispararon la mayor producción de telas a menor precio. La industria textil tiraría de todas las demás formas de producción para cambiar radicalmente la forma de vida del ser humano en todo el mundo.

Fibras artificiales y sintéticas

Durante la segunda mitad del siglo XIX, los conocimientos de la química alcanzaron un punto en el que se podía intentar crear materiales nuevos, y mejorar los existentes.

En 1855, el químico suizo Audemars logró crear la primera fibra artificial, una “seda” obtenida disolviendo y purificando la corteza de un árbol para obtener celulosa. Pasaron treinta años para que estas nuevas fibras se utilizaran para crear tejidos de muestra y cuatro años más para que comenzara la producción industrial de esta fibra, el “rayón”.

Pero no fue sino hasta el siglo XX, en 1931, cuando apareció la primera fibra totalmente sintética, el nylon, que comenzó su producción industrial en 1939, democratizando, en gran medida, prendas de ropa como las medias femeninas, que antes eran de seda para las clases pudientes y de algodón para las trabajadoras.

En los años posteriores a la Segunda Guerra Mundial, aparecieron numerosas nuevas fibras como el acrílico, el poliéster, el spandex (lycra) o el sulfar, resistentes, algunas de ellas elásticas, baratas y que se arrugaban mucho menos que las fibras naturales, lo que las convirtió pronto en favoritas del mercado.

Otras fibras, como las aramidas, dan lugar a tejidos especiales como los utilizados en los trajes espaciales o el kevlar utilizado en chalecos antibalas. Y otras de ellas, como el tereftalato de polietileno, se someten a procesos especiales para crear un tejido de pelillo ligero y altamente aislante, el “polar” o “fleece”, la lana artificial.

Más allá de los tejidos, se siguen creando materiales en largos filamentos o fibras que puedan satisfacer con eficacia distintas necesidades. La fibra de carbono, utilizada para reforzar distintos plásticos, está sustituyendo al acero y al aluminio en numerosas aplicaciones que necesitan resistencia, fuerza y un menor peso: bicicletas, raquetas de tenis, piraguas o el fuselaje de aviones como Airbus A350 XWB se fabrican hoy con tejidos de carbono.

Químicos e ingenieros siguen buscando crear nuevas fibras capaces de cambiar de color, de reinventar fibras tradicionales como la seda, modificando genéticamente a los gusanos para ofrecer un producto mejor y más atractivo o de encontrar formas de cultivo más sostenibles y rentables. Ecotextiles, nanotextiles y textiles inteligentes son algunas palabras que pronto pueden ser parte de nuestro léxico tan comúnmente como “seda”, “nylon” y “kevlar”.

La peligrosa fibra mineral

El amianto (o asbesto) es el nombre de seis materiales que son las únicas fibras minerales que ocurren de modo natural y que se encuentran, incluso, en el aire que respiramos, aunque en cantidades inapreciables. Debido a sus propiedades aislantes, especialmente de las llamas, y su bajo costo, se utilizó masivamente desde la antigüedad como material de construcción y materia prima. A lo largo del siglo XX se demostró que la inhalación de fibras de asbesto provocaba con frecuencia fibrosis y cáncer pulmonar y a partir de 1991, el amianto empezó a prohibirse en cada vez más países. La prohibición en España se dio en 2001, aunque sigue en el aire el problema de eliminar el amianto utilizado en el pasado.

LUCA, nuestro más lejano abuelo

Prokaryote cell diagram es
La célula procariota, la forma más primitiva que
existe, podría darnos una idea de cómo fue el LUCA
(Imagen D.P. Mariana Ruiz traducida por
JMPerez, vía Wikimedia Commons)
Uno de los más grandes desafíos de la ciencia es ir hacia atrás en la historia de la vida para averiguar cómo comenzó todo.

Todos los seres vivos, usted y una rosa, un insecto y un elefante, un sencillo virus y un astuto cuervo, todos, tenemos un solo ancestro común, una célula que se calcula que vivió hace 3 o 4 mil millones de años y de la que surgio toda la vida, algo que ya se imaginaba Darwin en su teoría de la evolución mediante la selección natural.

Este ser hipotético es el Último Ancestro Común Universal o, en inglés, ‘Last Universal Common Ancestor’, LUCA por sus iniciales.

¿Cómo sabemos que los seres vivos no procedemos de distintos ancestros surgidos independientemente? O, cuando menos, ¿cómo sabemos que lo más probable es este ancestro común, esta semilla que fructificó en toda la vida del planeta, todas las especies que ya desaparecieron, las que existen y las que, sin duda alguna, vendrán en el futuro?

Para comprenderlo, tenemos que remontarnos a una época en la que no había vida en nuestro planeta.

El universo mismo nació hace unos 13.700 millones de años, según calcula hoy la cosmología. Nuestro sistema solar no fue parte del universo, al menos en su forma actualmente reconocible, durante la mayor parte de este tiempo. Fue hace aproximadamente 4.600 millones de años cuando una nube de polvo y gas que giraba sobre sí misma en el espacio empezó a contraerse. Como un patinador que acerca los brazos al cuerpo para girar más rápido, la contracción hizo que la nube girara más rápido, su gravedad también aumentó y asumió la forma de un disco.

Unos 60 millones de años después se formó nuestro planeta y empezó a sufrir una sucesion de cambios. Hace alrededor de unos 4.000 millones de años, según se cree con base en lo que sabemos, la materia, alguna de las sustancias que componían nuestro planeta, de pronto adquirió una capacidad e independencia sin precedentes, experimentó un cambio cualitativo extraordinario y, no habiendo estado vivo… empezó a estarlo. Según especula la ciencia, este primer ser vivo fue una molécula capaz de producir copias de sí misma, una hazaña singular.

Lo que aún no sabemos es cómo pudo haber sido esa molécula autorreplicante. Quizás las condiciones de nuestro planeta, relámpagos, volcanes, una atmósfera con ciertas caracteristicas, provocaron la creación de diversas moléculas complejas hasta que, por simple azar, alguna de ellas resultó capaz de autocopiarse.

Alguna de ellas o varias de ellas.

Nada indica que la vida haya surgido una sola vez en nuestro planeta. De hecho, es muy probable que haya surgido varias veces, en distintos lugares, bajo distintas condiciones, en distintos momentos y a partir de distintas sustancias. Las condiciones que provocaron el surgimiento de la vida una vez, pudieron provocarla en diversas ocasiones mientras duraron.

La primera evidencia de que existía este hipotético ser que es nuestro origen común se encontró hace apenas 50 años, en la década de 1960, cuando se descifró el código genético del ADN y se determinó que era exactamente el mismo en todas las formas de vida de nuestro planeta. Esto, que hoy nos parece evidente, resultó sorpresivo en su momento: bastaba el ADN para explicar toda la asombrosa variabilidad de todas las formas de vida. Todas tenían genes escritos con el mismo lenguaje.

De hecho, esta “intercambiabilidad” de genes es lo que permite que los genes de una especie se puedan insertar en otra, ya sea de modo natural, en la transferencia horizontal de genes, o artificial, mediante ingeniería genética. Y la transferencia horizontal es uno de los problemas que tiene la biología en la búsqueda de “Luca”.

El “código genetico” con el que la vida transmite información está sorprendentemente está formado por genes o palabras de diversas longitudes, pero todas compuestas por sólo cuatro letras. La hebra de ADN es como una escalera de mano, donde cada uno de los rieles tiene “medios peldaños” de sólo cuatro sustancias: adenina, citosina, guanina y timina (ACGT). El otro riel tiene los medios peldaños correspondientes. Si un medio peldaño es de adenina, el otro será de timina, y si es de guanina, su mitad correspondiente será de citosina.

Con este sencillo alfabeto de cuatro letras se pueden “escribir” todas las proteínas de todos los seres vivos a partir de 20 aminoácidos, utilizando como intermediario al ARN, una molécula similar al una de las mitades del ADN. Cada aminoácido (salvo alguna excepción) se codifica con tres de las letras del ADN y el ARN, y su secuencia determina la proteína que se produce.

Al analizar los pequeños cambios que los genes van experimentando a lo largo de la evolución, la biología ha podido crear un árbol de la vida muy preciso, que nos sirve para calcular, por ejemplo, no sólo cuánta similitud o diferencia hay entre dos especies, como el ser humano y el chimpancé, sino también hace cuánto tiempo nos separamos de un ancestro común y empezamos a evolucionar independientemente (hace 5-6 millones de años en este caso).

Igualmente, al desandar nuestro camino evolutivo podemos encontrar ancestros comunes de otros seres. El de todos los mamiferos, por ejemplo, vivió hace unos 225 millones de años. El de todos los vertebrados nado por los océanos hace unos 530 millones de años. Y el de todos los animales hace unos 610 millones de años.

Con estos datos, hoy se postula que ese último ancestro común universal, ese “Luca” que nos recuerda la canción de Suzanne Vega era un ser unicelular más primitivo que los seres unicelulares con núcleo (procariotes) que conocemos hoy, que utilizaba el ARN para replicarse y para crear sus proteínas (el ADN fue probablemente un desarrollo posterior), vivió en un microclima menos cálido que el predominante en el planeta hace 3-4 mil millones de años y tenía algo muy similar a los genes comunes a todos los seres vivos de la actualidad.

Sin embargo, los biólogos no lo tienen claro. La transferencia horizontal de genes que haya ocurrido a lo largo de la historia de la vida, la cantidad de genes en los que pueda darse y otras variables, podrían alterar completamente nuestra visión de cómo era “Luca”.

Pero la búsqueda sigue adelante. Saber cómo era “Luca” sería un gran paso hacia la comprensión de cómo surgió la vida en nuestro planeta, lo cual a su vez nos permitiría calcular con mayor precisión las probabilidades de que haya vida en otros lugares del universo.

La probabilidad de los ancestros

El que todos los seres vivos tengamos un mismo ancestro no es una certeza, pero es lo más probable. En 2010 se calculó que el que la vida procediera de un ancestro comun era al menos 102860 veces más probable que lo hiciera de dos o más formas de vida que hubieran surgido independientemente. Un 1 seguido de 2861 ceros es un argumento de peso, sin duda alguna.

Tecnología y ciencia de los metales

La llegada del metal a la tecnología humana representó una revolución tan radical que, de hecho, continúa en nuestros días.

Casco de bronce procedente de Tracia, de
alrededor del siglo IV antes de la Era Común.
 (Foto CC de Ann Wuyts
vía Wikimedia Commons)
“La edad de piedra” es un concepto que se utiliza frecuentemente como sinónimo de falta de avance y primitivismo. Esto olvida que la tecnología de piedra desarrollada por varias especies de humanos, como los neandertales y nosotros, llegó a ser de una enorme complejidad y detalle. Y de hecho fue requisito esencial para dar el gran salto tecnológico hacia los metales.

Curiosamente, sin embargo, el primer metal que encontramos asociado a la historia humana es el oro, es decir, como riqueza y adorno antes que por su valor práctico. Según los estudiosos de la historia de los metales, la relación del hombre con el oro comenzó encontrando pepitas de este metal en los ríos. Las pepitas son producto de la erosión de vetas de oro por causa del agua. Y la primera forma de trabajar el metal fue unir pepitas de oro empleando martillos.

El oro, como la plata, el cobre, el estaño y el hierro procedente de meteoritos (cuyo contenido en cinc lo hace resistente a la corrosión), se pueden encontrar en forma metálica en la naturaleza. Estos metales, sucesivamente descubiertos y procesados mediante una tecnología en constante desarrollo, muchas veces mediante la producción de armas más eficaces y letales, como la primera hacha de cobre descubierta hasta la fecha, con una edad de 7.500 años procedentes de la cultura Vincha, en los Balcanes.

El acceso a los metales, su procesamiento y utilización, fueron esenciales para el paso del ser humano de la vida nómada del cazador recolector al establecimiento de asentamientos, pueblos, ciudades y estados cuyo poder iba en relación directa a su fuerza militar y su riqueza, ambos aspectos dependientes de los metales en una situación que no ha cambiado mucho hasta hoy.

Pero para encontrar y trabajar con los metales que no se encuentran aislados en la naturaleza, se tuvieron que desarrollar técnicas diversas. Primero, es necesario identificar el metal, es decir, reconocer las características de un mineral que indican la presencia de una cantidad de metal suficiente como que su recuperación sea económicamente viable. Una vez reconocido el mineral y su potencial de rendimiento, es necesario extraer del mineral los metales y concentrarlos (lo que se conoce también como su “beneficio”) mediante diversos procesos.

La extracción de los metales se puede realizar con agua a la que se añaden otras sustancias para disolver en ella los minerales y recuperar los metales mediante procesos como la precipitación, la destilación o la electrólisis entre otros. O bien se puede realizar utilizando el calor de varias formas. La fundición como proceso de extracción, por cierto, no implica simplemente fundir el metal para separarlo del mineral, ya que en la mayoría de los minerales el metal no está presente como elemento, sino como parte de compuestos químicos, como por ejemplo óxidos, sulfuros, cloruros o carbonatos. La fundición emplea el calor y otras sustancias para que reaccionan con los otros elementos del compuesto para obtener el metal libre, a veces realizando procesos previos que alteran los compuestos químicos convirtiéndolos en otros más adecuados para la extracción.

El metal refinado puede procesarse para darle distintas formas y modificar algunas de sus características originarias para que sirvieran mejor a diversas necesidades. Uno de los mejores ejemplos de estos procesos es el forjado, durante el cual un metal calentado al rojo vivo es golpeado para darle forma y hacer que sus características sean uniformes en toda su extensión, como se hace con las espadas, y después se tiempla, aumentando y disminuyendo su temperatura de forma controlada para alterar su estructura cristalina y hacerlo más resistente, más dúctil y maleable, menos propenso a desarrollar grietas y menos duro.

Los metales que conocemos y usamos generalmente no están formados por un solo elemento, sino que son aleaciones como el bronce (aleación de cobre y estaño) o el acero (de hierro y carbono). Los componentes minoritarios de las aleaciones sirven también para alterar y controlar las características físicas del metal principal, aumentando de modo asombroso la diversidad de sus aplicaciones. Lo que llamamos aluminio es en realidad una variedad de aleaciones cuyo principal componente es, efectivamente, aluminio en más del 90%, pero aleado con diversos metales y en variadas cantidades.

Así, por ejemplo, el aluminio de una lata de una bebida comercial es una aleación llamada 3104-H19 o una similar, con aproximadamente 1% de magnesio y 1% de manganeso, pero la tapa se fabrica con la aleación 5182-H48, más rígida y dura (la “H” de la denominación del a aleación significa ‘hardness’, dureza en inglés), y la lengüeta para abrir la lata es de otra aleación más.

Hoy sería difícil imaginar un mundo con sólo siete metales, que eran los que la humanidad conoció desde la antigüedad y hasta el siglo XIII. Además de oro, plata, hierro y cobre, se conocían el plomo, el estaño y el misterioso mercurio, el metal líquido que ha fascinado a la humanidad desde el primer emperador chino, Chin Shi Huandig, quien murió envenenado por consumirlo creyendo que prolongaba la vida. En la Edad Media se descubrieron apenas cuatro metales más (arsénico, antimonio, cinc y bismuto), el platino en el siglo XVI, doce metales más en el siglo XVIII, mas de cuarenta en el siglo XIX y los restantes metales naturales, además de los transuránidos sintetizados por el hombre, en el siglo XX.

Pese a que hoy conocemos todos los metales y sus características, en gran medida se puede decir que seguimos viviendo la edad del hierro. Nuestro mundo tecnológico es fundamentamente de acero, una aleación de hierro con carbono y otros diversos metales que permiten que lo utilicemos para una variedad de aplicaciones más amplia que la de ningún otro metal, desde la humilde hoja de afeitar hasta los cohetes espaciales.

Sin embargo, el maravilloso logro que es la Estación Espacial Internacional no es de acero, es fundamentalmente del mismo metal que una lata de refresco: aluminio.

La abundancia de los metales

Los metales son la mayoría de los elementos que existen en el universo. De los 92 elementos naturales, 86 son metales, aunque el elemento más abundante sea el hidrógeno. Una cuarta parte de la corteza terrestre está formada por metales diversos, de los cuales los más abundantes son el aluminio, el magnesio, el estaño, el hierro y el manganeso. El núcleo del planeta es principalmente de hierro. En cambio nosotros tenemos pocos metales y en pequeñas cantidades, pero esenciales para la vida: calcio, sodio, magnesio, hierro, cobalto, cobre, cinc, yodo, selenio forman menos del 4% de nuestro cuerpo.

De qué está hecho el universo

Puede parecernos evidente que lo que hay a nuestro alrededor no es uniforme, que no todo tiene el mismo color, textura, dureza, densidad y otras propiedades. Un trozo de metal y una rama de árbol, un vaso de agua y un venado son claramente distintos.

Monumento a Mendeleev y su tabla periódica en la
Universidad Tecnológica de Bratislava
(Foto CC de mmmdirt, usuario de Flickr,
vía Wikimedia Commons)
Ya en los albores de la historia humana, esto llamaba al asombro. ¿Cuáles eran los componentes de las cosas, las sustancias esenciales que las hacían tan distintas? Entre los griegos, las distintas escuelas filosóficas se inclinaron por distintos componentes básicos que no se pudieran subdividir en más componentes o sustancias distintas.

Según las reflexiones de Tales de Mileto, el elemento primordial de toda la materia era el agua. Pocos años después, Anaxímenes, también en Mileto, basó toda su filosofía en la idea de que el material esencial del universo era el aire. Y apenas unos años después, el brillante Heráclito de Efeso que enunció el concepto de que “todo fluye, nada permanece”, argumentó que el elemento más fundamental era el fuego.

No mucho tiempo pasó antes de que Empédocles intentara la síntesis de los maestros anteriores diciendo que los tres elementos enunciados eran todos componentes básicos del cosmos, añadiéndoles la tierra para tener los cuatro elementos o raíces que se convirtieron en la creencia fundamental del mundo occidental gracias a su adopción por parte de Aristóteles. En China se creyó en cinco elementos: fuego, tierra, agua, metal y madera, mientras que los indostanos y budistas argumentaron sobre los tres elementos del zoroastrianismo: fuego, agua y tierra (luego añadirían el aire y el éter). En las tres culturas se intentó clasificar todo según el número de los elementos de su filosofía, especialmente el misterio de la vida. Los griegos creían que el cuerpo humano estaba formado por cuatro humores, base de toda la medicina occidental precientífica. Los chinos en cambio postularon cinco funciones de la energía vital mística llamada “chi”, y con ello diseñaron su medicina precientífica. Y los indostanos argumentaron que el cuerpo estaba controlado por tres doshas o fuerzas, sobre las que crearon su propia práctica médico-mística.

Estas ideas consideraban a los “elementos” como una fuerza más bien mística, sin relación con los elementos químicos que ya se conocían y utilizaban, algunos desde la prehistoria, como el cobre, el oro, el plomo, la plata, el hierro, el carbono y otros más. Los metales, en particular, eran objeto del interés de la alquimia que intentó transmutar de unos en otros utilizando los cuatro elementos clásicos y procedimientos más bien mágicos.

El paso al estudio científico de la química llegó de la mano de Robert Boyle en 1661, cuando publicó en Londres su libro ‘El químico escéptico, o dudas y paradojas quimico-físicas’, donde relataba sus experiencias, lanzaba un llamamiento a que los químicos experimentaran, estableciendo que precisamente los experimentos indicaban que los elementos químicos no eran los cuatro clásicos.

Con este libro, Boyle sentó las bases de una disciplina distinta de la alquimia; una disciplina científica, rigurosa, donde sólo se podía considerar verdadero lo que hubiera sido probado experimentalmente. La nueva química, aunque usaba herramientas y procesos de la alquimia, era algo radicalmente nuevo y diferente, que en breve marcó el fin de la alquimia y sus apasionantes especulaciones.

El libro de Boyle fue el banderazo de salida para la reevaluación de todo lo que se había creído sobre la composición del universo. Desde el descubrimiento del fósforo en 1669 a cargo del alemán Hennig Brand, todavía alquimista, comenzó una sucesión de descubrimientos de otros elementos químicos, casi una veintena sólo en el siglo XVIII y más de 50 en el siglo XIX.

En 1787, el francés Antoine de Lavoisier, descubridor del oxígeno y el hidrógeno (demostrando así que el aire no era un elemento esencial sino una mezcla), hizo la primera lista de 33 elementos, tratando de normalizar tanto la nomenclatura de los mismos como la de los compuestos que forman, en el primer esfuerzo por sistematizar la química como disciplina.

En los años siguientes, el descubrimiento de nuevos elementos y la observación de sus propiedades y la forma en que creaban compuestos, con qué otros elementos se combinaban más frecuentemente, y las características de los mismos compuestos, se empezó a vislumbrar que los elementos tenían una peculiar característica llamada “periodicidad”, es decir, que organizados de acuerdo a sus números atómicos, algunos elementos compartían propiedades químicas que se repetían periódicamente.

En 1869, un profesor de química, el ruso Dmitri Ivanovich Mendeleev, publicó una tabla de los elementos que los ordenaba por su peso atómico pero en columnas que indicaban la repetición de las características químicas de los elementos. Así, por ejemplo, los llamados “gases nobles”, helio, neón, argón, xenón, kriptón y radón son todos gases cuyas moléculas tienen un solo átomo, no son inflamables en condiciones normales y tienen muy poca reactividad química, de modo que están en la misma columna pese a sus diversos pesos químicos.

Mendeleev incluyó en su tabla todos los elementos conocidos hasta entonces, pero además predijo las propiedades químicas que deberían tener los elementos no conocidos, según su peso atómico: el germanio, el galio y el escandio. Estas predicciones se confirmaron conforme se descubrieron dichos elementos, y otros nuevos que también ocupaban su lugar en la tabla de Mendeleev.

En la naturaleza existen 92 elementos. El hidrógeno, el más ligero tiene un protón en su núcleo, y por tanto tiene el número atómico 1. El uranio, en el otro extremo de la tabla, tiene 92 protones y es el más pesado de los elementos que se encuentran en la naturaleza. Más allá del uranio hay elementos con más de 92 protones en su núcleo que ha producido el hombre artificialmente, y son todos radiactivos. A la fecha se han sintetizado elementos con hasta 118 protones, de algunos de los cuales sólo se han detectado literalmente unos pocos átomos porque se degradan rápidamente.

Así podemos responder que el universo, en toda su complejidad, está hecho de materia en la forma de sólo 92 elementos, y, claro, de energía.

El año internacional de la química

La Unión Internacional de Química Pura y Aplicada y la UNESCO han designado a 2011 como el Año Internacional de la Química, y ha preparado una serie de actividades para dar a conocer mejor las aportaciones e importancia de la química en nuestra vida, bajo el tema “Química: nuestra vida, nuestro futuro”. En España, esta conmemoración estará encabezada por el Foro Química y Sociedad, con concursos, conferencias, actividades prácticas y un camión científico, Movilab, que recorrerá España con talleres para todas las edades.

Cómo se hace un fósil

Reconstrucción de Tyrannosaurus Rex
en el Museo del Jurásico de Asturias
(foto © Mauricio-José Schwarz)
El proceso natural de la vida incluye, como uno de sus principios más esenciales, la descomposición de los cuerpos de los seres que han muerto.

Ya sean minúsculas bacterias, insectos de duro exoesqueleto, grandes árboles o enormes animales, sus componentes se someten a reciclaje prácticamente desde el momento mismo de su muerte. La naturaleza no desperdicia nada y, al paso del tiempo, todos se degradan, incluso los más fuertes o sólidos, como huesos, dientes o caparazones.

Sin embargo, nuestro conocimiento de la vida depende de los rastros que se conservan de los seres que vivieron en el pasado remoto. Esos restos son los fósiles, evidencias físicas que nos cuentan cómo fue la vida y cómo evolucionó para llegar hasta donde estamos hoy.

En general, cuando hablamos de fósiles pensamos en objetos hechos de piedra: huesos, impresiones de partes blandas de plantas y animales o, incluso, pisadas y hasta excrementos. Pero también son fósiles los seres que han quedado atrapados en el hielo, como los mamuts congelados durante la última glaciación; en resinas, como los insectos que podemos encontrar en el ámbar, o en turberas y pozos de alquitrán o parafina. Y también restos desecados como momias.

Para utilizar los fósiles en el proceso de reconstrucción de la vida en el pasado, primero debían reconocerse como restos de seres vivos, algo que no es tan trivial como parece. Para algunos como el filósofo Jenófanes del siglo VI antes de la Era Común, eran clara evidencia de seres vivos, al grado de que propuso que los fósiles marinos hallados en tierra eran evidencia de que esa área en el pasado había estado cubierta por agua, hipótesis que hoy sabemos certera.

Sin embargo, más de dos mil años después, en 1677, el naturalista inglés Robert Plot publicaba un libro que seguía sosteniendo otra hipótesis, popular a lo largo de toda la historia, según la cual la tierra tenía la propiedad de generar en su interior cosas con las mismas formas que tenía en su superficie. Así, describió rocas que se asemejaban a flores, ojos, orejas y cerebros humanos. Esto casaba además con la idea de la “generación espontánea” de Aristóteles, que creía que los fósiles eran ejemplos incompletos de las “semillas de la vida” que la tierra generaba espontáneamente.

En general, sin embargo, los distintos pueblos que encontraban restos fósiles les dieron explicaciones míticas relacionándolos con animales como el grifo, los dragones y las quimeras, o bien los explicaban como razas de gigantes (animales o humanos) que habrían vivido antes de algún desastre cósmico como los fines de las eras entre los aztecas o el diluvio universal en el cristianismo europeo. E incluso, como cuenta el paleontólogo José Luis Sanz, en la zona de Cameros las huellas fósiles de manos y pies de dinosaurios se interpretaron durante mucho tiempo como pertenecientes al caballo del apóstol Santiago.

No fue sino hasta principios del siglo XIX cuando tres naturalistas ingleses Willliam Buckland, Gideon Algernon Mandell y Richard Owen, y uno francés, Georges Cuvier, empezaron el estudio sistemático, ordenado y científico de los fósiles, descubriendo en el proceso la existencia de numerosos animales prehistóricos, entre ellos un grupo de reptiles antiquísimos y, muchos de ellos, enormes: los dinosaurios. Empezaron así a reunir datos que señalaban que la Tierra era un planeta mucho más antiguo de lo que jamás habíamos creído hasta entonces, y que la vida antes de nosotros había sido tremendamente compleja y muy distinta de la que narraba la Biblia.

¿Podemos hacer un fósil?
La fosilización más conocida es aquélla en la que los huesos y dientes de los animales o los tejidos de las plantas se ven sustituidos por minerales diversos, reproduciendo la forma y tamaño que tuvieron, pero no su peso, color o composición química. Este proceso debe ocurrir en una zona donde los restos se vean recubiertos bastante rápidamente por sedimentos, por ejemplo, hundiéndose en el lecho de un cuerpo de agua.

Los restos en esas condiciones pueden sufrir varios procesos. En uno, llamado permineralización, los sedimentos a su alrededor se endurecen formando roca sedimentaria y crean un molde de los huesos y, en ocasiones de los tejidos blandos, mismos que finalmente se descomponen. Este molde externo es en sí un fósil. Pero en algunos casos, las corrientes de agua pueden depositar minerales en el “molde” hasta reproducir un vaciado de la materia original. En otra, el hueso puede verse reemplazado gradualmente con otros minerales, preservando además del aspecto externo gran parte de la estructura interna de huesos, caparazones y dientes.

Hay otras formas de fosilización, entre ellas la recristalización de las sustancias de los restos, la adpresión con la que se preservan impresiones (como las huellas de dinosaurios o los pocos ejemplos de moldes de piel, alas y plumas), y un proceso mediante el cual los huesos de un organismo rodean y conservan a otro, o al menos su impresión.

La fosilización puede ocurrir en unos pocos años o desarrollarse a lo largo de prolongados períodos. Además, para que los paleontólogos puedan hallar estos fósiles, los estratos sobre ellos deben erosionarse para que afloren nuevamente. En ese tiempo pueden ocurrir numerosos percances que destruyan los restos, como terremotos o erupciones volcánicas.

Es por ello que la fosilización es un fenómeno muy infrecuente. Aunque existen microfósiles que nos ayudan a contar la historia de la vida en nuestro planeta desde hace unos 4 mil millones de años, suelen fosilizarse principalmente seres con conchas o caparazones, seres muy extendidos geográficamente y los que vivieron durante mucho tiempo antes de extinguirse. Esas tres características aumentan la probabilidad de fosilización.

Por ello mismo, el registro fósil, es decir, la colección de todos los fósiles que conocemos, es una imagen incompleta de la historia de la vida. Nos faltan restos de un número indeterminable de especies de cuerpo totalmente blando, o que sólo vivían en pequeñas zonas geográficas, o que no existieron durante mucho tiempo, ya sea por extinguirse o porque evolucionaron hacia otras formas.

Los seres que faltan

Los paleontólogos apenas han explorado una mínima parte de la superficie de nuestro planeta y menos aún de sus profundidades. Aún si hay pocos fósiles, también sabemos que apenas hemos descubierto una fracción minúscula de las especies que nos precedieron en estos miles de millones de años. Si hemos clasificado más de 520 géneros de dinosaurios (cada uno con varias especies), los expertos calculan, conservadoramente, que pudo haber casi dos mil géneros distintos. Y si hablamos de seres más abundantes y variados, como los insectos, el cálculo es aún más difícil y enorme. Por más que aprendamos siempre queda mucho, muchísimo más por saber.

El minúsculo centro de nuestras emociones

Amygdala
Imagen del cerebro con las
amígdalas señaladas en rojo
(CC de Life Science Databases (LSDB),
vía Wikimedia Commons
Aproximadamente a la altura de nuestros ojos, en lo más profundo de la base de nuestro cerebro, directamente debajo de la corteza, existen dos pequeñas estructuras con la forma y el tamaño de dos almendras a las que se llama, precisamente, “amígdalas”, que es la palabra griega para “almendra”, una en cada lóbulo cerebral.

Estos cuerpos son parte esencial del sistema límbico, un complejo circuito neuronal que controla el comportamiento emocional y los impulsos que nos mueven a hacer las cosas, y tienen numerosas y complejas conexiones con el resto del sistema límbico, el hipotálamo, el tallo cerebral, la corteza cererbral y otras estructuras de nuestro sistema nervioso central.

Las amígdalas, formadas por varios núcleos, son responsables, entre otras cosas, de nuestra capacidad de sentir miedo. Una lesión en estos pequeños cuerpos y podríamos pasar sin miedo entre una manada de leones hambrientos. El miedo es un viejo compañero desagradable que nos mantiene vivos, como el dolor.

El cerebro está formado por capas que la evolución ha ido añadiendo, con las más antiguas debajo y las más modernas encima, como si fueran los estratos geológicos de la Tierra. Las estructuras más antiguas tienen alrededor de 500 millones de años, y corresponden a nuestro tallo cerebral y cerebelo. Después aparecieron las estructuras conocidas como ganglios basales, que se ocupan del control motor y las emociones, entre ellas todo el sistema límbico, incluidas las amígdalas. Finalmente, la estructura más reciente es la corteza cerebral, que en el caso de los seres humanos es la principal responsable de interpretar la información de los sentidos, realizar asociaciones y desarrollar el pensamiento creativo y racional.

La antigüedad evolutiva de las amígdalas se explica precisamente por su función en la descodificación y el control de las respuestas autonómicas (es decir, no voluntarias) asociadas al miedo, la excitación sexual y la estimulación emocional en general. Dado que un sistema de alarma así es fundamental para sobrevivir, había una real presión de selección para su desarrollo. Una de las principales funciones de la amígdala es que recordemos situaciones que nos puedan haber dañado y las evitemos en el futuro.

En 1888, Sanger Brown y Edward Albert Shäfer publicaron sus estudios. Habían extirpado quirúrgicamente partes del cerebro de monos rhesus y observado los cambios en la conducta de los animales. Su trabajo fue retomado en la década de 1930 por Heinrich Klüver y Paul Bucy, y sucesivos investigadores que pudieron determinar que al extirparse la amígdala a los monos con los que trabajaban, éstos dejaban de mostrar temor, entre otras alteraciones conocidas precisamente como Síndrome de Klüver-Bucy.

Por otra parte, si las amígdalas se estimulan eléctricamente, evocan el comportamiento de miedo y ansiedad tanto en humanos como animales, un comportamiento que es, en realidad, una compleja colección de respuestas: aumento en la tensión arterial, liberación de hormonas relacionadas con el estrés, gritos u otros ruidos e incluso la congelación o inmovilización total, lo que llamamos en lenguaje coloquial quedar “paralizados por el miedo”.

Con el tiempo se ha demostrado que estas pequeñísimas estructuras participan en una asombrosa variedad de actividades de nuestro cerebro, recibiendo información, procesándola y enviando impulsos a distintas zonas del cerebro para la liberación de neurotransmisores y hormonas que influyen en nuestras emociones. Por ejemplo, la noradrenalina, hormona que prepara al cuerpo para pelear o huir, aumentando la frecuencia cardiaca, liberando glucosa para atender las necesidades de los músculos, y aumentando el flujo de sangre a los mismos y el cerebro (retirándolo de otras zonas, lo que explica por qué palidecemos cuando tenemos miedo), entre otros efectos.

Si la amígdala es esencial en el aprendizaje motivado por el miedo, como cuando aprendemos a no meter la mano en el fuego por temor a repetir una experiencia dolorosa, se ha determinado que los pequeños núcleos de las amígdalas también juegan un papel en el aprendizaje que se consigue con estímulos positivos, como los alimentos, el sexo o las drogas.

La amígdala es como un centro complejísimo, y diminuto, de procesamiento de emociones que controla la memoria no sólo dentro de sus estructuras, sino a nivel de todo el cerebro, generando recuerdos, ordenando almacenarlos y echando mano de ellos para evaluar situaciones en las que nos podamos encontrar.

Esto tiene implicaciones importantes para quienes padecen de estrés excesivo, ansiedad, depresión, ataques de pánico y otros trastornos en los cuales la amígdala se comporta (o es llevada a comportarse) de modo extremo. Conocer estas estructuras y su funcionamiento guarda una gran promesa para manejar mejor, ya sea por medio de fármacos, psicoterapia u otro tipo de intervención, alteraciones emocionales y de conducta que muchas veces son socialmente incapacitantes para muchas personas.

Lo que sabemos de este centro esencial de nuestras emociones es, sin embargo, aún muy poco y muy impreciso. Como ejemplo, se ha determinado que el tamaño de la amígdala está correlacionado con nuestras redes sociales, mientras más grande sea nuestra amígdala, mayor será el número de amigos y conocidos que tengamos. Aún si esto es cierto, quedaría por saber si una amígdala grande nos hace más amistosos, o las relaciones sociales provocan que crezca la amígdala… o bien, como muchas veces pasa en ciencia, que haya un tercer elemento que afecte ambos temas o bien, incluso, que la correlación sea una simple coincidencia irrelevante.

Algo que sí sabemos es que no tenemos que ser esclavos de nuestros miedos y ansiedades. Tanto la experiencia de las personas controlando su miedo como las complejas conexiones anatómicas de la amígdala nos recuerdan que tenemos estructuras mentales que complementan, y pueden dirigir, al sistema autonómico del que la amígdala es parte importante. El miedo es útil como sistema de alarma, pero es también controlable.

La mujer sin miedo

A fines de 2010 se conoció el caso de una mujer estudiada en Estados Unidos que es normal en inteligencia, memoria y lenguaje, y puede experimentar todas las emociones … salvo el miedo. Recuerda haber sentido miedo cuando en su adolescencia la acorraló un perro, pero nunca después de que una enfermedad, la proteinosis lipoide, destruyó sus amígdalas. Una noche, en un parque, se acercó sin más a un sujeto de amenazante aspecto, que la amenazó con un cuchillo. La misma falta de temor que la metió en el problema al parecer sirvió para que su atacante la dejara ir inquieto por su reacción. Pero a la noche siguiente, volvió a cruzar el parque sin ninguna preocupación ni miedo.

Astrología, historia de una ilusion

Astrologer-ad
Anuncio de un astrólogo en EE.UU.
siglo XIX.
(Imagen D.P. via Wikimedia Commons)
Entre las formas de predicción más populares está una vieja conocida del hombre, la astrología, un nombre relativamente inocente que significa, “estudio de los astros”, pero cuya pretensión es usarlos para predecir el futuro. Toda forma adivinatoria basada en la observación del cielo y los objetos que hay en él es “astrología”, sea china, hindú o maya. La prevaleciente en el mundo occidental es la astrología solar en los doce “signos” o constelaciones del zodíaco.

El zodíaco es un anillo de constelaciones situado en la ruta que el sol parece recorrer durante el año en la esfera celeste, una banda de unos 16 grados de ancho llamada eclíptica. La astrología supone que estas constelaciones se corresponden con doce signos en los que se divide la eclíptica, y que su posición en relación con los planetas tiene un significado que puede interpretarse. Para la astrología, curiosamente tanto el sol como la luna son planetas, además de Mercurio, Venus, Marte, Júpiter y Saturno, que son los planetas conocidos desde la antigüedad.

La idea de que estas constelaciones y cuerpos celestes o “planetas” tenían alguna influencia sobre la vida humana y sus acontecimientos es parte de todo el esquema de las adivinaciones, es decir, del intento de ver el futuro mediante la inspiración divina, interpretando (con ayuda de los dioses) algunas “señales” presentes a nuestro alrededor o utilizando algún otro medio. Si se creía que el futuro estaba predeterminado, lo que tenía que hacer el adivinador para conocerlo era descifrar algún código colocado por la divinidad: el vuelo de las aves, la disposición de las entrañas de un animal sacrificado, las líneas de la mano, el agua, el fuego, la disposición de las hojas del té o los posos del café, los reflejos en una bola de cristal y, literalmente, cientos de formas adivinatorias más.

Si tantas cosas podían ser señales del destino esperando a ser descifradas, también podría serlo la posición de los planetas (cuerpos celestes que se movían en relación con la bóveda celeste, por algo su nombre significa, precisamente, “vagabundo” en griego) y las constelaciones, peculiares agrupamientos de estrellas que parecían estáticas unas respecto de las otras, formando dibujos que sugerían distintos animales y seres preternaturales.

La astrología tiene su origen en la Babilonia del siglo IV antes de la Era Común, pero no fue sino hasta el siglo II de nuestra era cuando Claudio Ptolomeo, científico y astrólogo romano de Alejandría, sistematizó la astrología que conocemos hoy en día, y que se popularizó entre los romanos y, por su intermedio, llegó a la Europa conquistada. En el medievo, fue practicada en el mundo musulmán (y criticada con bases científicas) y en Europa, donde convivió con la astronomía, pero con poca relevancia. En el Renacimiento resurgió brevemente como parte del interés de la época por el universo, pero pronto volvió a los márgenes de la sociedad donde se mantuvo durante la Ilustración y la Revolución Industrial.

Fue sólo a comienzos del siglo XX cuando la astrología experimentó un renacimiento en los Estados Unidos y de allí volvió a popularizarse en todo el mundo en la forma en que actualmente la conocemos y que, ciertamente, no es milenaria ni tradicional.

A lo largo de los siglos se han señalado algunos de los sinsentidos que caracterizan a la astrología. Si los objetos celestes nos afectan, ¿por qué habrían de afectarnos sólo las constelaciones del zodíaco y no los cientos de miles de millones de estrellas más que hay en el universo, muchas de ellas más cercanas? Después de todo, las constelaciones son ilusiones debidas a nuestro punto de vista, pero los astros que las componen pueden estar a enormes distancias entre ellos. Tan solo en la constelación de Perseo, como ejemplo, tenemos el sistema de tres estrellas Algol a 93 años luz de nosotros, y también un grupo de estrellas llamado NGC 869 que está a la friolera de 7600 años luz. ¿No es raro que los cuerpos estelares sean tan selectivos con nosotros?

Un problema más grave es que las constelaciones del Zodiaco no son doce, sino 13. En efecto, el sol pasa por la constelación de Ofiuco durante más de la mitad de diciembre. Y otro aún más interesante es que el eje de rotación de nuestro planeta no es estático, sino que va cambiando lenta pero inexorablemente en un proceso llamado “precesión” debido a la gravedad de la luna y el sol. La consecuencia de esta precesión es que las constelaciones del zodiaco ya no están donde estaban cuando Claudio Ptolomeo hizo sus cálculos. Así, si usted nació el 1º de enero, los astrólogos le dirán que sus características son las del signo de Capricornio, cuando en la actualidad el sol está en el signo de Sagitario.

Pero nada de esto importaría, claro, si la astrología funcionara… es decir, si pudiera predecir el futuro o al menos describir correctamente a las personas divididas en 12 categorías claramente diferenciadas. Sin embargo, todos los estudios que se han hecho tratando de demostrar que las descripciones astrológicas se corresponden con la realidad han sido incapaces de demostrar una relación estadísticamente significativa entre las predicciones astrológicas y lo que realmente ocurre.

Pero, ¿por qué hoy en día hay personas que creen que la astrología tiene algo relevante que decirnos pese a que evidentemente no sirve para predecir cosas importante, como cuándo hay que evacuar un edificio porque va a haber un incendio? En buena medida, dicen los psicólogos, porque queremos creer, y también porque los astrólogos suelen expresar sus “lecturas” en términos tan vagos y generales que son aplicables a cualquier persona, un efecto conocido como “efecto Forer”. Finalmente, como toda forma de adivinación, se apoya en que tendemos a recordar los aciertos y no los fallos. Si se hacen numerosas predicciones, alguna de ellas acabará cumpliéndose, y nuestra buena fe, mejor entusiasmo y mala memoria ayudan a que olvidemos todas las que nunca se cumplieron.

La astronomía no viene de la astrología

Contrario a lo que se suele creer, la observación sistemática de los cielos y su significado (por ejemplo, el ciclo de los solsticios y equinoccios para definir el momento de siembra y cosecha) y los cálculos matemáticos astronómicos datan de hace más de 3500 años. La astronomía y la astrología nacieron juntas, pero independientes, y así han estado durante toda la historia. Para los babilonios, egipcios y griegos, la astronomía ya era un asunto distinto de la astrología, mientras que en el Renacimiento muchos de los astrónomos que revolucionaron nuestro conocimiento del universo, como Tycho Brahe y Galileo, eran también astrólogos, sin mezclar ambas actividades y sin que sus creencias influyeran en los hechos que estudiaban, cosa que identifica al buen científico.