Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Medir y entender el tiempo

Dijo Baltasar Gracián: "Todo lo que realmente nos pertenece es el tiempo; incluso el que no tiene nada más, lo posee". Pero aún no sabemos qué es exactamente esa materia extraña que poseemos.

El reloj de la torre de Berna, Suiza, que inspiró
a Einstein sus ideas sobre la relatividad.
(Foto GFDL de Yann and Lupo, vía
Wikimedia Commons
"El tiempo es lo que impide que todo ocurra a la vez", dijo John Archibald Wheeler, uno de los más importantes físicos teóricos estadounidenses del siglo XX y recordado por su concepto del "agujero de gusano" como un túnel teórico a través del tiempo y el espacio.

Era un intento de explicar, con buen humor, uno de los más grandes misterios que el universo sigue ofreciéndonos como estímulo para la investigación. Porque aunque conocemos algunas de sus características esenciales, no sabemos exactamente qué es el tiempo.

El tiempo se desarrolla en un solo sentido, eso es lo más notable que podemos decir de él. Es decir, pese a afirmaciones y especulaciones en contrario, no podemos retroceder en el tiempo. Por ello los físicos hablan de la "flecha del tiempo" que sólo avanza en una dirección, del pasado al futuro.

También sabemos algo con lo que nos hemos reconciliado en las últimas décadas pero que en su momento fue todo un desafío a eso que llamamos, con cierta arrogancia inexplicable, "el sentido común": el tiempo es relativo.

Hasta 1905, se consideraba que el tiempo era constante, como lo proponía Newton. Pero según la teoría de la relatividad publicada ese año por Einstein, el tiempo es relativo, según el marco de referencia. El ejemplo clásico es el de un hombre que viaja al espacio cerca de la velocidad de la luz y su gemelo se queda en la Tierra. Para el viajero, el tiempo transcurrirá más lentamente o se "dilatará", y al volver será mucho más joven que su gemelo. Además, el tiempo también se dilata en presencia de la gravedad, a mayor atracción gravitacional, más lento transcurre.

La primera prueba de que lo predicho por las matemáticas de Einstein era real se realizó en 1971 utilizando dos relojes atómicos con precisión de milmillonésimas de segundo. Uno de ellos se quedó en tierra mientras que el otro se envió a dar la vuelta al mundo en un avión a 900 km por hora. Cuando el reloj del avión volvió a tierra, se demostró que había una diferencia entre ambos, una diferencia minúscula, de algunas milmillonésimas de segundo, pero coherente con la teoría.

Medir lo que no sabemos qué es

Mucho antes de siquiera plantearse definir el tiempo, o estudiarlo, el hombre enfrentó la necesidad de contarlo. Los períodos de tiempo más largos que un día tenían referentes claros: el propio ciclo del día y la noche, el de la luna, el del sol y los de distintos cuerpos celestes que le resultaron interesantes a distintas culturas, como Venus a los mayas y Probablemente Sirio a los egipcios.

Pero, sobre todo después de que los grupos humanos dejaron de ser nómadas, se hizo necesario dividir el día se dividiera en fragmentos medibles e iguales para todos, con objeto de coordinar las actividades del grupo.

Para ello se emplearon varios procesos repetitivos capaces de indicar incrementos de tiempo iguales: velas marcadas con líneas, relojes de arena, relojes de agua (clepsidras), tiras de incienso que se quemaban a un ritmo regular, y otros mecanismos. Los egipcios que trabajaban bajo tierra, como en las tumbas reales, recibían lámparas de aceite con una cantidad determinada. Al acabarse el aceite de sus lámparas, sabían que era hora de comer, o el fin de su jornada de trabajo.

Los egipcios fueron también los primeros en utilizar el sol, o, más precisamente, la sombra, para dividir el día en fragmentos. Los obeliscos eran relojes de sol que primero sólo marcaban la hora antes y después de mediodía, y luego se añadieron otras subdivisiones, las horas. Hace alrededor de 3.500 años, los egipcios crearon los primeros relojes de sol. Para ellos, los días tenían diez horas, más dos horas de crepúsculo y amanecer, y la noche tenía también 12 horas, determinadas mediante la aparición sucesiva en el horizonte de una serie de estrellas.

¿Por qué tiene 12 horas el día? Los sistemas decimales o vigesimales son los más comunes. pero el antiguo Egipto heredó su sistema numérico sexagesimal de los babilonios, que a su vez lo obtuvieron de la cultura sumeria.

Y los sumerios usaban un sistema duodecimal (de 12 unidades). Aunque no sabemos exactamente por qué lo eligieron, los matemáticos han notado que 12 tiene tres divisores (2, 3 y 4), lo cual simplifica bastante muchos cálculos realizados con esa base. Y al multiplicarlo también por 5 obtenemos 60. Otros creen que este sistema se origina en los 12 ciclos lunares de cada año, que han devenido en los doce meses del año. Los babilonios fraccionaron las horas en 60 minutos iguales y, al menos teóricamente, las horas en 60 segundos. La medición precisa del segundo, sin embargo, no fue viable sino hasta la invención del reloj en la edad media.

Por cierto, en esta práctica sumeria están divisiones como la venta de artículos por docenas o los doce signos del zodiaco (que omiten a dos porque no entran en el número "mágico", Cetus y Ofiuco).

Por supuesto, para medir lapsos de tiempo menores a un segundo no hemos seguido el sistema sexagesimal sumerio, sino que utilizamos décimas, centésimas, milésimas, etc. siguiendo el sistema decimal.

Pero, ¿existe el tiempo como existe la materia? Según algunos físicos y filósofos, el pasado y el futuro son creaciones de nuestra conciencia, pero no tienen una realidad física. Lo único que existe es un presente continuo, cuyos acontecimientos pueden dejar huella, como recuerdos, construcciones, ideas u obras de arte... pero sólo existen en el instante presente. Detectamos su paso sólo porque las cosas se mueven o cambian. E imaginamos el futuro especulando sobre los movimientos o cambios que pueden ocurrir.

En todo caso, el presente sigue siendo un acertijo, que se ha complicado con algunas teorías propuestas de gravedad cuántica según las cuales el tiempo no es un flujo continuo, sino que está formado por diminutas unidades discretas, paquetes de tiempo, llamados "cronones" que se suceden incesantemente, como los fotones se suceden para crear un rayo de luz que creímos continuo hasta que apareció la mecánica cuántica.

Quizá el problema que tenemos para entender el tiempo se ejemplifica con un pequeño ejercicio que todos podemos hacer: intente definir la palabra "tiempo" sin usar ni la palabra "tiempo" ni ningún concepto que implique el tiempo (como "duración" o "lapso").

Los límites de la medida

La menor unidad de tiempo que podríamos medir, teóricamente, es el "tiempo de Planck", propuesto por el físico Max Planck a fines del siglo XIX y que sería el tiempo necesario para que un fotón viajando a la velocidad de la luz recorra una distancia igual a una "longitud de Planck" (una medida 100 billones de veces menor que el diámetro de un protón).

El bulldog de Darwin

Thomas H. Huxley defendió a Darwin pese a no estar de acuerdo con todos los elementos de su teoría. Era un paso hacia el conocimiento que no podía permitir que se rechazara sin más.

Thomas Henry Huxley
(Foto D.P. de la National Portrait
Gallery of London vía Wikimedia Commons)
La escena que más claramente ha colocado a Thomas Henry Huxley en la percepción popular es el debate del 30 de junio de 1860 en el Museo Universitario de Historia Natural de Oxford con el cirujano y fisiólogo Benjamin Brodie, el botánico Joseph Dalton Hooker y el vicealmirante Robert Fitzroy, excapitán del "Beagle", legendario barco en el que Darwin reunió los datos para sus descubrimientos.

Curiosamente, Fitzroy se oponía virulentamente a las ideas de Darwin, y algunas de sus intervenciones se hicieron blandiendo la Biblia con enfado. Pero en leyenda, el centro del debate fue entre Huxley, el biólogo de las largas patillas, y Samuel Wilberforce, obispo de Winchester. El momento memorable ocurrió cuando el obispo, en un desdeñoso gesto retórico, le preguntó a Huxley si creía ser un mono a través de su abuelo o de su abuela. Nadie registró las palabras exactas de Huxley, pero quedó el sentido general de sus palabras: no se avergonzaba de tener un mono como ancestro, pero sí se avergonzaría de estar emparentado con un hombre que usaba sus grandes dones para oscurecer la verdad científica.

Thomas Henry Huxley había nacido el 4 de mayo de 1825, el séptimo de ocho hijos en una familia de recursos limitados. Su padre, profesor de matemáticas, no pudo darle escuela al joven Thomas, quien procedió a obtener una impresionante educación autodidacta que le permitió a los 15 años comenzar a ser aprendiz de médico y pronto ganarse una beca para estudiar en el mítico hospital de Charing Cross. Seis años después, Huxley embarcaba como cirujano asistente en el "Rattlesnake", una fragata de la marina destinada a cartografiar los mares que rodeaban a Australia y Nueva Guinea.

Durante el viaje, que le resultó enormemente penoso por las condiciones de las embarcaciones de la época, se ocupó en recoger y estudiar diversos invertebrados marinos, enviando periódicamente los resultados de sus observaciones por correo a Inglaterra, de modo que cuando volvió a casa tras cuatro años de viaje, ya se había ganado un lugar entre la comunidad científica y empezó a dedicarse a la divulgación y a la educación.

Después de la aparición de "El origen de las especies", dedicó buena parte de su trabajo a dar conferencias sobre la evolución, además de trabajar en paleontología y zoología práctica, y fue presidente de la Asociación Británica para el Avance de las Ciencias y de la Real Sociedad londinense. Pero fue también un divulgador convencido de que la ciencia se podía explicar a cualquier persona y un escéptico que no admitía ninguna idea sin bases sólidas, demostraciones y pruebas, fuera una proposición metafísica o la teoría de su amigo Darwin.

Murió en 1895 como uno de los más reconocidos científicos británicos de su época.

Cambiar de forma de pensar de acuerdo a los datos

Huxley estaba originalmente convencido de que no había cambios evolutivos, pensando que en el registro fósil se hallarían los mismos grupos de seres de la actualidad. Pero los datos que aportaba la realidad, desde el registro fósil hasta los estudios de Darwin, lo llevaron incluso a decir "Qué estúpido fui de no haberlo pensado".

Para 1859, Huxley estaba convencido de que las especies evolucionaban, pero dudaba que esto ocurriera mediante una sucesión de pequeños cambios, el llamado "gradualismo" que estaba en la base de la teoría de Darwin, y así se lo hizo saber. Pensaba que una especie podía aparecer completamente identificable a partir de una anterior sin pasos intermedios. Aún así, se vio impactado por "El origen de las especies".

El 23 de noviembre de 1859, al día siguiente de terminar de leerlo, le escribió una entusiasta carta a Charles Darwin que decía, entre otras cosas que aunque habrá perros callejeros que ladrarán y chillarán, "debe recordar que algunos de sus amigos como sea están dotados con una cantidad de combatividad (aunque usted la ha reprendido con frecuencia y de modo justo) pueden defenderlo con eficacia", para terminar diciendo "Me estoy afilando las garras y el pico para prepararme".

Darwin no era hombre de deabtes y enfrentamientos, de controversias y duelos verbales. Huxley, sin embargo, era un polemista brillante, agudo (demasiado agudo, llegó a decir Darwin) y que disfrutaba del enfrentamiento, así que se lanzó sin más a confrontar a los muchos detractores de Darwin.

Curiosamente "El origen de las especies" Darwin no había mencionado al ser humano que había sido centro del debate de Oxford. Aunque la inferencia era obvia, la había omitido, quizá ingenuamente, para no causar demasiado revuelo.

Fue, sin embargo, Huxley quien publicó en 1863 el primer libro que aplicaba los principios de la evolución a los orígenes de la especie humana, "Evidencia del lugar del hombre en la naturaleza". Algunos grandes científicos como Richard Owen, fundador del Museo Británico de Historia Natural y antievolucionista, habían afirmado que el cerebro humano contenía partes que no estaban presentes en otros primates, pero Huxley y sus colaboradores demostraron que anatómicamente no había prácticamente diferencias entre los cerebros humanos y los de otros primates.

Quizá la pasión y dedicación de Huxley, hicieron que se le distinguiera por encima de otros brillantes defensores de los descubrimientos de Darwin, como Joseph Dalton Hooker, el primer científico reconocido que había apoyado a Darwin públicamente apenas un mes después de la publicación de "El origen de las especies", y que también participó en el debate de Oxford, además de ser amigo, confidente y primer lector crítico de los manuscritos de Darwin.

Así, pese a que la relación entre Huxley y Darwin no estuvo exenta de roces, sus nombres quedaron unidos en la defensa de una idea esencial, aunque los detalles quedaran aún por definirse conforme avanzaba el conocimiento. Quizá parte de su sano escepticismo se vio satisfecho cuando un año antes de su muerte se enteró de que había sido descubierto el fósil entonces llamado "hombre de Java", hoy clasificado como Homo erectus, ancestro de nuestra especie.

Una familia singular

El zoólogo autodidacta Thomas Huxley fue la raíz de una familia de gran relevancia en el mundo de las ciencias y las letras. Su hijo Leonard Huxley fue profesior y biógrafo, entre otros, de su propio padre. Entre sus nietos destacan Julian Huxley, biólogo, divulgador y primer director de la UNESCO; Andrew Huxley, biofísico ganador del Premio Nobel en 1963, y Aldous Huxley, poeta y escritor autor de "Un mundo feliz". El más conocido descendiente de Huxley en la actualidad es Crispin Tickell, diplomático, ecologista y académico británico que es tataranieto del genio.

La ciencia de lavar las cosas

Jabones, arcillas, detergentes, aceites, ceniza... el ser humano ha hecho un continuo esfuerzo por mantenerse limpio creando en el proceso tecnologías e industrias diversas.

Jabones artesanales a la venta en Francia. Los antiguos
métodos de fabricar jabón siguen siendo válidos.
(Foto CC/GFDL de David Monniaux,
vía Wikimedia Commons)
Lavar la ropa, y lavarnos a nosotros mismos, parece una tarea bastante trivial. Agua, un poco de jabón o detergente, frotar o remover y la grasa, la suciedad y los desechos se van por el desagüe.

De hecho, a veces basta un chorro de agua para quitarnos, por ejemplo, el barro de las manos, dejándolas razonablemente limpias.

Pero cuando lo que tratamos de eliminar son grasas, el agua resulta bastante poco útil. El idioma popular por ello se refiere a cosas o personas incompatibles como "el agua y el aceite". Y aunque tratemos de mezclarlos agitándolos, no conseguiremos disolver el aceite en agua porque es un compuesto de los llamados hidrofóbicos, que repelen el agua, a diferencia de los que se mezclan con ella, los hidrofílicos.

Para unirlos necesitamos ayuda. Lo que llamamos jabón, o alguno de sus parientes cercanos, que son sustancias llamadas surfactantes porque reducen la tensión superficial de los líquidos.

Las moléculas de los surfactantes tienen dos extremos: una cabeza hidrofílica y una cola hidrofóbica. Los surfactantes forman diminutas esferas con un exterior hidrofílico y un centro hidrofóbico en el que se atrapan las grasas y aceites para poder ser enjuagados. Es la magia química que ocurre todos los días cuando fregamos los platos o lavamos la ropa y vemos cómo el aceite se disuelve en el agua gracias al detergente.

De hecho, parece muy afortunado que en un universo pletórico de suciedad, grasas, aceites, pringue y polvo, exista una sustancia capaz de lograr esta hazaña, convertida en puente entre lo que nos molesta y el agua que puede librarnos de ello.

Es de imaginarse que desde el invento de los textiles, o quizá desde que el hombre confeccionó sus primeras prendas con pieles, se buscó la forma de eliminar la suciedad. No tenemos informes de cuál era el equivalente de la lavadora para los hombres de antes de la era del bronce, pero la evidencia más antigua que hemos encontrado hasta ahora referente al jabón se halló en unas vasijas de barro babilónicas que datan del 2.800 antes de nuestra era, que contenían una sustancia similar al jabón, e inscripciones que muestran una receta básica para hacerlo hirviendo grasas con cenizas.

Pero no sabemos si los babilónicos usaban el jabón para lavarse o para otros fines, por ejemplo como fijadores del cabello. Sí sabemos, gracias a un papiro del 1550 a.N.E. llamado Ebers, que los antiguos egipcios mezclaban aceites animales y vegetales con diversas sales alcalinas para producir un material similar al jabón que se usaban como medicamento para la piel, pero también para lavarse.

A cambio, los griegos se bañaban sin jabón, utilizando bloques de arcilla, arena, piedra pómez y cenizas, para luego untarse el cuerpo de aceite y quitárselo con una herramienta llamada estrígil, mientras que la ropa se lavaba con cenizas, que tienen cierta capacidad de eliminar las grasas.

Diversas arcillas tienen también propiedades surfactantes y se han utilizado para lavar textiles. En los batanes de tela antiguos se solían utilizar lodos de distintas arcillas para agitar en ellos las telas y enjuagarlas. Al eliminar la arcilla, ésta se llevaba la grasa, la suciedad, los olores y los restos indeseables.

Según el historiador Plinio el Viejo, los fenicios del siglo VI a.N.E. hacían jabón con sebo de cabra y cenizas. Los romanos por su parte utilizaban orina como sustituto de la ceniza para fabricar jabón, que se usaba ampliamente en todo el imperio, aunque algunos seguían usando el aceite de oliva por distintos motivos. Por ejemplo, el sudor con aceite de oliva que los gladiadores más famosos se quitaban con el estrígil se vendía al público como hoy se pueden vender souvenirs de atletas o estrellas musicales.

La palabra "jabón" en sí se origina, según Joan Corominas, en la palabra latina "sapo", que procede del germánico "saipón", nombre que distintos grupos supuestamente bárbaros daban al jabón, que producían a partir de grasas animales y cenizas vegetales.

Otra opción de limpieza eran unas veinte especies de plantas que hoy conocemos como "saponarias" y que contienen una sustancia, la saponina, que produce espuma cuando se agita en el agua. Se han utilizado como jabón o como ingredientes del jabón en distintos momentos de la historia.

Pero el jabón era caro y su producción compleja. Hasta fines del siglo XIX no estaba al alcance de las grandes mayorías. Nuevos métodos de producción descubiertos por los químicos franceses Nicholas LeBlanc, primero, y Michel Eugene Chevreul después, redujeron notablemente el precio de producción del jabón.

De hecho, Chevreul fue quien explicó la naturaleza química del jabón, que hoy podemos definir como sales de ácidos grasos, que se producen debido un proceso conocido precisamente como "saponificación" y que ocurre cuando un aceite o grasa se mezcla con una sustancia fuertemente alcalina (como la ceniza o la lejía). Al hervirse juntos, de las grasas se descomponen, se separan en ácidos grasos y se combinan con la sustancia alcalina en una reacción química que produce jabón y glicerina.

No hubo más novedades en el jabón salvo por refinamientos en su producción, añadiendo perfumes, haciéndolo más suave (para el cuidado personal) o más fuerte según las necesidades, quitando la glicerina en todo o en parte, usando distintos tipos de grasas y álcalis.

Después de la Primera Guerra Mundial, la escasez de grasas utilizadas para fabricar jabón en Alemania estimuló la creación, en 1916, de los detergentes artificiales comerciales, sobre los cuales se había estado experimentando desde mediados del siglo XIX en Francia.

El detergente, como todo nuevo desarrollo, tiene sus desventajas. Desde que se generalizó su uso en la década de 1940, se convirió en un problema ecológico relevante, principalmente porque sus componentes permanecían en el medio ambiente. A partir de la década de 1970 surgieron los detergentes biodegradables, que resolvían parte del problema pero causaban otros debido a la presencia de fosfatos. Actualmente empiezan a extenderse los detergentes sin fosfatos, más amables con el medio ambiente.

¿Funciona mejor con agua caliente?

Todo el que haya tratado de fregar platos o ducharse con agua fría sabe que los jabones y detergentes funcionan mejor con agua caliente. Esto se debe a que la alta temperatura funde las grasas y aceites, ayudando a despegarlos del sustrato. Sin embargo, en los últimos años se han desarrollado detergentes que funcionan perfectamente en agua fría y en lugares como Japón son los más comunes... pero su aceptación ha sido lenta porque estamos convencidos de que con agua caliente lava mejor.

La amenaza de la poliomielitis

Una terrible enfermedad que aún no se ha podido erradicar y contra la que, sin embargo, resulta enormemente sencillo protegernos.

El pabellón de pulmones de acero de un hospital californiano
a principios de la década de 1950.
(foto D.P. de la Food and Drug Administration, vía
Wikimedia Commons)
Imaginemos el pabellón de un hospital ocupado por enormes cilindros de acero, cada uno de ellos conectado a una bomba y ocupado por un niño del que sólo sobresale la cabeza a través de un orificio hermético. La bomba disminuye la presión dentro del cilindro y el pecho del niño se expande, haciendo que inspire. Luego invierte la acción y aumenta la presión, de modo que el pecho del niño se contrae, exhalando. Este ciclo mecánico permite la supervivencia de personas que tienen paralizados los músculos respiratorios.

El aparato, llamado "pulmón de acero" o, más técnicamente, "ventilador de presión negativa", fue la única esperanza de vida para miles de víctimas de las epidemias de poliomielitis que recorrieron el mundo en la primera mitad del siglo XX, la gran mayoría de ellos niños. Para las víctimas de las epidemias ocurridas anteriormente, no había ni siquiera esa esperanza.

Y dado que la mayoría de las víctimas eran menores de edad, principalmente por debajo de los cinco años, y que originalmente la enfermedad se llamaba simplemente "parálisis infantil", se entiende que durante mucho tiempo la sola palabra "poliomielitis" o su versión breve, "polio", fueran causa de terror entre los padres

La poliomielitis es una enfermedad aguda altamente infecciosa provocada por el poliovirus, miembro de la familia de los enterovirus, la cual incluye a más de 60 variedades capaces de provocar enfermedades al ser humano. Entra por la boca o la nariz y se reproduce infectando las células del tracto gastrointestinal para después entrar al torrente sanguíneo y el sistema linfático.

En realidad, el 95% de las infecciones de polio son asintomáticas, es decir, transcurren sin que el paciente tenga ninguna alteración y sólo es detectable mediante análisis.

En el 5% restante, la infección puede causar síntomas leves similares a una gripe. Pero si el virus llega al sistema nervioso, puede provocar una serie de síntomas dolorosos y muy molestos o, en los casos más graves, afectar al cerebro y la médula espinal provocando distintos tipos de parálisis, incluso la respiratoria.

Después de que la infección termina su curso, unos pocos días después de la aparición de los síntomas, la parálisis puede seguir agravándose durante semanas o meses, poniendo en peligro incluso la vida del paciente. Pasado ese tiempo, lo más frecuente es que el uso de los músculos afectados se recupere parcial o totalmente.

Sin embargo, en una de cada 200 infecciones la parálisis es irreversible, y causa la muerte de entre el 2 y el 5% de los niños infectados, y entre el 25 y el 30% de los adultos, principalmente por complicaciones respiratorias y cardiacas.

La enfermedad toma su nombre precisamente de sus más graves expresiones, pues proviene de las raíces griegas "gris" (polio), "médula" (myelos) e "itis" (inflamación), es decir, inflamación de la materia gris de la médula espinal, que es lo que provoca la parálisis.

Una vez que se ha declarado la enfermedad, la única opción que tienen los médicos es ofrecer alivio a los síntomas y tratar de evitar complicaciones mientras la infección sigue su curso. No hay cura, no hay tratamiento, no hay más opción que esperar.

Las epidemias y la derrota de la polio

Aunque hay menciones a lo largo de toda la historia de enfermedades que podrían identificarse con la poliomielitis. Así, una estela de la XVIII dinastía egipcia muestra a a un hombre con una pierna escuálida y ayudándose de un bastón. Podría ser un caso de polio, pero es sólo una conjetura.

La primera descripción de la enfermedad la realizó en Inglaterra, en 1789, el médico Michael Underwood. En los siguientes años se vivirían epidemias de polio en distintos países europeos. Los primeros casos bien documentados se dieron en los países escandinavos en la segunda mitad de ese siglo, que fue también cuando por primera vez se detectó la afección en los Estados Unidos.

El siglo XX fue el de las grandes epidemias en todo el mundo. En la de 1916, por ejemplo, quedó paralítico casi totalmente de la cintura para abajo el que sería presidente de los Estados Unidos durante la Segunda Guerra Mundial, Franklin Delano Roosevelt. Pero la mayor epidemia internacional alcanzó cotas sin precedentes en la década de 1950. En 1952 se reportaron casi 60.000 casos en Estados Unidos, con más de 20.000 casos de parálisis y más de 3.000 fallecimientos. En España, en 1958, llegaron a reportarse más de 2.000 casos que dieron como consecuencia más de 300 muertes.

La preocupación por la epidemia llevó en 1954 a la creación de la primera vacuna contra la polio, desarrollada en Estados Unidos por Jonas Salk. Le siguió la más perfeccionada vacuna de Albert Savin y, finalmente, la vacuna trivalente que se administra en la actualidad

El mundo se empeñó en una campaña de erradicación de la polio mediante la vacunación con un éxito extraordinario. Las tasas de incidencia de la enfermedad cayeron de media un 90% un año después del inicio de las campañas de vacunación. Los 350.000 casos que se reportaron mundialmente en 1988 se redujeron a tan solo 1.352 en 2010.

El último caso de polio natural en Estados Unidos ocurrió en 1979. Los pocos casos posteriores se deben a personas no vacunadas que han estado expuestas al virus mediante los países donde la enfermedad sigue siendo endémica. En España, la enfermedad fue erradicada en 1988.

Por desgracia, la poliomielitis sigue siendo endémica en Afganistán, Nigeria y Pakistán. Y según informa la Organización Mundial de la Salud, entre 2009 y 2010 la polio se reintrodujo mediante contagio desde estas zonas en otros 23 países donde ya se consideraba erradicada.

La amenaza es tal que resulta imperativo que los niños de todo el mundo sigan vacunándose. Mientras haya lugares donde exista el virus de la poliomielitis y vivamos en un mundo donde las personas y los bienes se trasladan globalmente con una facilidad sin precedentes, la amenaza no ha desaparecido. Aunque sus terribles secuelas no sean tan evidentes en nuestra sociedad. Mejor no olvidar.

Famosos y polio

Muchos personajes conocidos que nacieron durante la epidemia de los años 50 sufrieron poliomielitis y, en su mayoría, se recuperaron sin secuelas notables. Tal es el caso de actores como Donald Sutherland, Alan Alda o Mia Farrow (quien pasó un tiempo en un pulmón de acero), el director Francis Ford Coppola, el escritor de ciencia ficción Arthur C. Clarke o el músico de rock Neil Young. Otros, sin embargo, viven aún hoy con las consecuencias de su enfermedad infantil, como Itzhak Perlman, uno de los más aclamados violinistas clásicos actuales, quien se ve obligado a tocar sentado pues sólo puede mantenerse en pie con muletas.

Los asombrosos rayos inexistentes

Una de las bases del método científico es que sus experimentos son reproducibles, que cualquiera puede llegar a los mismos resultados a partir del mismo método. Cuando esto no ocurre, suenan las alarmas.


Robert Williams Wood, el
desenmascarador de los "rayos N"
(fotografía del Dominio Público)
El descubrimiento de los rayos X realizado por Wilhelm Conrad Roentgen en 1895 sacudió al mundo más allá de los espacios donde los científicos trabajaban en los inicios de la gran revolución de la física de fines del siglo XIX y principios del XX.

Esto se debió no sólo al descubrimiento en sí, sino a la difusión de una fotografía tomada unos días después con rayos X por Roentgen, donde la mano de su esposa mostraba con claridad sus huesos y la alianza matrimonial. Por primera vez que se podía ver así el interior del cuerpo humano y el público se unió en su fascinación a los científicos.

Uno de los entusiastas del trabajo subsecuente con los rayos X fue el notable científico francés René Prosper Blondlot, que ya había alcanzado notoriedad al medir la velocidad de las ondas de radio de distintas frecuencias, demostrando que era igual a la velocidad de la luz y confirmando así experimentalmente la visión de James Clerk Maxwell de que luz, magnetismo y electricidad eran manifestaciones de la misma fuerza: la electromagnética.

Habiendo además recibido tres premios de la Academia de Ciencias de Francia, Blondlot empezó a trabajar con rayos X. Mientras intentaba someterlos a polarización, en 1903 reportó haber descubierto otros rayos totalmente diferentes, a los que llamó "N" en honor de su ciudad natal, Nancy, en cuya universidad además trabajaba.

En poco tiempo, muchos otros científicos estaban estudiando los rayos N siguiendo las afirmaciones de Blondlot.

Los rayos X se habían detectado mediante mediciones y sus efectos eran espectaculares, como lo demostraba la fotografía de Anna Bertha Roentgen, eso que hoy llamamos una "radiografía". Pero los rayos N no se detectaban así. Era necesario ver un objeto en condiciones de oscuridad casi total y entonces, al surgir los rayos N, se veía mejor. Por ejemplo, una pequeña chispa producida por dos electrodos, cuya intensidad aparentemente aumentaba en presencia de los rayos N.

Irving Langmuir, ganador del Premio Nobel de Química, mencionaba otro procedimiento para producir rayos N: se calentaba un alambre en un tubo de hierro que tuviera una abertura y se ponía sobre ésta un trozo de aluminio de unos 3 milímetros de espesor, y los rayos N saldrían atravesando el aluminio. Al caer sobre un objeto tenuemente iluminado, éste podía verse mejor... según Blondlot y sus seguidores.

Dicho de otro modo, la presencia o ausencia de los rayos N se detectaba sólo subjetivamente, de acuerdo a la percepción del experimentador.

Y, sobre esta base, en poco tiempo se desató una verdadera locura de los rayos N, con cada vez más afirmaciones cada vez más extravagantes. Blondlot afirmaba que los rayos N atravesaban una hoja de platino de 4 mm de espesor, pero no la sal de roca, que podían almacenarse en algunos materiales, que una lima de acero templado sostenida cerca de los ojos permitía que se vieran mejor las superficies y contornos "iluminados" por los rayos N. Y afirmó haber descubierto los rayos N1, que en lugar de aumentar la luminosidad, la disminuían. Sus experiencias implicaban prismas y lentes hechos de materiales no ópticos, que usaba para refractar y difractar los rayos N.

Un biofísico, Augustin Charpentier, produjo una abundante serie de estudios sobre los rayos N, llegando a publicar siete artículos científicos en un solo mes. Entre sus descubrimientos, que los conejos y las ranas emitían rayos N, y que éstos aumentaban la sensibilidad de la vista, olor, sabor y audición en los humanos. Se afirmó que tenían propiedades terapéuticas, e incluso que los rayos N emitidos por la materia viviente eran distintos de alguna manera y se bautizaron como "rayos fisiológicos".

Pero no todo era entusiasmo.

Apenas un mes después de la publicación original aparecieron informes de científicos que no podían replicar o reproducir los experimentos de Blondlot, algo que fue más frecuente mientras más extravagante se volvía la ola de afirmaciones respecto de estos rayos que, pese a todo, seguían siendo detectados únicamente mediante la vista como variaciones de la luminosidad.

Uno de los científicos que no pudo replicar los resultados de Blondlot fue Robert W. Wood, autor de grandes aportaciones en el terreno de la óptica y la radiación ultravioleta e infrarroja, quien decidió ir a Francia a visitar a Blondlot.

Según el relato de Langmuir, Blondlot le mostró a Wood las fotografías de la variación en luminosidad de un objeto supuestamente por causa de los rayos N. pero Wood pudo determinar que las condiciones en que se habían tomado las fotografías eran poco fiables. Luego le mostró cómo un prisma de aluminio refractaba los rayos N permitiendo ver los componentes de dichos rayos. En un momento de la demostración, en la habitación oscura, Wood quitó el prisma de aluminio del aparato, pese a lo cual Blondlot afirmaba seguir viendo el espectro de rayos N.

Wood quedó convencido de que los rayos N eran un fenómeno ilusorio, un error de percepción que no tenía una contraparte medible real. Wood publicó sus resultados en la revista Nature en 1904 y su artículo fue un balde de agua fría para quienes trabajaban en los rayos N. Hubo intentos adicionales de medirlos con criterios objetivos, detectores y sensores, pero en un año habían desaparecido del panorama científico. Incluso Blondlot dejó de trabajar con ellos aunque, hasta su muerte en 1930, siguió creyendo que eran reales.

Para Irving Langmuir, el caso de los rayos N es ejemplo de lo que llamó, en una conferencia de 1953, "ciencia patológica", aquélla en que "no hay implicada falta de honradez, pero en la cual la gente se ve engañada para aceptar resultados falsos por una falta de comprensión acerca de lo que los seres humanos pueden hacerse a sí mismos para desorientarse por efectos subjetivos, deseos ilusorios o interacciones límite".

Un relato útil para que tanto científicos como público en general seamos cautos ante afirmaciones extraordinarias, aunque provengan de científicos respetados que, como todo ser humano, pueden equivocarse.

Más ciencia patológica

En 1989, los físicos Stanley Pons y Martin Fleischmann afirmaron haber conseguido un proceso de fusión en frío para obtener energía. Nadie pudo reproducir sus resultados, y ambos optaron por abandonar la comunidad científica para seguir trabajando en espacios pseudocientíficos donde nunca pudieron tampoco reproducir sus resultados. Lo mismo ocurrió con la supuesta demostración de Jacques Benveniste de que el agua tenía memoria de los materiales que había tenido disueltos. Pese a todo, hay gente que sigue creyendo en la fusión fría, la memoria del agua... y los rayos N.

Telescopios, gallinas y método científico

Antes de los grandes descubrimientos están los pequeños descubrimientos, los avances técnicos, la realización de todos los elementos, ideas, herramientas y conocimientos necesarios para empezar a hacer ciencia.

(Foto GFDL de Baksteendegeweldige, vía Wikimedia Commons)
Solemos representar al método científico como un ideal preciso de observación, postulado de hipótesis y nuevas observaciones o experimentos para confirmar o rechazar la hipótesis. Pero la realización de un experimento suele exigir un proceso previo que implica resolver gran cantidad de problemas técnicos que en ocasiones se vuelven grandes obstáculos para el avance del trabajo de los expertos.

Así, Galileo Galilei tuvo que diseñar sus telescopios con base en los relatos que llegaban del instrumento fabricado por Hans Lipperschey, conseguir los mejores vidrios, aprender a pulirlos para hacer sus lentes, producir los tubos con distintos materiales y determinar los principios ópticos del funcionamiento de las dos lentes, la curvatura exacta y la distancia ideal, antes de poner el ojo en el instrumento y, eventualmente, descubrir que Copérnico estaba en lo cierto y ser el primero en ver desde las manchas solares hasta las lunas de Júpiter.

Y, por supuesto, está el azar, lo inesperado, los descubrimientos que "no estaban en el guión original", los acontecimientos fortuitos llamados "serendipia", vocablo que llegó al inglés en el siglo XVIII, basado en el cuento de hadas persa "Los tres príncipes de Serendip", (nombre de Sri Lanka en farsi) en el cual los príncipes resuelven los problemas a los que se enfrentan mediante una enorme suerte o "chiripa", palabra que bien podría provenir de la misma "serendip".

Por supuesto, nadie hace un descubrimiento por azar si no está atento a él. En ocasiones un científico desprecia algún dato por considerarlo irrelevante o producto de un error de medición sólo para que otro más alerta revele que dicho dato es fundamental para una explicación.

Estos elementos se reúnen en una historia poco conocida de la biología, un terreno mucho más incierto y pantanoso que el de la astronomía o la física por la enorme variabilidad que tienen los organismos vivientes. El protagonista es Andrew Nalbandov, un fisiólogo nacido en la península de Crimea, refugiado de la revolución soviética y titulado en Alemania, pero que en 1940 trabajaba en la Universidad de Winsconsin como un reconocido biólogo especializado en reproducción que, a diferencia de la mayoría de sus colegas, prefería usar animales de granja como sujetos experimentales en lugar de la omnipresente rata de laboratorio.

El objeto de estudio de Nalbandov era una pequeña glándula endócrina situada en lo más recóndito del cerebro de todos los vertebrados: la hipófisis o pituitaria, que en los seres humanos tiene el tamaño de un guisante y un peso de 0,5 gramos y que, sin embargo, hoy sabemos que es fundamental para muchísimas funciones de nuestro cuerpo mediante la secreción de una gran cantidad de hormonas.

Nalbandov quería estudiar la función de la glándula pituitaria, y para ello desarrolló un diseño experimental que implicaba la remoción quirúrgica de la glándula pituitaria en gallinas, con objeto de observar las alteraciones químicas, biológicas y de conducta de los animales privados de este órgano.

Por supuesto, si la glándula pituitaria es pequeña en los seres humanos, en las gallinas es minúscula, de modo que, antes que nada, el biólogo tuvo que dominar una depurada técnica quirúrgica para extraer la pituitaria de sus animales experimentales.

Pero parecía difícil dominar la técnica. Como Nalbandov le relató a W. I. B. Beveridge, para su libro "El arte de la investigación científica": "Después de que había dominado la técnica quirúrgica, mis aves seguían muriendo y a las pocas semanas de la operación ya no quedaba ninguna". Todos los intentos del investigador por evitar esta mortandad fracasaron estrepitosamente.

Parkes y Hill, investigadores ingleses, habían desarrollado el delicado procedimiento para llegar a la pituitaria a través del paladar suave de las gallinas y extraerla, pero todos sus sujetos experimentales habían muerto. Su conclusión fue que las gallinas no podían sobrevivir sin esta glándula. Pero Nalbandov sabía que otros investigadores trabajaban con mamíferos y anfibios a los que se les había quitado la pituitaria y no sufrían de estos problemas.

Cuando había decidido "resignarse a hacer algunos experimentos a corto plazo y abandonar el proyecto", el 98% de un grupo de gallinas operadas sobrevivió hasta tres semanas, y algunas de ellas hasta 6 meses. Nalbandov concluyó orgullosamente que esto se debía a que su técnica quirúrgica se había perfeccionado finalmente gracias a la práctica y se alistó para emprender un experimento a largo plazo.

Y, entonces, sus gallinas operadas empezaron a morir nuevamente. No sólo las recién operadas, sino las que habían sobrevivido varios meses. Era evidente que la explicación para la supervivencia de las gallinas no estaba en la firme mano del experimentador. Nalbandov persistió en sus experimentos, atento a las variables que podrían marcar la diferencia entre la supervivencia y la muerte, descartando enfermedades, infecciones y otras posibles causas. "Pueden imaginar", escribió Nalbandov, "cuán frustrante era no poder aprovechar algo que obviamente estaba teniendo un profundo efecto en la capacidad de estos animales de sobrevivir a la operación".

Una noche, a las 2 de la mañana, Nalbandov volvía a casa de una fiesta. Al pasar frente al laboratorio notó que las luces del bioterio donde se mantenían sus gallinas y, culpando a algún alumno descuidado, se detuvo para apagarlas. Pocas noches después vovió a ver las luces encendidas y decidió investigar.

Resultó que estaba de servicio un conserje sustituto que prefería dejar las luces del bioterio encendidas para encontrar la salida, pues los interruptores de la luz no estaban junto a la puerta, cosa que no hacía el conserje habitual. Al profundizar en el asunto, Nalbandov pudo determinar que los períodos de supervivencia de sus gallinas coincidían con las épocas en que estuvo trabajando el conserje sustituto.

Nalbandov pudo demostrar rápidamente y con un experimento debidamente controlado que las gallinas que pasaban la noche a oscuras morían, mientras que las que tenían al menos dos horas de luz artificial durante la noche sobrevivían indefinidamente. La explicación química era que las aves en la oscuridad no comían y desarrollaban una hipoglicemia de la que no se podían recuperar, mientras que las que tenían luz comían más y seguían vivas indefinidamente.

Este descubrimiento fue la antesala de docenas de experimentos y publicaciones de Nalbandov que ayudaron a definir la función de la glándula pituitaria, y que se prolongaron durante cuatro décadas de trabajo científico.

La pituitaria

Entre otras muchas funciones, la pituitaria sintetiza y secreta numerosas hormonas importantes, como la hormona del crecimiento humano, la estimulante de la tiroides, la betaendorfina (un neurotransmisor), la prolactina (responsable de más de 300 efectos, entre ellos la producción de leche después del embarazo y la gratificación después del acto sexual), la hormona luteinizante y la estimulante de los folículos, que controlan la ovulación y la oxitocina, que interviene en el parto y en el orgasmo y aún no se comprende a fondo.

La vida en rojo

"Mi sangre es un camino", escribió Miguel Hernández, y el conocimiento del líquido esencial de nuestra vida es también un camino para salvar vidas y comprender nuestro organismo.

Glóbulos rojos o eritrocitos de sangre humana
sedimentados.
(Imagen D.P. de MDougM, vía Wikimedia Commons)
Pese a todo lo que conocemos hoy acerca de la sangre, sigue siendo un material misterioso y singular (al que Isaac Asimov llamó "el río viviente") que no solemos ver salvo en situaciones altamente desusadas y que se ha convertido en un arma fundamental del arsenal médico para salvar vidas.

Para las culturas antiguas, la sangre, que se podía extraer en pequeñas cantidades pero cuyo derramamiento más allá de cierto límite era sinónimo de muerte, tenía siempre un papel relevante en la mitología. Para los antiguos chinos, los seres humanos recibimos nuestra "esencia" del padre mientras que la madre nos da su sangre para vivir. La sangre se identificaba con la imaginaria "fuerza vital", esa creencia común a todas las culturas primitivas que en la India se llama "prana", en occidente "vis vitalis" y en la mitología china "qi".

El valor de la sangre, real y simbólico, era reconocido por todas las culturas. Se consideraba que era un elemento fundamental en la herencia, de modo que hablamos de familiares "de sangre" o de "hermanos de sangre" para implicar que están genéticamente relacionados, e incluso de cierta "pureza de sangre" para significar una imaginaria limpieza genética que pertenece al reino de la ideología y no al de la biología. El Antiguo Testamento dedica atención a evitar que las personas coman sangre (origen de las tradiciones del sacrificio "kosher" judío y el "halal" islámico, ambos destinados a extraer la mayor cantidad posible de la sangre de los animales destinados al consumo humano) por considerar que la sangre es la transmisora de la vida.

Como dato curioso, esta prohibición de comer la sangre de los animales es la justificación que utiliza la iglesia de los Testigos de Jehová desde 1945 para prohibir las transfusiones de sangre a sus adeptos, aunque esto les cueste la vida.

El conocimiento de la sangre ha estado además estrechamente relacionado con el de los órganos y tejidos relacionados con su circulación: venas y arterias, cuyas diferencias descubrió el filósofo griego Alcmeón de Crotona realizando algunas disecciones en el siglo VI a.n.e. y, por supuesto, el corazón y los pulmones.

La sangre está formada por plasma, leucocitos (o glóbulos blancos), eritrocitos (o glóbulos rojos) y plaquetas.

El plasma es un líquido formado en más del 91% por agua, mientras que el resto de su composición incluye distintos elementos. Lleva así proteínas son una reserva nutritiva para las células y también pueden servir como transportadoras de otras sustancias que se vinculan a ellas desde los órganos que las producen hasta las células que los necesitan. Entre esas proteínas está, por ejemplo, el colesterol, y el fibrinógeno, descubierto a fines del siglo XVIII por el anatomista británico William Hewson y que forma la estructura de los coágulos de sangre.

También transporta enzimas, nutrientes para las células de todo el cuerpo, se hace cargo de recoger los desechos del metabolismo celular y llevarlo para su proceso en los riñones y el hígado, del mismo modo en que transporta hormonas desde las glándulas que las producen a los puntos del cuerpo donde ejercen su actividad.

Los leucocitos o glóbulos se dividen en cinco tipos y forman la línea de defensa de nuestro cuerpo, nuestro sistema inmunitario. Los neutrófilos destruyen todo tipo de bacterias que entren al organismo, los eosinófilos destruyen las sustancias capaces de producir alergias o inflamación además de paralizar a posibles parásitos, los basófilos regulan la coagulación de la sangre, los linfocitos destruyen células cancerosas y células infestadas por virus, así como células invasoras diversas, y tienen capacidad de activar y coordinar a otras células del sistema inmunitario; finalmente, los monocitos pueden ingerir organismos patógenos, neutrófilos muertos y los desechos de las células muertas del cuerpo.

Los elementos más característicos de la sangre son, por supuesto, los eritrocitos o glóbulos rojos, que deben su color (como el planeta Marte) a la hemoglobina, por el hierro que contiene, fundamental para transportar oxígeno desde los pulmones a todas las células de nuestro cuerpo y el bióxido de carbono de desecho de las células a los pulmones, para deshacerse de él.

Estas células fueron descubiertas en 1658, por el joven microscopista holandés Jan Swammerdam (curiosamente, años después y ya como científico relevante, Swammerdam ofreció evidencias de que los impulsos para el movimiento de los músculos no se transmitían por medio de la sangre, sino que eran responsabilidad del sistema nervioso).

La ignorancia sobre lo que era la sangre no impidió que en 1667 se realizaran los primeros experimentos de transfusión, en este caso entre terneras y seres humanos, procedimiento que no alcanzó demasiado éxito. Algunas transfusiones entre humanos tuvieron mejor suerte, pero los motivos de las reacciones indeseables no se descubrieron sino hasta 1900, cuando el austriaco Karl Landsteiner descubrió que había tres tipos de sangre, A, B y 0 (cero u "o"), a los que se añadió un cuarto, el tipo AB, en 1902 y que marcaban ciertas incompatibilidades. La sangre tipo 0 puede transfundirse a gente con cualquier tipo; la A sólo a quienes tienen tipo A o AB, la B a quienes tienen B o AB y la sangre AB sólo a quienes tienen sangre AB.

40 años después, Landsteiner también realizó la clasificación de otro rasgo de compatibilidad sanguínea, el "factor Rh", que puede ser positivo o negativo. Y hay al menos otros 30 factores (menos conocidos) de tipología sanguínea que pueden ser importantes para determinar la compatibilidad para transfusiones.

Las transfusiones de sangre entera son poco frecuentes ahora. La práctica común es fraccionar la sangre mediante centrifugación para obtener plasma, eritrocitos, leucocitos y plaquetas y utilizarlos según sean necesarios para distintos casos,.

En la actualidad, una de las grandes búsquedas de la tecnología médica es la producción artificial de sangre, ya sea a partir de células madre o por clonación, para obtener sangre en cantidades suficientes y totalmente libre del riesgo de infecciones (por ejemplo, de hepatitis B o VIH).

Donar sangre

Mientras no haya sangre artificial abundante, barata y segura, la única esperanza de vida y salud de muchísimas personas es que otras donen sangre. Donar no representa ningún riesgo de enfermedad y siempre es necesario, aún si tenemos un tipo de sangre común como 0+ o A+. Nunca, en ningún país del mundo, ha sido suficiente la sangre donada para satisfacer todas las necesidades de atención sanitaria, de modo que es una de las acciones solidarias y altruistas más sencillas y relevantes que podemos realizar.

El arcoiris revelador de la espectroscopía

El comportamiento del espectro electromagnético nos da la clave para conocer la composición química de cuanto nos rodea, desde las estrellas hasta las pistas de un crimen.

Espectrómetro infrarrojo utilizado en laboratorios químicos.
(Foto GFDL de Ishikawa (photothèque CNEP,
vía Wikimedia Commons)
El espectáculo de un arco de colores en el cielo sigue siendo sobrecogedor incluso hoy, cuando sabemos cómo y por qué se produce. No es extraño que lo fuera aún más cuando era un misterio cuya primera explicación, hasta donde sabemos, propuso Aristóteles, para quien era el reflejo de la luz del sol en las nubes en un ángulo determinado, con lo que explicaba también por qué el arcoiris no se halla en un lugar concreto, sino que se ve en una dirección determinada. Cada observador ve su propio arcoiris.

Fue Isaac Newton quien, alrededor de 1670, determinó que el continuo de colores, que llamó "espectro", se debía a que la luz blanca del sol se descomponía mediante refracción, haciendo que sus distintas longitudes de onda se desviaran en ángulos distintos. Por tanto, los colores son luz de determinadas longitudes de onda en un continuo desde el violeta hasta el rojo.

En 1802, utilizando prismas de mucho mejor calidad que los que tenía Newton, gracias a los avances en la producción de vidrio, el químico británico William Hyde Wollaston descubrió que el espectro newtoniano del sol no era realmente continuo, sino que estaba interrumpido por una serie de líneas negras. Estas líneas fueron descubiertas independientemente, estudiadas por el fabricante de vidrio Josef Von Fraunhofer, que les dió el nombre con el que las conocemos actualmente y contó hasta 574.

Por supuesto, no sólo puede descomponerse la luz solar con un prisma, sino que cualquier fuente luminosa es susceptible de ser así tratada. En 1853, el físico sueco Anders Johan Angstrom descubrió que cuando se producía una chispa eléctrica, se encontraban presentes dos espectros sobreimpuestos, uno de ellos del metal del que estaba compuesto el electrodo y el otro del gas a través del cual pasaba la luz. A partir de sus experiencias, dedujo que un gas incandescente emite las mismas longitudes de onda que absorbe cuando está frío y se hace pasar luz a través de él.

Así, al calentar vapor de sodio, éste emite una determinada serie de longitudes de onda. Cuando la luz solar pasa por el vapor de sodio, su espectro exhibe líneas de Fraunhofer precisamente en esas longitudes de onda. Con estas observación, el físico alemán Gustav Kirchoff y Robert Bunsen demostraron la existencia de sodio en el sol mediante el espectroscopio que inventaron.

Kirchoff estableció las principales leyes de la espectroscopía: que un objeto sólido caliente produce luz con un espectro continuo, que un gas tenue caliente produce líneas espectrales en determinadas longitudes de onda según los niveles de energía de sus átomos y que un objeto sólido caliente rodeado de un gas tenue frío produce luz en un espectro casi continuo, con brechas en determinadas longitudes de onda.

Nacía así la disciplina dedicada a estudiar los materiales por medio de la observación del espectro luminoso, la espectroscopía. O espectrografía, cuando se utiliza una una placa fotográfica o un elemento similar.

Así, del mismo modo en que Kirchoff y Bunsen pudieron determinar que el Sol contiene sodio (por absorber las mismas longitudes de onda que una lámpara de sodio), podemos determinar previamente qué longitudes absorben distintos materiales. Cuando tenemos una muestra de composición desconocida, podemos analizar la luz que refleja o deja pasar para saber qué elementos contiene.

Hoy hay varios tipos de espectroscopía basados en el estudio ya sea de la absorción, emisión o dispersión de distintos tipos de energía por distintos materiales. La moderna espectroscopía no utiliza únicamente la luz visible, sino que puede emplear todo el espectro electromagnético, analizando la descomposición, por ejemplo, de la luz ultravioleta o infrarroja, los rayos X, e incluso el sonido o incluso la absorción y emisión de partículas. Hay alrededor de medio centenar de tipos de espectroscopía, todos derivados de los mismos principios.

Gracias a esta potente herramienta, podemos estudiar las estrellas del universo a nuestro alrededor para conocer su composición química, y ésta nos da la clave para saber su edad aproximada, pues tenemos un modelo bastante claro de cómo se desarrolla la vida de una estrella. Pero la espectroscopía nos puede decir mucho más. La temperatura de una estrella, su velocidad de rotación y la velocidad a la que se mueve con respecto a nosotros son factores que también afectan el espectro de su luz, y que la ciencia ha ido aprendiendo a interpretar.

Quizá las ciencias forenses sean uno de los mejores ejemplos de las muchas utilidades que tiene la espectroscopía. ¿Una firma es original o falsa? La tinta que la compone puede ser sometida a análisis espectroscópico para determinar su composición química. Lo mismo pasa con los pigmentos y lienzos de cuadros sospechosos de ser falsificaciones, que se somenten a estudio para determinar si contienen sustancias más modernas que la época a la que se atribuyen. Una moderna tinta de gel en un documento del siglo XII que debería tener una tinta de sales de hierro denuncia su falsedad casi a gritos.

Más allá de su uso obvio para determinar la composición de todo tipo de muestras, la espectroscopía está siendo investigada para su uso en áreas novedosas como la determinación del momento de la muerte en casos de asesinato, estudiando cómo se van alterando los huesos al paso del tiempo. Esto podría también ser una forma adicional de datación para muestras más antiguas, sirviendo a la paleontología, la paleoantropología y la historia.

Y si usted se ha sometido alguna vez a una resonancia magnética, quizá no sepa que su cuerpo ha sido sometido a uno de los más modernos tipos de espectroscopía en el que potentes electroimanes estimulan los núcleos de los átomos del cuerpo para producir un campo que puede ser detectado por sensores para formar una representación gráfica muy detallada de las zonas estudiadas. Un logro que nos muestra el largo camino que hemos andado desde que por primera vez intentamos explicar el asombroso arcoiris.

Los mitos del arcoiris


Para los sumerios, un arcoiris indicaba que los dioses aprobaban una guerra en preparación, mientras que para los nórdicos era el puente que unía al mundo humano con Asgard, el mundo de los dioses. Para los hebreos era el símbolo de la promesa de Dios de no volver a aniquilar a la humanidad con una inundación, para los griegos era el modo de transporte de Iris, la mensajera de los dioses, y para los mayas Ixchel, la mujer-arcoiris era la diosa del amor. Pero quizá el más curioso arcoiris es el chino, al que sólo le atribuyen cinco colores y que era anuncio de la presencia de un dragón, y por tanto una gran bendición.

La vida emplumada

Las plumas no son privativas de las aves, son un antiguo invento de la evolución cuya relevancia histórica apenas estamos empezando a desentrañar.

Las impresionantes plumas del pavorreal
son  un reclamo de apareamiento.
(Fotografía ©Mauricio-José Schwarz 2012)  
Hasta hace no mucho, las plumas de ave eran insumos esenciales para diversos aspectos de la vida humana, desde el humilde plumero hasta las almohadas más cómodas, como alerones de flechas y, por supuesto, como instrumentos de escritura tan importantes que los instrumentos que los sustituyeron siguen llamándose "plumas" y cuyos usuarios son, también, las grandes plumas de la literatura. Vamos, como si fueran las remeras de un ganso.

La caída en la popularidad e importancia económica de las plumas en las sociedades humanas se ha visto compensada, podríamos decir, por la enorme relevancia evolutiva que han mostrado tener estos peculiares apéndices formados por la dura proteína llamada queratina y, por tanto, parientes del cabello, los cuernos y las escamas.

De todos esos apéndices tegumentarios (es decir, surgidos de un tejido de cobertura, en este caso la piel) las plumas son con mucho los más complejos, lo que sugiere que son resultado de un largo proceso evolutivo..

La estructura de las plumas típicas que usan las aves para el vuelo es, simplificando, la de un elemento rígido central o raquis que sostiene a los lados dos láminas llamadas "vexilos" formadas por filamentos o "barbas" que a su vez están ramificados y articulados utilizando un sistema similar al del velcro: los ganchillos de una barba se aferran a las bárbulas de su vecino a lo largo de todo el filamento. Casi con seguridad todos hemos sido jugado, asombrados de la eficacia de este sistema, al separar las barbas de una pluma "despeinándola", para ver después cómo, al pasar los dedos planos sobre las caras del vexilo, las barbas vuelven a unirse ofreciendo una superficie tersa y ordenada que, entre otras cosas, es ideal para el vuelo.

Además de las plumas de hay otros tipos, como el plumón, que carece de ganchillos y aparece como un mechón que fue muy apreciado para la fabricación de edredones, colchas y bolsas de dormir por su enorme capacidad de aislamiento térmico. Están también, las semiplumas, a la mitad entre las plumas de vuelo y el plumón, las vibrisas, que son plumas modificadas hasta parecer pelos gruesos con un penacho en la punta, que son útiles, cerca del pico, para actividades como la cacería de insectos.

Estas plumas y otras variedades sugiere la idea de que las plumas más complejas, las de vuelo, son a su vez las más recientes evolutivamente. ¿Es posible que las plumas aparecieran en nuestro planeta antes que el vuelo?

Las plumas de los dinosaurios

Fue Thomas Henry Huxley, el naturalista británico y feroz defensor de la teoría de la evolución mediante la selección natural (tanto que fue llamado "El bulldog de Darwin") quien en 1868 sugirió por primera vez que el camino evolutivo hacia las aves iba de los reptiles a algunos dinosaurios pequeños terrestres que posteriormente desarrollaron el vuelo.

La idea de Huxley no recibió demasiada atención hasta que, en 1973, el paleontólogo estadounidense John Ostrom creyó contar con datos suficientes para confirmar la intuición de Huxley. A contracorriente de toda la paleontología de su época, Ostrom afirmó que las aves procedían de dinosaurios no voladores, que habían desarrollado las plumas como aislantes térmicos. De hecho, su afirmación era que las aves son dinosaurios. Su prestigio profesional se había consolidado casi diez años atrás, en 1964, cuando había descubierto al Deinonychus, cuya estructura demostraba que los dinosaurios no eran animales "de sangre fría" como los reptiles, sino que generaban su propio calor corporal.

El debate que encendió Ostrom está hoy prácticamente resuelto. Su hipótesis se vio confirmada en 2001 con el descubrimiento en China de un fósil de dinosaurio que claramente estaba cubierto de plumas de pies a cabeza. Y, como tantas veces ocurre en ciencia, una vez que se sabe lo que se busca, es más fácil encontrarlo. Desde 2001 se ha multiplicado incesantemente la variedad de fósiles de dinosaurios emplumados, desde pequeños animales del tamaño de un conejo hasta el enorme Yutyrannus huali, de 9 metros de longitud, pariente del tiranosaurio.

Hoy, el consenso paleontológico (con algunos disidentes que se oponen con argumentos aún no resueltos) es que las aves pertenecen al suborden de los terópodos, formado por los bien conocidos dinosaurios bípedos como el tiranosaurio o el velociraptor popularizado por el cine (aunque en la realidad es bastante más pequeño que su representante cinematográfico).

Pero el hecho incontrovertible es que las plumas aparecieron mucho antes que las aves y, por muchos millones de años, antes que el vuelo. Surgieron como escamas modificadas en forma de filamentos huecos, unas cerdas fibrosas de dos o tres centímetros de largo como las que cubrían la espalda y larga cola del Sinosauropteryx, un dinosaurio de unos 70 cm de longitud, formando bandas de un color claro y otro oscuro. El primer paso para llegar a las impresionantes plumas de los pavorreales y los faisanes.

Más adelante aparecerían plumas verdaderas como las que adornaban al Oviraptor, mientras que las plumas adaptadas para volar están ejemplificadas en el Archaeopteryx, el primer fósil descubierto en el que se conservaba la huella de sus plumas, una forma intermedia entre los dinosaurios y las aves modernas y que en 1861, fue una contundente confirmación de la teoría recientemente presentada por Charles Darwin.

Rax erineas, terópodo emplumado representado en el Museo
del Jurásico de Asturias (MUJA)
(Fotografía ©Mauricio-José Schwarz 2004-2012)
Si las plumas no nacieron para volar, se especula que pueden haber surgido como aislante térmico o como forma de comunicación visual para selección sexual o reconocimiento de especie, como despliegue de lucha o, incluso, como camuflaje. Y la forma en que los dinosaurios empezaron a utilizar las plumas para volar es también, todavía, materia de especulación.

Pero nacieron. Y cubrieron a los terópodos y quizás a otras variedades de dinosaurios, no excepcionalmente, no como un hecho aislado.

Los museos poco a poco han ido emplumando a sus dinosaurios, para responder a los avances del conocimiento sobre el pasado de la vida en la Tierra, y seguirán cambiando si pensamos en lo enormes que son aún los huecos que tenemos en la imagen de la evolución.

Plumaje de colores

Apenas en 2010 se consiguió identificar en algunos fósiles unos pequeños órganos responsables de la pigmentación, los melanosomas. Su análisis permitió determinar el color del Sinosauropteryx. Este mismo 2012, se publicó un estudio que demuestra que las plumas del Archaeopteryx eran negras. Y algunas plumas de dinosaurio atrapadas en ámbar, al estilo de "Parque Jurásico", van confirmando que el mundo de los dinosaurios era a todo color. Ahora todo es cosa de acostumbrarse a imaginar a un feroz tiranosaurio recubierto de un colorido plumaje.

Biografía de un joven cuerpo estelar

A los 4.540 millones de años de edad, la Tierra tiene una nutrida biografía pese a ser todavía una chavala cósmica.

La primera visión que tuvimos de nuestro planeta
desde otro mundo. La Tierra sale en el horizonte lunar.
(Foto D.P. del astronauta del Apolo 8 Bill Anders
vía Wikimedia Commons)
No conocemos la edad exacta de la Tierra porque en realidad las circunstancias que dieron origen a su nacimiento están aún envueltas en interrogantes que, aunque se van desvelando poco a poco, siguen siendo numerosas.

Si nos atenemos a lo que se cree con base en los datos conocidos hasta ahora, el planeta se gestó en una enorme nebulosa de polvo cósmico que se condensó por atracción gravitacional. El polvo provenía de otras estrellas, supernovas que habían estallado desde el principio del universo, hace más o menos 13.700 MA (millones de años).

Quizá debido a la influencia de una supernova que estalló en las inmediaciones (en términos cósmicos), esta nebulosa formó primero una agrupación de materia en su centro, principalmente hidrógeno, que cuando llegó a ser suficiente en cantidad y densidad se encendió en una reacción de fusión nuclear creando nuestro sol. A su alrededor, la gravedad fue concentrando la materia de la nebulosa en distintos puntos, formando los planetas.

Inmediatamente después de su nacimiento, la Tierra no se parecía sin embargo en nada a lo que conocemos hoy. Era una aterradora bola giratoria de roca fundida, una colosal gota de magma hirviente flotando en el espacio.

Durante los primeros 100 MA de su existencia, un suspiro en términos cósmicos, la Tierra se ocupó en enfriarse y utilizó sus gases para crearse una atmósfera que pronto fue arrancada de la gravedad terrestre por el viento solar, y soportó el bombardeo de millones de meteoritos, cometas y otros objetos.

Por esas mismas fechas, hace 4.450 MA, un planetoide chocó con la aún caliente Tierra, que giraba tan rápido que el día duraba unas 7 horas y orbitaba alrededor de un sol que era mucho menos brillante que hoy. El resultado fue la formación de un satélite natural del nuevo planeta: la Luna.

Pasaron 550 MA y el planeta adquirió una nueva atmósfera de dióxido de carbono, vapor de agua, metano y amoníaco mientras su giro se ralentizaba hasta tener un día de 14,4 horas. El vapor de agua formó nubes y apareció la lluvia en forma de colosales tormentas que inundaron su superficie formando los mares.

Hace 3.800 MA terminaba la primera infancia del planeta, a la que los geólogos conocen como Eón (que quiere decir era muy larga) Hadeano, o de Hades y comenzaba el Arqueano, con la aparición de una corteza sólida en la superficie del planeta. Sólo 300 MA después quedó establecido el campo magnético de la Tierra, producido por la rotación de su núcleo formado principalmente por hierro fundido. Este campo la defiende desde entonces del viento solar, y apareció un fenómeno totalmente revolucionario: la vida.

Las primeras bacterias verdeazules o cianobacterias, los más antiguos fósiles que podemos estudiar, empezaron a producir oxígeno libre por primera vez y proliferaron hasta el final de este eón, que dio paso al llamado Proterozoico y que duró dos mil millones de años. Aparecieron los primeros continentes y la vida siguió desarrollándose y evolucionando hacia formas más complejas, pese a eventos catastróficos como la primera edad de hielo, llamada Huroniana.

Hace 2.200 MA aparecen los primeros seres vivos capaces de respirar (aeróbicos) dotados de mitocondrias, organelos que actúan como fuentes de energía de las células, entre otras tareas, y unos 400 MA después aparecen las primeras formas celulares complejas. Hace 1.600 MA aparecen las células con núcleos y unos 400 MA después surge la reproducción sexual como revolucionaria forma de adaptación mediante el intercambio de material genético.

La masa terrestre estaba reunida en un supercontinente llamado Rodinia cuando se produjo la siguiente gran revolución de la vida hace 1.000 MA: surgieron los seres pluricelulares. 250 MA después, Rodinia se separó y hace 600 MA los fragmentos formaron otro enorme supercontinente, llamado Pannotia. Y hay indicios que permiten suponer que al menos en una ocasión, la Tierra se congeló completamente, la llamada "hipótesis de la bola de nieve", hace 650 MA.

La tierra por encima de los océanos vivió una historia de separaciones y encuentros, como un puzzle que se deshiciera y volviera a formar de distintas maneras. Pannotia duró apenas unos 60 MA, antes de volver a dividirse en cuatro fragmentos, el mayor de los cuales es el conocido como Gondwana. Los fragmentos volverían a unirse en otro supercontinente, Pangea, hace 300 MA. La separación de ese supercontinente empezó hace 175 MA y dio origen a los continentes que conocemos hoy. Y esto porque la corteza de nuestra biografiada no está formada por una capa uniforme, sino por diversas placas que flotan sobre el núcleo fundido que sigue teniendo.

Pero ya para entonces, hace 542 MA, había comenzado el eón Fanerozoico, en el que aún vivimos y que se divide en tres eras claramente diferenciadas. En la Paleozoica aparecieron las primeras plantas que podríamos considerar modernas, y la vida había evolucionado hasta la aparición de reptiles muy complejos.

Estos reptiles darían lugar a los dinosaurios que reinaron en la era Mesozoica mientras, literalmente, los continentes se movían bajo sus patas hasta ocupar el lugar que tienen hoy (y siguen moviéndose). Finalmente, la era Cenozoica, en la que vivimos nosotros, ha cubierto los últimos 65,5 MA, en la que se extinguieron los dinosaurios no avianos y aparecieron los mamíferos como la forma dominante de vida en el planeta.

Nosotros... somos unos recién llegados... y sin embargo somos los únicos seres vivos hasta donde sabemos que intentan desentrañar los misterios de este nuestro planeta, que hoy es, en palabras de Carl Sagan, "un punto azul pálido", aunque de momento mucho de lo que creemos sea simplemente hipotético, como la historia temprana de los continentesa. Vivimos en un planeta del que, realmente sabemos poco todavía.

El nuestro es un planeta joven comparado con otros como los que orbitan a la estrella HIP 11952 desde hace 12.800 millones de años, nacidos en los albores del universo. Y, más allá de las metáforas que lo comparan con un ser vivo o una nave espacial con la cual recorremos el universo, es simplemente nuestro hogar.

Que no es poco.

El final

El mundo se va a acabar, sin duda. Pero no como lo predican los muchos y variados profetas empeñados en equivocarse varias veces al año, sino según las leyes del universo. El giro de la Tierra seguirá ralentizándose y el brillo de nuestro sol seguirá aumentando, con lo que la vida en el planeta desaparecerá en un plazo de entre 500 y mil MA. Pero el planeta sobrevivirá otros 7 u 8 mil MA, hasta que el sol, convertido en un gigante rojo en expansión, lo empuje hacia el exterior del sistema solar y, finalmente, lo engulla. Un futuro del que no tenemos que preocuparnos por ahora.

El hombre detrás del bosón

Peter Higgs, el físico que quizás nos ha obsequiado con la explicación de por qué el universo se mantiene unido.

Peter W. Higgs
(Foto CC-BY-SA-2.0-de de Andrew A. Ranicki
vía Wikimedia Commons)
Un jubilado de 81 años, de escaso cabello blanco y gafas, solía caminar las calles de Edimburgo sin llamar apenas la atención, ir a conciertos de madrigales y hacer algo de senderismo. Si uno hubiera preguntado, quizá alguien sabía que este ciudadano, que vive en un sencillo piso de la capital escocesa, había sido profesor universitario, y poco más. Algunos acaso sabrían que era un profesional altamente reconocido por sus colegas, pero sería irrelevante. Los mejores contables reciben reconocimiento de otros contables, pero los desconocidos no les invitan a una cerveza.

El 4 de julio, en una reunión en Ginebra, Suiza, todo cambió. Peter Ware Higgs, se convirtió en el centro de la atención mundial y su fama trascendió hacia toda la sociedad desde el abstruso entorno de su trabajo: la física teórica. Como lo relataba Higgs a New Scientist, de pronto su buzón rebosaba peticiones para prestar su imagen a un juego de mesa "Higgs", invitaciones a inaugurar edificios e, incluso, la petición de una pequeña cervecería de Barcelona sobre su cerveza favorita para fabricar una similar con su nombre. Del lado más serio, su universidad, la de Edimburgo, se apresuró a fundar dos días después el Centro Higgs para la Física Teórica y la Cátedra Peter Higgs.

¿Qué hizo el profesor Higgs para que se hablara de él de pronto como fuerte candidato al Premio Nobel, y salir más veces en los medios que en toda su vida anterior? En 1964, estudiando la explicación que la ciencia da al comportamiento del universo, propuso la existencia de una partícula que se encarga de darle masa a las demás.

Algunas partículas elementales del universo tienen masa, como el electrón, y otras no lo tienen, como los fotones que forman la luz. ¿Por qué? Peter Higgs postuló que el responsable era un campo nuevo que producía otra partícula elemental, el "bosón de Higgs".

La idea era excelente, matemáticamente sólida y se ajustaba a la perfección a la visión que tienen los físicos de la interacción entre las partículas elementales, conocida como "modelo estándar". Era la pieza que faltaba en el rompecabezas del universo. Pero mientras no se demostrara su existencia era sólo una hipótesis. El 4 de julio en Ginebra, los científicos a cargo del gigantesco acelerador de partículas LHC del CERN anunciaron que habían descubierto una partícula que coincidía con el bosón de Higgs, y que las probabilidades de que realmente lo fuera eran elevadísimas: 99,9994%

Peter Higgs nació en Newcastle upon Tyne, en el Reino Unido, el 29 de mayo de 1929 y creció en las ciudades de Birmingham y Bristol. En su niñez y adolescencia, su educación no fue fácil. Los bombardeos alemanes de la Segunda Guerra Mundial afectaron a Bristol (el joven Higgs se rompió un brazo al caer en un cráter) y una serie de ataques de asma que se convirtieron en neumonía lo obligaron a hacer parte de sus estudios en casa, animado por su madre, hasta entrar al famoso King's College de Londres en 1947.

La inspiración de Higgs era otro físico teórico que había estudiado en la escuela primaria de Cotham, en Bristol, con más honores que ningún otro alumno: Paul Dirac, Premio Nobel de Física, uno de los padres de la mecánica cuántica y cuya más famosa ecuación predijo la existencia de la antimateria. Higgs recuerda que lo entusiasmaba la idea de entender el universo, y así emprendió una carrera académica estelar en la física teórica, doctorándose con honores (como siempre en sus estudios) a los 25 años de edad.

Todavía como estudiante, en 1949, asistió al festival cultural Fringe de Edimburgo como apasionado de la música clásica y, especialmente, de la música de Monteverdi. La ciudad lo conquistó, de modo que después de su graduación pasó a realizar tareas de investigación y docencia en la Universidad de Edimburgo, ciudad donde aún hoy vive.

Después de volver temporalmente a Londres a tareas universitarias, se instaló definitivamente en su ciudad de ensueño en 1960, como profesor de física matemática e investigador, algo que en física teórica significa básicamente pensar sobre el universo, estudiar las ecuaciones que explican ciertos fenómenos y expresar nuevas ideas en ecuaciones originales o mediante la programación de modelos sobre dichos fenómenos.

Fue en 1964 cuando Higgs propuso una solución a la pregunta de por qué los objetos tienen masa. Una solución que sus colegas llamaron "elegante": la masa se debe a la existencia de un campo que rodea a las partículas. Algunas partículas se unen al campo más que otras y por tanto tienen más masa. Y este campo transmite la masa a través de esa escurridiza partícula que es el bosón de Higgs, y que fue postulado al mismo tiempo, de modo independiente, por los belgas Robert Brout y François Englebert, que publicaron sus resultados algunas semanas después que Higgs y se consideran codescubridores.

Su idea no fue recibida inmediatamente como una revolución y Higgs continuó con su vida académica y sus pasiones musicales y como senderista, con la que después se convertiría en su esposa, la lingüista estadounidense Jody Williamson.

Mientras era ascendido a una cátedra personal en física teórica en 1980, otros físicos empezaron a diseñar el experimento necesario para detectar una partícula de diminuta incluso a nivel subatómico y que existía apenas una milmillonésima de una milmillonésima de segundo antes de destruirse: un acelerador de partículas enorme con detectores con una precisión nunca antes lograda.

El resultado fue el LHC, que desde la década de 1980 pasó por los mecanismos de aprobación y su lenta construcción, aún no iniciada cuando Higgs se jubiló en la universidad en 1996. El acelerador empezó a funcionar en 2009 y consiguió las observaciones que prácticamente confirman el bosón de Higgs (o, quizá, los bosones de Higgs) en 2011.

Ahora, mientras Higgs espera un premio Nobel que quizá no le sea concedido dadas las reglas y tendencias del comité encargado de concederlo, disfruta de la fama. Aunque modestamente. Como relató él mismo, su única celebración por el descubrimiento anunciado el 4 de julio fue una botella de cerveza en el vuelo de vuelta de Ginebra a Londres.

Nada que ver con un dios

Peter Higgs no habla del "bosón de Higgs", sino del "bosón escalar", y explica pacientemente que el nombre "la partícula Dios" es simplemente una broma de Leon Lederman, de su libro de 1993 del mismo título y que él rechaza el nombre. Lederman quería señalar que el bosón de Higgs era la partícula que podía explicar por qué el universo se mantiene unido, pero de modo ligero y sin ninguna connotación teológica, como no hay idea teológica al decir, como ocurre con frecuencia, que Leonel Messi o Bruce Springsteen "son dios".

Metales, mitos y estrellas

El avance del conocimiento y las sociedades humanas está estrechamente relacionado con el dominio de los metales, los hijos de las estrellas.

Todo el oro, como el usado para este anillo de Ramsés
II, se ha creado en explosiones de supernovas como la
SN 1994D.
(anillo: foto CC de Guillaume Blanchard; supernova:
foto CC de NASA/ESA por el telescopio Hubble)
Dice el "Breve diccionario etimológico de la lengua castellana" de Joan Corominas que la palabra "metal" entró en nuestro idioma hacia el año 1250, proveniente del latín "metallum", que probablemente significaba "mina". El Oxford English Dictionary añade que la palabra latina proviene del griego "metallon", que significaba por igual "mina", "cantera" o, sí, "metal".

Los griegos y romanos que les dieron nombre conocían únicamente siete metales: oro, cobre, plata, plomo, estaño, hierro y mercurio, mientras que los indostanos conocían además el zinc y los chinos el cromo, como se descubrió al ver que algunas armas del ejército de terracota de Xian lo usaban como recubrimiento. Pero no fue sino hasta el siglo XVIII cuando se desencadenó el hallazgo de los diversos metales que conocemos hoy.

Los metales son elementos químicos (o sus compuestos o aleaciones) que son buenos conductores del calor y de la electricidad, generalmente con un brillo característico, maleables y dúctiles, y que pierden fácilmente electrones para fomar iones positivos. Forman la mayor parte de los 90 elementos de la tabla periódica que se pueden encontrar en la naturaleza, 66 de ellos, divididos en 6 categorías.

Formación de los metales

El hombre encontró los primeros metales en su forma pura, como hoy aún podemos encontrar pepitas o vetas de oro, pero otros metales sólo se encuentran en forma de compuestos que deben ser beneficiados o procesados para extraerlos. Por supuesto, el origen mismo de esos asombrosos materiales fue asunto de la mitología.

Para algunos pueblos, los metales eran producto del sacrificio o autoinmolación de algún dios o semidiós, partes sagradas derramadas en beneficio de la humanidad. Para los antiguos chinos, la copulación del "chi" (energía vital mágica) de la tierra con el Cielo Polvoriento producía el nacimiento de un metal que, al paso de los milenios, iba generando los demás. Para Aristóteles, los metales y todos los minerales nacían de exhalaciones de la tierra relacionadas con los cuatro elementos. Las proporciones de los cuatro elementos daban como resultado los distintos minerales y metales conocidos.

La idea de que los metales estaban en continua formación, ya fuera por relaciones sexuales, exhalaciones o el crecimiento orgánico incluía el concepto de que si se dejaban reposar las explotaciones mineras agotadas, éstas se reabastecerían y se volverían, decía Plinio, "más productivas" debido al "aire que se infunde por los orificios abiertos".

En el siglo XVI, Jerónimo Cardano, matemático y médico del renacimiento y uno de los fundadores de la teoría de la probabilidad, se hacía eco de esta creencia: "los materiales metálicos son a las montañas lo mismo que los árboles, y tienen sus raíces, troncos, ramas y hojas... ¿Qué es una mina si no es una planta cubierta de tierra?"

La idea del origen orgánico de los metales, su sexualidad y su composición elemental, y la creencia en que todos los metales eran la "semilla" del oro fueron bases de la alquimia, que buscaba en el "matrimonio de los metales" la consecución del sueño de la piedra filosofal, y soportó todavía varios siglos después del renacimiento.

Poco a poco, el avance del conocimiento científico sugirió que los metales, como todos los demás elementos, habían nacido con el universo. Pero, ¿al mismo tiempo o de modo progresivo?

Quien dio la clave del origen de los elementos pesados fue el físico inglés Sir Arthur Eddington, que en 1920 sugirió que las estrellas obtenían su energía fusionando núcleos de hidrógeno para producir helio, es decir, que eran grandes hornos de fusión nuclear. No fue sino hasta 1938 cuando el físico alemán Hans Bethe describió los mecanismos de la fusion de hidrógeno en helio.

Pero no explicaba los elementos más pesados que el helio, que abordó el físico Fred Hoyle después de la segunda guerra mundial, señalando cómo la abundancia de los elementos en una galaxia aumentaba conforme ésta envejecía. Es decir, que las estrellas iban produciendo, mediante fusión nuclear, elementos progresivamente más pesados que el hidrógeno (con un protón en el núcleo) y el helio (con dos protones). Por eso, precisamente, elementos ligeros (desde el punto de vista atómico) como el carbono, el oxígeno o el hierro son muy abundantes y otros más pesados como el oro, el mercurio y el uranio, son muy escasos.

Las enormes fuerzas del interior de las estrellas fusionan los elementos en su interior creando núcleos más pesados, lo que se conoce como "nucleosíntesis estelar". Dos átomos de hidrógeno producen uno de helio. Tres de helio se fusionan creando uno de carbono (que tiene 6 protones). Uno de carbono y uno de helio se conjuntan en un átomo de oxígeno, y así sucesivamente hasta llegar al hierro, el elemento más pesado que puede producirse dentro de una estrella y que en su núcleo tiene 26 protones.

El hierro es el elemento que tiene la energía de unión más fuerte e incluso las fuerzas de las estrellas comunes no pueden provocar que se fusione dando lugar a elementos más pesados, pero aún así, en la naturaleza, hay muchos elementos con núcleos más pesados que el hierro, desde el cobalto (con 27 protones) hasta el uranio (con 92), y sin contar los elementos hechos por el hombre que hasta la fecha llegan al elemento "ununoctio", con 118 protones.

Los elementos que van del cobalto al uranio sólo pueden producirse en las masivas explosiones de estrellas que llamamos "supernovas", lo que conocmos como "nucleosíntesis explosiva". que además, al estallar, distribuyen por el universo los elementos más ligeros creados cuando eran simples estrellas.

El polvo estelar lanzado por las supernovas puede después empezar a reunirse en nubes giratorias que dan origen a nuevas estrellas y sistemas solares. Así ocurrió con el nuestro. Todos los elementos de nuestro planeta más pesados que el hidrógeno y el helio, los dos principales elementos nacidos durante la explosión que dio origen al universo, el Big Bang, están fabricados en el interior de las estrellas. Estamos hechos, como decía Carl Sagan, del material de las estrellas.

Origen

En 2011, un grupo de investigadores publicó en la revista "Experimental Astronomy" una propuesta de misión a la Agencia Espacial Europea. La misión, llamada "Origen: creación y evolución de los metales desde el amanecer cósmico" pondría en órbita un observatorio espectroscópico para analizar la composición de grupos de galaxias y responder a preguntas como ¿cuándo se crearon los primeros metales?, ¿cómo evoluciona el contenido metálico del cosmos? y ¿dónde se encuentra la mayor parte de los metales del universo? La ESA aún no ha dado respuesta.