Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los años del frío

An Gorta Mor Monument
Monumento en recuerdo de la gran hambruna de las patatas en
Irlanda a mediados del siglo XIX, provocada
en parte "pequeña edad de hielo".
(Foto D.P. de Eddylandzaat vía Wikimedia Commons)
Entre la edad media y fines del siglo XIX, un descenso en las temperaturas demostró cómo una pequeña variación en el clima puede tener profundas consecuencias.

Después de un período de clima y benigno en las tierras alrededor del Atlántico Norte, el Período Cálido Medieval, entre 1300 y 1870 se desarrolló uno de los más apasionantes misterios meterológicos: una reducción de las temperaturas especialmente en Europa y América del Norte, bautizado como “La pequeña edad de hielo” por François E. Matthes en 1939, pero más como una metáfora que como una descripción precisa, pues no fue una “edad de hielo” real como las glaciaciones.

El enfriamiento fue de 1-1,5 grados centígrados de media mundial por debajo de los niveles actuales. Esa variación, que nos puede parecer modestísima tuvo efectos profundos sobre las sociedades que lo padecieron y sirve para advertirnos de los profundos efectos que puede tener una variación que nos parezca irrelevante.

Las temperaturas bajaron entre 1150 y 1460. Siguieron cien años con un súbito ascenso y, a partir de 1560, el frío se agudizó hasta 1850, cuando nuevamente empezaron a subir las temperaturas a los niveles que conocimos en el siglo XX y en el actual siglo XXI.

El aumento de las lluvias favoreció la aparición de enfermedades en animales, cultivos y seres humanos. Ese cambio climático podría haber sido la causa, o un factor relevante, en las epidemias de la Peste Negra que acabaron con entre un tercio y la mitad de la población europea.

En España, el río Ebro, por ejemplo, se congeló 7 veces entre 1505 y 1789, y se desarrolló el comercio de los “pozos de nieve” en diversas zonas cercanas al Mediterráneo, una amplia red de depósitos que se mantuvo entre el siglo XVI y XIX. Fue también una época de desarrollo de los glaciares en la Sierra Nevada y los Pirineos.

Durante la pequeña edad del hielo, los inviernos fueron más largos y crudos, y las épocas de cultivo se redujeron entre un 15 y un 20%. Como ejemplo, la temporada de cultivo en Gran Bretaña llegó a ser uno o dos meses menor que en la actualidad, y al no contar con las semillas resistentes que hoy la tecnología nos puede ofrecer, la producción agrícola cayó, como lo demuestran los precios del trigo y el centeno, que que a partir de 1500 y hasta 1900 se multiplican hasta por diez.

Muchas hambrunas de ese período están relacionadas con las malas cosechas producto del frío, como la que azotó a Francia y los países vecinos por el fracaso de la cosecha de 1693, y que provocó millones de víctimas, mientras que, en los países nórdicos, los campesinos abandonaron las granjas más al norte en busca de mejores tierras.

Esta situación pudo haber sido también uno de los motores de la revolución agrícola que se inició en los países bajos en los siglos XV y XVI, con procedimientos más intensivos, diversificación y selección que después se difundieron por toda Europa.

El año que no hubo verano

Un fenómeno curioso respecto de los precios del centeno lo encontramos en 1816, cuando alcanzó su máximo histórico. De hecho, 1816 es conocido entre los científicos y los historiadores como “el año que no hubo verano” en el hemisferio norte. La primavera de 1816 ya había sido de por sí fría en Estados Unidos, la parte atlántica de Canadá, partes de Europa occidental e incluso el norte de China. Una helada en pleno mes de mayo destruyó numerosos cultivos en Estados Unidos, y los fracasos agrícolas, sumados a la escasez de las guerras recientes de Napoleón, ocasionaron hambrunas en Francia, el Reino Unido (especialmente Irlanda), Suiza y otros países, para un recuento final estimado de unas 200 000 muertes de hambre.

El enfriamiento del año que no hubo verano (y que fue de sólo 0,7 ºC de media anual) era ciertamente parte de la mecánica de la Pequeña Edad de Hielo, pero se vio agudizada, según consideran actualmente los expertos, por la erupción del Monte Tambora en la isla de Sumbawa, en Indonesia, que lanzó a las capas superiores de la atmósfera enormes cantidades de ceniza volcánica. La influencia de los volcanes en el clima está bien documentada. La erupción del Huaynaputina en Perú se relacionó con que 1601 fuera un año especialmente frío en el hemisferio norte, provocando una hambruna en Rusia, mientras que la erupción del Laki, en Islandia, en 1783, se relaciona con la severidad del invierno de 1784 y luego un clima benigno que provocó una cosecha con excedentes en 1785, entre otros muchos efectos.

Dada la complejidad del sistema climatológico de nuestro planeta, no se ha podido determinar cuál fue la causa de la pequeña edad de hielo. Hay una correlación que llama la atención, sin embargo, y que puede haber sido al menos un factor relevante: la reducción de la actividad solar medida de acuerdo a las manchas solares. Entre 1645 y 1715, años que coinciden con la mitad y los años más fríos de la pequeña edad de hielo, se registró una actividad solar particularmente baja, el “mínimo de Maunder”. Otros períodos de actividad solar singularmente baja se relacionan también con otras épocas de frío.

Pero en la pequeña edad de hielo también pueden haber influido otros factores, como la llamada Oscilación del Atlántico Norte, donde la zona de Islandia suele tener bajas presiones persistentes y la de las Azores altas presiones, una situación “positiva”, lo que influye en el clima cálido europeo. Cuando la situación se invierte haciéndose “negativa”, los inviernos son más crudos y los veranos más suaves. Aunque no se tienen mediciones, se cuenta con indicios de que hubo una situación negativa durante la mayor parte de la pequeña edad de hielo.

La pequeña edad de hielo hace pensar a sectores con claros intereses políticos y económicos que el calentamiento global que enfrentamos hoy podría ser un fenómeno natural e inevitable. Sin embargo, hay tantas evidencias sólidas, como la correlación entre el aumento en las emisiones de CO2 y el aumento en la temperatura media global que el consenso científico casi unánime es que la actividad del hombre es la responsible del calentamiento o al menos es un componente importante del mismo, por lo que moderar dicha actividad es lo más recomendable.

Al menos mientras conseguimos entender mejor el complejo mecanismo de la climatología de nuestro planeta.

Frankenstein

En 1816, muchos europeos pasaron el verano de 1816, el año sin verano, alrededor del fuego. Tal fue el caso de la pareja formada por el poeta Percy Bysse Shelley y su amante Mary Godwin, atrapados bajo techo en el lago Ginebra, en Suiza. Para matar el aburrimiento, junto con sus amigos Lord Byron Y John Polidori, decidieron hacer un concurso de cuentos… del que saldría la novela fundadora de la ciencia ficción moderna, Frankenstein, de la que poco después sería la esposa del poeta, Mary Shelley.

La certeza del Big Bang

Georges Lemaître, originador de la hipótesis del Big Bang
(Foto D.P. del archivo de la Universidad Católica de Leuven, vía
Wikimedia Commons)

Tan extrañas como la idea de que todo el universo comenzó con una gran explosión son las formas mediante las cuales los científicos saben que así fue.


En 1927, el físico, astrónomo y sacerdote belga Georges Lemaître publicó en los Anales de la Sociedad Científica de Bruselas un estudio que presentaba la conclusión, absolutamente revolucionaria, de que el universo estaba expandiéndose, algo que chocaba con la idea de que el universo tenía un estado constante y estático como creían algunos de los principales científicos del momento, incluido Albert Einstein. Y dos años después, el astrónomo Erwin Hubble publicaba la misma conclusión obtenida como resultado de diez años de observaciones, y confirmando que nuestro universo está en expansión.

En 1931, en una reunión de la Asociación Británica en Londres, Lemaître aprovechó para presentar una propuesta aún más revolucionaria: la expansión del universo tenía que haber comenzado en un solo punto, que él llamó el “átomo primigenio”, idea que publicó en la revista “Nature” poco después. El universo, decía, había comenzado como un “huevo cósmico que estalló al momento de la creación”. Si todas las galaxias se estaban alejando unas de otras a gran velocidad, el simple experimento mental de dar marcha atrás al proceso llevaba forzosamente a un punto en el que todas las galaxias estaban en el mismo lugar. La idea, claro, no sólo contradecía el relato del Génesis, sino que entre la comunidad científica fue recibida con un sano escepticismo a la espera de evidencias sólidas que confirmaran los desarrollos matemáticos.

Einstein, que había rechazado la idea del universo en expansión para luego aceptarla, no hallaba la conclusión justificable. A otros, como el respetado Sir Arthur Eddington, les parecía muy desagradable. En los años siguientes se propusieron -y abandonaron- varias teorías alternativas.

Para fines de los años 40 quedaban dos opcione viables, la de Lemaître y la del “universo estacionario” del inglés Fred Hoyle. En 1949, en un programa de radio de la BBC donde defendía sus ideas, Hoyle describió la teoría de Lemaître como “esta idea del big bang”, que hoy llamamos “gran explosión” pero que sería lingüísticamente más preciso traducir como “esta idea del gran bum”, y que el británico utilizó para explicarla a diferencia de su propia teoría, presentada con más seriedad, que pretendía demostrar que el universo se expandía mediante la creación continua de materia.

Seguramente, Fred Hoyle no esperaba que, finalmente, la teoría de Lemaître acabaría siendo conocida como el “Big Bang” y, para más inri, finalmente sería aceptada como la teoría cosmológica estándar en la física.

Las evidencias

La expansión del universo, la primera evidencia e indicio del Big Bang, se determinó midiendo el llamado “corrimiento al rojo” o “efecto Doppler” en la luz de las galaxias que nos rodean. Así como el sonido de un auto de carreras es agudo cuando se acerca a nosotros, pero cuando nos pasa y se aleja se vuelve grave, la luz de los objetos que se acercan de nosotros a enormes velocidades se vuelve más azul, y si se alejan se vuelve más roja. Ese desplazamiento hacia el rojo en la luz visible de las galaxias permite medir la velocidad a la que se alejan de nosotros. Las más cercanas se alejan a una velocidad menor, y las más lejanas lo hacen a velocidades mucho mayores, lo que se expresa matemáticamente como la “Ley de Hubble”.

Así, pues, la expansión del universo es un hecho demostrable, medible, que se confirma continuamente en las observaciones astronómicas y que apunta claramente a que comenzó en la explosión de hace unos 13.750 millones de años.

Otra evidencia fue aportada por el físico George Gamow, que en 1948 publicó un estudio mostrando cómo los niveles de hidrógeno y helio que sabemos que existen en el universo, podrían explicarse mediante las reacciones acontecidas en los momentos inmediatamente posteriores al Big Bang. Curiosamente, sería el propio Fred Hoyle quien daría la explicación física y matemática de la presencia de todos los demás elementos de la tabla periódica más pesados que el hidrógeno y el helio.

Un alumno de Gamow, Ralph Alpher, y otro físico, Robert Herman, llevaron las predicciones teóricas basadas en el modelo del Big Bang más allá, calculando que debido a la colosal explosión debía quedar una radiación cósmica de microondas que sería homogénea y estaría a una temperatura de 5 grados por encima del cero absoluto, una radiación que se encontraría en todo el universo, un vestigio, un “eco”, valga la metáfora, del cataclísmico acontecimiento.

El momento esencial para la aceptación de la teoría del Big Bang llegó en 1964, cuando dos científicos de los laboratorios de la empresa telefónica Bell, Arno Penzias y Robert Woodrow, descubrieron precisamente la radiación cósmica de microondas predicha por Alpher y Herman. Penzias y Woodrow estaban tratando de eliminar un ruido de interferencia en una antena parabólica de radio, pero al no conseguirlo concluyeron que la fuente de este ruido tenía que estar en el espacio. Otros científicos la interpretaron como radiación de fondo o ruido de fondo del universo. Esta radiación era exactamente como la predicha por el estudio de Alpher y Herman.

Este hecho fue decisivo para que la teoría del Big Bang, desarrollada intensamente por varios estudiosos desde el planteamiento inicial de Lemaître. Penzias y Woodrow recibieron el Nobel de Física de 1978. Cualquier radiotelescopio lo bastante sensible puede “ver” este brillo tenue, que viene de todas partes del universo y cuya existencia es testimonio de esa gran explosión. La medición de la radiación cósmica de microondas fue confirmada en la década de 1990 por las observaciones del satélite COBE.

Los astrofísicos, además, han observado detalladamente la forma y distribución de las galaxias y los cuásares (fuentes de radio “casi estelares” situadas en el centro de galaxias masivas) en el universo, así como la formación de estrellas y los objetos de distintas edade, y todas las observaciones son consistentes con lo que espera la teoría del Big Bang.

Ahora que sabemos cómo comenzó todo (literalmente todo) aún queda por definir cómo va a acabar todo. Porque nuestro universo, finalmente y después de milenios de especulaciones, tuvo un principio y, de un modo u otro, tendrá un final.

Una teoría, varias visiones

Las ideas esenciales del Big Bang explican satisfactoriamente el origen y estado actual del universo, pero hay aspectos como la materia oscura o la energía oscura y problemas teóricos (como el de la geometría del universo o la asimetría entre materia y antimateria) que siguen siendo estudiados tanto teóricamente como matemáticamente y que dejan grandes espacios para perfeccionar el modelo cosmológico aceptado hoy.

Del guisante al genoma humano

Human genome
Los 23 pares de cromosomas humanos
que albergan todo nuestro legado de ADN.
(Imagen CC de By LoStrangolatore,
vía Wikimedia Commons)
Pese a los avances logrados a la fecha, seguimos en el proceso de responder una pregunta fundamental: ¿por qué somos como somos?

En 2003 se anunció, con gran revuelo en los medios, que se había logrado secuenciar el genoma humano, el primer paso para entender cómo heredamos y desarrollamos nuestras características genéticas.

El genoma es el total de la información genética de un organismo. En nuestro caso, está codificada en el ADN de sus 23 pares de cromosomas y una pequeña cantidad de ADN en los organelos celulares llamados “mitocondrias”. La “secuencia” del genoma es conocer la serie de bases o letras (adenina, guanina, timina y citosina, denotadas por sus iniciales A, G, T y C) que hay en sus cromosomas. Esto significa sólo que conocemos las letras y las palabras, que son los genes (entre 20.000 y 25.000 de ellos) pero su significado aún es en gran medida un misterio vigente desde que el hombre se preguntó por primera vez por qué los seres vivos son como son.

La genética de los griegos

El reto de conocer la forma en que se lleva a cabo la herencia de los caracteres ya preocupaba a los griegos de la antigüedad clásica. Cierto, los animales y las plantas se criaban para reproducir los atributos deseables, pero esto dejaba en pie el acertijo de qué origen tenía la forma de los seres vivos, por qué unos tenemos los ojos o el cabello de un color u otro.

Eurípides imaginó que hombre, el padre, aporta las características esenciales de la descendencia, mientras que la madre es la vasija en la cual esa descendencia crece hasta su nacimiento. Hipócrates, por su parte, decía que distintas partes del cuerpo producían semillas que se transmitían a la descendencia en la sangre, una visión que prevalece en nuestro lenguaje a través de conceptos como “sangre azul”, “purasangre” o hablar de un hijo como “sangre de mi sangre”.

La aportación más relevante fue la de Aristóteles, quien se distinguió al mismo tiempo por observar con cierto rigor el mundo a su alrededor, y al mismo tiempo por que una vez que se convencía de que algo era razonable lo asumía como verdad sin contrastarlo con observaciones (es famosa su declaración de que la mujer tiene menos dientes que el hombre, sin haber contado las piezas dentales de ninguna de sus dos esposas).

Aristóteles observó los estadios de desarrollo de embriones de pollos y concluyó que la forma final del pollo (lo que llamaríamos la expresión de sus genes) iba apareciendo poco a poco a partir de una masa informe que, creía, resultaba de la mezcla del semen del padre y la sangre menstrual de la madre. Esta teoría se llamó “epigenética” (palabra que hoy denota más bien la expresión de los genes en función del medio ambiente, lo cual puede alimentar cierta confusión).

Ante la epigenética se alzó eventualmente el preformacionismo, que ya había descrito también Aristóteles, aunque no lo favorecía, según el cual todos los seres están ya formados desde la creación y lo que hay en los fluídos seminales de machos y hembras son versiones de la misma especie en miniaturas invisibles al ojo humano.

Incluso, algunos de los primeros microscopistas aseguraban que veían, en los espermatozoides, diminutos hombres y mujeres. Esta teoría aseguraba que todos los seres vivos se crearon al mismo tiempo y llevaban dentro pequeñas versiones de sí mismos que serían nuestros hijos y que a su vez tenían ya hombrecitos aún más pequeños que serían nuestros nietos, en un infinito juego de matrioshkas rusas, llegando a afirmar que toda la humanidad, incluida la del futuro, estaba ya en los ovarios de Eva.

Llega la ciencia

Mientras tanto, a principios del siglo XIX, el monje austriaco Gregor Mendel, trabajando con guisantes en el huerto de su abadía, descubrió que las características, o al menos algunas de ellas, se heredaban de acuerdo a las que hoy llamamos Leyes de la herencia de Mendel. Desveló que todos los individuos poseen un par de genes para cada una de sus características particulares, y que cada uno de los padres transmite a cada descendiente una copia seleccionada al azar de uno de los dos genes de su par.

El conocimiento de los descubrimientos de Mendel no llegó a uno de los hombres que mejor los podía haber aprovechado: Charles Darwin, quien pese a desarrollar la teoría de la evolución murió sin saber cómo se heredaban las características que, según su teoría, eran sujeto de la variación y selección natural. Darwin incluso hizo experimentos similares a los de Mendel, pero le preocupaba más la forma en que las variaciones se acumulaban al paso del tiempo que cómo se expresaban de una generación a la siguiente.

Los descubrimientos de Mendel fueron olvidados hasta 1900, cuando se redescubrieron como una revolución sobre la cual el biólogo estadounidense Thomas Hunt Morgan, trabajando con moscas de la fruta en experimentos de herencia, demostró en un legendario artículo de 1911 en la revista “Science” que algunas características heredadas estaban vinculadas al sexo, que por tanto se transmitían en los cromosomas sexuales y, razonó Morgan, quizá los demás genes eran transportados también en los otros cromosomas. Este descubrimiento le valio el Nobel de Medicina en 1930.

Fue en ese mismo año cuando, podríamos decir, nació la biología moderna en toda su amplitud, cuando el biólogo británico Ronald Aylmer Fisher publicó su libro “La teoría genética de la selección natural” que unía la teoría de la evolución mediante la selección natural de Darwin con los estudios de Gregor Mendel.

Sobre esas bases y a partir de la descripción de la molécula de ADN obtenida por James Watson, Francis Crick y Rosalind Franklin, se emprendió el camino para secuenciar el genoma humano, identificando en el proceso algunos genes que influyen en ciertas características concretas. Así, sabemos que dos mutaciones en el gen denominado FGFR3 son responsables del enanismo acondroplásico.

Pero aún queda mucho por saber. La idea simplista de que cada característica tiene un gen determinado se ha visto desbancada por el conocimiento de que somos como somos debido a un delicado juego de interrelaciones entre muchos genes, incluso algo tan aparentemente sencillo como el color de los ojos no depende de un gen, sino, cuando menos, de seis de ellos. La interrelación entre los genes y los procesos bioquímicos, y cómo su codificación se convierte en un ser completo, mantendrá ocupados a los científicos durante muchos años.

Lo que falta del genoma

En realidad el genoma humano no se ha secuenciado en su totalidad, pues falta algo más del 7%. Los métodos actuales no permiten desentrañar las zonas centrales de los cromosomas, que son altamente repetitivas, así como los extremos, llamados telómeros, entre otros espacios en blanco que esperan la aparición de nuevas y mejores técnicas para rellenarse.

La ira de Newton

Sir Isaac Newton (1643-1727)
Isaac Newton
(Pintura D.P. de Sir Godfrey Kneller,
vía Wikimedia Commons)
El genial científico era un misántropo que albergó un odio extraño hacia sus colegas Leibnitz y Hooke

En 1944, el pediatra austríaco Hans Asperger describió un síndrome que compartían algunos de los niños que visitaban su consulta y que carecían de habilidades de comunicación no verbal (como la comprensión del lenguaje corporal y las expresiones faciales de la emoción), tenían una empatía limitada con los demás y eran torpes y patosos. Llamó a este síndrome “psicopatía autista”.

En 1994 quedó definido un diagnóstico para el ahora llamado Síndrome de Asperger dentro del espectro de trastornos autísticos, una gran categoría de comportamientos de leves a graves que popularmente se conocen como “autismo”. El Asperger se caracteriza por intereses obsesivos, dificultades para establecer relaciones sociales y problemas de comunicación.

En 2003, el profesor Simon Baron-Cohen, del departamento de Psicopatologías del Desarrollo de la Universidad de Cambridge y director del Centro de Investigación sobre Autismo, y el matemático Ioan James, de la Universidad de Oxford, declararon que probablemente, aunque el diagnóstico preciso es imposible, uno de los más grandes genios conocidos en la historia de la humanidad, Isaac Newton, había padecido Síndrome de Asperger.

Para los dos científicos, Newton parecía un caso perfecto de Asperger: hablaba muy poco, con frecuencia se concentraba tanto en su trabajo que se le olvidaba comer y era poco expresivo y malhumorado con los pocos, muy pocos amigos que tuvo. Cuando no se presentaba público a alguna de sus conferencias, las impartía igualmente, hablando a una sala vacía, y su depresión y rasgos paranoicos le causaron un colapso nervioso cuando tenía 50 años.

Otros, sin embargo, pensaron que los dos buenos científicos británicos, admiradores –imposible no serlo– del avasallador genio de Newton estaban de algún modo intentando justificar el lado hosco, antipático y difícil de una mente absolutamente privilegiada.

El niño de Navidad

Era el día de Navidad de 1642, en una Inglaterra que aún usaba el calendario juliano (en el calendario gregoriano actual, que el Reino Unido adoptó finalmente en 1752, la fecha es el 4 de enero de 1642) cuando en el pequeño poblado de Woolsthorpe, condado de Lincolnshire, nació un niño prematuro cuyo padre había muerto tres meses antes. Bautizado Isaac como su padre, un terrateniente que no supo nunca leer ni escribir, el pequeño Isaac fue pronto entregado a los cuidados de su abuela mientras su madre Hannah se casaba de nuevo y fundaba otra familia.

El pequeño Isaac creció así sintiendo el rechazo de su madre, odiando intensamente al nuevo marido de ésta y siendo, en general, infeliz y conflictivo, además de calificar de “chico raro” en la escuela. En lugar de las diversiones comunes de sus compañeritos, Isaac prefería diseñar ingenios mecánicos diversos: cometas, relojes de sol, relojes de agua. Se le conocía como un chico muy curioso sobre el mundo a su alrededor, pero no especialmente brillante, más bien en la parte baja de la tabla de notas.

Cuando tenía once años de edad, Isaac vio volver a su madre, viuda por segunda vez, que procedió a sacar al pequeño Isaac de la escuela donde lo habían puesto sus abuelos para que se encargara de las tierras familiares. Su actividad como cabeza de familia y agricultor resultó un desastre de proporciones, así que su madre no opuso objeciones cuando un tío de Isaac, académico en el Trinity College, sugirió que Isaac volviera a los estudios y se preparara para entrar a Cambridge.

Alumno brillante pero sin alardes demasiado destacados, y siempre con problemas emocionales, terminó su educación a los 18 años y a los 19 marchó a Cambridge, dejando atrás a la única novia que se le conocería, pues Newton adoptaría el celibato como forma de vida, dentro de la filosofía de que el “filósofo natural” (lo que hoy llamamos “científico”) debía ser una especie de sacerdote del conocimiento, entregado únicamente a la academia. Pero la venerable universidad no era aún un espacio de ciencia, y seguía dominada por las tradiciones escolásticas y la reverencia a Aristóteles que esperaban la explosión de la revolución científica para dejar de ser el pensamiento dominante. Y Newton se preparaba, sin saberlo, para ser una de las grandes luminarias de esa revolución, estudiando por su cuenta, a contracorriente de la universidad a pensadores audaces como René Descartes, que además de filósofo era un matemático cuyo trabajo fascinaba a Newton, a Thomas Hobbes, Pierre Gassendi y a astrónomos revolucionarios y “peligrosos” como Galileo, Copérnico y Kepler. Estos serían los personajes a los que Newton se referiría cuando dijo en 1675: “Si he visto más lejos que otros, ha sido por estar de pie sobre hombros de gigantes”.

La manzana de la discordia

Graduado sin honores ni distinciones especiales en 1665, Newton tuvo que volver a casa por última vez debido a un brote de peste bubónica que obligó a Cambridge a cerrar sus puertas para salvaguardar la salud de sus profesores y alumnos durante dos años.

Fueron dos de los más fructíferos años del genio de Newton. En la soledad que amaba y sin que su familia se arriesgara de nuevo a tratar de hacer de él un agricultor pasable, el joven se dedicó a estudios que se convertirían en asombrosas aportaciones para la ciencia. En sólo dieciocho meses, Isaac Newton descubrió las ley del inverso del cuadrado, desarrolló el cálculo infinitesimal, generalizó el teorema del binomio, estableció las bases de su teoría de la luz y el color y avanzó de modo significativo en su comprensión del movimiento de los planetas que devendría en las leyes de la gravitación.

Fue en esa época, en 1666, cuando ocurrió el incidente de la manzana, novelizado y ficcionalizado sin cesar. Pero ocurrió en realidad. William Stukeley, arqueólogo y biógrafo de Newton, cuenta que en una ocasión, tomando el té a la sombra de unos manzanos con el genio éste “me dijo que estaba exactamente en la misma situación como cuando antes apareció en su mente la noción de la gravitación. La causó la caída de una manzana, mientras él estaba en un ánimo contemplativo. ¿Por qué esa manzana siempre descendía perpendicularmente respecto del suelo?, pensó…”

Así que sí hubo manzana, aunque no le diera en la cabeza como quisieran los dibujos animados. Y esa manzana lo llevó a tratar de calcular la velocidad de la Luna y, desde allí, a formular las famosas Leyes de Newton.

El recién graduado que había dejado Cambridge al desatarse la peste volvió en 1667 convertido en un hombre con una clara visión de lo que deseaba lograr con su intelecto. Consiguió una beca menor, finalizó su maestría un año después y en 1669, a los 26 años de edad, obtuvo la cátedra lucasiana de matemáticas, que después ocuparían otros brillantes científicos como Charles Babbage, Paul Dirac o Stephen Hawking. La cátedra le daba una enorme tranquilidad profesional y económica, y el tiempo necesario para dedicarse a pensar, descubrir y crear, y decidió enviar al editor su obra sobre cálculo de ecuaciones con números infinitos, que abriría el camino al cálculo diferencial e integral, base de las matemáticas actuales.

No deja de ser llamativo que antes incluso de obtener su cátedra, en 1668, Newton ya hubiera inventado el telescopio reflector perfeccionado, que se utiliza hasta la fecha. De 1670 a 1672 se ocupó principalmente de la luz, demostrando que la luz blanca está compuesta por todos los colores del espectro, y desarrolló la teoría que demostraba que el color es una propiedad de la luz y no de los objetos que la reflejan. En 1675 publica su Hipótesis sobre la luz, a contracorriente de sus contemporáneos, especialmente el astrónomo Robert Hooke, que atacó con violencia a Newton iniciando un enfrentamiento de por vida. Quizá fue entonces cuando Newton descubrió que la controversia y la confrontación le resultaban profundamente repugnantes y se negó a publicar sus obras mayores hasta 1687.

Esto significó que la difusión de su obra se daría en comunicaciones privadas con otros estudiosos. En 1676 le comunicó a Henry Oldenburg por carta el teorema del binomio que había desarrollado 10 años atrás, estableciendo por ello correspondencia con el matemático alemán Leibnitz.

Los “Principia Mathematica”

En agosto de 1684, el astrónomo Edmund Halley visitó a Newton en Cambridge y le presentó un acertijo que ocupaba el tiempo y atención de todos sus colegas en ese momento: ¿Qué tipo de curva describe un planeta en su órbita alrededor del sol suponiendo una ley de atracción del inverso del cuadrado? Newton respondió inmediatamente que era una elipse. Halley preguntó cómo lo sabía y Newton respondió simplemente que había hecho el cálculo cuatro años atrás.

Era una de las grandes respuestas a una de las más importantes preguntas sobre el universo, y el irascible genio había extraviado el cálculo que lo demostraba y no se había ocupado en informarle de ello a nadie, así que se comprometió a darle a Halley un nuevo cálculo, promesa que se convertiría en su libro De motu (del movimiento). Halley insistió entonces hasta conseguir que Newton aceptara publicar su libro Philosophiae naturalis principia mathematica, mejor conocido como los Principia con los que estableció los nuevos cimientos de las matemáticas y la física.

Desafortunadamente, la publicación de este libro, considerado uno de los más importantes de la historia de la ciencia, le dio un nuevo disgusto a Newton. El astrónomo Robert Hooke, con quien había intercambiado correspondencia en 1679 y que había ofrecido el vínculo conceptual entre la atracción central (es decir, la idea de que la atracción gravitatoria se debe considerar desde el centro de un objeto como nuestro planeta) y el hecho de que la fuerza de esa atracción disminuye según el cuadrado de la distancia a la que se esté de dicho centro. Cuando se anunció la publicación del libro de Newton, Hooke reclamó el reconocimiento a su participación en los descubrimientos de Newton.

El disgusto de Newton fue tal que, en un arranque de cólera bastante alejado de la justicia y la racionalidad del matemático, modificó la obra de modo que no apareciera en ella ninguna referencia a Robert Hooke y a sus logros científicos. El odio que desarrolló por Hooke fue tal que dejó de participar en la Royal Society y no publicó su libro sobre óptica, Optiks sino hasta después de la muerte de Hooke en 1703.

Newton ocupó también parte de su tiempo en la defensa de Cambridge como universidad, lo que le permitió obtener un escaño como miembro del Parlamento en 1689. Sin embargo, no estuvo muy activo como parlamentario. Su única intervención durante los años que fue legislador fue para pedir que abrieran una ventana porque sentía una corriente de aire y corría el peligro de que se le cayera la peluca.

Acomodado en Londres, aceptó el puesto de Director de la Casa de Moneda británica, lo que le daba una vida cómoda, y se ocupó de la química, la hidrodinámica y la construcción de telescopios, además de dedicarse a disciplinas menos precisas como la alquimia, el ocultismo y los estudios literalistas bíblicos. De hecho, según algunos estudiosos, parte de los problemas emocionales de Newton podrían deberse a envenenamiento por mercurio, resultado de sus largos años de tratar de conseguir algo en el terreno de la alquimia… algo que además nunca logró, a diferencia de lo que consiguió como científico.

Su extraña e iracunda venganza contra Robert Hooke se vio consumada cuando, un año después de la muerte del astrónomo, en 1704, Newton fue electo presidente de la Royal Society, puesto en el que lo reelegirían anualmente hasta su muerte en 1727 y que ejerció como un tirano, aunque siempre benévolo en el apoyo a los jóvenes científicos, y en 1705 recibió el título de caballero de manos de la reina Ana.

Los últimos años de su vida se vieron ocupados por la renovación del sistema monetario británico. y por una feroz controversia con Leibnitz sobre la paternidad genuina del cálculo diferencial e integral, un enfrentamiento amargo que comenzó cuando Newton decidió, sin pruebas, que Leibnitz le había copiado el cálculo. Aunque hoy los historiadores de la ciencia aceptan que ambos desarrollaron los conceptos independientemente, como ideas cuyo momento había llegado (del mismo modo en que Darwin y Russell Wallace desarrollaron la teoría de la evolución, aunque entre estos dos hubo una resolución respetuosa y cordial). Incluso después de la muerte de los matemáticos, a fines del siglo XVIII, seguía en vigor el enfrentamiento entre “leibintzianos” y “newtonianos”.

Y el ojo apareció... varias veces

Head of a Longlegged Fly - (Condylostylus)
Los ojos compuestos de una mosca Condylostylus
(Foto CC de Thomas Shahan, vía Wikimedia Commons)
El instrumento biológico de detección de la luz es tan asombroso que pocas veces pensamos que hay diseños alternativos para él, algunos sin duda mejores que el nuestro.

Para funcionar, todo ser vivo necesita recolectar información de su medio ambiente para interpretarla y poder reaccionar ante ella.

La información, es decir, los estímulos que perciben los seres vivos, pueden ser de muchos tipos, el enotrno químico, las vibraciones, su posición en el espacio, la textura física de las cosas, la forma en que refleja la luz… y ello define los que llamamos nuestros principales sentidos: olfato, gusto, oído, propiocepción, tacto y vista.

Una de las formas más elementales de comportamiento la encontramos en los organismos unicelulares que nadan libremente. Al acercarse a una partícula irritante, el individuo la detecta a través de la membrana celular (mediante un proceso que aún no conocemos con precisión), y reacciona alejándose de la partícula venenosa y reemprendiendo su camino en otra dirección distinta. Allí están los principios básicos de todo comportamiento: estímulo, interpretación, reacción, e incluso memoria durante unas fracciones de segundo para no reemprender el camino en dirección a la partícula irritante.

La visión, la percepción de los objetos por medio de la luz, la conseguimos a través de los ojos, órganos altamente especializados que captan la luz y la convierten en información electroquímica que nuestro cerebro interpreta como formas, colores, movimiento.

El ojo es, evidentemente, una herramienta utilísima en un mundo inundado de luz prácticamente todo el tiempo. No sólo la luz del sol de día, sino la luz de la luna y de la Vía Láctea, que bastan, lo sabe cualquiera que lo haya intentado, para tener una útil (aunque incompleta) percepción visual.

Habiendo luz, los mecanismos de la evolución tendieron a dotar de ojos a todos los animales. Sin embargo, la evolución del ojo es un fenómeno peculiar en la evolución porque ha ocurrido de manera independiente en muchas ocasiones y de muchos modos distintos. El ojo de los vertebrados (es decir, de todos los animales con columna vertebral, desde los reptiles y aves hasta los mamíferos superiores) surgió de manera separada de otros ojos comunes en la naturaleza, como los ojos de los cefalópodos (pulpos o calamares) o los cnidarios (anémonas o medusas), los ojos compuestos de los insectos o los ojos de copa como los de las planarias.

Todas estas formas de ojos evolucionaron independientemente y de forma paralela para dar solución al mismo problema, la percepción de la luz. Lo que los científicos saben en la actualidad es que todos los ojos que existen tuvieron muy probablemente un mismo origen: una proteína sensible a la luz (es decir, que sufren un cambio al ser alcanzadas por la luz), la opsina, que ya se encuentran incluso en algunos organismos unicelulares.

Ciertamente, las proteínas fotosensibles sólo pueden dar una información muy limitada: hay luz o no hay luz. Luz y sombra. Pero se trata de una información que puede ser extremadamente útil para la supervivencia. De entrada, permite al individuo distinguir el día y la noche, o alerta cuando una sombra inesperada puede ser un depredador.

Con base en esas proteínas básicas, que forman una química común, la evolución fue dando forma a distintos ojos formados por células fotorreceptoras especializadas. El ojo más simple es la mancha ocular, una agrupación de células fotorreceptoras y que, según los biólogos evolutivos, surgió de modo independiente varias docenas de veces a lo largo de la historia de la vida. La mancha ocular evolucionó hacia el ojo de copa, que aún tienen animales como las planarias o gusanos planos.

Las células fotorreceptoras colocadas en una depresión pueden dar información sobre la dirección general de la que proviene la luz. Esta depresión fue haciéndose más profunda hasta formar una cámara, y su punto superior creó un orificio de entrada de la luz similar al de una cámara estenopeica, esas cámaras sin lente que recogen toda su luz a través de un orificio diminuto. Hoy en día, organismos antiguos como el nautilus mantienen ese sistema.

Lo siguiente fue la aparición de células transparentes, probablemente como forma de defensa contra parásitos y cuerpos extraños, que cubrieron el orificio de entrada de la luz. Esas células posteriormente evolucionaron para formar lentes que permiten concentrar y enfocar la luz para tener una mejor visión, apareciendo el cristalino.

Una de las formas en que sabemos que este ojo “de cámara” que tenemos los seres humanos evolucionó de forma independiente entre los cefalópodos y los vertebrados es que su diseño es totalmente distinto y, de hecho, el nuestro es el menos lógico. En el ojo vertebrado, las fibras nerviosas pasan por encima de la retina, es decir, de la capa de células fotorreceptoras que nos permiten ver, y que están, por así decirlo, mirando hacia atrás. Al unirse todas las fibras nerviosas procedentes de todas las células de la retina para formar el nervio òptico que sale del ojo hacia el cerebro, forman un punto ciego bien conocido en nuestros ojos. En el caso de los cefalópodos, las células de la retina miran hacia fuera y las fibras nerviosas van por detrás, motivo por el cual no tienen punto ciego.

Un ojo totalmente distinto, y también desarrollado de modo independiente, es el ojo compusto de los insectos y algunos otros artrópodos. Se trata de un ojo formado por multitud de pequeños ojos alargados llamados “omatidios”, cada uno con una córnea, un cono cristalino y células fotorreceptoras.

Alguna vez, el propio Darwin creyó que el ojo era el más complejo desafío a la teoría de la evolución, al no poder vislumbrar un mecanismo para cómo se formó tan delicado instrumento. Hoy, sin embargo, el ojo, las docenas de veces que muy distintos ojos han aparecido en nuestro planeta, es uno de los ejemplos más gloriosos de las formas en que opera la evolución mediante la selección natural.

¿Por qué vemos la luz visible

Si el espectro electromagnético es tan amplio, no deja de ser curioso que los ojos desarrollados en nuestro planeta solamente puedan percibir longitudes de onda entre 400 y 700 nanómetros, lo que llamamos “luz visible”, además de algunas adaptaciones para la luz ultravioleta que desarrollaron los insectos posteriormente. Según lo que sabemos en la actualidad, esto podría deberse a que ese intervalo de luz visible es que la vista evolucionó en seres acuáticos, y el agua filtra de modo sensible todo el rango electromagnético salvo, precisamente, la luz visible. La detección de rayos X o microondas habría sido imposible al no estar presentes en el medio acuático.

Para ver lo invisible

Leeuwenhoek boerhaave
Uno de los microscopios de Leeuwenhoek
(Foto CC del Museo Boerhaave, Leiden,
vía Wikimedia Commons)
En 1676 el ser humano emprendió la incursión en el mundo de lo invisible, lo que hasta entonces era tan pequeño que nuestros ojos no podían detectarlo.

“El 9 de junio, habiendo reunido, temprano en la mañana, algo de agua de lluvia en un plago (…) y exponiéndola al aire por el tercer piso de mi casa (…) no pensé que debía percibir entonces ningún ser viviente en su interior; sin embargo, al verla, con admiración observé miles de ellos en una gota de agua, que eran de los más pequeños que había visto hasta la fecha”.

Con estas palabras, en carta fechada en octubre de 1676, Antonie Van Leeuwenhoek (pronunciado “van lívenjok”) informaba a la Real Sociedad de Londres la que es con toda probabilidad la primera observación de organismos microscópicos realizada jamás por un ser humano.

El comerciante y científico holandés llevaba ya tres años relacionado con la Royal Society, que había sido fundada apenas en 1660 por una docena de científicos para debatir acerca de la “nueva ciencia” de Francis Bacon, padre del método científico, y analizar y comunicar experimentos científicos. Era el inicio de la revolución científica, el lugar ideal para las observaciones de Leeuwenhoek sobre la boca y los aguijones de las abejas que realizaba con su sencillo microscopio.

Esta carta fue recibida con escepticismo. Un holandés, ciertamente respetado, pero desconocido, decía haber visto miles de seres vivos minúsculos en una sola gota de agua de lluvia. No había precedentes, sonaba extraño y la cautela era una actitud razonable ante estas afirmaciones.

El instrumento de Leeuwenhoek no era ninguna novedad. Había nacido también en Holanda, alrededor de 1590, al parecer creado por Zacarías Janssen y su hijo Hans, aunque también se atribuye a Hans Lippershey, inventor del telescopio.

El propio Galileo perfeccionó uno de estos adminículos formado por dos lentes y un mecanismo de enfoque, al que llamó ‘occhiolino’, el pequeño ojo. El alemán Giovanni Faber, colega de Galileo en la Academia Linceana, lo bautizó en 1625 como “microscopio” de modo análogo a “telescopio”, otra palabra creada en la academia.

El microscopio fue usado para observar tejidos y seres animales y vegetales hasta entonces inaccesibles al ojo humano. Así, el británico Robert Hooke realizó una gran cantidad de observaciones que publicó en su libro de 1665, “Micrographia”, donde informó de ciertos componentes a los que llamó “celdas” o “células”.

Pero la observación de Van Leeuwenhoek era una nueva dimensión de lo invisible con animales pequeñísimos (“animálculos” los bautizó) distintos de todo lo conocido hasta ese momento. Estaba seguro de lo que veía, sobre todo porque no había ocurrido una vez, sino que seguía viendo, registrando y anotando cuanto atestiguaba en ese mundo vivo totalmente nuevo. Por fin, la Real Sociedad decidió enviar a una comisión a Deft, en el sur de Holanda, para determinar la fiabilidad de Antonie. En 1680 la Real Sociedad certificó las observaciones de Leeuwenhoek y lo aceptó como socio de pleno derecho.

Comenzó así el esfuerzo por profundizar en ese mundo invisible. El propio Leeuwenhoek reveló que nuestra sangre contenía unos corpúsculos que hoy llamamos glóbulos rojos, y que en el semen humano existen los espermatozoides. Estos descubrimientos implicaron, por supuesto, encendidos debates científicos, pero también teológicos.

El microscopio entró en una época de desarrollo. De un máximo de unos 500 aumentos de los aparatos de Van Leeuwnhoek, se llegó a 5.000. La comprensión de la luz producto de la óptica, permitió iluminar mejor los especímenes, utilizar luz de distintos colores, o polarizada, o que provocara la fluorescencia del objeto observado, todo buscando observaciones cada vez más precisas. Además, se desarrolló toda una disciplina para teñir los materiales observados mejorando su contraste respecto del medio circundante o de otros individuos. Un ejemplo es el método de Camilo Golgi para teñir tejido nervioso utilizando dicromato de potasio y nitrato de plata, permitiendo estudiarlo mejor bajo el microscopio. Santiago Ramón y Cajal perfeccionó este procedimiento para realizar los estudios sobre la estructura del sistema nervioso que le valieron a ambos científicos conjuntamente el Premio Nobel de medicina o fisiología en 1906.

El desarrollo de la microscopía se encontró sin embargo con un límite impasable: las características de la luz. La longitud de onda media de la luz es de unos 550 nanómetros (milmillonésimas de metro). Debido a esto, dos líneas que estén a menos de 275 nanómetros (la mitad de la longitud de onda de la luz) una de otra se verán como una sola línea, y todo objeto de menos de 275 nanómetros será indistinguible o invisible.

La solución fue iluminar los objetos con haces de electrones, que pueden tener longitudes de onda 100.000 veces menores que la luz visible (formada por fotones) y puede conseguir una resolución mucho mayor y aumentos de hasta 10 millones de veces. Estos haces de electrones utilizan campos electrostáticos y electromagnéticos a modo de “lentes” para enfocarse. El aparato capaz de hacer esto es el microscopio electrónico, el primero de los cuales fue construido en 1931 por el alemán Ernst Ruska (Premio Nobel de Física en 1968) y el ingeniero eléctrico Max Knoll, y en estos 80 años ha dado origen a técnicas más avanzadas y refinadas de utilizar este principio.

Finalmente, en la década de 1980 apareció el microscopio de sonda de barrido, que utiliza sondas físicas para explorar los objetos y generar imágenes de los mismos empleando puntas de prueba de un diámetro mínimo (hasta de un átomo de diámetro) que exploran físicamente las superficies. Se han desarrollado no menos de 25 formas distintas de este tipo de microscopios para las más diversas aplicaciones.

Hoy podemos ver, un tanto borrosos, los átomos de carbono que formando una rejilla de hexágonos componen una lámina de un solo átomo de espesor. La técnica y la ciencia siguen haciendo visible lo invisible, encontrando explicaciones y descubriendo nuevos misterios a partir de nuestra capacidad de ver a niveles para los que nunca estuvieron diseñados nuestros ojos.

Y sin embargo, al parecer nada satisface a los científicos ni al público. Queremos “ver”, o al menos saber con precisión cómo se ve, el mundo por debajo del nivel atómico: el aspecto de un quark, el proceso de replicación del ADN a nivel de enlaces atómicos, el tejido mismo del espacio, invadir la totalidad de lo invisible.


El más poderoso

El microscopio electrónico TEAM del Laboratorio Nacional de Berkeley en los Estados Unidos, con un coste de 27 milones de dólares, es capaz de ver objetos de la mitad del tamaño de un átomo de hidrógeno, o 0,05 nanómetros y está en operación para distintos experimentos e investigadores desde 2009.

Cómo nos engañan con números

Sahara Hotel and Casino 2
La bolita de la ruleta no 'recuerda' en qué número cayó la vez anterior.
(Foto CC de By Antoine Taveneaux, vía Wikimedia Commons) 
A diario enfrentamos afirmaciones sobre números que pretenden normar nuestro criterio o acciones, pero ¿sabemos lo que realmente significan?

Con cierta frecuencia, en los telediarios se expresa preocupación, porque alguna variable (las rentas de los municipios, el porcentaje de turistas, la población de vencejos) está “por debajo de la media” en algún lugar de España o del mundo. Como si estar “debajo de la media” fuera algo infrecuente e inherentemente malo.

Pero la “media” no es sino el promedio de varios datos, y precisamente por ello siempre existirán valores por debajo y por encima de la media. No es posible que todos los elementos de un grupo estén “por encima de la media”.

Hay muchos otros ejemplos de cómo nos engañan, o nos engañamos, con los números y que revelan que, según el neologismo del matemático John Allen Paulos, somos “anuméricos”, neologismo creado por analogía con “analfabeta”. Si “analfabeta” es quien no sabe usar y entender las letras, “anumérico” será quien “no sabe manejar cómodamente los conceptos fundamentales de número y azar”, como lo define John Allen Paulos en su libro “El hombre anumérico”. Según Allen Paulos, no es necesario ser matemático para comprender algunos conceptos esenciales que nos protegerían de los engaños que suelen desprenderse del manejo que los medios, los políticos, los publicistas, los pseudocientíficos y nosotros mismos hacemos de los números.

Uno de los engaños más extendidos, que incluye una gran cantidad de autoengaño, es la idea de que podemos afectar o conocer las probabilidades de los juegos de azar.

La ruina del apostador

Refiriéndonos a la lotería, todos hemos escuchado hablar de “números feos” o de que “ya toca que caiga” tal o cual número porque hace muchos sorteos que no ha resultado premiado un número que termine con él. “Números feos”, por cierto, son aquéllos que nos llamarían la atención si fueran premiados por ser demasiado bajos (digamos, el 00010) o repetitivos (como el 45554 o el 77777).

La idea que tenemos es que hay una especie de distribución “equitativa” o normal de los números que favorece que cada determinadas semanas salgan premiados números que terminen en todas las cifras del 0 al 9.

Esta idea ha llevado a la aparición de multitud de “sistemas” que pretenden predecir los resultados futuros a partir de los anteriores, sistemas que han llevado a la ruina a otros tantos apostadores.

Lo aleatorio no es ordenado, precisamente se define porque no existe modo de determinar con antelación el resultado de un proceso aleatorio. Todos sabemos que la probabilidad de que al lanzar una moneda caiga cara o cruz es de 1:2 o del 50% (descontando la rarísima eventualidad de que la moneda quede de canto). Sabiendo eso, si tiramos una moneda normal 9 veces y en todas cae cara, tenemos la sensación de que es “más probable” de que en la décima tirada por fin caiga cruz.

Pero la moneda (o las bolitas de la lotería en sus respectivos bombos, o las cartas del mazo, o los dados o cualquier otro elemento participante en un juego de azar) no tiene memoria. Es decir que, independientemente de nuestro sentido común, la décima tirada también tiene la misma probabilidad de que caiga cara o cruz. Por supuesto, si creemos que podemos vencer a las probabilidades, más fácil será que apostemos mayores cantidades al número que creemos que “tiene que salir”.

Salvo casos muy específicos donde el resultado no es del todo aleatorio, ningún sistema sirve para predecir los resultados de los juegos de azar. Sin embargo, la creencia popular en que hay cierto orden oculto detrás de lo aleatorio es lo que ha permitido la creación de emporios de las apuestas como Mónaco o Las Vegas.

El riesgo

Con frecuencia nos enteramos de que tal o cual factor (desde el consumo de tomates hasta el color de nuestro cabello) aumenta el riesgo de sufrir alguna enfermedad, generalmente cáncer, lo cual suele provocarnos inquietud y preocupación. Pero esos porcentajes son relativos a un riesgo que, generalmente, los medios omiten informarnos. Un 50% de aumento en el riesgo de un cáncer, por decir algo, suena a motivo de grave preocupación, quizá de alarma social. Pero ese porcentaje no significa lo mismo en cada caso.

Por ejemplo, el riesgo que tienen las mujeres de padecer un cáncer de laringe es del 0,14%, lo que significa que 14 de cada 10.000 mujeres sufrirán esta afección, mientras que el riesgo de cáncer mamario es del 12,15%, lo que se traduce en 1.215 de cada 10.000 mujeres afectadas. La diferencia entre el riesgo de uno u otro cáncer para una mujer determinada es verdaderamente enorme, y justifica que haya una preocupación por una detección temprana de la enfermedad.

Ahora pensemos que el informativo anuncia de un aumento del 50% en el riesgo de estas dos enfermedades. En la realidad, el riesgo de cáncer de laringe aumentaría a 0,21% mientras que el mismo aumento en el cáncer de mama representaría un 18,22%, una cifra socialmente atroz y muchísimo más preocupante.

Algo similar ocurre cuando aumenta la incidencia de una enfermedad en una zona determinada. Cuando en una escuela, por ejemplo, hay más casos de leucemia de los esperados, es razonable buscar una causa. Pero también debemos saber que puede no haber ninguna causa, sino que estemos frente a un fenómeno conocido como “clustering” o agrupamiento. Para ilustrarlo, podemos tomar un puñado de arroz y dejarlo caer al suelo. La distribución de los granos de arroz no será uniforme ni ordenada, sino verdaderamente aleatoria. Habrá granos separados paro también habrá agrupamientos o “clústeres” de granos, a veces muy grandes, aquí y allá, al igual que espacios vacíos. Lo que parece una “anormalidad” puede ser lo más normal por probabilidades.

Como nota al margen, los medios de comunicación suelen confundir el peligro con el riesgo, cuando se trata de dos cosas totalmente distintas. El peligro es absoluto y el riesgo es relativo. La mordedura de una víbora mamba negra es peligrosísima siempre, pero nuestro riesgo de ser mordidos por una es muy distinto si estamos en la plaza mayor de Salamanca o en el descampado en Kenya.

Entender el significado de los números, de la probabilidad, el azar y la estadística, de los números enormemente grandes y tremendamente pequeños puede ser un arma fundamental para protegernos de la desinformación y de usar en nuestro beneficio las bases de las tan odiadas –para muchos- matemáticas.

Entender los hechos

“En un mundo cada vez más complejo, lleno de coincidencias sin sentido, lo que hace falta en muchas situaciones no son más hechos verídicos –ya hay demasiados– sino un dominio mejoer de los hechos conocidos, y para ello un curso sobre probabilidad es de un valor incalculable” John Allen Paulos, “El hombre anumérico”, Tusquets.

La invención del color

Indian pigmentsa
Pigmentos a la venta en un mercado de
la India.
(Foto CC de Dan Brady,
vía Wikimedia Commons
Nuestro mundo de colores, tintes, pigmentos y variedad nace de una mezcla de química, accidente y evolución técnica de milenios.

Las pinturas rupestres, incluso las más famosas como las de la cueva de Altamira, fueron realizadas con muy pocos colores: amarillos, marrones, rojos, negros y blancos.

Nada más.

Estos pigmentos o colores estaban naturalmente al alcance de los hombres que, hace 32.000 años, comenzaron a dejar testimonio simbólico en las paredes y techos de las cuevas aunque, por cierto, no en la zona en la que habitaban (el vestíbulo de las cavernas) sino en las profundidades de las mismas. En el mundo que rodeaba al hombre del paleolítico superior no ofrecía más oportunidades coloristas.

Los amarillos y los rojos se encontraban en el suelo, como arcillas con minerales de óxido de hierro como la goetita y la hematita. El ocre oscuro es la mezcla natural de óxidos de hierro y manganeso en la tierra. El negro procedía del carbón vegetal o de huesos quemados. Finalmente, el blanco, se obtiene del yeso.

Durante miles de años éstos fueron los únicos colores disponibles para los artistas y para la pintura corporal, aplicados directamente con los dedos y utilizando como base agua o grasas animales. Los demás colores que el ser humano podía apreciar en la naturaleza quedaban fuera de su alcance en su labor artística.

Fueron los egipcios los que, hace alrededor de 4.000 años, iniciaron la industria de los pigmentos sintéticos al inventar el llamado “azul egipcio”, un silicato de calcio y cobre. Se producía moliendo arena, calcio y la natrón (la sal empleada para desecar los cuerpos en el proceso de momificación). Además, los egipcios consiguieron mejorar y estabilizar los colores naturales del pasado lavando las arcillas para eliminar las impurezas de los pigmentos y aprendieron también a usar la malaquita, un mineral formado de carbonato de cobre, como pigmento verde, ampliando la paleta de colores que utilizaron para la decoración de sus edificaciones y tumbas. Su rojo, mucho más vivo se obtenía como un extracto de la raíz de la planta Rubia tintorum, y se utilizó también para teñir textiles.

Los colores más vivos, más atractivos y más apreciados en la historia solían ser además los más escasos y los más costosos, por lo que con frecuencia fueron monopolizados por el poder político, religioso o económico.

Tal es el caso del púrpura, pigmento que produjeron primero los antiguos fenicios a partir de la secreción de los caracoles marinos de la especie Bolinus brandaris. Su nombre original, “púrpura tirio”, proviene del puerto de Tiro, hoy en Líbano. Su característica más notable era que, a diferencia de otros tintes de textiles disponibles entonces, no perdía su color al paso del tiempo o con la exposición al sol, sino que de hecho se veía más brillante e intenso. La realeza de la antigüedad clásica, lo asumió como símbolo de su poder y estatus en la sociedad. Y por ello este mismo púrpura fue tomado para su vestimenta por los obispos católicos como símbolo de la realeza.

La evolución de los colores también marcó las relaciones de Asia con Europa. El índigo, ese azul rojizo tan apreciado en los textiles, era producido masivamente, como su nombre lo indica, en la India, a partir de la planta Indigofera tinctoria, y era importado ya por la antigua Grecia.

Los pigmentos mismos determinaban, en algunos casos, el significado que se les daba en la iconografía, esa en ocasiones misteriosa colección de aspectos simbólicos de la pintura que muchas veces queda oculta a ojos de los espectadores comunes.

Así, por ejemplo, los pintores medievales decidieron que el manto de la virgen María debería ser azul no por ninguna referencia histórica, sino porque el azul se relacionaba con la pureza de modo simbólico y el azul ultramarino, un pigmento intenso que se obtiene moliendo el lapislázuli, una piedra semipreciosa, era por tanto muy costoso y escaso, algo adecuado para un personaje tan singular.

El estallido artístico del renacimiento fue en gran medida producto de las nuevas técnicas de extracción de pigmentos más variados, así como las empleadas para su aplicación. Rojos mucho más intensos, como el carmín obtenido de la cochinilla, el bermellón o el “amarillo de Nápoles” un mineral de plomo brillante, estable y potente que se usaba desde los egipcios pero que se popularizó en el Renacimiento.

Pocos pigmentos se añadieron a la paleta de los artistas en los siglos XVII y XVIII, principalmente el azul de Prusia, un azul muy oscuro con base de hierro, y el verde cobalto, un compuesto de cobalto muy permanente. Pero en el siglo XIX, con el desarrollo acelerado de la química y la revolución industrial que aceleró la industria textil, gran consumidora de tintes y colores para vender telas más atractivas al consumidor, el mundo del color emprendió un desarrollo igualmente acelerado.

Pronto, los artistas tuvieron un flujo continuo de numerosas nuevas opciones: azul cobalto, amarillo cadmio, azul cerúleo… y además la democratización de muchos productos antes demasiado costosos o escasos y que la industria empezó a producir en masa, sintetizándolos en el laboratorio para ya no tener que obtenerlos de minerales naturales que era necesario minar y beneficiar.

Si miramos hoy la enorme variedad de colores, tonalidades y acabados que nos ofrece la industria del color, por ejemplo la de los sistemas de igualado de color industriales, tenemos a nuestra disposición más de 2.000 colores, todos ellos obtenidos a partir de 15 pigmentos base, combinados en dosificaciones precisas para cubrir, prácticamente, cualquier necesidad, y todos ellos sintéticos.

La industria del color actual tiene exigencias singulares e inimaginadas hace pocas décadas. Los brillantes colores obtenidos del plomo, como el minio rojo tan apreciado por los romanos y tan común en los códices medievales (de él se deriva precisamente la palabra “miniatura”), el amarillo de cromato de plomo o el blanco de carbonato de plomo, han debido ser abandonados por la toxicidad de este metal y sustituidos por otros. Igualmente, hoy se exige que los pigmentos sean “ecológicos” por cuanto que sus desechos no causen daños evitables al medio ambiente. Aún así, la paleta de colores disponible para los artistas, artesanos y productores industriales hoy en día está muy lejos de los colores básicos con los que se empezó a contar la historia humana.

El color que se desvanece

Todos sabemos que la luz del sol provoca que se desvanezcan los colores, sean de los muebles o de pinturas o impresos. Esto se debe a que los rayos ultravioleta del sol (los mismos UV que nos ponen en peligro al broncearnos), con su gran energía, rompen las uniones químicas de las moléculas que producen el color. Los colores minerales suelen ser más resistentes que los orgánicos.

Sagan: pasión por la ciencia

Carl Sagan es recordado masivamente por su serie ‘Cosmos’, pero en su vida como científico y divulgador tocó muchos otros asuntos.

Carl Sagan con un modelo de la sonda
Viking enviada a Marte.
(Foto D.P. JPL/NASA, vía
Wikimedia Commons)
Fue en ‘Cosmos’, en los escasos 13 episodios de la serie (media temporada, de acuerdo al canon de la televisión estadounidense) donde muchos oyeron por primera vez de agujeros negros y del Big Bang, de los mecanismos de la evolución, del ADN, de Eratóstenes, que calculó con admirable aproximación la circunferencia de la Tierra en el siglo II antes de la Era Común, o de Hipatia, la profesora de matemáticas y filosofía en la Biblioteca de Alejandría.

Pero muchos que no vieron esa serie de 1980 escrita y presentada por Carl Sagan, han oído hablar de éstas y otras maravillas gracias a los hombres y mujeres, jóvenes en 1980, que se vieron atraídos al conocimiento científico gracias a ella.

El hombre detrás de la serie había nacido en Brooklyn, Nueva York, en la proverbial familia judía rica únicamente en carencias, con un padre que había huído de la Rusia zarista y trabajaba como obrero textil para darle a su hijo el lujo de una educación universitaria. La universidad del joven Carl fue la de Chicago, donde estudió ciencias hasta conseguir un posgrado en física y un doctorado en astronomia y astrofísica con apenas 26 años.

La historia posterior de Carl Sagan siguió como la de muchos científicos, investigando e impartiendo clases en institutos y universidades como el Observatorio Astrofísico Smithsoniano o la Universidad de Harvard. Su interés por el espacio lo llevó además a ser asesor de la NASA, con tareas como la preparación previa al vuelo de los astronautas del programa Apolo.

Pero al tiempo que analizaba las temperaturas de la superficie de Venus o la posibilidad de que Europa, una luna de Júpiter, tuviera océanos bajo su superficie, Sagan ampliaba sus intereses.

Uno de ellos era la posibilidad de la existencia de inteligencia extraterrestre, que enfrentaba con la seriedad del científico que también señalaba por qué eran dudosos los testimonios sobre visitas extraterrestres. Así, propuso que las sondas Pioneer 10 y 11 y Voyager, destinadas a investigar las zonas externas del sistema solar para luego salir de él, y para las que diseñó algunos de sus experimentos, llevaran un mensaje que pudiera ser comprendido por alguna inteligencia extraterrestre que las hallara cuando salieran.

Las Pioneer 10 y 11 de 1972 y 1973 llevaron placas metálicas con las figuras de un hombre y una mujer, y símbolos que pretendían explicar de dónde habían salido las sondas. Las dos Voyager de 1977 llevaron discos similares a los vinilos (el CD aún no existía) con sonidos característicos de nuestro planeta (el canto de las ballenas, tormentas, viento), imágenes, música de varias culturas, saludos en 55 idiomas y mensajes impresos.

Estos intentos por comunicarse con hipotéticos extraterrestres llamaron la atención del público sobre Sagan que a partir de 1972 empezó a publicar libros sobre la comunicación con inteligencias extraterrestres, para después entregarse a la divulgación científica con libros que siguen vigentes, como “Los dragones del Edén”, sobre la evolución de la inteligencia humana o “El cerebro de Broca”, sobre la historia de los avances científicos.

Para fines de los 70, Sagan se había convencido de que la sociedad en general, y la estadounidense en particular, tenían un problema que resumió así: “Vivimos en una sociedad profundamente dependiente de la ciencia y la tecnología, en la cual prácticamente nadie sabe nada de ciencia y tecnología”.

Carl Sagan se convirtió entonces en el prototipo del gran divulgador científico. No era el primero. Tenía modelos como David Attenborough, naturalista y documentalista de la BBC y Premio Príncipe de Asturias 2009, o Jacob Bronowski, biólogo y matemático que en 1973 escribió y presentó la serie de la BBC “El ascenso del hombre”, inspiradora directa de “Cosmos”. Lo que tenía en común con ellos era la pasión por la ciencia, el conocimiento y el universo, pero tenía además una cercanía especial y una calidez que cautivó al público de televisión, una actitud de humildad ante el universo que chocaba contra el estereotipo, ciertamente injusto, del científico frío, deshumanizado, lejano, no muy de fiar.

Las preocupaciones de Carl Sagan lo llevaron a ser cofundador de dos organizaciones únicas. La primera fue el Comité para la Investigación de las Afirmaciones sobre lo Paranormal, CSICOP por sus siglas en inglés, que creó en 1976 junto con el filósofo Paul Kurtz, el escritor y divulgador Isaac Asimov, el psicólogo conductista B.F. Skinner y el periodista científico Philip J. Klass. El objetivo de esta organización, hoy llamada simplemente CSI (Comité para la Investigación Escéptica) con el propósito de promover el pensamiento cuestionador y crítico ante las afirmaciones paranormales, pseudocientíficas e irracionales que inundan los medios de comunicación en todo el mundo.

La segunda fue el Instituto SETI, siglas en inglés de “Búsqueda de Inteligencia Extraterrestre”, nacido en 1984. Con la premisa de que mucho antes de que los extraterrestres aterrizaran en nuestro planeta para visitarnos –en el caso de que pudieran encontrarnos en la inmensidad del universo– nos llegarían sus emisiones de radiofrecuencias, el más conocido proyecto del SETI es el uso de radiotelescopios como el de Arecibo en Puerto Rico para recoger grandes cantidades de emisiones de radio de distintas zonas del universo y analizarlos en busca de alguna indicación de una emisión controlada y modulada por una inteligencia, algo claramente distinto del ruido de fondo.

Dejando un legado impresionante en la ciencia, la sociedad y la comprensión del público en general por la ciencia, Carl Sagan murió a los 62 años de una pulmonía provocada por su larga lucha contra la deficiencia sanguínea llamada mielodisplasia. Inspiración de científicos de las más diversas áreas, periodistas, escritores, especialistas de los medios, divulgadores y ciudadanos en general, la mejor forma de homenajearlo sigue siendo, por supuesto, leer sus libros y hacer de nuevo el “viaje personal” que era como llamaba a la serie que lo convirtió en icono de la cultura popular.

Sagan, en sus propias palabras

“Los seres humanos pueden desear intensamente la certeza absoluta, pueden aspirar a ella, pueden fingir, como partidarios de ciertas religiones, que la han alcanzado. Pero la historia de la ciencia, que es con mucho la más exitosa reivindicación del conocimiento accesible a los seres humanos, nos enseña que lo más que podemos esperar es tener una mejora sucesiva de nuestra comprensión, aprender de nuestros errores, una aproximación asintótica al universo, pero con la salvedad de que la certeza absoluta siempre nos eludirá”, Carl Sagan, en ‘El mundo y sus demonios’.

¡Vino desde el espacio!

Leonid Meteor
Lluvia de las oriónidas en 2009
(Foto CC de Navicore,
vía Wikimedia Commons)
El espacio que rodea a nuestro planeta no es un vacío absoluto. Contiene núcleos atómicos, partículas subatómicas, viento solar, gas y objetos de diversos tamaños, desde polvo fino hasta grandes cuerpos de varios kilómetros de largo..

Cuando alguno de estos objetos entra en la atmósfera de nuestro planeta o la roza, produce una estela visible que llamamos “estrella fugaz” aunque ahora sepamos que no son estrellas. Todas las estelas luminosas de estos objetos son llamadas meteoros por los astrónomos, palabra que viene del griego ‘meteoros’, lo que ocurre en las alturas, de las raíces ‘meta’, que significa encima o más allá y ‘aoros’, algo que está elevado o flotando en el aire.

En una noche común, es posible ver en el cielo unos siete meteoros cada hora, repartidos uniformemente por el cielo. Son unos pocos de los millones de pequeños objetos que entran diariamente en nuestra atmósfera sumando entre 40.000 y 80.000 mil toneladas al año.

Los meteoros más conocidos son los que se presentan periódicamente en la forma de lluvias de meteoros, o lluvias de estrellas, acontecimientos en las cuales se puede ver una gran cantidad de meteoros aparecer cada pocos segundos o minutos y que parecen provenir todos de un mismo punto radiante del cielo. Las lluvias de meteoros ocurren cuando la Tierra, en su órbita, cruza la estela de partículas sólidas dejadas a su paso por un cometa. Como esto ocurre cada año en el recorrido de la Tierra alrededor del sol, las lluvias de meteoros son predecibles.

Se pueden observar más de 30 lluvias de estrellas a lo largo del año. Los astrónomos les dan nombre con base en la constelación en la cual parece estar el punto radiante. Las más conocidas son las Perseidas, que ocurren a fines de julio y durante la mayor parte de agosto; las más espectaculares, las Leónidas, visibles durante casi todo el mes de noviembre, y las Gemínidas, en la segunda semana de diciembre. Una excursión nocturna a un lugar alejado de las luces de las poblaciones permite disfrutar un espectáculo majestuoso en esas fechas.

La mayoría de los meteoros que podemos ver, en lluvia o individualmente, son muy pequeños y se desintegran totalmente en la atmósfera terrestre, convertidos en polvo. Pero unos pocos, los de mayor tamaño y por tanto más escasos, llegan intactos a la superficie de nuestro planeta, y entonces los astrónomos los llaman meteoritos.

Los entre 20.000 y 85.000 meteoritos que caen a la superficie de la Tierra cada año se pueden clasificar de varias maneras. La forma tradicional tiene tres clasificaciones principales: meteoritos rocosos, metálicos o mixtos, cada una de ellas con distintos subgrupos y variantes. El estudio de la composición de los meteoritos nos permite conocer muchos datos sobre nuestro sistema solar que no podríamos obtener de otra forma.

El uso de sistemas de datación nos permite saber mucho acerca de la edad y evolución del sistema solar y la composición de la nube de gases y polvo que se condensó para formarlo. Así, por ejemplo, el meteorito Allende, que cayó en México en 1969, es la roca más antigua que hemos podido estudiar, ya que tiene fragmentos que se han datado en 4.567 millones de años, es decir, que se cristalizaron cuando el sistema solar aún estaba en proceso de formación.

Muchos meteoritos proceden del cinturón de asteroides que se encuentra en órbita entre Marte y Júpiter, cuya potente atracción gravitacional altera la órbita de los asteroides y puede lanzarlos hacia otras regiones del espacio, incluido nuestro planeta. Pero algunos meteoritos proceden de la Luna o, incluso, de Marte.

Si en la Tierra podemos ver enormes cráteres dejados por el impacto de meteoritos, como el de Vredefort, en Sudáfrica, que tiene 300 kilómetros de diámetro, estos impactos son mucho más evidentes en Marte, con su atmósfera mucho menos densa, o en la Luna, donde dicha atmósfera es virtualmente inexistente y no hay nada que impida a cuerpos de todos los tamaños llegar a su superficie. Cuando algún gran asteroide choca contra Marte o la Luna, puede arrancar de ellos trozos de su superficie que salen volando hacia el espacio, y algunos de ellos han llegado a la Tierra en forma de meteoritos.

Estos meteoritos son mucho más jóvenes que los que proceden de asteroides, de menos de 165 millones de años, según los métodos de datación disponibles. Esto quiere decir que proceden de cuerpos que ya estaban formados mucho después de la consolidación de nuestro sistema solar. Estos meteoritos pueden compararse con las muestras de suelo lunar traídas a la Tierra por las misiones Apolo de Estados Unidos y Luna de la antigua Unión Soviética, lo cual nos permite identificar a los que proceden de nuestro satélite. Una vez eliminados los meteoritos de materia lunar, un proceso de eliminación que considera las probabilidades de que estos cuerpos procedan de otros planetas como Venus o Mercurio, ha permitido a los científicos identificar hasta hoy al menos 25 meteoritos que son probablemente de Marte. Como evidencia adicional, los gases atrapados en uno de estos meteoritos son idénticos a la atmósfera de Marte, la cual conocemos gracias a las mediciones de las sondas robóticas Viking en 1976.

Toda caída de un objeto puede causar daños en la Tierra. Existen anécdotas de meteoritos que han caído en casas , que han matado ganado o incluso que han golpeado autos o buzones de correos, e incluso a alguna persona.

Pero si las dimensiones del objeto son lo bastante grandes, sus efectos pueden ser devastadores. Tal es el caso del que cayó en lo que hoy es Chixculub, en la península de Yucatán, México, hace alrededor de 65 millones de años. El objeto, de unos 10 kilómetros de diámetro, chocó con la tierra con una fuerza de 96 billones de toneladas de TNT (96 seguido de 12 ceros), lo que equivale a 50 millones de bombas atómicas como la que estalló en Hiroshima. El impacto dejó un cráter de 70 kilómetros de diámetro. La fuerza del impacto pudo haber oscurecido el cielo durante mucho tiempo en gran parte del planeta.

Para muchos paleontólogos, aunque hay algunos que aún esperan tener más pruebas, el impacto de Chixculub fue responsable, al menos en gran parte, de la extinción masiva de los dinosaurios que, a su vez, dejó libre el camino para que se desarrollaran los mamíferos. Sin ese catastrófico evento cósmico, quizás no estaría usted leyendo esto.

El cielo se cae en España

El mayor meteorito encontrado en España de hecho fue visto en su caída por quienes celebraban la Nochebuena de 1858. Conocido como “meteorito de Molina Segura” por el municipio de Murcia donde cayó, su peso se calcula en 144 kilos, aunque al caer se rompió en varios fragmentos. El trozo más grande, de 112 kilos, se puede ver actualmente en el Museo Nacional de Ciencias Naturales de Madrid.

Cuando la evolución inventó el sexo

Tulip - floriade canberra
Las flores no son sino los órganos sexuales
de las plantas.
(Foto GFDL o CC de By John O'Neill,
vía Wikimedia Commons)
Todos tenemos la imagen a partir de algún punto de nuestra educación: una célula, para reproducirse, se divide, duplicando su carga genética y sus organelos para dar origen a dos células esencialmente idénticas.

Este sistema de reproducción, con algunas variantes, fue el único que utilizó la vida en nuestro planeta durante la mayor parte de la historia. La Tierra se formó hace unos 4.500 millones de años y la vida surgió hace sólo 3.800 millones de años, según los más antiguos fósiles de seres unicelulares que conocemos. A lo largo de los siguientes 1.800 millones de años, estas células evolucionaron, se modificaron y se desarrollaron, siempre reproduciéndose por división celular simple y empleando mecanismos, como el aprovechamiento de las mutaciones y ciertas formas de intercambio genético entre distintos individuos para conseguir alguna variación genética.

Un ser unicelular que se reproduce asexualmente puede refrescar su acervo genético mediante la transferencia genética, como las bacterias que transfieren material genético a otra, o absorbiendo trozos de ADN que hallan libres en su medio, o bien cuando un virus toma un trozo de ADN de una célula y, al infectar otra, se lo inyecta.

La supervivencia y la evolución de las especies dependen de la riqueza genética. Mil sujetos genéticamente idénticos producidos asexualmente por un sujeto original tienen todos las mismas fortalezas y las mismas debilidades, y reaccionarán casi igual a los cambios del entorno: temperatura, salinidad, irradiación solar, competencia por los recursos o enfermedades. Un virus exitoso puede acabar con los mil sujetos de modo bastante eficiente y rápido.

Pero si el sujeto original mezcla sus genes con los de otro sujeto de modo aleatorio y tiene mil descendientes con distinta carga genética, algunos de estos descendientes serán más resistentes que otros en ciertos aspectos ante ciertos cambios y tendrán mejores oportunidades de sobrevivir y reproducirse, transmitiendo sus genes a las generaciones posteriores.

El mecanismo de la reproducción sexual requiere que la célula se divida sin reproducir su ADN, sino separando los pares de cromosomas en dos paquetes, un cromosoma de cada par en cada uno. En el ser humano, nuestra carga genética es de 23 pares de cromosomas, y cada una de nuestras células germinales (espermatozoides u óvulos) tiene sólo 23 cromosomas, repartidos aleatoriamente. Esos 23 cromosomas a los de la otra célula germinal cuando se da la fertilización, es decir, cuando un espermatozoide se une a un óvulo. El individuo resultante será parecido a sus dos progenitores, pero distinto de ellos.

Y ésa es precisamente la esencia de la reproducción: una variación aleatoria seleccionada por el medio ambiente.

No es extraño que al aparecer la reproducción sexual hace unos 1.200 millones de años hubiera una verdadera sacudida que abrió horizontes de cambio y adaptación antes insospechados. La variedad de la vida se multiplicó, como lo demuestra el hecho de que hay más especies de seres con reproducción sexual que de seres con reproducción asexual.

Así aparecieron primero seres multicelulares como las algas, y hace 600 millones de años surgen los animales simples. Les siguieron variaciones verdaderamente asombrosas, construyendo posibilidades con base a unos pocos temas, como en una obra de Bach: artrópodos (de donde vienen todos los insectos, los arácnidos y los crustáceos marinos), animales complejos, peces, anfibios, reptiles, mamíferos y aves.

Y las plantas también hicieron su parte en la variación de la vida: esporas, tallos, raíces, hojas, semillas y, el más reciente desarrollo, las flores (que llevan con nosotros sólo 130 millones de años, de modo que no las conocieron los dinosaurios durante la mayor parte de su reinado sobre el planeta).

Sin embargo, la reproducción sexual que ha sido responsible de esta enorme variedad no parece una ventaja para el individuo. En lugar de una reproducción asexual, segura y rápida, la existencia del sexo implica encontrar a una pareja que satisfaga nuestras expectativas y cuyas expectativas a su vez se vean satisfechas por nosotros. Los requisitos pueden ser sencillísimos o complicados, que impliquen una ventaja obvia (como salud, fuerza o habilidad) o ser simplemente cuestión de estética, como las plumas del pavorreal o los colores de muchos peces.

Ante este problema, junto a la complejidad de la reproducción sexual evolucionó el comportamiento sexual, es decir, la enorme variedad de estrategias que hacen que uno de los sexos fertilice al otro. Desde la sencilla polinización aérea de algunas plantas hasta los complejos rituales y danzas de apareamiento de especies como las de las aves del paraíso (por no mencionar el cortejo humano, complicado además por asuntos culturales), pasando por el singular fenómeno de satisfacción placentera que es el orgasmo, la evolución nos ofrece satisfacciones individuales inmediatas para el sexo ante el hecho de que la ventaja es de especie y a largo plazo.

El surgimiento de la reproducción sexual no canceló otras posibilidades, por supuesto. Para muchos animales, las variaciones son la excepción y no la regla, como es el caso de las especies que pueden reproducirse sexual o asexualmente según las condiciones de su entorno.

Una de las formas más comunes de reproducción asexual es la partenogénesis, un proceso común entre las hembras de algunos gusanos nemátodos, artrópodos (como abejas o escorpiones), reptiles, peces e incluso algunas aves. En esta forma de reproducción, el óvulo conserva la totalidad de sus pares de cromosomas y se reproduce dando como resultado un clon, es decir, un animal genéticamente idéntico a su progenitor.

Para esas especies, la reproducción asexual es una opción que permite la supervivencia de la especie aún en condiciones difíciles.

La pregunta que, sin embargo, sigue enfrentando la ciencia mientras estudia la sexualidad de las más diversas especies, es exactamente por qué existe la reproducción sexual, cómo surgió y por qué ha triunfado. Material de estudio para muchas generaciones de investigadores que siguen multiplicándose… mediante la reproducción sexual.

¿Cuántos sexos?

Nos resulta natural pensar en términos de gametos macho o hembra, donde el macho es un célula pequeña o esperma que determina el sexo del descendiente y el hembra es una gran célula o huevo. Pero hay muchas otras posibilidades. Hay algas verdes con gametos iguales diferenciados sólo por algunas características, y se llaman “más” y “menos”, seres hermafroditas como la lombriz de jardín que son machos y hembras a la vez, seres que determinan su sexo con cromosomas Z y W en lugar de X e Y, y, el gran campeón, un lagarto llamado uta que tien tres formas de machos y dos de hembras. Variedad no falta.

Las posibilidades del vidrio metálico

Metalic Glas Vitreloy4
Trozos del vidrio metálico llamado "vitreloy"
(Foto CC de Björn Gojdka
vía Wikimedia Commons
“Vidrio metálico”, la sola idea desafía nuestro sentido común. Se trata de metales con una estructura distinta de la que conocemos habitualmente y que ofrece importantes expectativas para productos que van desde piezas de motores hasta carcasas casi indestructibles para nuestros teléfonos móviles. Es una más de las muchas áreas en las que trabaja hoy la ciencia de los materiales, disciplina que se ocupa de la relación entre la estructura y las propiedades de todo aquello de lo que está hecho nuestro universo.

El ser humano utilizó primero los materiales de la naturaleza tal y como los hallaba y fue avanzando en las modificaciones que les practicaba para servirse de ellos: la piedra simple fue luego tallada para formar el hacha de mano o la punta de lanza que se fijaba en un palo largo con tendones de animales o cuerdas vegetales trenzadas.

Los avances en el uso y transformación de los materiales fueron parte esencial del progreso humano. La cerámica, con el asombroso proceso de cocción que daba al barro resistencia y dureza, surgió hace más de 27.000 años, mientras que el curtido de las pieles para evitar su descomposición apareció entre el 7000 y el 3000 antes de la Era Común.

El uso de los metales, que apareció hace al menos 8.000 años, marcó profundamente a las sociedades humanas que, a través de la edad del cobre, del bronce y del hierro, aprendieron a extraer, producir y dar forma a distintos productos, herramientas, armas o estructuras de metales cada vez más duros y resistentes.

Esos metales que utilizamos habitualmente tienen una estructura cristalina. Lo que define a un cristal es que sus átomos o moléculas están ordenados mediante un patrón que se repite en tres dimensiones, una forma de enrejado.

El vidrio, por su parte, tiene una estructura radicalmente distinta: si las moléculas de un cristal son ordenadas y repetitivas, las del vidrio están desordenadas y en agrupaciones aleatorias, del mismo modo en que estarían en un líquido. Es esa estructura la que da sus características al vidrio común de sílice que conocemos desde hace unos 5.500 años, pero no es privativa de él. En la ciencia de los materiales, vidrio es cualquier sustancia sólida con una estructura no cristalina o amorfa.

Así, el dióxido de silicio puede formar cristales como el cuarzo, con una forma de prisma de seis lados, o vidrio, que es el mismo dióxido de silicio pero con una estructura radicalmente distinta y, por tanto, con propiedades físicas muy diferentes. Y esto se puede hacer con muchas otras materias primas para conseguir características innovadoras. Al hacerlo con sustancias metálicas obtenemos el vidrio metálico o metal amorfo.

El primer vidrio metálico fue producido en 1960 por tres investigadores de la División de Ingeniería del Instituto de Tecnología de California, con una aleación de oro y silicio. Lo que hicieron fue tomar la aleación fundida y enfriarla a una gran velocidad (equivalente a millones de grados por segundo) para que las moléculas de los metales componentes no tuvieran tiempo de organizarse en una estructura cristalina, sino que mantuvieran su desorden interno. Este rápido enfriamiento al principio sólo podía lograrse en capas de espesores menores a un milímetro.

Desde entonces se ha avanzado en técnicas para la producción de vidrio metálico de espesores mayores, en grandes volúmenes que resulten eficientes en cuanto a coste-beneficio, y con mejores características. Dado que los vidrios metálicos están formados por aleaciones de dos o más metales, una tarea importante ha sido determinar cuáles metales, en qué combinaciones y con qué proporciones, son idóneos para obtener vidrios metálicos con la dureza, resistencia, ductilidad y densidad que se necesita para diversas aplicaciones. Así, uno de los primeros usos prácticos de estos materiales fue en cabezas de palos de golf que aprovechaban su singular elasticidad.

La característica principal de los vidrios metálicos es su combinación ideal de resistencia y fuerza, dos conceptos que suelen ser en gran medida excluyentes. Un vaso de vidrio común de cuarzo es sin duda fuerte, pero no tiene elasticidad y por tanto es poco resistente a un golpe, como sabemos al momento de ver un vaso cayendo hacia el suelo. En cambio, una lata de aluminio es muy resistente, pero no es fuerte y podemos deformarla y romperla con las manos.

Los vidrios metálicos son más fuertes que los metales puesto que carecen de los defectos que caracterizan a los cristales y son por tanto menos frágiles ante el desgaste y la corrosión, pero al mismo tiempo son más resistentes que el vidrio de cuarzo. Además tienen una alta resistencia eléctrica y exhiben una enorme facilidad para cambiar su orientación magnética, algo que los hace ideales para utilizarse en los núcleos magnéticos de transformadores eléctricos.

Algunos vidrios metálicos pueden ser hasta tres veces más fuertes que los mejores aceros que se producen en la actualidad y pueden reemplazar el titanio en muchas aplicaciones, como piezas de aviones y autos, instrumental médico y placas y tornillos para reparar fracturas óseas. Algunas aleaciones prometedoras de magnesio incluso pueden disolverse al paso del tiempo, eliminando así la necesidad de la cirugía para retirar las piezas metálicas una vez que las fracturas han soldado.

Uno de los más recientes descubrimientos sobre los vidrios metálicos podría abrir toda una nueva área de investigación. Investigadores del Departamento de Energía de los EE.UU. y de la Universidad de Stanford sometieron a una muestra de vidrio metálico de cerio y aluminio a una presión de 250.000 veces la presión atmosférica al nivel del mar utilizando dos “yunques” de diamante. Los átomos de toda la muestra de vidrio metálico se alinearon súbitamente formando un solo cristal.

La pregunta que este experimento plantea es si todos los vidrios tienen, oculto en su estructura aparentemente amorfa y desordenada, un cristal y, de ser así, qué características lo diferenciarían de las formas de cristal conocidas hasta hoy. Mientras empezamos a utilizar más ampliamente el vidrio metálico, éste a su vez puede llevarnos a otras estructuras que satisfagan necesidades diversas en el campo de los materiales que usamos para nuestra vida, bienestar, salud y estudio.

El vidrio metálico en la tienda

El vidrio metálico está presente en las etiquetas antirrobo de muchísimos de los productos que compramos, como DVD o libros. Esas etiquetas están magnetizadas aprovechando las características del vidrio metálico y son las que provocan que suenen los detectores que están a las puertas de muchas tiendas, si no las desmagnetiza previamente el dependiente cuando pasamos por caja. Basta abrir una de esas etiquetas para ver directamente un vidrio metálico.