Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Ciencia de la moral

Una de las últimas fronteras de la ciencia es abordar las cuestiones del bien y el mal, de dónde surgen y cuáles son los imperativos morales para nuestra sociedad.

El etólogo Frans de Waal
(Foto GFDL de Chowbok, enWikimedia Commons)
El experimento es espectacular. Dos monos capuchinos de en un grupo se ponen en dos jaulas adyacentes donde se pueden ver uno a otro. Cuando le entregan una piedra al experimentador, se les premia con un trozo de pepino, y ambos realizan la tarea con entusiasmo. Cuando se cambia la situación y a uno de los monos se le empieza a dar una uva mientras que al otro se le sigue dando un trozo de pepino, el segundo se inquieta. Después de ver algunas veces que a su compañero le dan uva y a él pepino, rechaza el premio, lo arroja contra la experimentadora, agita las paredes de la jaula, golpea el suelo con la mano.

Para el diseñador del experimento, el estudioso holandés de la conducta animal Frans de Waal, la reacción del segundo mono indica de modo claro que éste comprende el sentido de la justicia. “Esto son las protestas en Wall Street”, comenta.

De hecho, en algunos casos, el primer mono empieza a negarse a hacer la tarea hasta que no se empieza a premiar a su compañero de la misma manera que a él, con una uva, con un comportamiento altruista: incomodarse de modo desinteresado para que otro ser se beneficie.

La cooperación entre animales es una necesidad, sobre todo en las especies sociales que deben trabajar en equipo para sobrevivir: los lobos que cazan, los babuinos que se defienden de los leopardos, los lémures de cola anillada que defienden su territorio de los invasores. Pero el altruismo va más allá de la cooperación, porque no implica en apariencia un beneficio individual para el ser altruista.

El único animal que tiene una moral desarrollada, un concepto de lo bueno y lo malo, es el ser humano, que puede reflexionar sobre esa justicia elemental que parecen practicar otros animales. Somos el animal que puede empatizar con otros congéneres aunque nunca los haya visto y estén en otro continente. Somos también el único animal que empatiza con todos los demás animales, teniendo mascotas a las que cuida, salvando especies enteras y estableciendo estrictos lineamientos para el uso de animales en la alimentación o la experimentación.

¿Cómo surge esa moral, esa visión de lo correcto y lo incorrecto? La pregunta ha ocupado gran parte del pensamiento humano a lo largo de la historia, desde los filósofos griegos de la antigüedad, que sugerían que la razón humana bastaba para entender lo que era bueno y lo que era malo, y por tanto a practicar lo primero y evitar lo segundo.

Sin embargo, la visión dominante de muchas culturas era que la moralidad venía de fuera, que no era parte constituyente del ser humano, sino que eran los monarcas o los dioses quienes determinaban lo bueno y lo malo, premiando las buenas acciones y castigando las malas. Esta visión suponía que el ser humano tenía una naturaleza malévola que sólo se controlaba mediante una moral impuesta.

El debate sobre el origen de la moral se mantuvo en el terreno especulativo hasta la aparición de la teoría de la evolución por medio de la selección natural de Charles Darwin y Alfred Russell Wallace a mediados del siglo XIXa.

Si las características físicas son resultado de un proceso de selección que favorece ligeramente, generación tras generación, ciertos rasgos que aumentan poco a poco la probabilidad de reproducción de quienes los tienen, ¿no es lógico que pase lo mismo con el comportamiento y con los conceptos morales?

Los estudios realizados en los últimos años parecen indicar que la respuesta es “sí”. Las ventajas evolutivas de un comportamiento altruista, de conocer lo bueno y lo malo, y los mecanismos sociales para recompensar el bien y castigar el mal en función de su beneficio para la comunidad parecen estar en las bases mismas de la evolución de los homininos hasta su forma actual, que somos nosotros.

Recientes descubrimientos en una fosa funeraria neandertal de La Chapelle-aux-Saints, por ejemplo, demuestran que esta especie humana, pariente de la nuestra y parte de cuyos genes llevamos en mayor o menor medida, cuidaba de los ancianos.

En la mayoría de las especies sociales, los animales viejos, enfermos o lesionados son una carga para el grupo y suelen ser las presas preferidas de los depredadores. Pero para estos neandertales no era así, como lo evidencia el hallazgo del esqueleto de un hombre que vivió hace unos 50.000 años, que apenas podía caminar, había perdido todos los dientes y fue cuidadosamente enterrado después de su muerte.

Este ejemplar, por cierto, que tenía una deformidad en la columna vertebral, fue el responsable de que se creara la leyenda del neandertal poco inteligente que caminaba inclinado y como un gorila. Hoy sabemos que nuestros parientes caminaban tan erguidos y tan eficientemente como nosotros... o más. Este hombre había sido cuidado hasta los 40 años de edad, más o menos, una edad provecta según los estándares de la especie. William Rendu, del Centro Nacional de Investigaciones Científicas de Francia, explicaba que sin dientes, probablemente otros miembros del grupo masticaban su comida, y con la cadera dañada y varias vértebras fusionadas, no se podía mover por sí mismo. Y sin embargo, el grupo lo llevaba consigo aún a riesgo de quedar más expuestos a los ataques de depredadores o de otros grupos de neandertales y, quizá, Homo sapiens.

Aunque los biólogos evolutivos, genetistas, paleoantropólogos, psicólogos y otros científicos aún están desentrañando los mecanismos mediante los cuales el ser humano desarrolló los conceptos abstractos de bien y mal, entre ellos algunos tan universales como el tabú contra el asesinato o el robo, lo que parece cierto es que, en palabras del Frans de Waal, la moral antecedió con mucho a las religiones organizadas y quizá el valor de éstas es, precisamente, no crear la moral, sino fortalecer su cumplimiento, como un mecanismo de fortalecer lo que las sociedades ya conceptuaban como bueno o malo.

El biólogo Edward O. Wilson había dicho, en 1975, que la ética algún día sería retirada de las manos de los filósofos e incorporada en la síntesis evolutiva de la biología moderna. Quizá ese día ya ha llegado, con el trabajo de estudiosos como Richard Dawkins, Steven Pinker, Sam Harris, Joshua Green o Elizabeth Phelps, entre otros, que tienen ahora la misión de desentrañar los mecanismos del bien y el mal entre los seres humanos.

Bienestar y moral

“La moralidad debe relacionarse, a algún nivel, con el bienestar de criaturas conscientes. Si hay formas más y menos efectivas mediante las cuales buscamos la felicidad y evitar la miseria en este mundo, y claramente las hay, entonces hay respuestas correctas e incorrectas a las cuestiones de la moral”. Sam Harris, neurocientífico.

Cabello... ¿y plumas y cuernos de rinoceronte?

Una molécula casi indestructible, que une a prácticamente todos los seres vivos, y que a lo largo de la evolución se ha utilizado para los más diversos fines... incluso ponerse guapo.

Rinocerontes blancos pastando en el zoológico de Dublín,
a salvo de los cazadores furtivos que buscan sus cuernos.
(Foto CC de Aligatorek, vía Wikimedia Commons
El cabello... y también las plumas y la superficie de los picos de las aves, como los cuernos de rinoceronte y de otros animales, comparten una característica con todo el pelo y lana, uñas, garras, capas superiores de la piel y pezuñas del reino animal. Y añadamos las escamas de los reptiles y las conchas de las tortugas. Todos están formados por variantes de una familia de sustancias fibrosas estructurales que son esenciales para el cuerpo de los mamíferos, aves y reptiles: las queratinas.

Las queratinas tienen composiciones químicas variadas sobre una base común que, según el nivel de ciertos aminoácidos, les permiten ser extremadamente duras, como las pezuñas de un caballo, o flexibles y sedosas como el cabello de un bebé, sirviendo así para muchos usos: como armas, protección para caminar, abrigo, etc. Aunque las llamamos proteínas, los científicos prefieren decirles “polipéptidos”, pues sólo tienen entre 10 y 100 aminoácidos, mientras que las verdaderas proteínas serían las que tienen más de 100 aminoácidos.

En los anfibios, estas proteínas son poco frecuentes, sólo las ranas la tienen en sitios donde su piel se ve sometida a gran desgaste, como la boca y, entre los peces, sólo algunas clases tienen dientes hechos de queratina. Sus escamas, en cambio, a diferencia de los reptiles, pueden estar hechas de estructuras similares al hueso, dentina (la misma sustancia que protege nuestros dientes), un esmalte llamado vitrodentina o colágeno, entre otras sustancias.

Desde un punto de vista químico, la queratina es una molécula dura y totalmente insoluble formada por cadenas de aminoácidos como la lisina, la arginina y la cisteína, en forma de disulfato, que se disponen en hojas paralelas formando agrupaciones muy resistentes. La única sustancia similar en el mundo animal es la quitina, que forma el exoesqueleto de los atrópodos, desde los langostinos hasta las moscas. De la resistencia de la queratina dan fe las exhumaciones de gente que, cientos de años después de haber fallecido, conserva a su alrededor cabello y uñas. Esto se debe a que sólo algunos hongos y bacterias cuentan con las proteínas necesarias para digerir o descomponer la queratina.

Como detalle curioso, la presencia de azufre en el disulfato de cisteína es la responsable del olor desagradable que produce la queratina al quemarse, sea cabello, cuerno, uñas, etc.

Como seguramente usted sabe, su piel está formada por varias capas de células que se forman a nivel profundo y van subiendo hacia la superficie. Primero, las células son parte de la dermis, que es la que protege nuestro cuerpo y da elasticidad a la piel. Al paso del tiempo, las células pasan a una capa superior, la epidermis, y adquieren un nuevo nombre al cambiar sus funciones, llamándose queratinocitos o células de queratina. La epidermis está formada por varias capas y, mientras las células pasan a las superiores, se van “cornificando” al producir cada vez más queratina hasta que pierden su núcleo y órganos y mueren.

Esa capa superior de la piel es conocida como “estrato córneo”, precisamente porque está formado únicamente por la queratina de las células muertas, y nos protege de los elementos y el agua. La queratina también forma las callosidades de la piel, como respuesta a un exceso de frotamiento o presión en un punto determinado de la piel, como las puntas de los dedos de guitarristas y otros músicos que tocan instrumentos de cuerda, los labios de quienes tocan algunos instrumentos de viento como la trompeta, o las manos de los obreros que hacen intenso trabajo manual. Los callos son queratina.

Liso o rizado, y otros misterios

El cabello, por su parte, está formado por otro tipo de queratina capaz de formar largos cables que cubren todo el cuerpo de muchos animales, aunque en nosotros, los “monos desnudos” como nos llamó el etólogo Desmond Morris, el cabello más importante es el que crece en nuestras cabezas.

Por cierto, una de las características más llamativas del cabello es que cada una de las más o menos 100.000 hebras que hay en nuestras cabezas (salvo que suframos alguna forma de calvicie) puede ser completamente liso y recto o rizado apretadamente como sacacorchos. Esta diferencia se debe a la forma de nuestros folículos pilosos, los pequeños órganos de nuestra epidermis que producen cada hebra de cabello, y del ángulo respecto de la piel al cual se produzca. Los folículos pilosos circulares y que producen pelo que crece casi perpendicular al cuero cabelludo dan como resultado cabello totalmente liso. Si los folículos pilosos tienen una forma de óvalo muy alargado y el pelo crece en un ángulo muy agudo, el cabello es rizado.

No hay nada qué hacer para cambiar esto, porque la forma de nuestros folículos pilosos está determinada genéticamente, es decir, es resultado de la mezcla de genes de nuestro padre y nuestra madre. Y, en general, se considera que el cabello rizado es dominante sobre el liso, es decir, si alguno de nuestros padres tiene el cabello rizado, lo más probable es que nosotros también lo tengamos así.

Por cierto, en el mundo de los supuestos alimentos funcionales y la charlatanería cosmética existen diversos alimentos y suplementos que afirman contener queratina, y que prometen por tanto que esa queratina se aportará a nuestro cabello para hacerlo más resistente, grueso y atractivo. Sin embargo, el aparato digestivo humano no puede digerir la queratina, al carecer la enzima (proteinasa-K) necesaria para descomponer esa proteína, ni la absorbe para llevarla al cabello, simplemente la elimina con las heces. También, como ocurre con quienes padecen “tricofagia”, literalmente “comer pelo”, y algunos animales, se pueden formar en el estómago bolas de pelo que pueden incluso tenerse que retirar quirúrgicamente.

Una de las grandes dudas que parecen haberse resuelto últimamente respecto de esta resistente proteína es que, al parecer, los picos de algunos dinosaurios estaban hechos de queratina, una innovación que mejoraba la estabilidad del cráneo al alimentarse, característica que transmitieron a sus descendientes: las aves.

El cuerno de rinoceronte

El cuerno del rinoceronte, al cual diversas supersticiones le atribuyen propiedades mágicas provocando la cacería furtiva de este animal, no está formado por un núcleo de hueso recubierto de queratina, como los cuernos de los vacunos, las cabras o los antílopes. Pero tampoco es una agregación de pelo como se creía en el pasado: es queratina como la de las pezuñas de los caballos, con depósitos de calcio que le dan fuerza y rigidez. Y, por supuesto, no es un afrodisiaco.

Pasado y futuro de los cometas

Espectaculares y fascinantes, los cometas que rasgan el cielo ocasionalmente son mensajeros de los confines de nuestro sistema solar y claves para conocer el universo.

El cometa ISON camino al sol el 21 de noviembre
de 2013. (Foto CC de Juan Carlos Casado,
vía Wikimedia Commons)
Los cometas son ciertamente fenómenos cósmicos enormemente atractivos, impredecibles (salvo excepciones de cometas periódicos como el Halley), espectaculares y de aspecto distinto a todo lo demás que observamos. Por ello, para muchas culturas precientíficas, contradecían el orden del universo que tan intensamente observa la humanidad desde el principio de la agricultura. El movimiento de los objetos en el cielo es predecible y exhibe ciclos muy específicos. Pero los cometas aparecían de pronto, se movían a gran velocidad con su brillante cuerpo y su alargada cola, y por ello era frecuente que se les considerara avisos o presagios, generalmente de acontecimientos negativos.

Uno de los más antiguos relatos de la humanidad, la “Epopeya de Gilgamesh”, escrita hace al menos 2.000 años en Mesopotamia, advertía que la llegada de los cometas traía consigo incendios, azufre e inundaciones, mientras que los Yakut de Mongolia los llamaban “hijas del diablo”. El temor a los cometas fue una constante y se les culpaba, previsiblemente, de toda tragedia ocurrida cuando uno era visible, desde el asesinato de Julio César hasta la peste negra en Inglaterra durante la Edad Media. Sólo en China, considerados como “estrellas viles”, se registró más desapasionadamente la aparición de cometas a lo largo de los siglos.

Todo cometa que tenga la posibilidad de ser visible desde la superficie de nuestro planeta es noticia, ya sea el Gran Cometa de Marzo de 1843, visible durante el día y que exhibió una cola de una longitud de dos veces la distancia entre la Tierra y el Sol, un cometa que vuelve a la vecindad del sol cada 75-76 años como el Halley o cometas que han resultado decepcionantes por haberse destruido al pasar cerca del sol, como el Kohoutek o el ISON de 2013.

Pero incluso cometas que no han pasado cerca de nuestro planeta pueden capturar nuestra imaginación. El Shoemaker-Levy 9, por ejemplo, se rompió en julio de 1994 al pasar cerca de Júpiter y sus fragmentos cayeron al planeta gaseoso, lo que permitió adquirir una enorme cantidad de conocimientos sobre el gigante de nuestro sistema solar, atrayendo una enorme atención de los medios de comunicación. Aunque hay evidencias de cometas chocando con los planetas, incluido el nuestro, era la primera vez que los astrónomos podían ver un acontecimiento así.

El nombre de ese cometa también llama la atención. ¿Por qué Shoemaker-Levy? Porque fue un cometa descubierto simultáneamente por Eugene y Carolyn Shoemaker, una pareja de astrónomos profesionales, y David Levy, astrónomo aficionado. Han codescubierto varios cometas, el noveno de los cuales protagonizó el célebre choque contra Júpiter.

Los cometas pueden ser descubiertos por aficionados o profesionales, ya sea con telescopios o mediante la observación de fotografías realizadas por satélites como el SOHO, dedicado a la observación del Sol. Los cometas suelen ser llamados de acuerdo a sus descubridores. La palabra “cometa”, por cierto, significa “el que tiene cabello”, pues su cola parece una larga cabellera
Fue hacia el siglo XV, con la revolución científica, que los cometas pasaron definitivamente del terreno de la superstición al del estudio ordenado y metódico, mismo que a su vez permitió determinar que los cometas son cuerpos que giran alrededor del sol como los planetas, pero lo hacen, según pudo comprobar Issac Newton con sus cálculos, en elipses muy, muy alargadas. Al calcular las elipses se pudo ver que algunos cometas provenían de muy lejos, de los bordes exteriores del sistema solar.

Hoy, la hipótesis más aceptada es que algunos cometas provienen de una capa esférica de objetos de hielo que rodea el sistema solar a una distancia de entre 5.000 y 100.000 veces la que hay entre el sol y nuestrso planeta. Esta nube de cometas se conoce como Nube de Oort, por haber sido propuesta por el astrónomo Jan Oort. Las perturbaciones gravitacionales serían las responsables de que algunos de esos cuerpos caigan hacia la parte interior del Sistema Solar. Su órbita puede tardar miles de años en completarse y por ello se les llama cometas de período largo.

Por contraste, los comentas de período corto tardan menos de 200 años en completar una órbita alrededor del sol, y se cree que proceden de un disco de cuerpos llamado Cinturón de Kuiper, que estaría más allá de la órbita de Neptuno.

Tanto unos como otros son, se cree, restos de la formación de nuestro sistema solar hace más de 4.600 millones de años, y por tanto su composición es la misma y puede revelar datos sobre las condiciones de ese acontecimiento. El núcleo de un cometa es una mezcla de hielo, polvo y roca que raras veces tiene más de 50 km de diámetro y que al acercarse al sol se calienta. Esto provoca que el hielo que contiene se sublime formando una nube de gases volátiles alrededor del núcleo, llamada “coma”. La cola está formada por gases y polvo que son empujados por el viento solar, de modo parecido a una estela. Por ello, la cola siempre apunta en dirección contraria al sol, de modo que al dar la vuelta alrededor del sol y empezar a alejarse, la cola apunta en la dirección de su movimiento, como una barba más que una cabellera.

Hasta hoy, el momento culminante del estudio de los cometas ocurrió en abril de 2005, cuando la sonda “Impactor” de la misión Deep Impact (“impacto profundo”) se estrelló contra el cometa Tempel I, procedente de la Nube de Oort, para estudiar por primera vez directamente la composición de un cometa. Esta hazaña deberá ser superada por la nave espacial Rosetta de la Unión Europea, lanzada en 2004, y que en noviembre de 2014 deberá hacer descender una sonda suavemente en el cometa 67P/Churyumov/Gerasimenko, y hacer un estudio prolongado de la composición del cometa con diversos instrumentos robóticos.

Así, antes que presagios malignos, los cometas nos traen información sobre nuestro sistema solar y el comportamiento del universo que nos rodea, además del disfrute innegable de la belleza y majestuosidad de uno de estos cuerpos cruzando la bóveda celeste y recordándonos los verdaderos misterios que hay allá afuera.

Morir por el cometa

Las supersticiones alrededor de los cometas, sin embargo, no han desaparecido del todo. Cuando apareció el cometa Halle-Bopp en 1997, una secta adoradora de los ovnis y sus supuestos tripulantes extraterrestres, Puerta del Cielo decidió que una nave espacial extraterrestre viajaba detrás del cometa, oculto por él. El 26 de marzo de 1997, 39 miembros del grupo se suicidaron en grupo con la idea de que sus almas serían recogidas por la nave y llevados a un plano superior de existencia.

De la leucemia al SIDA: 40 años contra la enfermedad

El gusto por el conocimiento y por el descubrimiento, además de la satisfacción de mejorar la saludde millones de personas, en la vida de una mujer pionera en la investigación farmacológica.

Gertrude B. Elion, salvadora de vidas.
(Foto DP de National Cancer Institutes,
vía Wikimedia Commons)
“No tenía ningún interés específico por la ciencia hasta que mi abuelo murió de cáncer estomacal. Decidí que nadie debería sufrir tanto.” Así explicaba Gertrude Belle Elion por qué, a los 15 años de edad, se decidió por una carrera en la ciencia que dio como resultado 45 patentes de medicamentos de gran importancia y valor, más el Premio Nobel de Fisiología o Medicina de 1988.

Sus padres eran emigrantes. Él de Lituania y ella de una zona entonces perteneciente a Rusia. Gertrude nació en 1918 en Nueva York. Pese a la posición de su padre como dentista, la familia sufrió problemas económicos por el crack de la bolsa de 1929, pues su padre, como tantos otros, había volcado sus ahorros en la bolsa de valores.

Pese a ello, recuerda haber tenido una infancia feliz con su hermano y una buena educación en escuelas públicas. En su autobiografía para el Nobel cuenta: “Era una niña con una sed insaciable de conocimientos, y recuerdo disfrutar todos mis cursos casi de igual manera. Cuando, al final de mi bachillerato llegó el momento de elegir una asignatura en la cual especializarme, me vi en un dilema.”

La muerte de su abuelo inclinó la balanza hacia la ciencia. Sus notas le permitieron matricularse en 1933 en el Hunter College, una institución gratuita de estudios superiores, pues la familia no podría costearle los estudios. La joven se graduó cuatro años después, a los 19, con los máximos honores en química: summa cum laude.

Una cosa era tener un excelente historial académico y otra era conseguir un empleo. No había muchas mujeres dedicadas a la química y la idea no atraía a los laboratorios. En palabras de la investigadora: “No estaba consciente de que tenía cerradas las puertas hasta que empecé a llamar a ellas. Había ido a una escuela sólo de chicas. Había 75 especialistas en química en esa generación, pero la mayoría de ellas iban a enseñar la asignatura... Cuando salí y no querían mujeres en el laboratorio, fue una conmoción”.

Gertrude empezó a trabajar como profesora y luego aceptó un trabajo, inicialmente sin sueldo, como asistente de laboratorio para poder continuar sus estudios en la Universidad de Nueva York, a la que ingresó en 1939. Un año después, había completado los créditos para su maestría en ciencias, pero tuvo que volver a dar clases para poder hacer por las noches la investigación necesaria para obtener su título.

Era 1941, en plena Segunda Guerra Mundial, y escaseaban los profesionales de la química. Aún así, el único trabajo que pudo obtener pese a su grado de maestría fue como analista química, que después pudo abandonar para dedicarse finalmente a la investigación. La oferta que más le interesó fue la del investigador George H. Hitchings, que encabezaba el laboratorio de investigación biomédica de la farmacéutica Burroughs-Wellcome (hoy parte del laboratorio GlaxoSmithKline). Aunque sólo tenía otra persona a su cargo, Hitchings contaba con carta blanca de la compañía para dedicarse a la investigación que considerara pertinente.

Gertrude Elion se integró al equipo de Hitchings en 1944 y nunca más se separaría de la empresa, donde realizó toda su carrera. Hitchings no tenía problemas en trabajar con mujeres en el laboratorio sino que además impulsó a Gertrude para que ampliara sus conocimientos de química acercándola a lo que hoy conocemos como investigación biomédica en el sentido más amplio.

El equipo se propuso una aproximación novedosa para su tiempo. En lugar de funcionar por ensayo y error para probar distintas sustancias en distintas enfermedades, se dieron a la tarea de analizar químicamente el resultado de las afecciones. Es decir, estudiaban las diferencias a nivel bioquímico entre las células sanas y los agentes causantes de las enfermedades (como los virus) y partir de esa información para diseñar sustancias que bloquearan las infecciones.

El primer resultado de esta aproximación fue una purina, que es un compuesto orgánico de nitrógeno formado por dos anillos, que podía inhibir el desarrollo de la leucemia en ratones y que ayudó a algunos pacientes con leucemia en pruebas clínicas. Sobre esta base, Gertrude desarrolló la 6-mecaptopurina, que hoy en día se utiliza como quimioterapia para tratar algunas formas de cáncer (incluida la leucemia) y enfermedades inflamatorias del aparato digestivo.

Seguirían, en rápida sucesión, la azatioprina, el primer agente inmunosupresor (que suprime la respuesta inmune) que evitaba el rechazo de órganos y permitió por primera vez el trasplante de riñones entre personas no emparentadas entre sí, un medicamento que combate al parásito de la malaria, un antibiótico que combate la meningitis, la septicemia y otras infecciones bacterianas, el aciclovir contra el herpes y otros medicamentos contra el cáncer.

Su carrera, sin embargo, le exigió un sacrificio que iría en contra de la lógica de cualquier investigador científico. Habiendo empezado a estudiar un doctorado por las noches en el Politécnico de Brooklyn, llegó un momento en que la escuela le exigió que asistiera a jornada completa, para lo cual tendría que renunciar a su empleo en el laboratorio. Decidió quedarse y renunciar al doctorado, esa meta tan importante en la ciencia.

A cambio, a partir de 1969 y durante 30 años, recibió 25 doctorados honorarios que resaltaban que su enorme labor científica no había necesitado ese valorado título. A lo largo de su carrera, trabajó también para el Instituto Nacional del Cáncer de los EE.UU. y la Organización Mundial de la Salud entre otras muchas instituciones de combate a la enfermedad, además de impartir clases en diversas universidades , desde 1967 fue nombrada responsable del departamento de Terapia Experimental de Burroughs-Wellcome y, después de retirarse en 1983, siguió trabajando como consultora del laboratorio y en diversas actividades relacionadas con la investigación.

Cuando obtuvo el Nobel en 1988, declaró al New York Times: “El premio Nobel está muy bien. Pero los medicamentos que he desarrollado son una recompensa por sí mismos”.

Gertrude Elion murió en 1999, después de recibir prácticamente todos los honores y premios de la investigación biomédica y la invención a nivel internacional y de los Estados Unidos.

Hacer lo que te gusta

Gertrude Elion no se casó ni tuvo hijos, y sus entretenimientos eran la fotografía y los viajes. Si su vida era su trabajo, es porque lo disfrutaba. Como dijo en una conferencia: “Es importante dedicarte al trabajo que te gustaría hacer. Entonces no parece trabajo. A veces uno siente que es casi demasiado bueno para ser cierto que alguien te pague por pasarlo bien”.

¿Cómo sabemos que sabemos?

Podemos descubrir cosas sobre nuestro universo, sobre lo animado y lo inanimado, con una certidumbre razonable. Esto no fue así durante la mayor parte de la historia del ser humano.

Novum Organum Scientiarum, la
"nueva herramienta de la ciencia",
libro esencial de Francis Bacon para
el desarrollo del método científico.
(vía Wikimedia Commons)
 
El ser humano se define, entre otras cosas, por su capacidad de crear y transmitir conocimientos, una estrategia de supervivencia novedosa y exclusiva (hasta hoy), que permitió a nuestra especie, a sus antecesoras y parientes evolucionar a un ritmo muy acelerado respecto de las demás.

Los seres vivos desarrollan nuevas capacidades lentamente. Los mejor adaptados tienden a reproducirse más eficazmente de modo gradual, acumulando sus ventajas generación tras generación. El ser humano puede adoptar rápidamente, y a nivel individual, numerosas características adaptativas. Hacer fuego o herramientas, cambiar estrategias de cacería, empezar a alimentarse de plantas y animales nuevos o aprender electrónica o música son sólo ejemplos de los rápidos cambios no genéticos que nos permite el conocimiento.

Por ello hemos buscado cuál es la mejor forma de obtener conocimiento. Algunos, especialmente prácticos, se obtuvieron por ensayo y error. Si un miembro del grupo probaba un alimento nuevo y enfermaba, se consideraba que el alimento era inadecuado por alguna causa. Si un miembro conseguía hacer una herramienta o arma de buena calidad, podía enseñárselo a otros, y todos aprender qué tipos de piedra eran mejores.

Pero las preguntas siempre han sido más abundantes que las respuestas y se necesitaban fuentes de conocimiento. Por ejemplo, la revelación de los dioses, que algunos decían que recibían en “visiones” o sueños vívidos o poderes especiales. Pero esta forma de conocimiento no era fiable, ni entonces ni hoy, cuando la usan videntes y brujos, y es que no era ni precisa, ni fiable.

Grecia y la filosofía

Hacia el siglo VI antes de la Era Común, en Grecia se empezó a tratar de conocer la realidad de un modo nuevo, a través del pensamiento y la reflexión: la “filosofía” o ”amor por la sabiduría”. Su sistema era el discurso razonado, el pensamiento crítico y la reflexión. Por medio de las matemáticas, la geometría y la lógica encontraron afirmaciones cuya verdad podía ser demostrada sin intervención de los dioses, lo que animó otras formas de investigación.

Sócrates, en el siglo V a.E.C. desarrolló el método dialéctico, de preguntas y respuestas para analizar las más diversas afirmaciones. El cuestionamiento y las contradicciones permitían eliminar las ideas menos acertadas y buscar otras mejores. Junto con ello, había una forma de comprobar ideas en la práctica, empíricamente. Este método fue aplicado selectivamente por Aristóteles, que logró ver que los delfines son mamíferos pero creyó que las moscas tienen cuatro patas, cuando bastaba atrapar una y contarlas para tener una mejor respuesta.

La filosofía griega dio lugar a la escolástica medieval, método que buscaba la verdad mediante la razón pero sin contradecir a las autoridades del pasado, válidas por dogma. Si una afirmación contradecía a la Biblia o a Aristóteles o a alguno de los padres de la iglesia, se daba por errónea.

Pero en el Renacimiento, alrededor del siglo XVI, algunos pensadores se atrevieron a desafiar a las autoridades con una nueva forma de buscar conocimiento a través de una observación metódica con la cual proponer explicaciones o interrelaciones entre los fenómenos del universo y, después, revisar la evidencia para ver si sustenta o rechaza la hipótesis.

Pero para aprovechar el nuevo método al máximo era necesario cuestionarlo todo, no aceptar verdades a priori como las de las autoridades, sino tomarlas y someterlas al escrutinio del método para confirmarlas o rechazarlas. Esto disparó el conflicto de la religión y la filosofía escolástica contra lo que Francis Bacon llamaba “conocimiento claro y demostrativo”.

Aplicando de distintas formas el “método científico”, Andreas Vesalio contrastó las afirmaciones de las autoridades sobre la anatomía del cuerpo humano y descubrió que muchas eran incorrectas, además de encontrar otras muchas más certeras. Copérnico observó el movimiento de los cuerpos celestes y, con la evidencia a su alcance, desarrolló una explicación mejor que las anteriores. Galileo observó los cuerpos celestes por el telescopio y confirmó que las ideas de Copérnico eran preferibles. También hizo experimentos que demostraron que las ideas de Aristóteles sobre la caída de los cuerpos eran incorrectas: un cuerpo diez veces más pesado que otro no cae diez veces más rápido, cae a la misma velocidad.

Las afirmaciones producto de este nuevo método podían ser corroboradas o verificadas independientemente por cualquier otra persona que tuviera los mecanismos necesarios de observación y de contrastación de la evidencia. Galileo podía haber sido condenado a arresto en su casa por lo que dijo ver en su telescopio, cuatro lunas girando alrededor de Júpiter como los planetas giran alrededor del sol, pero cualquiera que tuviera un telescopio podía ver lo mismo.

El uso de la evidencia como gran juez de la validez de una afirmación fue el elemento central de lo que se conoció como “revolución científica”.

A partir de ese momento, los seres humanos no sólo empezamos a saber cada vez más cosas, sabíamos cuál era el camino necesario para saberlas, y empezamos a aplicarlo intensamente en las más diversas disciplinas. ¿El agua es un elemento o es un compuesto que se puede dividir en otros elementos? La evidencia experimental demostró que está formada de hidrógeno y oxígeno, no había opinión contraria aceptable. ¿El corazón era simplemente el órgano que daba calor al cuerpo o era el encargado de mover la sangre por todo el organismo? La evidencia demostró que la segunda explicación era mucho más precisa.

Así, descartando hipótesis en función de la evidencia y desarrollando otras hipótesis susceptibles de ser mejoradas, la ciencia y su método consiguieron darlos un conocimiento certero que el ser humano apenas había vislumbrado en el pasado. El nuevo sistema, además, podía autocorregirse, es decir, si un científico erraba en sus observaciones, en sus experimentos, en los datos que reunía, otro podía verificarlo y encontrar los errores para mejorar poco a poco las explicaciones de todo cuanto estudia la ciencia.

Por primera vez en la historia disponemos de un método que nos permite saber con certeza y que nos permite además entender cómo es que los científicos de distintas disciplinas saben las cosas, y que tiene además la enorme ventaja de que funciona, como podemos ver en el mundo a nuestro alrededor, transformado y hecho posible por él.

Un resumen

Francis Bacon (1561-1626), defensor del método científico, lo resumió someramente así: “Observación y experimento para reunir material, inducción y deducción para desarrollarlo: éstas son las únicas buenas herramientas intelectuales.”

Había una vez un gigante...

Los maravillosos mitos de los gigantes están en todas las culturas, una metáfora de fuerza, grandeza y poder, pero desafortunadamente imposibles.

El hombre más alto del mundo en 2013, el
campesino kurdo Sultan Kösen, de 2,51 metros,
con un trastorno de la pituitaria, que exhibe la
debilidad que conlleva la gran estatura:
sólo puede caminar con bastón.
(Foto CC de Amsterdamman
vía Wikimedia Commons)
Nos atraen los extremos, lo más alto, lo más bajo; lo más caliente, lo más frío; lo más rápido, lo más lento... industrias completas como el Libro Guinness de los Récords, que desde 1954 recopila los más variados extremos ya sean del universo, de los logros y características humanos, animales, minerales, vegetales, planetarios y cósmicos.

De entre todos los mitos sobre extremos que nos han legado diversas culturas, uno destaca por su frecuente y atractiva presencia: el de los gigantes, ya sea humanos, o semihumanos.

Así tenemos, en la antigua Grecia, los mitos de numerosos gigantes, entre los cuales los más conocidos son los titanes (incluidos los cíclopes), hijos de Gaia, la Tierra, y Urano, el cielo, y Talos, el gigante de bronce forjado por Hefestos para proteger a Europa y que aparece en la historia de Jasón y los argonautas. En el Tanakh, el libro canónico de la Torah o biblia hebrea, aparecen los Anakin, gigantes aterradores, mientras que en el libro del Génesis de la Biblia cristiana, capítulo 6, versículo 4, poco antes de que Yahvé decidiera el diluvio universal, se establece: “Había gigantes en la tierra en aquellos días”. Y el gigante Goliat en su enfrentamiento con David ofreció una metáfora perdurable no sólo para los creyentes.

Mitos nórdicos y celtas, hindús y japoneses, aztecas y tibetanos, filipinos y mayas, incluyen entre su elenco a una enorme variedad de gigantes, algunos como ogros temibles, otros como bondadosos seres que sostienen el cielo, dioses o simples hombres de estatura excepcional, atribuyéndoles con frecuencia las construcciones de antiguas culturas, como ocurre con los jentilak vascos, a quienes se atribuye la erección de los dólmenes o jentilarri. Los mitos han sido, a su vez, retomados como metáforas por las artes, ofreciéndonos nuevas visiones de estos hombres y mujeres (o semihumanos) de tallas extremas.

Pero en la realidad no hay gigantes.

Algunos espacios marginales del mundo del misterio, de lo supuestamente paranormal o de las fantasías de lo extraordinario suelen proponer la existencia de gigantes reales en la antigüedad, fueran los habitantes de la mítica Atlántida de Platón o el yeti, incluso haciendo circular fotografías trucadas en donde personas de talla normal aparecen junto a osamentas colosales, o junto a momias con sospechoso aspecto de cartón piedra que se afirma que pueden medir desde tres hasta 11 metros de estatura.

Un biólogo, sin embargo, necesita simplemente echar una ojeada a estas fotografías para saber que se trata de trucos, es decir, que los seres que representan son biológicamente imposibles.

Receta para un gigante

El ser humano más alto que se ha registrado hasta la fecha es el estadounidense Robert Pershing Wadlow, que vivió en Illinois entre 1918 y 1940 y que alcanzó una estatura de 2,72 metros debido a un problema de hiperactividad de su glándula pituitaria, algo que no ocurriría en la actualidad, pues existen tratamientos para regular su funcionamiento.

Su breve vida, sin embargo, fue complicada y dolorosa. Para poder caminar necesitaba llevar abrazaderas en las piernas y no tenía casi sensibilidad en as extremidades inferiores, de modo que se rompió varios huesos y, finalmente, murió por una septicemia debida a una ampolla que le provocaron las abrazaderas.

Los problemas que sufrió Wadlow, como muchos otros gigantes reales, se deben a que la estructura de los huesos humanos sólo es eficaz hasta cierto peso, más allá del cual son incapaces de funcionar adecuadamente sin un rediseño profundo de su ingeniería.

Si vemos las patas de un animal relativamente pequeño y de poco volumen y peso, como una hormiga, veremos que son extremadamente delgadas y sin embargo pueden soportar perfectamente el peso del cuerpo del animal. Un animal esbelto como un galgo o un corzo tienen patas proporcionalmente más gruesas si los comparamos con la hormiga, y cuando llegamos a animales muy voluminosos, como los hipopótamos, los elefantes o las tortugas galápagos, encontramos que sus patas son mucho más gruesas en proporción de su cuerpo.

El motivo de esto es un fenómeno que describió Galileo Galilei en su libro Dos nuevas ciencias de 1638 y que en términos generales establece que si hacemos crecer un objeto cualquiera, su volumen aumenta mucho más rápidamente que su área. Esta ley se conoce como la ley del cuadrado cubo. Si un objeto crece cierto porcentaje, su área aumentará al cuadrado de ese porcentaje y su volumen aumentará al cubo de ese porcentaje.

Si duplicamos el tamaño de una persona de 1,70 hasta que mida 3,40, la fuerza de sus huesos (y su área) no se multiplicarán por 2, sino por el cuadrado de 2, es decir, por cuatro; pero su volumen aumentará al cubo de 2, o sea ocho veces: si pesaba 80 kilogramos ahora pesará 640 kilos.

Y si pesas 640 kilos, la estructura ósea fallará. Tendrías que evolucionar de modo que tus piernas fueran mucho más musculosas y de huesos más resistentes

Pero ése no sería el único problema: tu fisiología de 1,70 ya no serviría, tendrías que tener otro sistema de enfriamiento (motivo por el cual los elefantes tienen grandes orejas para irradiar el enorme calor que generan sus cuerpos, o por el cual los hipopótamos pasan el rato en el agua), tendrías que comer muchísimo más, alterando todo tu aparato digestivo... es decir, te parecerías más a un elefante que a un ágil gigante de cuento.

Estas ideas las desarrolló el biólogo J.B.S. Haldane escribió en 1926 un ensayo donde exploraba la estructura general de los animales y demostraba que para cada estructura hay un tamaño adecuado y una serie de sistemas bastantes para su supervivencia. Mientras más grande se haga un animal respecto de su estructura, más débil se volverá. La forma, la estructura y el tamaño están estrechamente relacionados y son el resultado de la evolución de cada variedad animal.

Así, las fantasías cinematográficas de un aparato que hiciera crecer a las hormigas para crear un ejército invasor resultan biológicamente poco viables. Antes de ser aterradores gigantes, al alcanzar quizá el tamaño de un gato pequeño, se derrumbarían sobre patas incapaces de sostener un peso que se elevaría al cubo cada vez que la longitud de la hormiga se elevara al cuadrado.

El cuerpo humano no está hecho para el gigantismo. Tiene el tamaño que tiene porque es el adecuado para todos sus sistemas biológicos.

Los límites de lo normal

Se estima que la estatura media de los seres humanos es de algo más de 1,66m, con un promedio en hombres de 1,72 y en mujeres de 1,60. Entre los jugadores de baloncesto, el hombre más alto ha sido el rumano Gheorghe Muresan, con 2,31, y la mujer más alta ha sido la polaca Margo Dydek, con 2,18. En términos generales, los hombres miden de media 1,08 veces la estatura de las mujeres.

Los muchos padres del bosón de Higgs

La ciencia no es un emprendimiento individual, ni en el pasado ni en la actualidad, aunque a veces el crédito se lo lleve sólo una persona.

Los codescubridores del campo y bosón de Higgs. De izq. a der.:
Tom Kibble, Gerald Guralnik, Carl Hagen, François Englert y
Robert Brout. (Foto DP de Timm Roetger, vía Wikimedia Commons)
Si uno le pregunta a Peter Higgs, lo llama el “bosón escalar”, y hay otras propuestas para cambiar el nombre de la partícula que varios físicos teóricos postularon en 1964 y que fue hallada, o al menos muy probablemente hallada, en el acelerador de partículas LHC del CERN en la frontera franco-suiza, y anunciada en julio de 2012.

Una de las propuestas es llamarlo “bosón BEHGHK”, que se pronunciaría como “berk” con “r” francesa... o “begk”. Aunque menos eufónico que “bosón de Higgs”, este nombre daría crédito incluyendo las iniciales de los apellidos de todos los científicos que participaron en la descripción de la partícula: Robert Brout, François Englert, Peter Higgs, Gerald Guralnik, Carl Hagen y Tom Kibble. Hagen, por su parte, favorece el nombre “bosón escalar SM” por “standard model” o “modelo estándar”.

El problema es que la costumbre del comité del premio nobel es no dar el premio a más de tres personas, y que los galardonados aún vivan al momento de anunciarse el galardón. Esto ha significado que en muchas ocasiones se han pasado por alto colaboraciones o aportaciones de gran importancia y se han consagrado en la memoria sólo algunos nombres.

En este caso, Englert y Brout fueron los primeros en hacer su aportación teórica en la revista Physical Review Letters en agosto de 1964. En octubre de ese mismo año, y en la misma publicación, aparecía el trabajo teórico de Peter Higgs, más completo y con ecuaciones precisas sobre el mecanismo mediante el cual podía romperse la simetría que según los físicos es una característica esencial de los sistemas físicos. Finalmente, el mes siguiente la misma revista publicaba el artículo de Guralnik, Hagen y Kibble, el más completo de los tres. Todos los artículos demostraban teóricamente la forma en que algunas partículas adquieren masa, una idea que fue consolidándose con el trabajo teórico y experimental de los años siguientes de muchos otros científicos.

La teoría más completa y coherente que tenemos hoy para explicar todos los fenómenos físicos del universo es el llamado “Modelo estándar”, que describe las relaciones entre las distintas partículas elementales y las tres fuerzas que conocemos: la gravedad, la fuerza nuclear fuerte y una fuerza que es al mismo tiempo la electromagnética y la fuerza nuclear débil, conocida como “electrodébil”. Pero para que todo tenga sentido, debía existir una determinada partícula con características precisas responsable de impartir masa a otras partículas, el bosón de Higgs. Su búsqueda desembocó en el diseño, construcción y operación del Gran Colisionador de Hadrones (LHC).

La altamente probable confirmación de la existencia del bosón de Higgs realizada experimentalmente por el LHC claramente era materia de Premio Nobel de Física. Sin embargo, como lo esperaba Carl Hagen, cabeza del tercer grupo de físicos implicados, el comité del Nobel prefirió atenerse a sus reglas y en vez de dar el premio a los cinco científicos supervivientes (Brout murió en 2011) eligió dárselo únicamente a Englert y a Higgs, dejando alguna amargura entre los tres miembros del otro equipo codescubridor.

Descubrimientos simultáneos y nombres olvidados

La ciencia no es un emprendimiento totalmente individual, sino un flujo de conocimientos que van acumulándose e impulsando nuevos hallazgos a veces en direcciones previsibles. Como señaló Newton, los que ven muy lejos lo consiguen a hombros de gigantes. Pero a veces dos son capaces de ver lo mismo simultáneamente, a veces con consecuencias ásperas.

Un ejemplo involucró al propio Isaac Newton, que desarrolló el cálculo prácticamente al mismo tiempo que el matemático alemán Gottfried Leibniz. La controversia sobre si Leibniz había trabajado independientemente del inglés o simplemente había plagiado su trabajo con otra notación matemática amargó los últimos años del alemán. Y aún hoy en día hay quienes lo debaten.

Menos controvertido fue el descubrimiento de la evolución por medio de la selección natural realizado por Alfred Russell Wallace quien mandó sus conclusiones a Darwin antes de que se publicaran los estudios de éste. Darwin promovió la publicación de Wallace y siempre consideró que la nueva teoría era trabajo de ambos, pese a que su confirmación científica de la selección natural era mucho más sólida que las que había alcanzado Russell. Ambos defendieron juntos la idea hasta el final.

Durante 43 años hubo un debate sobre el invento de la tecnología subyacente a la radio. Nikola Tesla había demostrado la transmisión de radio a fines del siglo XIX (aunque su explicación de su funcionamiento era errónea, creyendo que ocurría por la tierra, no por aire) y había obtenido dos patentes clave en 1900 poco antes de Marconi. No fue sino hasta 1943 cuando el Tribunal Supremo de los Estados Unidos reconoció que esas patentes eran las prioritarias, convirtiendo de hecho a Tesla en el inventor teórico de la radio, aunque Marconi fuera quien la desarrolló en la práctica.

Finalmente, aunque quedarían muchos ejemplos en el tintero, está el caso de Rosalind Franklin, la cristalógrafa cuya fotografía por difracción de rayos X de una molécula de ADN fue fundamental para que Francis Crick y James Watson terminaran su modelo de la estructura de doble hélice del ADN en 1953. El Premio Nobel de 1962 por este revolucionario descubrimiento fue para estos dos investigadores, y también para Maurice Wilkins, el otro cristalógrafo que había realizado diversas imágenes del ADN. Rosalind Franklin había muerto en 1958 y su aportación al conocimiento de nuestra genética fue temporalmente opacada. Ahora que se ha rescatado su figura, queda en el relativo olvido su compañero y ocasional rival, Maurice Wilkins.

Estos casos, junto con el de los seis físicos que son padres comunes del bosón de Higgs, nos recuerdan que más allá de los titulares, de los grandes premios y de los tresminutos de fama del informativo televisual, hay muchos otros investigadores sin los cuales no tendríamos el mundo, la esperanza de vida y el conocimiento que distingue a nuestra etapa histórica como la otra cara de la moneda de nuestras dificultades, crisis y problemas.

Si se premiara al LHC

El presidente de la Sociedad Física Estadounidense, Michael Turner, explicaba al Washington Post cuando se anunció el Nobel a Higgs y Englert: “Cada vez más los descubrimientos involucran a una comunidad. Fueron necesarias 10.000 personas y 10 mil millones de dólares para construir el instrumento que hizo este descubrimiento, y sería muy difícil reducir ese grupo incluso a 100 personas, ya no digamos a tres”. Quizá el comité del Nobel tenga que replantearse su regla.

De la saliva a la historia de la Tierra: Nicolás Steno

Un verdadero hombre del renacimiento, o del final del renacimiento, Nicolás Steno, el padre de la geología fue además anatomista, naturalista y tardío obispo.

Hoja conmemorativa de Nicolás Steno,
ofrecida por un congreso de geólogos
en 1881. (Via Wikimedia Commons)
Durante siglos, el hombre conoció unas curiosas piedras llamadas “piedras lengua” o glossopetrae. Plinio el Viejo, en su Historia natural, cuenta que estas piedras caían del cielo en luna menguante, que eran indispensables para la adivinación mediante la luna y que podían detener los vientos tormentosos. En el Renacimiento, por su parte, se creía que eran dientes de dragones y servían como antídoto para mordeduras de serpientes y otros venenos.

En 1666, un joven médico y atento observador de la naturaleza, el danés Niels Stensen (mejor conocido como Nicolás Steno), pudo examinar la cabeza de un tiburón pescado en Livorno, cerca de Florencia, donde él disfrutaba del mecenazgo de Fernando II, Gran Duque de la Toscana. Se dio cuenta de que los dientes del depredador eran muy parecidos a las piedras lengua y pensó que un proceso desconocido había convertido los dientes en piedra.

Pero la idea prevaleciente era que los fósiles eran resultado de una fuerza del interior del planeta, productos de alguna misteriosa actividad del planeta. Steno demostró que los dientes no eran “nuevos”, sino que mostraban evidencias de estar desgastados por el uso, mellados y degradados, lo que señalaba que eran viejos y, por tanto, reliquias de tiempos antiguos. Observó lo mismo en otros fósiles, entre ellos los de origen marino que se encontraban en las cumbres de las montañas, confirmando la idea que Leonardo Da Vinci había ya propuesto 150 años atrás: los fósiles eran los restos de animales que habían vivido en tiempos antiguos.

Esta sola comprobación habría sido suficiente para darle a Stensen-Steno un lugar en la historia de la ciencia. Pero su aportación habría de ser muchísimo más extensa. En parte debido a que se vio impulsado a buscar respuesta a otra pregunta que presentaban los fósiles: ¿cómo es que estaban con frecuencia incrustados en las rocas

El religioso científico

Nicolás Steno nació en Copenhague, capital de Dinamarca, el 11 de enero de 1638, en una opulenta familia de orfebres estrictamente luteranos y estudió medicina tanto en su ciudad natal como en Holanda. Durante sus estudios, cuando apenas tenía 22 años de edad, descubrió el conducto que lleva la saliva a la boca desde la glándula parótida, la mayor de las tres glándulas salivales, situada en la parte posterior de nuestras mejillas, y que por ello se conoce todavía como “conducto de Stensen”.

Terminando sus estudios, se lanzó a recorrer Europa en un peregrinaje que duraría prácticamente toda su vida al tiempo que continuaba con estudios que desafiaban las creencias de la época. Así consiguió descubrir la naturaleza de las contracciones musculares e identificar al corazón como un músculo más, además de que sus disecciones de cerebros demostraron, ni más ni menos, que eran totalmente erróneas las especulaciones de Descartes sobre el cerebro y, concretamente, su idea de que la glándula pineal estaba aislada y en continuo movimiento, que los nervios terminaban en una cavidad que rodeaba a esta glándula y que la sangre iba directamente a ella para preservar su calor, tres afirmaciones que Steno demolió en el Discurso sobre la anatomía del cerebro que impartió en 1665, un año antes de su giro a la geología.

Un descubrimiento adicional que realizó en 1663 fue que la leche materna era producida en el pecho y llevada a los pezones por pequeños conductos.

Dado que el danés consideraba que el método científico le permitía alejarse de la falsedad, no sólo en cuanto a ciencia sino también respecto de la religión, no parecen haberle afectado las contradicciones entre sus descubrimientos y sus creencias religiosas.

Tres años después de su estudio del tiburón, Steno concluyó que para que las rocas envolvieran a los fósiles, debían haber sido líquidas en algún momento para luego solidificarse sobre ellos, o sobre otras capas de roca. Si tal era el caso, la Tierra debía mostrar la presencia de distintos estratos.

El estudioso se dedicó entonces a visitar canteras, minas y cavernas por toda la Toscana, desde Carrara, mítica cuna del mármol más blanco, hasta los Apeninos y las tierras bajas costeras. Producto de sus observaciones fueron los principios o leyes sobre los estratos geológicos que detalló en su escrito Precursor de una disertación sobre un sólido naturalmente contenido en otro sólido, conocido como Prodromus, donde hacía la historia geológica de la región de la Toscana y de ella derivaba los principios básicos que formaron las bases de la geología como disciplina científica.

El primero es el “principio de superposición”, que señala que las capas de roca se depositan unas sobre otras en una secuencia temporal, las más antiguas abajo y las más jóvenes encima, lo que permitía conocer las eras de la existencia de nuestro planeta. El segundo es el principio de “horizontalidad original”, según el cual los sedimentos se depositan como líquidos y, por tanto, lo hacen horizontalmente, rellenando las irregularidades del fondo pero dejando una superficie llana, y que cuando los estratos no se encuentran así se debe a alteraciones posteriores, como terremotos o volcanes. El tercero es el principio de la continuidad lateral, que dice que las capas de sedimentos son continuas a menos que un obstáculo evite que tales sedimentos se extiendan al depositarse.

Una de sus observaciones más relevantes fue que las capas más antiguas, en los estratos más alejados de la superficie, no contenían fósiles. Su conclusión, poco ortodoxa en lo religioso, fue que esas rocas eran anteriores a la aparición de la vida en la Tierra.

Sin embargo, la carrera científica de Steno se detuvo súbitamente. Se había convertido al catolicismo en Italia en 1667, pero en 1675 dio un paso decisivo ordenándose como sacerdote, actividad a la que se dedicó entonces de lleno, tanto que en 1677 fue nombrado obispo y enviado a Alemania, donde murió en 1686, a la temprana edad de 48 años, sin llegar a escribir nunca el magno libro anunciado en su Prodromus de sólo 78 páginas.

Su obra científica fue casi olvidada hasta que en 1823 el naturalista Alexander Von Humboldt lo llevó a la luz pública como el padre de la geología.

Los cristales

Estudiando cristales de distintas sustancias y midiéndolos cuidadosamente, Steno observó que los cristales de diferentes sustancias pueden tener tamaños distintos, pero los ángulos entre dos facetas correspondientes de cada cristal son constantes y característicos de esa especie de cristal. Este descubrimiento originó la cristalografía, que nos permite conocer muchas características de las sustancias observando los cristales que forman.

Kennedy y la carrera espacial

Ir al espacio era una idea natural. Ir a la Luna fue una decisión política de John F. Kennedy que marcó el rumbo de gran parte de la investigación científica durante décadas.

Icónica imagen de la Tierra sobre el horizonte de la Luna
tomada el 20 de julio de 1969 por la tripulación del
Apolo XI (Foto D.P. Nasa, vía Wikimedia Commons)
El 20 de julio de 1969, el mundo vio, en una borrosa transmisión televisual de baja resolución, cómo Neil Armstrong bajaba del módulo de descenso lunar Eagle y se convertía en el primer hombre que pisaba otro cuerpo celeste.

Era el legado del presidente John F. Kennedy, que ocho años atrás le había fijado esa meta a su país para vencer en la competencia con o que era la Unión de Repúblicas Soviéticas Socialistas (URSS) conocida como “la carrera espacial”.

El desarrollo científico y tecnológico apuntaba claramente a principios del siglo XX a los viajes espaciales. En palabras del visionario ruso Konstantin Tsiolkovsky: “Un planeta es la cuna de la mente, pero el hombre no puede vivir en la cuna eternamente”. Tsiolkovsky, a su vez, inspiró al alemán Hermann Oberth, creador del motor de cohetes de combustible líquido, y al estadounidense Robert H. Goddard, que hizo numerosos lanzamientos de pequeños cohetes.

Sin embargo, el esfuerzo por alcanzar el espacio requería de recursos tan abundantes que sólo era viable como emprendimiento nacional, no como esfuerzo personal. Y las potencias económicas y militares lo empezaron a ver viable al descubrir determinaron que podía tener valor estratégico y militar.

El disparador final para la exploración espacial fue la “guerra fría” entre la URSS y los Estados Unidos, una confrontación por el dominio político, militar y económico que se desarrolló inmediatamente después de la Segunda Guerra Mundial y duró hasta 1989. Esta confrontación convirtió a las hazañas espaciales, además, en fuente de orgullo nacional y en una herramienta de propaganda en la guerra ideológica entre comunismo y capitalismo.

En 1955, ambas superpotencias habían anunciado su decisión de emprender ambiciosos programas espaciales, pero fue la URSS la que obtuvo los primeros triunfos al poner en órbita el primer satélite artificial, el Sputnik I en 1957 y al primer ser humano, Yuri Gagarin, en 1961.

El primer acontecimiento se había dado en la segunda presidencia de Dwight D. Eisenhower, héroe de la segunda guerra y comandante en jefe de los ejércitos aliados en la invasión de Europa. El resultado inmediato fue que el presidente Eisenhower aceptara la creación de una agencia espacial civil, el Consejo Nacional de Aeronáutica y del Espacio, propuesto por el líder de la mayoría del senado, Lyndon B. Johnson. Sin embargo, Eisenhower no dio demasiada importancia al consejo, considerando que el espacio no era tan importante.

El segundo había ocurrido en el cuarto mes del mandato de Kennedy, el demócrata que había derrotado en las urnas a Richard Nixon, el delfín elegido personalmente por Eisenhower. Sólo cinco días después del vuelo de Gagarin, un grupo de contrarrevolucionarios anticastristas lanzaron, con apoyo de Estados Unidos una desastrosa invasión en Bahía de Cochinos o Playa Girón, en la costa Sur de Cuba, derrotada en sólo tres días.

El inicio de la administración del joven presidente no podía haber sido peor. Como parte de la reacción inmediata de su gobierno, y con la asesoría de su vicepresidente, el mismo Lyndon B. Johnson, al que Kennedy había nombrado presidente del consejo, presentó una propuesta al senado el 25 de mayo de 1961. Informó que habían evaluado las fortalezas y debilidades del programa espacial estadounidense y que, estando conscientes de la ventaja que llevaba la URSS con sus cohetes, debían fijarse una serie de metas, entre las que estaba la de llevar a un hombre a la Luna antes del fin de la década.

Cada meta propuesta por Kennedy exigía que el senado aprobara presupuestos sin precedentes. Para el desarrollo de mejores cohetes, incluyendo un proyecto que utilizaba energía nuclear, 23 millones de dólares. Para acelerar el uso de satélites de comunicaciones a nivel mundial, 50 millones de dólares, para crear un sistema de satélites meteorológicos a nivel mundial, 75 millones de dólares más.

La factura total era estremecedora para la época: 531 millones de dólares (3 mil millones de euros a valor de hoy) para el ejercicio de 1962 y entre 7 y 9 mil millones de dólares (entre 40 y 52 mil millones de euros) durante los siguientes cinco años. Y las cifras reales a lo largo de los siguientes años demostrarían ser muchísimo más elevadas.

La petición de Kennedy cerraba con una afirmación contundente. “Si sólo vamos a la mitad del camino, o reducimos nuestras miras frente a las dificultades, según mi criterio sería mejor ni siquiera intentarlo”.

El senado aprobó las solicitudes de Kennedy, y los primeros frutos se vieron el 20 de febrero de 1962, cuando se consiguió poner al primer astronauta estadounidense en órbita, John Glenn.

Fue con la certeza de que el programa espacial estaba en buen camino y que había posibilidades de superar a la URSS en la carrera espacial si los Estados Unidos fijaban la meta en vez de dejar que cada logro en la competencia fuera una sorpresa independiente, que Kennedy ofreció uno de los principales discursos de su breve presidencia el 12 de septiembre de 1962 en el estadio de la Universidad de Rice en Houston, Texas, el estado donde sería asesinado trece meses después.

En ese discurso, Kennedy hizo un resumen del avance científico humano en los últimos 50 mil años, desde la domesticación de los animales hasta los logros de Newton, la penicilina y las misiones espaciales en curso en esos mismos días, utilizando como comparación un período de 50 años, quizá un antecedente del famoso reloj cósmico de Carl Sagan.

“Elegimos ir a la Luna en esta década y hacer las otras cosas no porque sean fáciles, sino porque son difíciles”, tal es la frase más conocida de ese discurso, la que de alguna forma convenció al estadounidense medio que el esfuerzo espacial valía la pena... ese mismo estadounidense que años después aplaudiría las sucesivas reducciones del presupuesto espacial hasta dejar a los Estados Unidos sin un vehículo capaz de poner seres humanos en órbita, dependiendo de las Soyuz creadas por la URSS.

El asesinato de Kennedy convirtió en presidente a Lyndon B. Johnson, el entusiasta del espacio, pero, paradójicamente, quien celebraría la llegada a la Luna sería Richard Nixon, que había vuelto de su derrota ante Kennedy para obtener la presidencia en ese mismo 1969, recogiendo los frutos del árbol de su viejo oponente.

La promoción de la ciencia

Kennedy nombró por primera vez a un científico para un puesto gubernamental, Glenn Seaborg, el descubridor del plutonio y Premio Nobel de 1951, como presidente de la Comisión para la Energía Atómica, además de ser miembro del Comité de Asesoría Científica del presidente.

El Hubble en tu teléfono

Los avances de la tecnología en las últimas décadas nos permiten conocer mejor el universo, y también fotografiar nuestros momentos personales más relevantes o más tontos.

La imagen del campo ultraprofundo tomada por el Hubble
en 2009. Haga clic en ella para verla a más resolución.
Cada punto de luz es una galaxia que contiene miles de
millones de estrellas. (Foto D.P. NASA, vía Wikimedia Commons).  
Convertir lo que vemos en una imagen perdurable no ha sido nada fácil. La pintura lo intentó desde los inicios mismos de la humanidad, probablemente a cargo de una especie antecesora de la nuestra, el Homo habilis.

Pero no fue sino hasta la aparición de la fotografía que empezamos a conseguir una reproducción fiel, y también cada vez más económica, de la realidad. Como arte, como registro de la vida familiar y como auxiliar en numerosas ciencias y técnicas (desde la microscopía hasta la fotocomposición y reproducción de obras de arte), la fotografía fue una de las grandes revoluciones del siglo XIX y XX.

Así, por ejemplo, las asombrosas fotografías tomadas en la Luna por Neil Armstrong y Bzz Aldrin en la misión Apolo XI todavía utilizaron metros y metros de película que fue necesario llevar a nuestro satélite, exponer, traer de vuelta y revelar (proceso siempre temible, aunque probablemente los jóvenes ya nunca lo sabrán, y lleno de riesgos por contaminación de las diversas sustancias utilizadas para hacer visible especialmente la fotografía a color) para que la gente de nuestro planeta pudiera ver no sólo las tomas de la Luna, sino, por supuesto, la grandiosa toma de nuestro planeta colgando sobre el horizonte de nuestro satélite.

Precisamente con la idea de facilitar y miniaturizar la captura de imágenes en el espacio, considerando el altísimo coste de cada gramo que debe llevarse más allá de nuestra atmósfera, dos físicos, el estadounidense George E. Smith y el canadiense Willard Sterling Boyle, que trabajaban en la empresa AT&T Bell Labs, inventaron en 1969 un sistema llamado “dispositivo de carga acoplada” (charge-coupled device) mejor conocido como CCD. Según recordó George E. Smith, “Después de hacer el primer par de dispositivos de captura de imágenes, supimos con certeza que la fotografía química había muerto”.

Y, ciertamente, si bien sobrevivió una larga época, mientras los sensores CCD se hacían más sensibles, de mayor resolución y más fieles a la realidad, el declive de la fotografía química, que utilizaba sales de plata que se oscurecían donde había luz y no donde había oscuridad, comenzó en ese momento.

Y, de paso, el CCD también decretó la muerte de las cámaras de vídeo que utilizaban tubos de rayos catódicos para convertir las imágenes en señales eléctricas.

Smith y Boyle recibieron en 2009 el Premio Nobel de Física “por la invención de un circuito semiconductor capaz de capturar imágenes”. Este circuito semiconductor o CCD es, esencialmente, un grupo de diminutos capacitores que al ser alcanzados por la luz (es decir, por fotones), emiten electrones, es decir, adquieren una carga eléctrica que puede ser leída por un procesador e interpretada para recrear la imagen original. Usando distintos filtros, un sensor CCD puede detectar literalmente millones de colores con gran precisión.

El CCD no sólo cambió la historia de la fotografía y el vídeo (y, eventualmente, el cine), sino también la astronomía que usaba fotografías para capturar más luz de la que puede detectar el ojo humano.

El ejemplo más conocido de los CCD en astronomía es el del Hubble, un telescopio óptico con un espejo de 2,4 metros de diámetro y que cuenta con cámaras de CCD, espectrógrafos y filtros que le permiten “ver” en distintas frecuencias del espectro electromagnético. Su sistema para detectar luz visible es el ACS, con tres cámaras, una de las cuales realizó muchas de las más asombrosas imágenes que nos ha revelado el Hubble, de galaxias, nebulosas, viveros de estrellas y, muy especialmente, las tomas que nos han llevado cada vez más hacia los bordes de nuestro universo.

En 1995, los responsables del telescopio orbital decidieron seleccionar un pequeño segmento del cielo en apariencia totalmente vacío, en la constelación de Formax, y fotografiarlo en una larga, muy larga exposición, a ver qué había realmente allí. Entre el 18 y el 28 de diciembre, el Hubble miró fijamente ese punto, recolectando la luz que podía provenir de allá, débiles fotones que habían salido de su punto de origen miles de millones de años atrás.

Cuando el Hubble terminó, las imágenes que capturó se fusionaron en una fotografía en la que aparecían más de 3.000 objetos luminosos, casi todos ellos galaxias hasta entonces desconocidas, que se encuentran en las zonas más alejadas de nuestro universo.

En los años siguientes, el Hubble conseguiría varias imágenes más de campo ultraprofundo y profundo extremo, en pequeños fragmentos del campo profundo que han revelado miles y miles de galaxias más en los bordes mismos de nuestro universo. La luz de algunas de ellas salió hace 13.200 millones de años, apenas unos 450 millones de años después del nacimiento de nuestro universo en el Big Bang. En ellas vemos, efectivamente, cómo era el universo en sus inicios

Otra cámara más especializada “ve” en las frecuencias cercanas al ultravioleta y al infrarrojo es la llamada WFC3 (cámara de campo amplio 3) instalada en 2009, de gran sensibilidad, diseñada para minimizar el “ruido” que todos conocemos que muestran los sensores cuando hay poca luz… y con una definición de apenas 16 megapíxeles, una resolución común en las cámaras compactas para aficionados y que muy pronto alcanzarán los teléfonos inteligentes.

Y es que las cámaras para consumidores comunes y corrientes utilizan exactamente el mismo principio de capacitores capaces de convertir la luz en descargas eléctricas para capturar imágenes. La mayoría de las cámaras tienen un sistema llamado CMOS (siglas en inglés de “semiconductor de óxido metálico complementario) que resulta más fácil y barato de fabricar, que puede ser mucho más pequeño, aunque ha tardado en tener la calidad de imagen que ofrece un CCD.

En lo fundamental, el uso de un principio de la física cuántica para capturar imágenes, la cámara con la que suelen venir dotados nuestros teléfonos es simplemente una pariente pequeña, menos precisa y mucho menos costosa que las cámaras con las que dispositivos como el Hubble y los nuevos telescopios que lo sustituirán nos muestran los objetos luminosos más alejados del universo.

En el principio estuvo Einstein

Todos los sensores de luz se basan en el efecto fotoeléctrico, un fenómeno descubierto por Albert Einstein en el cual una superficie, al recibir luz, emite electrones. El efecto fotoeléctrico fue la base de la idea de que la luz se comporta en ciertos casos como si fuera una onda y en otros como si fuera un flujo de partículas, la llamada “dualidad” que es la base de la moderna mecánica cuántica. El efecto fotoeléctrico fue el motivo por el que Einstein recibió el Nobel en 1921.

¿Qué es el autismo? Realidades, mitos y definiciones

Un trastorno del comportamiento que es a la vez temido y desconocido, y que permanece rodeado de mitos.

Comparativa de activación de la corteza cerebral
durante una actividad visomotora. El azul corresponde
al grupo de control, el amarillo al grupo autista y
el verde al traslape entre ambos. (Imagen CC Ralph
Axe-Müller vía Wikimedia Commons) 
En distintos medios de comunicación, y muy especialmente en las redes sociales de Internet, se repite constantemente que existe una epidemia de autismo, pues el número de diagnósticos de esta afección es mucho más alto hoy que en el pasado.

Pero las cosas siempre son más complicadas de lo que parecen a primera vista.

El autismo que se diagnostica hoy es muy distinto de lo que se llamaba “autismo” cuando esta palabra se empezó a utilizar, y esas cambiantes definiciones, así como el temor que provoca la sola palabra son en gran medida responsables de ese aumento de diagnósticos.

En el origen

La palabra “autismo”, fue utilizada por primera vez en 1911 por el psiquiatra suizo Eugen Bleuler, para describir algunos síntomas de la esquizofrenia.

Fue en 1943 cuando la palabra se empezó a utilizar más o menos en el sentido actual, en los estudios del psiquiatra infantil Leo Kanner, que llamó autismo a un trastorno en el cual los niños tenían dificultad o incapacidad total de comunicarse con otros, problemas de comunicación verbal y no verbal y un comportamiento restringido y repetitivo. Lo llamó “autismo infantil temprano”

El estudio del autismo, sus causas y tratamiento, se intensificó en 1960-1970, cuando el concepto llegó a la cultura popular. En el proceso, se propusieron y desecharon múltiples hipótesis tanto del origen del trastorno como de su tratamiento.

Prácticamente al mismo tiempo que Kanner, el vienés Hans Asperger describió a niños con patrones de comportamiento similares, que incluían poca capacidad de establecer lazos de amistad, tendencia a acaparar las conversaciones y a concentrarse en algún tema en concreto (por ello los llamaba “pequeños profesores”, pues eran capaces de hablar largamente sobre los asuntos que los apasionaban), lo que en la década de 1980 se llamaría “Síndrome de Asperger”, cuando los psiquiatras infantiles reevaluaron el autismo.

La presencia de ciertos síntomas, aunque no tuvieran la gravedad de los primeros casos descritos por Kanner, hizo que la definición de “autismo” evolucionara aceleradamente hasta lo que hoy se conoce como Trastorno del Espectro Autista, concepto más amplio y que incluye diversos trastornos que antes se consideraban independientes, según lo define el Manual de diagnóstico y estadística de trastornos mentales de 2013 publicado por la asociación psiquiátrica estadounidense.

El problema de los expertos que hacen este manual y, en general, de quienes trabajan en problemas de conducta que no tienen como trasfondo un trastorno biológico objetivamente observable, es que deben decidir, con base en su experiencia clínica y las opiniones de muchos profesionales, dónde está la línea entre lo normal, lo desusado y lo patológico. Línea que cambia con el tiempo. Baste recordar que hasta 1974 ese mismo manual incluía a la homosexualidad como una enfermedad.

Así que el aparente incremento en el número de niños diagnosticados con alguno de los trastornos del espectro autista, principalmente en los Estados Unidos, donde la cifra llega a uno de cada 88 niños, no significa forzosamente que haya más casos, sino una definición más amplia y mejores métodos de detección de diversos síntomas o signos.

Los síntomas

Los signos del trastorno se dividen en tres amplios grupos.

Los relacionados con la interacción social y las relaciones van desde problemas graves para desarrollar habilidades de comunicación no verbal hasta incapacidad de establecer amistades, falta de interés en interactuar con otras personas, falta de empatía o comprensión de los sentimientos de otras personas.

Los relacionados con la comunicación pueden incluir un retraso grave para aprender a hablar o no hacerlo nunca, problemas para iniciar o seguir conversaciones, uso estereotipado o repetitivo del lenguaje, dificultar para entender la perspectiva de la persona con quien habla (problemas para entender el humor o el sarcasmo) con tendencia a tomar literalmente las palabras y no “leer entre líneas”.

Finalmente, los que tienen que ver con los intereses y comportamiento de los afectados, como la concentración en ciertas piezas de las cosas más que en el conjunto, obsesión con ciertos temas, una necesidad de mantener rutinas y actividades repetitivas, y algunos comportamientos estereotipados.

Pero esto no significa que todas las personas que exhiban algunas de estas características tengan un problema de autismo. El diagnóstico se hace teniendo en cuenta el conjunto de síntomas y su gravedad, así como los problemas que le causa a los afectados para desenvolverse en sociedad.

Y, finalmente, el autismo puede presentarse en un abanico que va desde formas leves y sin importancia, como los de Asperger, hasta los casos graves que describió en su momento el Dr. Kanner.

Porque no todos los autistas pueden ser considerados enfermos, sino simplemente diferentes. Y esto nos lo ha enseñado un creciente número de personas diagnosticadas con autismo hablando de su vida, sus sentimientos y su percepción del mundo.

Uno de los ejemplos más conocidos es la Dra. Temple Grandin, especialista en ciencias animales, profesora de la Universidad Estatal de Colorado y autora de varios exitosos libros. Su experiencia personal le ha permitido no sólo trabajar en el tratamiento de personas autistas, sino diseñar espacios para animales de granja, incluidos mataderos, que disminuyen el estrés que experimentan.

De acuerdo a los criterios actuales, se diagnosticaría como pacientes autistas en diversos grados a gente tan distinta como la actriz Daryl Hannah, Albert Einstein, Wolfgang Amadeus Mozart, Charles Darwin, Isaac Newton o la poetisa Emily Dickinson. Lo cual vuelve al problema esencial de delimitar dónde termina la forma de ser y comienza la enfermedad.

Por ello, también, la última edición del manual de diagnóstico de los psiquiatras estadounidenses, DSM-V, publicado este mismo 2013, ha reevaluado el trastorno del espectro autista de modo tal que muchas personas antes consideradas víctimas de este trastorno, dejarían de estarlo. Lo cual es una expresión clara de lo mucho que aún falta por saber sobre el autismo.

El mito de las vacunas

En uno de los escándalos científicos más sonoros de los últimos años, el hoy ex-médico inglés Andrew Wakefield publicó en 1998 un estudio que vinculaba a la vacuna triple vírica (MMR) con el autismo y otros problemas. Como ningún investigador consiguió los mismos resultados, se revisó el estudio descubriendo que los datos eran totalmente falsos, urdidos por Wakefield para comercializar su propia vacuna. Pese a que el artículo se retiró y Wakefield fue despojado de su licencia profesional, ayudó a disparar un peligroso movimiento antivacunas.

El filón inagotable de Atapuerca

Desde 1976 se empezó la excavación de una serie de yacimientos en la burgalesa sierra de Atapuerca, que desde entonces ha sido clave para entender el origen de la humanidad.

"Miguelón", el cráneo número 5 de un Homo heidelbergensis
con entre 300.000 y 350.000 años de antigüedad, hallado
en las excavaciones de Atapuerca en 1992.
(Foto CC de José-Manuel Benito Álvarez, vía Wikimedia Commons)
¿Cuánto tiempo más va a haber excavaciones en Atapuerca?

Nadie lo sabe.

Al paso del tiempo, los yacimientos de la Sierra de Atapuerca no sólo nos han ofrecido un creciente conocimiento de la evolución humana, especialmente en Europa, sino que ha sido fuente de constantes sorpresas.

Quizá para entenderlo debamos saber que en Atapuerca no hay un solo yacimiento de fósiles y artefactos humanos, sino varios de ellos, cada uno de los cuales nos ofrece datos de distintos momentos de la historia de nuestra especie. Es decir, no se está excavando un lugar donde hubo un grupo de pobladores (como sería, digamos, la excavación de un poblado romano), sino varios sitios donde a lo largo de 1,4 millones de años vivieron distintos grupos, distintas especies humanas, no de modo continuo, sino sucesivo.

Atapuerca es así como un muestrario de la vida a lo largo de ese período larguísimo.

¿Por qué era atractiva para ellos esta zona? Probablemente por la abundancia de cuevas que podían prestarles refugio. Atapuerca está formada por piedra caliza, es decir, roca que es resultado del depósito o sedimentación de varios minerales, principalmente carbonato de calcio, a lo largo de mucho tiempo. Las rocas de Atapuerca tienen una antigüedad de alrededor de 1,7 millones de años. Una característica de la roca caliza es que el paso del agua en distintas formas crea cavidades en ella, dolinas, galerías y cuevas.

En Atapuerca, el “complejo cárstico”, es decir el conjunto de cavidades de la roca, tiene una longitud de más de 4 kilómetros de galerías.

A fines del siglo XIX, la construcción de un ferrocarril exigió excavar una trinchera en este complejo, que puso al descubierto algunos restos que fueron inmediatemante del interés de los arqueólogos. Pero fue en 1976, cuando se descubrieron algunos restos humanos, que empezó la exploración de la zona en forma sistemática e incesante hasta el día de hoy.

Los yacimientos

La gran dolina es uno de los más famosos puntos de Atapuerca, una cueva de 20 metros de alto que estuvo ocupada en dos momentos distintos.

En lo profundo de la cueva están los restos de quienes la habitaron hace 900.000 años, una especie humana desconocida hasta su descubrimiento aquí entre 1994 y 1995 por parte de dos de los codirectores del yacimiento, Eduald Carbonell y Juan Luis Arsuaga, siendo el tercero José María Bermúdez de Castro. Sus trabajos descubrieron alrededor de 80 fragmentos de huesos de 6 individuos distintos, además de gran cantidad de herramientas de piedra y huesos de animales. Los restos humanos eran distintos de los conocidos hasta entonces, y la nueva especie fue bautizada Homo antecessor, el hombre explorador, una especie derivada del Homo ergaster y que podría ser incluso el ancestro común de nuestra especie y la de los neandertales.

La abundancia de fósiles ha permitido extraer algunas relevantes conclusiones, como la práctica habitual del canibalismo entre estos posibles ancestros humanos,

En un nivel superior, de hace 450.000 años, está el asentamiento de un grupo de Homo heidelbergensis, que se consideran el ancestro directo de nuestra especie.

La galería es una cavidad en la que también vivieron grupos de Homo heidelbergensis por la misma época, y en otros momentos se usó como trampa natural para presas que eran conducidas allí para que cayeran en ella.

La sima del elefante es una cueva de 15 metros de profundidad en la que se han encontrado igualmente varios momentos de habitación del paleolítico además de restos fósiles de una especie humana no identificada que, si las dataciones son correctas, la habitó hace un millón y medio de años, por lo que sería la más antigua ocupación en cueva conocida del continente europeo.

La sima de los huesos es un pozo de 12 metros de profundidad que conduce a una rampa y una sala de unos 15 metros cuadrados y que se considera el más rico yacimiento de fósiles humanos del mundo, los más antiguos de un millón de años, debido a que se utilizaba como cementerio, es decir, que los muertos eran depositados a propósito en ella, dando cuenta de los más antiguos ritos funerarios que conocemos hasta hoy. Desde que se empezó a excavar en 1983 ha aportado decenas de fósiles de Homo heidelbergensis, los más importantes de los cuales se rescataron en 1992, como el llamado “Miguelón”, que es el cráneo más completo de esta especie que hay en el mundo.

La cueva mayor es un yacimiento arqueológico conocido desde principios del siglo XX en el cual hay artefactos de distintas épocas, desde el neolítico hasta la Edad del Bronce, y que contiene dos yacimientos en sí, el portalón, que es la entrada de la cueva y la galería del sílex, un espacio en cuyas paredes se han encontrado más de 400 motivos pintados o grabados, principalmente formas geométricas y algunas representaciones humanas y animales.

La cueva del mirador por su parte da testimonio de la vida de los humanos en esa misma época, aportando datos sobre la vida de los primeros pueblos ganaderos y agricultores que ocuparon la sierra hace 7 mil años.

Además de los yacimientos en cuevas, hay tres más que están al aire libre: el valle de las orquídeas, con restos que pertenecen al paleolítico, hundidero, con vestigios de asentamientos del paleolítico superior y Hotel California, curioso nombre de un yacimiento con materiales del paleolítico inferior y medio.

Finalmente, un último yacimiento, la galería de las estatuas, los responsables del proyecto esperan encontrar restos de Homo neanderthalensis, el único homínido del que aún no se han hallado fósiles en Atapuerca, y que ayudarían a determinar finalmente cuál es el lugar del Homo antecessor en el linaje humano, tema que sigue estando a debate.

En su conjunto, Atapuerca es uno de los espacios privilegiados del mundo para el conocimiento de la evolución de nuestra especie. Y sin embargo, es posible que tenga aún mucho qué revelarnos. Distintas prospecciones realizadas por los equipos que año con año hacen campaña en algunos de los yacimientos de la zona indican la presencia de muchos asentamientos, algunos de los cuales parecen guardar la promesa de una gran relevancia arqueológica y paleantropológica.

Visitar Atapuerca

Es posible para cualquier persona visitar algunos de los yacimientos de la Sierra de Atapuerca, principalmente los que se hallan a lo largo de la Trinchera del Ferrocarril. Esta visita se complementa con el Museo de la Evolución Humana en el centro de Burgos y el recorrido por el parque arqueológico, donde el visitante puede practicar algo de arqueología experimental para concer algunos aspectos de la vida de los ancestros de la humanidad.