Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La muerte, obsesión de la especie

Fotografía © Mauricio-José Schwarz
Morir es el destino de los hombres, un misterio profundo y un miedo que ha dominado las culturas humanas y grandes preocupaciones científicas

En abril, los diarios dieron la noticia de un estudio de la revista Current Biology (Biología actual) según el cual los chimpancés enfrentan la muerte de modo muy parecido al que lo hacemos los seres humanos. En las filmaciones, se veía a la tropa despiojando y peinando a una hembra anciana que había muerto, como lo hacían cuando estaba viva. Otros investigadores vieron a hembras que llevaban consigo los cuerpos de sus crías muertas durante días y semanas.

Pero aún si la reacción ante la muerte, que también exhiben de modo enternecedor los elefantes y los perros, está extendida entre los seres vivos, hasta donde sabemos sólo el hombre es capaz de mirar saber que morirá como ha visto morir a otros. Somos el único animal consciente de que su vida es limitada.

Es un ejercicio interesante imaginar a los primeros homínidos que por vez primera se hacían conscientes de que uno de los suyos, acaso un ser querido, dejaba de moverse, de reaccionar a los estímulos, que está y es... pero al mismo tiempo ya no está y ya no es. El asombro, el miedo que pudo apoderarse de ellos al percibir la muerte en toda su irreversibilidad deben haber sido enormes. ¿Qué pasaba? ¿El compañero iba a despertar eventualmente? Y cuando no lo hacía y empezaba a descomponerse, ¿qué preguntas surgían?

Ciertamente, el muerto causaba temor, y el contacto con él se consideraba tabú entre muchas culturas, desde los antiguos persas a los hebreos, que en el Libro de los Números de la Biblia ordenan echar del campamento “a todo contaminado con muerto”, desde los zoroastrianos hasta los polinesios. El oficio de enterrador, incluso hoy, ha comportado siempre un estigma social y un temor irracionales.

¿Qué pasaba cuando alguien soñaba a un muerto? ¿Acaso no le parecía que estaba experimentando una visión de otro mundo donde seguía vivo, donde seguía siendo y estando? Porque en esos sueños el muerto caminaba, reía y hablaba, mandando acaso “mensajes desde allá” a los que seguían “aquí”. Más preguntas, más inquietudes.

De allí, creen muchos antropólogos, surgirían las religiones, gran parte de la filosofía, del arte y de las profundas dudas que nos convierten, en cierta medida, en una especie obsesionada por la muerte. Gran cantidad de nuestros monstruos son, precisamente, muertos que vuelven como los zombies o el monstruo de Frankenstein, o seres que quedan a la mitad entre la vida y la muerte, como los vampiros o "no muertos".

Por eso numerosos estudiosos consideran que la civilización comienza al mismo tiempo que los ritos funerarios. Los más antiguos parecen remontarse al menos a 60.000 años de antigüedad entre nuestros cercanos parientes, los neandertales, de los que se han encontrado enterramientos acompañados de cuernos de animales y fragmentos de flores, indicando que algún tipo de rito funerario, del que dejarían amplio testimonio tiempo después nuestros ancestros, al llegar a Europa.

La fisiología de la muerte

Más allá del hecho antropológico de nuestra conciencia sobre el eventual—e inevitable—fin de nuestra vida, está el problema de cómo determinar cuándo una persona ha dejado de vivir, cuándo ha muerto... y saberlo antes de los primeros desagradables signos de la descomposición.

Las primeras definiciones consideraban la interrupción definitiva del latido cardiaco y de la respiración. Pero, como demostró la preocupación por el enterramiento en vida en el siglo XIX, que tan bien plasmó Edgar Allan Poe en su relato “El entierro prematuro”, el latido cardiaco y la respiración no eran indicadores fiables, podían provocar una declaración de muerte en falso si eran poco perceptibles. Las noticias que de cuando en cuando llegan a los diarios sobre personas que “despiertan” durante sus funerales o velatorios, muestran por qué era necesario diagnosticar la muerte de modo claro.

La palidez, el asentamiento de la sangre en parte inferior del cuerpo, el rigor mortis y la caída en la temperatura corporal fueron signos claros de la muerte, pero para entonces el cuerpo ya era inviable. El surgimiento de las técnicas de trasplante llevó a una redefinición, con el consenso en casi todo el mundo de que la muerte de la persona es la muerte cerebral, aunque el cuerpo siguiera fisiológicamente vivo. La implicación filosófica es clara: somos nuestro cerebro, nuestra personalidad está inscrita en la danza electroquímica de comunicación de nuestras neuronas.

Cuando el electroencefalograma es plano, cuando ya no existe actividad electroquímica, dejamos de ser aunque nuestro cuerpo siga vivo, los pulmones respiren y el corazón lata. Y, por otra parte, con un procedimiento adecuado de resucitación cardiorrespiratoria, fármacos y desfibrilación, un paro del corazón y la respiración no es igual a la muerte pues es reversible.

De hecho, algunos estudiosos hoy abogan porque se considere muerto a quien no tiene actividad en la corteza cerebral superior, que es característica de los humanos, aunque siga teniendo actividad en las zonas más antiguas y más inferiores del encéfalo.

El cerebro muere gradualmente. Al detenerse el corazón, se suspende el suministro de oxígeno a las neuronas, que pueden sobrevivir apenas unos cinco o seis minutos. Si en ese plazo no se reanudan la circulación sanguínea y la respiración, muy probablemente la víctima sufrirá daño cerebral, más grave mientras más tiempo pase privado de oxígeno. Las primeras en morir son las neuronas de la corteza superior, primero las de las zonas motoras y después las de las zonas sensoriales.

Cuanto conocemos hoy acerca de la muerte no ha logrado tranquilizar, al menos en la mayoría de las personas, el miedo a morir, la repulsión a los muertos y, como contraparte, el largamente acariciado sueño de la inmortalidad, de vencer a ese enemigo que nos ha aterrorizado desde el inicio de la autoconciencia que nos define como especie.

La granja de los cadáveres

Lo que ocurre después de la muerte no era bien conocido hasta muy recientemente. Partes normales del proceso de descomposición o momificación de los cuerpos fueron confundidas en el pasado con síntomas de vampirismo u otros horrores, pero el estudio científico de los procesos de descomposición se inició con fines forenses. Su máximo exponente es el antropólogo forense Bill Bass, que en 1981 puso en marcha la mundialmente conocida "granja de cadáveres", donde con cuerpos donados de personas y cerdos se estudian los procesos de descomposición en distintas condiciones de enterrramiento, humedad, aislamiento, etc. para conseguir lo que nunca pudieron hacer los médiums: que los muertos cuenten historias importantes y, muchas veces, incluso señalen a sus asesinos.

La ecuación más famosa del mundo

Encontramos E=mc2 en todas partes, desde dibujos animados hasta esculturas. Es la ecuación más famosa, pero... ¿qué significado tiene?

Albert Einstein a los tres años (1882)
(Foto D.P. vía Wikimedia Commons)
Era 1905 cuando el poco conocido físico que trabajaba como examinador de la oficina de patentes de Berna, Suiza, Albert Einstein, presentó cuatro trabajos de física en la reconocida revista científica alemana Annalen der Physik (Anales de la Física).

Estos cuatro trabajos, tan cercanos en el tiempo, son un logro sin paralelo en la ciencia. Los cuatro refundaron la física en los términos en que la entendemos hoy en día, y por ellos se conoce a 1905 como el annus mirabilis o “año maravilloso" de Einstein.

El primero de los artículos decía que la energía se emite en paquetes discretos llamados “cuantos de energía”, lo que explicaba entre otras cosas el efecto fotoeléctrico y sentaba las bases de la mecánica cuántica. El segundo se ocupaba del movimiento browniano de las partículas suspendidas en un líquido. El tercero analizaba la mecánica de los objetos a velocidades cercanas a la de la luz, lo que se conocería después como la “teoría especial de la relatividad”.

El cuarto artículo afirmaba que la materia y la energía eran equivalentes, es decir, que la materia y la energía son dos formas diferentes de lo mismo,.y que esa equivalencia se veía definida por la ecuación E=mc2.

Esta ecuación en apariencia sencilla significa simplemente que el contenido de energía de cualquier trozo de materia es equivalente a su masa (m) multiplicada por la velocidad de la luz (c) elevada al cuadrado.

La ecuación E=mc2 no es, como en ocasiones se cree, la ecuación de la teoría de la relatividad. Es un resultado de dicha teoría, ciertamente, pero nada más. Parte de su encanto, muy probablemente, es su simplicidad: cinco símbolos con significado claro que chocan con los encerados pletóricos de símbolos extraños que suelen representar a los matemáticos y a los físicos.

Para entenderlo, veamos primero cómo medimos la energía La medida de la energía son los joules, o julios, denominados así en memoria del físico inglés James Prescott Joule. 1 joule es la cantidad de energía necesaria para elevar en 1 grado Celsius la temperatura de 1 kilogramo de agua, y se define como 1kg m2/s2, kilogramo por metro al cuadrado entre segundo al cuadrado.

Sabiendo cómo definimos la energía, pensemos ahora qué pasaría si convertimos 1 gramo de materia, un modesto y sencillo gramo de materia, en energía. Es decir, cuánta energía hay contenida en un gramo de cualquier cosa que queramos, un gramo que es igual a 0,001 kg. La energía (E) se obtendría multiplicando 0,001kg por la velocidad de la luz al cuadrado.

La velocidad de la luz es aproximadamente de 300.000 kilómetros por segundo, es decir, 300.000.000 metros por segundo

La operación sería, entonces E=0,001 kg x 300.000.000 m/s x 300.000.000 m/s

Lo que resulta en E=90.000.000.000.000 kg m2/s2 o simplemente joules.

Estos 90 billones de joules equivalen, a su vez, a la explosión de más de 21.000 toneladas de TNT. Para darnos una idea de lo que eso significa, la bomba atómica arrojada sobre Hiroshima liberó una energía explosiva de entre 13 y 18 mil toneladas de TNT, o kilotones.

En la reacción nuclear llevada a cabo en el interior de aquella atroz arma de destrucción masiva, menos de 1 gramo del uranio 235 que la componía se transformó en energía... y ello bastó para arrasar la ciudad y matar a más de 60.000 personas de inmediato. Es decir, la cantidad de energía concentrada en la masa es asombrosamente grande.

Más allá de medir el potencial destructivo, claro, E=mc2 nos dice que si pudiéramos controlar la liberación de energía de un gramo de masa obtendríamos 25.000.000 de kilovatio-horas de energía eléctrica. La energía eléctrica necesaria para encender 25 millones de bombillas de 100 vatios durante 10 horas.

La ecuación de Einstein, por tanto, nos decía que existe una fuente de energía abundantísima en la materia que nos rodea. La pregunta, claro, era cómo obtener esa energía. Desde que Cockroft y Walton ofrecieron la primera confirmación experimental de la equivalencia entre masa y energía, en 1932, gran parte del trabajo técnico se ha orientado a conseguir una buena solución técnica para obtener energía a partir de la masa.

Las centrales nucleares, que utilizan la fisión o división de los núcleos de materiales radiactivos para obtener energía, son una forma de rentabilizar, por así decirlo, la ecuación de Einstein. Pero la gran promesa para resolver las necesidades energéticas de la humanidad se encuentra en la fusión nuclear, el proceso de unión de dos núcleos para formar un elemento más pesado, que también libera una gran cantidad de energía.

El sol es un horno de fusión nuclear. Y es la ecuación E=mc2 la que explica cómo la fusión de átomos de hidrógeno para formar átomos de helio en las estrellas, incluida la nuestra, tiene la capacidad de producir tanta energía. La comprensión científica tanto nuestro sol como de todas las estrellas, e incluso el Big Bang como origen del universo, del espacio y el tiempo, requerían como antecedente fundamental la ecuación de equivalencia de masa y energía de Einstein.

Esta fórmula, además, es clave para explicar uno de los fenómenos más curiosos de la teoría de la relatividad de Einstein, y es el que establece que ningún objeto con masa puede alcanzar la velocidad de la luz: al añadir energía a un objeto, se hace aumentar su masa. Es decir que, por ejemplo, al calentar agua en un microondas, el agua adquiere una cantidad adicional de masa, así sea casi infinitesimal. Y lo mismo ocurre al acelerar cualquier objeto: hacemos crecer su masa.

Si aceleramos un objeto de tal modo que se aproxime a la velocidad de la luz, la aplicación de la energía hará que su masa crezca en consecuencia. A mayor energía, mayor masa y, por tanto, se necesita más energía para seguir acelerando el objeto. Al aproximarse a la velocidad de la luz, la masa de cualquier objeto tiende a infinito.

Dicho de otro modo, si aceleramos cualquier objeto con masa, así sea un grano de café, hasta que llegue a la velocidad de la luz, su masa sería infinita y ocuparía todo el universo.

Así que, aunque podamos buscar la forma de obtener energía abundante, limpia y barata a partir de la ecuación de Einstein, también ella nos dice que los viajes instantáneos por el universo están al parecer condenados a ser, para siempre, cosa de fantasía.

La ecuación y su creador

Sobre E=mc2, Einstein dijo: “De la teoría especial de la relatividad se seguía que la masa y la energía no son sino distintas manifestaciones de una misma cosa... un concepto más bien poco corriente para la mente promedio." Hoy, 105 años después de que enunciara la ecuación, quizá la “mente promedio” se haya acercado un poco a la genialidad del físico del peinado imposible.

Tim Berners-Lee, el señor WWW

Pocos hombres como el inventor de la World Wide Web han visto al mundo transformarse con el impulso de sus ideas.

Tim Berners-Lee en 2009.
(foto CC Silvio Tanaka, via
Wikimedia Commons)
Tim Berners-Lee cumplirá apenas 55 años en junio, pero su rostro es casi desconocido para la mayoría de las personas, y su nombre es apenas un poco más reconocible, aunque sin él no habría redes sociales ni páginas Web, ni buscadores, ni navegadores Web, ni desarrolladores para la Web, ni nuestra puerta a la información, la comunicación, el conocimiento y la diversión. Porque fue este personajequien creó lo que hoy conocemos como la World Wide Web.

Tim Berners-Lee nació en Londres el 8 de junio de 1955, hijo de dos informáticos de gran relevancia. Su padre, Conway Berners-Lee, es un matemático, ingeniero y científico informático que trabajó en la creación del Ferranti Mark 1, el primer ordenador elctrónico comercial con programas almacenados. En la fiesta de Navidad de Ferranti en 1952, Conway conoció a la madre de Tim, Mary Lee Woods, también matemática y una de las programadoras del Ferranti Mark 1.

Con esos antecedentes, no fue extraño que, después del bachillerato, el joven Tim pasara al afamado Queens College de Oxford, donde recibió un título de primera clase en física y se empezara a dedicar a la informática.

El hipertexto

En 1980, Berners-Lee fue contratado como proveedor para la Organización Europea para la Investigación Nuclear, CERN, donde propuso usar el hipertexto inventado por Ted Nelson (texto que incluye referencias o enlaces a otros documentos a los que el lector puede acceder), para que los científicos de CERN pudieran compartir datos. Para ello escribió el programa ENQUIRE, un software de hipertexto muy parecido a lo que hoy conocemos como “wiki”, cuyo ejemplo más conocido es la Wikipedia.

Después de trabajar algunos años en empresas privadas, Berners-Lee volvió a CERN como investigador del centro. CERN era, y sigue siendo ahora con el Gran Colisionador de Hadrones, el LHC, el mayor laboratorio de física de partículas del mundo. Ello implica que genera grandes cantidades de información que deben hacerse accesibles a los investigadores del centro y del mundo, y que tiene una gran relación con los centros de la física en todo el mundo, por lo que en 1989 CERN era el mayor nodo de Internet de toda Europa.

Pero era un Internet donde era difícil encontrar la información, con diversos protocolos o formas de comunicación, y que requería que sus usuarios conocieran lenguaje de programación para usar cosas como la transferencia de archivos por FTP, los grupos de noticias de Usenet e incluso el correo electrónico, todo lo cual ya existía.

Lo que no había era ordenadores comunes, programas comunes ni programas de presentación comunes para intercambiar información. Berners-Lee se planteó unir sus ideas sobre el hipertexto con Internet para enlazar la información y hacerla accesible. Su primera propuesta a CERN fue en marzo de 1989 y le siguió una versión refinada con ayuda de Robert Cailliau en 1990.

En 1990, Tim Berners-Lee creó los elementos esenciales de la red. El HTTP, o "Protocolo de Transferencia de HiperTexto”, las reglas según las cuales la forma se comunican y entienden las máquinas que solicitan algo mediante un enlace de hipertexto y las que lo sirven. El HTML, o “Lenguaje de Marcado de HiperTexto”, para incluir en el texto elementos de formato y enlaces a imágenes, gráficos y documentos que pueden estar en otras máquinas. Finalmente, el navegador interpreta el lenguaje HTML para presentarlo al lector, transmitir las solicitudes de los enlaces y recibir documentos e imágenes.

Había nacido la Web.

Una danza de millones y millones

El 6 de agosto de 1991, Berners-Lee escribió un resumen de su proyecto en el grupo de noticias alt.hypertext. Ese día, la World Wide Web se convirtió en un servicio público y, en el plazo de apenas cinco años, en una gran oportunidad de negocios donde han surgido fortunas fabulosas, como las de los creadores de ICQ, YouTube, FaceBook o Google.

Pero entre ellos no se cuenta Tim Berners-Lee.

En poco tiempo, se convirtió en preocupación principal del inventor que la Web se mantuviera libre, sin patentes ni regalías. Para ello, primero, Tim Berners-Lee regaló su invento al mundo, como lo hicieran en su momento Jonas Salk, creador de la vacuna contra la polio, y Alexander Fleming, descubridor de la penicilina. En segundo lugar, en 1994 fundó en el renombrado MIT (Instituto de Tecnología de Massachusets) el W3C o Consorcio de la World Wide Web, dedicado a crear estándares libres de regalías y recomendaciones para la red, que durante años ha dirigido desde una modesta oficina.

A los 54 años, el innovador británico ha reunido una impresionante cantidad de reconocimientos. En su país natal es Caballero del Reino, Orden del Mérito, miembro de la Royal Society y de varias sociedades más. La revista Time lo nombró entre las 100 personas más influyentes del siglo 20, ha obtenido reconocimientos en Finlandia, Estados Unidos, Holanda y España, donde la Universidad Poltécnica de Madrid lo nombró Doctor Honoris Causa en 2009.

Desde 2009 trabaja en el proyecto británico para hacer los datos de gobierno más accesibles y transparentes para el público en general, lo que se conoce como open government o gobierno abierto. Tal como quiere que sea la red, libre, sin censura, donde los proveedores ni controlen ni monitoricen la actividad de los internautas sin su permiso explícito.

Y, entretanto, se ocupa de lo que será la nueva era de la World Wide Web, según la concibe su creador: la Web Semántica, o Web 3.0, donde los datos no estarán controlados por las aplicaciones que están en red, sino que los propios datos estarán en red, para integrar, combinar y reutilizar los datos, una red de conceptos y no de programas.

Después de todo, Tim Berners-Lee tiene por delante muchos años para volver a sorprender al mundo y ponerlo de cabeza. Y siempre desde una modestia y falta de avaricia de la que tanto podrían aprender tantos.

Los nombres de la red

La World Wide Web (red a nivel mundial), pudo llamarse de muchas formas. Tim Berners-Lee quería destacar que era una forma descentralizada en la que cualquier cosa se podría enlazar a cualquier otra, y entre los nombres que desechó estuvo “Mine of information” (mina de información, cuyas siglas son MOI, "yo" en francés, que le pareció "un poco egoísta"), “The Information Mine” (la mina de información, que desechó porque sus siglas son, precisamente, su nombre, TIM) e “Information mesh” (malla de información, que le parecía que sonaba demasiado parecida a “mess”, confusión). Finalmente, el nombre se eligió porque la red es global, y porque matemáticamente es una red. Además, sentía Berners-Lee, una letra identificativa sería útil. Aunque sea difícil pronunciar WWW en casi todos los idiomas.

Transbordador espacial, fin de ciclo

Primera prueba de vuelo planeador del transbordador
Enterprise, que nunca llegó a ir al espacio.
(foto D.P. NASA, vía Wikimedia Commons)
El 12 de abril de 1981 se lanzó la primera misión del Transbordador Espacial, proyecto destinado a revolucionar la exploración espacial del país que había ganado la carrera a la Luna.

Entre septiembre y diciembre de 2010, a menos que el presidente Obama decida una ampliación, tendrá lugar el último viaje de estas naves, cerrando un ciclo en la exploración del espacio.

El Transbordador Espacial se diferencia de todas las anteriores naves espaciales en que sus principales componentes son reutilizables. Desde el vuelo de su primer astrounauta hasta 1975, las naves habían sido cohetes de varias etapas que se iban desechando conforme ascendían, hasta quedar únicamente la “cápsula” superior del cohete, donde viajaban los tripulantes.

La cápsula volvía a Tierra frenada por paracaídas y caía al mar, sin que se reutilizara tampoco ninguno de sus componentes.

Entre 1959 y 1963 hubo 6 misiones del programa Mercury de un solo tripulante. De 1963 a 1966 se lanzaron 10 misiones del programa Gemini, de dos tripulantes. Y de 1961 a 1972 hubo 17 misiones Apolo, 11 de ellas tripuladas con tres astronautas cada una y cuyo objetivo fue llegar (y volver en varias ocasiones) a la Luna. Tres misiones Apolo se cancelaron por recortes presupuestales.

Las cápsulas Apolo, con cohetes Saturno Ib, menos potentes que el Saturno V que las llevó a la luna, se utilizaron en 1973 en tres misiones a la malograda estación espacial Skylab y en 1975 protagonizaron el primer “encuentro orbital” con una cápsula Soyuz de la Unión Soviética.

Por cierto, todas las misiones tripuladas de la URSS hasta 1989 y de Rusia desde entonces, se han realizado con cohetes de etapas y cápsulas Sputnik, y desde 1963 en sucesivas versiones de las cápsulas Soyuz, para un total de más de 110 misiones orbitales.

Desde la década de 1960, sin embargo, la NASA trabajó en el diseño de una nave reutilizable, que en teoría haría menos costosos los vuelos y podría llevar una carga útil mayor. El diseño final fue lo que técnicamente se conoce como Sistema de Transportación Espacial, formado por un enorme tanque de combustible externo, dos cohetes impulsores sólidos y un vehículo orbitador dotado de tres motores propios y de una serie de pequeños motores impulsores que forman el sistema de maniobra orbital.

La secuencia de puesta en órbita es la siguiente: en el lanzamiento vertical de la nave entran en acción tanto los cohetes impulsores sólidos como los motores del orbitador, alimentados por el hidrógeno y el oxígeno que contiene el tanque externo. Unos dos minutos después del despegue, los cohetes impulsores sólidos se desprenden y caen al mar en paracaídas para ser rescatados y reutilizados.

El orbitador y el tanque siguen hasta llegar a la órbita que ocupará la misión. Entonces el tanque se desprende y cae a tierra, y aunque no se quema al reingresar a la atmósfera, no se reutiliza como tal en otra misión, pero sí se recicla para distintos fines.

El orbitador, que es lo que habitualmente conocemos como “transbordador espacial”, puede llevar hasta ocho astronautas, además de contar con un enorme compartimiento de carga de 18 por 4,5 metros dotado de un brazo robótico que se ocupa de manipular la carga. En este compartimiento de carga, por ejemplo, viajó el telescopio espacial Hubble. El brazo robótico del compartimiento puede además “capturar” vehículos para su reparación, como lo ha hecho con el propio telescopio Hubble, primero para repararlo y después para mejorar continuamente sus capacidades de exploración de nuestro universo.

Terminada su misión, el orbitador reingresa en la atmósfera. La parte inferior del vehículo está cubierta de ladrillos de cerámica altamente resistente al calor, que le permite sobrevivir a las elevadísimas temperaturas provocadas por la fricción en el reingreso. Una vez en la atmósfera, el vehículo puede corregir el rumbo con instrumental de vuelo y sus motores, pero esencialmente es un planeador que vuela sin potencia propia hasta aterrizar.

En total se construyeron seis orbitadores. El primero, el Enterprise, no tenía por objeto llgar a ponerse en órbita, y se usó únicamente para las pruebas atmosféricas. Curiosamente, su nombre fue elegido por la presión de los aficionados a la clásica serie de ciencia ficción Star Trek, cuya nave es, precisamente, el Enterprise. Los otros cinco orbitadores fueron el Challenger, el Columbia, el Discovery, el Atlantis y el Endeavour.

Dos de ellos sufrieron accidentes fatales.

El 28 de enero de 1986, podo después de su despegue, el transbordador Challenger se desintegró en vuelo a causa de una junta defeectuosa en uno de los dos cohetes impulsores sólidos, falleciendo los siete miembros de su tripulación.

El 1º de febrero de 2003, al reingresar a la tierra y pocos minutos antes de su aterrizaje, el transbordador Columbia se desintegró a causa de un pequeño trozo del aislante del tanque externo que se desprendió en el lanzamiento y golpeó el ala izquierda, dañando los ladrillos de cerámica térmica. Al reentrar en la atmósfera, las alas llegan a los 1.650 grados centígrados de calor, y en el proceso cayó uno de los ladrillos, lo que desencadenó el desastre en el que perecieron los siete astronautas de a bordo.

Criticado por su diseño, por no haber conseguido la relación costo-beneficio originalmente prometida y por sus problemas de seguridad, causantes de los dos desastres más costosos en vidas humanas de los programas espaciales, el transbordador espacial pasará a la historia sin embargo como la transición de la competitiva carrera lunar al esfuerzo cooperativo de la Estación Espacial Internacional.

Y, con un presupuesto total de 150 mil millones de dólares en su historia de casi treinta años de viajes espaciales, conviene recordar que los beneficios que ha aportado para el conocimiento, la industria y la tecnología es apenas una quinta parte de lo que ha costado la guerra de Irak desde 2001, y bastante menos de lo que han costado únicamente los rescates bancarios de la crisis financiera desde 2008 en todo el mundo, por mencionar dos ejemplos.

En realidad, un dinero bien invertido.

Después del transbordador

Durante al menos cinco años, Estados Unidos dependerá totalmente de las naves soviéticas Soyuz para sus misiones tripuladas, principalmente el envío de su personal a la Estación Espacial Internacional. Después entrará en acción el programa Orión, actualmente en desarrollo, cápsulas impulsadas por un cohete Ares I de dos etapas, la primera de las cuales es totalmente reutilizable. El vehículo Orión, el módulo de tripulación, es un regreso al concepto original de la cápsula espacial cónica, aunque ahora totalmente reutilizable salvo por el escudo térmico que la protege al reingreso. Si la política no dicta otra cosa, su primer vuelo será en 2015.

Genética no es destino

Dos ratones clonados, genéticamente idénticos,
pero con distinta expresión genética de la cola por
factores epigenéticos.
(foto CC Emma Whitelaw via Wikimedia Commons)
¿Por qué somos como somos?

Durante gran parte de la historia humana, se atribuyó la respuesta a una fuerza más o menos misteriosa llamada “destino”, o a los designios, caprichos y devaneos de los dioses.

Aún entonces se entendía ya que existía una herencia. Los padres rubios o de baja estatura tendían a tener hijos rubios o de baja estatura. Así, incluso en la mitología griega, los hijos de los dioses con seres humanos eran semidioses, y tenían algunas de las características de sus padres divinos.

A partir del siglo XIX, con los trabajos de Darwin y Mendel, empezaron a descubrirse los mecanismos de la herencia. Y pronto supimos que nuestras células albergan largas cadenas de ADN que heredamos de nuestros progenitores, y en las que están presentes los genes, segmentos de esta molécula que producen proteínas.

La herencia genética se convirtió pronto en una pseudoexplicación para casi cualquier rasgo humano. Si los negros o las mujeres tenían calificaciones más bajas en la escuela, no se pensaba que su entorno social, familiar, económico, alimenticio y formativo temprano podría tener la culpa, sino que se echaba mano rápidamente de la “genética” para explicarlo.

La incomprensión de la herencia llevó muy pronto a aberraciones tales como la eugenesia, el racismo con coartada, el darwinismo social y otras ideas sin sustento científico que, sin embargo, marcaron la historia humana, especialmente en el origen y trágicos resultados de la Segunda Guerra Mundial.

Así se empezaron a buscar los “genes de” las más distintas características físicas y conductuales del ser humano, y los medios de comunicación procedieron a informar, no siempre con el rigor y la cautela necesarios, de la existencia de “genes de” la calvicie, el cáncer, el alcoholismo, la esquizofrenia, la capacidad matemática, la genialidad musical y muchos más.

En la percepción pública, nuestros genes marcaban de manera fatal, decisiva e irreversible todo acerca de nosotros. Las compañías de seguros se plantearon rápidamente la discriminación genética, para no venderle seguros de salud a personas genéticamente predestinadas a sufrir tales o cuales afecciones, y no pocas empresas se plantearon más o menos lo mismo

Sin embargo, al finalizarse el proyecto de codificación del genoma humano en 2003 y empezarse a estudiar sus resultados, se descubrió que en nuestro ADN hay únicamente alrededor de 25.000 genes que efectivamente codifican proteínas, entre el 1% y el 2% del ADN.

Evidentemente, eran demasiado pocos genes para explicar la enorme cantidad de rasgos físicos y de comportamiento, emociones, sentimientos y procesos intelectuales del ser humano. Más aún, el nombre dado al ADN restante "junk" o "basura" parecía indicar que el 98% de toda nuestra carga genética era inservible.

Como suele ocurrir en la ciencia, se ha ido demostrando, sin embargo, que las cosas son bastante más complicadas.

Los genes codifican proteínas, que son cadenas más o menos largas formadas a partir de sólo 20 elementos básicos, los aminoácidos. Los 25.000 genes codificadores de nuestro ADN son capaces de sintetizar entre uno y dos millones de proteínas distintas. Para ello, el gen produce una copia de uno de sus lados en ARN mediante el proceso llamado “transcripción”, y el ARN resultante es “editado” (cortado y vuelto a unir) para convertirlo en el ARN mensajero que directamente toma los aminoácidos y “arma” una molécula de proteína que puede contener casi 30.000 aminoácidos en distintas secuencias.

Pero, ¿cómo “sabe” un gen que debe iniciar este proceso? Si existe un elemento que le informa que debe hacerlo, la ausencia de dicho elemento provocaría que el gen nunca actuara, nunca produjera ARN mensajero ni proteínas... dicho de otro modo, el gen nunca se “expresaría”.

Es decir, por encima de nuestra carga genética existen mecanismos y procesos que controlan la actividad de los genes en el tiempo y en el espacio, que “encienden” y “apagan” su actividad y que pueden realizar una gran cantidad de operaciones sobre nuestros genes que van más allá de activarlos o desactivarlos.

Estos mecanismos no son inamovibles como el ADN, que sólo puede alterarse mediante mutaciones o manipulación directa de ingeniería genética, sino que están sometidos las condiciones del medio ambiente y responden a ellas activando y desactivando los genes como un pianista pulsa o no una tecla para producir una melodía.

Los elementos del medio ambiente que actúan sobre estos mecanismos, llamados “epigenoma”, son muy variados: la alimentación, la actividad deportiva, la actividad intelectual, el estrés, los contaminantes, las emociones... todo lo que nos afecta puede afectar a la expresión de nuestros genes mediante el epigenoma.

Además de la enorme complejidad que la epigenética introduce en nuestra comprensión de la herencia y la expresión de los genes, los biólogos moleculares están llegando a la convicción de que el mal llamado “ADN basura” que forma el 98% de nuestra carga de ADN no es un sobrante inútil, sino que forma parte de un complejo entramado químico que regula la activación y desactivación de los genes, su expresión y la forma y momento en la que ésta se realiza.

El biólogo evolutivo y divulgador Richard Dawkins ha escrito que nuestro ADN, nuestra carga genética, no es un plano, sino una receta. Nuestro ADN no indica de modo estricto y preciso las medidas y datos milimétricos del cuerpo que va a construir y hacer funcionar durante varias décadas, lo que sería tremendamente arriesgado pues la falta de un material haría imposible la construcción.

En cambio, el ADN ofrece indicaciones que dejan libertad para utilizar alternativas. Un ingrediente puede ser sustituido, o las cantidades alteradas según su disponibilidad. Así, sujeta a la materia prima y las capacidades del “chef” medioambiental, la tarta saldrá mejor o peor, pero comestible en la mayoría de los casos.

Como suele ocurrir con las explicaciones que parecen “demasiado sencillas”, la historia que nos cuentan los genes y nuestro ADN no está completa. Aún queda mucho por descubrir para poder responder a esa pregunta breve: ¿Por qué somos como somos?

Los gemelos no tan idénticos

Al nacer, y en las primeras etapas de su vida, los gemelos “idénticos”, aquéllos que tienen exactamente la misma carga genética, el mismo ADN, son realmente difíciles de diferenciar. Pero al paso del tiempo, y todos hemos tenido esa experiencia, los gemelos evolucionan de manera distinta, hasta que en su edad madura son relativamente fáciles de diferenciar por sus rasgos físicos y de conducta. Son el testimonio más claro que tenemos de la influencia del medio ambiente sobre nuestros genes. “Genéticamente idéntico” puede dar como resultado dos personas bastante distintas. La herencia no es la totalidad del destino.

Conocimientos e independencias americanas

Estatua de José Quer en el
jardín botánico de Madrid que él fundó
(D.P. vía Wikimedia Commons)
Los procesos de independencia de los países americanos a principios del siglo XIX ocurren ciertamente como culminación del pensamiento ilustrado y el enciclopedismo, durante las guerras napoleónicas, cuando Napoleón Bonaparte domina el accionar político europeo.

Menos evidente es que estos procesos se dan en el entorno de una revolución del conocimiento, cuando la semilla sembrada por los primeros científicos, de Copérnico a Newton, empieza a florecer aceleradamente. El estudio de las reacciones químicas, la electricidad, los fluidos, los gases, la luz, los colores, las matemáticas y demás disciplinas ofrecían un panorama vertiginoso de descubrimientos, revoluciones incesantes, innovación apresurada.

Sólo en 1810, cuando se inicia la independiencia de Venezuela, Colombia, la Nueva España (que incluye a México y a gran parte de Centroamérica), Chile, Florida y Argentina, se aísla el segundo aminoácido conocido, la cisteína, iniciando la comprensión de las proteínas, se publica el primer atlas de anatomía y fisiología del sistema nervioso humano y Humphrey Davy da su nombre al cloro.

El despotismo ilustrado no sólo tuvo una expresión pólítica y social sino que también se orientó hacia la revolución científica y tecnológica que vivía Europa. Así, Carlos III, además de conceder la ciudadanía igualitaria a los gitanos en 1783 y de su reforma de la agricultura y la industria, fue un impulsor del conocimiento científico, sobre todo botánico, y ordenó el establecimiento de las primeras escuelas de cirugía en la América española.

Estudiosos como el historiador Carlos Martínez Shaw señalan que el siglo XVIII fue, en España, el siglo de oro de la botánica, desde que José Quer creó en Madrid el primer jardín botánico y recorrió la península catalogando la flora ibérica.

Varias serían las expediciones científicas emprendidas hacia el Nuevo Mundo en el siglo XVII con el estímulo de Carlos III, como la ambiciosa Real Expedición Botánica a Nueva España, que duraría de 1787 a 1803, dirigida por el oscense Martín Sessé y el novohispano José Mariano Mociño.

A lo largo de diversas campañas, y desde 1788 apoyada por el nuevo monarca, Carlos IV, la expedición recorrió América desde las costas de Canadá hasta las Antillas, y desde Nicaragua hasta California. Habrían de pasar más de 70 años para que sus resultados, debidamente analizados y sistematizados, se publicaran finalmente.

Más prolongada fue, sin embargo, la Real Expedición Botánica del Nuevo Reino de Granada, que transcurriría desde 1782 hasta 1808, donde se estudiarían por primera vez los efectos de la quina, mientras la Expedición Malaspina de 1789 en Argentina también aportó materiales para el jardín botánico español. Tan sólo dos años antes, el fraile dominico Manuel Torres había excavado y descrito el fósil de un megaterio en el río Luján.

Las expediciones científicas solían tener una doble intención, como delimitar la frontera entre las posesiones españolas y portuguesas o identificar posibles recursos valiosos, como la Expedición a Chile y Perú de Conrado y Cristián Heuland, organizada por el director del Real Gabinete de Historia Natural, José Clavijo, y que buscaba minerales valiosos para la corona.

No era el caso de una de las principales expediciones al Nuevo Mundo, la realizada por el naturalista alemán Alexander Von Humboldt a instancias de Mariano Luis de Urquijo, secretario de estado de Carlos IV. De 1799 a 1804, Humboldt, que recorrió el Orinoco y el Amazonas, y lo que hoy son Colombia, Ecuador, Perú y México, una de las expediciones más fructíferas en cuanto a sus descubrimientos, que van desde el hallazgo de las anguilas eléctricas hasta el estudio de las propiedades fertilizantes del guano y el establecimiento de las bases de la geografía física y la meteorología a nivel mundial.

No estando especializado en una disciplina, Humboldt hizo valiosas observaciones y experimentos tanto en astronomía como en arqueología, etnología, botánica, zoología y detalles como las temperaturas, las corrientes marítimas y las variaciones del campo magnético de la Tierra. Le tomaría 21 años poder publicar, aún parcialmente, los resultados de su campaña.

La ciencia y la tecnología española y novohispana fueron, en casi todos los sentidos, una y la misma, resultado de la ilustración y al mismo tiempo sometidas a los caprichos absolutistas posteriores de Carlos IV y Fernando VII.

Un ejemplo del temor a las nuevas ideas que se mantenían pese a las ideas ilustradas lo da el rechazo a las literaturas fantásticas a ambos lados del Atlántico. En 1775, el fraile franciscano Manuel Antonio de Rivas escribía en Yucatán la obra antecesora de la ciencia ficción mexicana, “Sizigias y cuadraturas lunares”, que sería confiscada por la Inquisición y sometida a juicio por defender las ideas de Descartes, Newton y los empíricos. Aunque finalmente absuelto en lo esencial, el fraile vivió huyendo el resto de sus días.

Entretanto, en España, el mismo avanzado Carlos III prohibía, en 1778, la lectura o propiedad del libro Año dos mil cuatrocientos cuarenta, del francés Louis Sébastien Mercier, que en su libro no presentaba tanto la ciencia de ese lejano futuro como la realización de todos los ideales de la revolución francesa.

Ciencia e ilustración, pues, pero no demasiadas.

La vacuna en América

Cuando la infanta María Luisa sufrió de viruela, a instancias del médico alicantino Francisco Javier Balmis el rey inoculó a sus demás hijos con la vacuna desarrollada por Edward Jenner en 1796. Dada la terrible epidemia de viruela que ocasionaba 400.000 muertes en las posesiones españolas de ultramar, la mitad de ellos menores de 5 años, Carlos IV apoyó la ambiciosísima Real Expedición Filantrópica de la Vacuna, encabezada por Balmis, que recorrió los territorios españoles de América y Asia de 1803 hasta 1814, durante los primeros combates independentistas americanos. Este asombroso esfuerzo está considerado aún hoy una de las grandes aportaciones a la erradicación de la viruela en el mundo.

Estirpe canina

(Fotografía © Mauricio-José Schwarz)
Más allá de lo que nos enseña la vida con un perro, su cariño y compañía, su variabilidad física también puede ser la clave de importantes descubrimientos genéticos.

Fue apenas en 2003 cuando se consiguió secuenciar el genoma humano. Esto significa que en ese momento tuvimos un mapa de la composición de nuestro material genético. El lenguaje utilizado para escribir la totalidad del ADN o ácido desoxirribonucleico de todos los seres vivientes de nuestro planeta, utiliza únicamente cuatro letras, AGTC, iniciales de las bases adenina, guanina, timina y citosina, que unidas en pares de timina con adenina o guanina con citosina, forman los peldaños de la escalera retorcida o doble espiral del ADN.

Conocer el genoma de un ser vivo permite conocer su predisposición genética hacia ciertas enfermedades, así como saber la forma en que se desarrollan algunas afecciones y, de manera muy especial, nos permite ir desentrañando los mecanismos y los caminos de la evolución.

Y dado que una de las peculiaridades de la evolución humana ha sido nuestra relación con el perro, no fue extraño así que, sólo tres años después de que se secuenciara el genoma humano, los biólogos moleculares anunciaran la secuenciación del genoma de otro animal, un perro, concretamente uno de la raza boxer.

El anuncio del trazado del mapa genético completo de un perro lo hicieron en 2006 científicos del Instituto de Investigación Genómica en Rockville, Maryland, en los Estados Unidos. El biólogo molecular Ewen Kirkness expresó sus esperanzas de que eventualmente se pudieran identificar los genes responsables no sólo de enfermedades en los perros, sino también de otras características peculiares, tanto físicas como de comportamiento capaces de ayudar a la comprensión de varias enfermedades humanas.

Y es que, quizás por sus años unidos, los perros y los seres humanos comparten una gran cantidad de enfermedades, como la diabetes, la epilepsia o el cáncer. Sin embargo, resulta que es más fácil identificar en los perros algunos genes que, por simplificar la explicación, podríamos llamar causantes de ciertas enfermedades.

Una enfermedad en un ser humano puede ser producida por mutaciones en varios distintos genes, mientras que en el perro, sólo una mutación de un gen puede causar una enfermedad. Y es precisamente el mismo gen mutado el que ocasiona la misma enfermedad en los seres humanos.

Mientras que el genoma humano está formado por 3 mil millones de pares de bases (AT o CG) que forman unos 23.000 genes capaces de codificar proteínas, además de muchos otros genes no codificantes, secuencias regulatorias y grandes tramos de ADN que simplemente no sabemos qué función cumplen, el genoma del perro incluye unos 19.300 genes capaces de codificar proteínas, y la enorme mayoría de ellos son idénticos en el ser humano.

La búsqueda de genes que predisponen a una enfermedad, la ocasionan, la facilitan o la desatan, se facilita gracias a que distintas razas de perros tienen notables tendencias estadísticas a sufrir algunas enfermedades, trastornos o afecciones. Dado que las razas han sido creadas fundamentalmente por el capricho humano, y generalmente atendiendo más al aspecto del animal que a su comportamiento, el estudio de las diferencias genéticas entre razas de perros puede ayudar a identificar más fácilmente a los genes detrás de ciertas enfermedades.

En marzo de este año, investigadores del Instituto Nacional de Investigaciones del Genoma Humano de los Estados Unidos publicaron nuevos estudios sobre la morfología canina analizando las variaciones visibles en la especie buscando, precisamente, la identificación de genes concretos.

Por ejemplo, la comparación genética entre todas las razas que muestran una característica identificativa (como las patas cortas) y las razas que no tienen esta peculiaridad hace un poco más fácil hallar cuáles son las instrucciones genéticas que “ordenan” que las patas crezcan o dejen de hacerlo cuando aún son pequeñas.

Prácticamente ningún científico serio pone en tela de juicio hoy en día de que los perros son simplemente una subespecie domesticada del lobo gris europeo. El lobo es Canis lupus y nuestros perros son Canis lupus familiaris, lobos familiares, genéticamente tan iguales a los lobos que pueden procrear descendencia perfectamente fértil, una de las indicaciones más claras de que dos animales son de una misma especie.

Son animales cuya infancia hemos prolongado al domesticarlos (un proceso llamado neotenia que también experimentó la especie humana) y cuyo aspecto externo hemos moldeado a veceds de modo inexplicablemente caprichosos. Pero dentro del más manso pekinés, del más diminuto yorkshire, del más inteligente border collie o del más confiable cuidador de niños bóxer hay un lobo, nuestro lobo.

Ese lobo entró en la vida de los grupos humanos hace cuando menos 15.000 años, y muy probablemente mucho antes, pues algunos científicos se basan en algunas evidencias para hablar de domesticación ya hace más de 35.000 años.

Parte de esa domesticación se hace evidente en algunos rasgos de comportamiento singulares de estos compañeros para la diversión y el trabajo: su desusada inteligencia. Aunque hacer pruebas fiables para medir la inteligencia canina no es sencillo, está demostrado que el perro tiene disposición a aprender, herramientas cognitivas para resolver problemas y cierto nivel de aparente abstracción (especialmente en situaciones sociales), además de tener una capacidad de imitar al ser humano sólo comparable a la de otros primates.

Esta inteligencia es parte de lo que ha convertido al perro en un ser indispensable para muchas actividades, desde el pastoreo hasta las tareas de lazarillo, guardián, cobrador de presas en cacerías o incluso auxiliares en el diagnóstico de ciertas enfermedades por su capacidad de reconocer por el olfato sustancias relacionadas con enfermedades como la tuberculosis o ciertos tumores.

También en ese terreno, en el de la inteligencia, el conocimiento del genoma del perro ofrece la posibilidad de ayudarnos a entender la genética de nuestro cerebro, de nuestras emociones, de lo que nos hace humanos.

Y, ciertamente, nuestra relación con el perro es una de las cosas que nos hace peculiarmente humanos.

El lobo hogareño

Aunque en el mundo hay más de 300 razas distintas de perros (además de esa enorme población de canes denominados genéricamente “mestizos” por no ajustarse a los arbitrarios parámetros que definen a alguna raza), la genética nos enseña que nuestros compañeros se pueden agrupar en sólo cuatro tipos de perros con diferencias estadísticas significativas: los “perros del viejo mundo” como el malamuy y el sharpei, los mastines, los pastores y la categoría “todos los demás”, también llamada “moderna” o “de tipo cazador”.

El mono que cocina

Cocinar es más que un acto cultural, alimenticio o estético... es probablemente la plataforma de despegue de la inteligencia humana.

Cráneo reconstruido de Zhokoudian, China, probable sitio
del primer fogón de la historia.
(foto CC Science China Press vía Wikimedia Commons)
Los alimentos cocinados adquieren propiedades que los hacen mucho más atractivos para nuestros sentidos que en su estado crudo. Los expertos dirían que la comida cocinada tiene propiedades organolépticas superiores a la comida cruda. Nosotros diríamos simplemente que huele, sabe y se ve mejor. Ambas oraciones significan lo mismo.

El gusto por la comida cocinada no es privativo del ser humano. Los adiestradores de perros saben desde hace mucho que los perros prefieren un filete a la parrilla que el mismo filete crudo, y por ello advierten que si se alimenta a un perro con carne cocinada, tenderá a rechazar después las dietas a base de carne cruda. A lo bueno nos acostumbramos fácilmente. Y nuestros perros también.

Llegar a lo bueno no es tan sencillo, sin embargo. Se cree que el hombre probó la comida cocinada probablemente por accidente, al acceder a animales y plantas cocinados por incendios forestales, pero no pudo empezar su camino para convertirse en chef de renombre internacional sino hasta que pudo utilizar el fuego controladamente.

Las evidencias más antiguas del uso del fuego datan del paleolítico inferior. En el yacimiento de Gesher Benot Ya’aqov, en Israel, en el valle del Jordán, se han encontrado restos de madera y semillas carbonizados que datan de hace 790.000 años. Sin embargo, no es posible descartar que su estado se debiera a un accidente, de modo que algunos arqueólogos más cautos señalan como primera evidencia clara el yacimiento de Zhoukoudian en China, con huesos de animales chamuscados con entre 500.000 y 600.000 años de antigüedad.

Chamuscar, sin embargo, no es cocinar, salvo en la definición de algún soltero perdido en su primer piso propio y abandonado ante los misterios de una estufa.

Al aparecer los fogones u hogares, podemos pensar que ya había al menos un concepto básico de la cocina, y las evidencias de esto se encuentran en sitios arqueológicos con una antigüedad de entre 32.000 y 40.000 años, en las cuevas del río Klasies en Sudáfrica y en la cueva de Tabún en Israel. Y hace entre 20.000 y 40.000 años ya encontramos hornos de tierra usados para hornear la cerámica y la cena indistintamente.

Es importante ubicar estas fechas en el contexto de la historia de la alimentación humana. La domesticación de plantas y animales, la agricultura y la ganadería, son logros humanos muy posteriores al inicio de la cocina, pues sus primeras evidencias se encuentran hace 9.000 años en el medio oriente.

En 2009, el antropólogo y primatólogo británico Richard Wrangham, profesor de antropología biológica de la Universidad de Harvard, quien estudió con los legendarios etólogos Richard Hinde y Jane Goodall, publicó el libro Catching fire: How cooking made us human (Atrapar el fuego, cómo cocinar nos hizo humanos), donde además de analizar los datos arqueológicos sobre el uso del fuego, profundiza en otros aspectos de esta actividad peculiarmente humana para concluir que merece atención la hipótesis de que el hecho mismo de cocinar nuestros alimentos permitió que nos convirtiéramos en los humanos que somos hoy en día.

Ninguna cultura ha adoptado como tal la práctica del “crudismo”, es decir, el consumo de todos sus alimentos sin cocina. Todas las culturas cocinan, y para muchos estudiosos, la cocina es uno de los rasgos esenciales de la propia cultura. De hecho, el crudismo es más una moda dietética hija de las nuevas religiones y nacida hace muy poco tiempo en los países opulentos, nunca en los más necesitados de proteína de calidad. Y se ha demostrado además que las dietas crudistas llevan con gran frecuencia a problemas como la desaparición del período menstrual en las mujeres (dismenorrea) lo que lleva a la infertilidad... que no es precisamente una buena estrategia evolutiva.

Cocinar los alimentos no sólo los hace más sabrosos. Existen estudios que muestran cómo el almidón de alimentos cocinados es de 2 a 12 veces más digerible que el de esos mismos alimentos crudos. Pero el punto esencial, que sustenta la teoría de Wrangham, es que las proteínas de los alimentos cocinados son mucho más digeribles y accesibles para nuestros aparatos digestivos.

Esto significa que nos podemos alimentar correctamente con una menor cantidad de alimento si lo cocinamos, pasamos menos tiempo consiguiendo comida, y el alimento es mucho más fácil de masticar, con lo cual el tiempo que pasamos comiendo también se reduce. A ojos de un antropólogo como Wrangham, estos aspectos representan una ventaja evolutiva y, en consecuencia, una presión de selección que cambió a nuestra especie.

¿Cómo ocurrió esto? La disponibilidad de proteína, argumenta Wrangham, nos permitió tener intestinos más cortos que los de otros primates, y ese “ahorro” se pudo “invertir” en cerebros más grandes y funcionales. El cerebro, vale la pena recordarlo, es un órgano que hace un gran gasto de energía. Siendo sólo el 2% del peso del cuerpo, aprovecha 15% del rendimiento cardiago, 20% del consumo total de oxígeno y un tremendo 25% del total de la glucosa que usa nuestro cuerpo. Y la usa las 24 horas del día, despierto o dormido.

La propuesta de Richard Wrangham no está, sin embargo, exenta de debate. Como las afirmaciones de antropólogos, como Katharine Milton de la Universidad de California, que señala que el gran salto anterior en la evolución humana, hace unos 2,5 millones de años, fue el consumo habitual de carne, que dio a la especie una ventaja importante al permitirle acceso a nutrientes que no estaban al alcance de las especies competidoras. Y es que estas afirmaciones tienen, junto a su solidez y plausibilidad científicas, la desventaja de ir contra ideas extendidas respecto del vegetarianismo, lo “natural” a veces entendido más allá de los datos disponibles, y ciertas creencias místicas y más o menos religiosas. Aunque ese debate es más político que científico, no deja de estar presente.

Pero si el ser humano no sería tal si no hubiera aprendido a cocinar, y somos el único animal que cocina, quizá antes que ser el mono sabio, el homo sapiens, somos el mono que cocina. No es una idea desagradable.

El chef neandertal


Cocinar los alimentos es hoy privativo de nuestra especie. Pero nuestros parientes los neandertales, la otra especie humana con la que convivimos hasta hace unos 30 mil años, sí cocinaban sus alimentos. De hecho, según el codirector del yacimiento de Atapuerca, Eduald Carbonell, el fogón, el hogar donde se mantenía el fuego, “centralizaba la mayoría de las tareas del campamento”. Los datos sobre el uso controlado del fuego por parte del hombre de neandertal no son aislados. En 1996 se encontraban, en Capellades, Barcelona, 15 fogones neandertales de 53.000 años de antigüedad.

España en el espacio

Felipe Lafita Babio, pionero
de la astronáutica española
(fotografía de Monografias Históricas de
Portugalete utilizada bajo política
de fair use no comercial ni difamatorio)
Desde antes de Pedro Duque, y hasta la actualidad, durante 50 años España ha estado activa en la aventura espacial.

Para muchos españoles, la presencia de Pedro Duque en la misión STS-95 del transbordador espacial Discovery lanzada el 29 de octubre de 1998 fue la primera noticia de que España estaba desempeñando un papel en la aventura espacial. Ni siquiera el viaje de 1995 de Miguel López Alegría, nacido en Madrid y nacionalizado estadounidense, había concitado tal atención mediática.

Pedro Duque fue además uno de los pocos astronautas en volar misiones de la NASA y de la ESA, al participar en 203 en la Expedición 8 a la Estación Espacial Internacional, en la misión científica que la ESA denominó “Misión Cervantes”.

Hoy, España es la quinta potencia europea en cuanto a la inversión que realiza en la Agencia Espacial Europea, y es, por tanto, uno de los países más activos en la exploración espacial. Una posición difícil de prever en 1942, cuando el ingeniero Felipe Lafita Babio, fundó el Instituto Nacional de Técnica Aeroespacial (INTA), cuyo primer director sería el científico Esteban Terradas y que es la encargada de la actividad espacial del estado español.

En 1960, apenas tres años después de que el Sputnik 1 diera inicio a la era espacial, el INTA establecía un convenio con la Nasa para la instalación de la estación espacial de Maspalomas, en Gran Canaria, cuya misión original fue colaborar en el seguimiento de las cápsulas espaciales Mercury.

La estación de Maspalomas continúa en actividad y actualmente le ofrece apoyo a la misión Cluster II de la ESA, además de dar asistencia a otras misiones europeas durante las fases de lanzamiento y órbita temprana y a proyectos de la NASA y de JAXA, la agencia espacial japonesa, ocupándose de la recepción, proceso y archivado de datos de observación de la tierra mediante satélites.

No mucho después, en 1964, otro convenio con la NASA establecía el Complejo de Comunicaciones del Espacio Profundo de Madrid, MDSSC, en Robledo de Chavela. Este complejo forma, con sus gemelos de Californa, EE.UU. y Canberra, Australia, el sistema clave de seguimiento de todos los vehículos espaciales de la NASA.

En 1969, una de las cuatro antenas de 34 metros de diámetro con que cuenta el centro, apodada “La Dino”, fue empleada para hacer el seguimiento de la misión Apolo XI, que culminaría con la llegada del hombre a la Luna. El centro tiene además una antena de 70 metros y otra de 26, que también son utilizadas en proyectos de radioastronomía.

En 1978 se inauguraba la Estación de Villafranca del Castillo, dedicada al seguimiento del satélite IUE, dedicado al análisis de la radiación ultravioleta. En 2008 se convirtió en el Centro Europeo de Ciencias Planetarias y Astronomía Espacial (ESAC), sede delas misiones telescópicas espaciales y planetarias de la ESA, y poco a poco va dejando de hacer el seguimiento de misiones que su personal científico realizó las 24 horas del día, los 365 días del año, desde 1981 hasta 2006, para

La Estación Cebreros es parte de la red ESTRACK dedicada al rastreo de distintas naves. Desde 2005, está a cargo del seguimiento de la sonda Venus Express de la ESA, además de realizar labores de rastreo de otras misiones como Mars Express y Rosetta. Su colosal antena parabólica de 35 metros de diámetro es una de las más modernas del mundo

Los satélites españoles

En 1974, el INTA lanzó desde las instalaciones de la NASA en Florida el primer satélite concebido, diseñado y producido en España, el INTASAT, como culminación de un proyecto iniciado seis años atrás. Con sólo 10 kg de peso, el satélite científico cuyo experimento era un fario ionosférico, se puso en órbita el 15 de noviembre a bordo de un cohete Delta.

No sería el único satélite desarrollado y puesto en órbita como parte del programa espacial español.

El UPM-Sat fue un microsatélite desarrollado por la Universidad Politécnica de Madrid, de carácter científico y educativo, lanzado el 7 de junio de 1995 desde la Guayana Francesa en un lanzador Ariane IV-40, y que estuvo activo durante 213 días-

El Minisat 01, cuya carga constaba de un espectrógrafo de rayos ultravioleta, una cámara de rayos gamma y un experimento sobre comportamiento de fluidos en ausencia de gravedad, fue lanzado desde la base aérea de Gando, en Gran Canaria, el 21 de abril de 1997, utilizando una lanzadera espacial Pegasus.

El 29 de julio de 2009, desde Baikonur, Ucrania, se lanzó un cohete Dnepr que llevaba entre su carga el Deimos-1 o Spain-DMC 1, satélite privado de la empresa del astronauta Pedro Duque y parte de un proyecto de observación y captura de imágenes de la superficie terrestre para ofrecer imágenes que ayuden a las acciones en casos de desastres naturales.

Hoy, la Universidad de Vigo se encuentra desarrollando las etapas finales de su satélite Xatcobeo, previsto para lanzarse en otoño de 2010 desde la base europea de la Guayana Francesa.

Sin embargo, la actividad española en la exploración espacial y en la ESA es mucho más amplia en áreas ciertamente menos mediáticos. El INTA cuenta con un centro donde las estructuras diseñadas para la nueva generación de cohetes lanzadores Arianne se someten a pruebas que replican las tensiones y violencia de un lanzamiento y vuelo espacial.

Cuenta con el Centro de Experimentación de El Arenosillo, que desarrolla y lanzan cohetes suborbitales para el estudio de la atmósfera. El Spasolab se ocupa desde 1989 de las pruebas de fiabilidad, durabilidad, rendimiento y certificación de las células de energía solar que utilizan todos los vehículos de la ESA. El INTA además realiza el análisis y diseño de estructuras y mecanismos espaciales, incluyendo desarrollo robótico, trabajos de ingeniería de sistemas espaciales, gestión de proyectos espaciales y mucho más.

Si el futuro está en el espacio, cosa cada vez más certera conforme la actividad en el espacio se vuelve parte de nuestra experiencia cotidiana, existe una muy razonable expectativa de que la ciencia, los científicos, los técnicos y las universidades españolas tengan bien ganado un lugar en ese futuro.

Un pionero frustrado

El título de pionero espacial español pertenece a Emilio Herrera Linares, granadino nacido en 1879 que a principios del siglo XX concibió llegar a la zona más alta de la atmósfera con un globo, un colosal aparato de 26.000 metros cúbicos de capacidad. Para sobrevivir a la experiencia, en diseñó un traje que se podría llamar, en justicia, un traje espacial, que se llegó a construir y probar en 1935 en la Escuela de Mecánicos del aeródromo militar de Cuatro Vientos. Para 1936, todo estaba listo para la gran aventura de Emilio Herrera... pero como tantas otras cosas en España, la experiencia se vio cancelada debido a la asonada militar contra el gobierno legítimo que desembocó en la Guerra Civil.

La descubridora olvidada del ADN

Rosalind Franklin
(foto © utilizada como fair use no comercial ni difamatorio)
Una serie de circunstancias incontrolables ha dejado fuera de la historia del ADN a uno de sus personajes clave, la doctora Rosalind Franklin.

La historia registra, a nivel popular, sólo al británico Francis Crick y al estadounidense James Watson como descubridores de la estructura del ADN. Pero el Premio Nobel de Medicina o Fisiología de 1962 se entregó también a Maurice Frederick Wilkins.

En esa ceremonia, sin embargo, faltaba un personaje fundamental en los trabajos que llevaron al premio concedido a estos tres científicos, la doctora Rosalind Franklin, personaje omitido con demasiada frecuencia en la historia del inicio de la genética moderna, excluida de un premio que se otorgaba a Crick, Watson y Wilkins, según el Comité del Nobel, “por sus descubrimientos referentes a la estructura molecular de los ácidos nucleicos y su importancia en la transferencia de información en el material vivo”.

Estas palabras explicaban, en el austero estilo de los Premios Nobel, que Crick, Watson y Wilkins habían determinado por primera vez en la historia la estructura del ácido desoxirribonucleico, una sustancia aislada por primera vez apenas en 1869 por el médico suizo Friedrich Miescher. En 1944 se demostró que el ADN era un “principio transformador” que llevaba información genética, lo que se confirmó plenamente en 1952.

Crick y Watson son los más conocidos en la saga del descubrimiento de la estructura del ADN porque fueron ellos los que en 1953 establecieron que el ADN estaba formado por una doble hélice. Su descubrimiento, publicado en abril en la reconocida revista Nature, estaba destinado a dar inicio a una de las mayores revoluciones en la historia de la biología.

Pero es necesario saber cómo llegaron a esta conclusión los dos científicos para poder determinar con certeza el papel que jugó en esta historia la científica británica Rosalind Elsie Franklin, biofísica, física, química, bióloga y cristalografista de rayos X, una lista de logros académicos impresionante, máxime si tenemos en cuenta que la consiguió en una vida trágicamente breve, pues nació en 1920 y murió de cáncer en 1958.

Para mirar lo más pequeño

Sería muy sencillo determinar la forma de la molécula de ADN con un potentísimo microscopio de tunelado por escaneo. Este microscopio, inventado en 1981, puede “ver” perfiles tridimensionales a nivel de átomos. Es un logro tal que sus creadores ganaron el Premio Nobel de Física en 1986.

Pero en la década de 1950, las herramientas al alcance de los investigadores eran mucho más limitadas.

Uno de los sistemas utilizados era la cristalografía de rayos X, un método indirecto para determinar la disposición de los átomos en un cristal. Al pasar un haz de rayos X por un cristal, los rayos X se difractan, sufren una distorsión que cambia según el medio por el que se mueve la onda electromagnética. (La difracción de la luz es la responsable de que un lápiz en un vaso de agua parezca quebrarse al nivel del agua.)

Los ángulos e intensidades de los rayos X difractados captados en una película fotográfica permiten a los cristalógrafos generar una imagten tridimensional de la densidad de los electrones del cristal y, a partir de ello, calcular las posiciones de los átomos, sus enlaces químicos y su grado de desorden, entre otros muchos datos.

En enero de 1951, la joven doctora Rosalind Franklin entró a trabajar como investigadora asociada al King’s College de Londres, bajo la dirección de John Randall. Éste la orientó de inmediato a la investigación del ADN, continuando con el trabajo, precisamente, de Maurice Wilkins.

Lo que siguió no suele salir en las películas y narraciones porque fue el duro y poco espectacular trabajo de Franklin para afinar sus herramientas (un tubo de rayos X de foco fino y una microcámara), y determinar las mejores condiciones de sus especímenes para obtener imágenes útiles. En este caso, el nivel de hidratación de la muestra era esencial.

Habiendo determinado la existencia de dos tipos de ADN, se dividió el trabajo. Wilkins se ocupó de estudiar el tipo “B”, determinando poco después que su estructura era probablemente helicoidal. Rosalind Franklin, por su parte, trabajó con el tipo “A”, generando imágenes que descritas como poseedoras de una gran belleza, y abandonando la teoría de la estructura helicoidal sólo para retomarla después, afinada y perfeccionada.

Una de las fotografías de difracción de rayos X tomada por Franklin en 1952, y que es famosa en el mundo de la ciencia como la “fotografía 51”, fue vista por James Watson a principios de 1953, cuando todos los científicos se apresuraban por resolver el enigma ante el fracaso espectacular del modelo de ADN propuesto por Linus Pauling. Esa fotografía sería fundamental para consolidar el modelo de Crick y Watson.

Rosalind Franklin había redactado dos manuscritos sobre la estructura helicoidal del ADN que llegaron a la revista especializada Acta Cristallographica el 6 de marzo de 1953, un día antes de que Crick y Watson finalizaran su modelo del ADN. Ese mismo día, Franklin dejó el King’s College para ocupar un puesto en el Birbeck College y su trabajo quedó al alcance de otros científicos. Pero ella, al parecer, nunca miró atrás.

El trabajo de Rosalind Franklin se publicó en el mismo número de Nature que el modelo de Crick y Watson, como parte de una serie de artículos (incluido también uno de Wilkins) que apoyaban la idea de la estructura helicoidal doble de la molécula de la vida.

Como la idea de esa estructura helicoidal rondaba por todos los laboratorios de la época, el debate de quién fue el verdadero descubridor de la forma del ADN probablemente no se resolverá nunca. Lo que es claro es que tanto Crick como Watson, Wilkins y Franklin fueron los padres comunes de este descubrimiento que literalmente cambió nuestro mundo y nuestra idea de nosotros mismos.

El modelo de Crick y Watson no fue aceptado y confirmado del todo sino hasta 1960, cuando Rosalind Franklin ya había fallecido. Y como al concederse el Premio Nobel a los descubridores de la doble hélice, el reglamento del galardón impedía que se diera el premio de modo póstumo, Rosalind Franklin quedó sin el reconocimiento al que tenía, sin duda alguna, tanto derecho como los otros tres premiados, y cayó en un olvido del que apenas se le empezó a rescatar en la década de 1990.

Sexismo y más allá

En un mundo académico todavía sexista, como incluso lo admitió Francis Crick años después, Rosalind Franklin dejó atrás el caso del ADN para concentrarse en el ARN, la otra molécula de la vida, y el genoma de muchos vírus. Siguió produciendo artículos científicos (siete en 1956 y seis en 1957) y estudiando el virus de la poliomielitis hasta su muerte. Y probablemente nunca supo que su trabajo había sido la base del éxito de Crick y Watson.

Las células de la empatía

Una neurona de la zona del hipocampo
(foto CC MethoxyRoxy vía
Wikimedia Commons)
Las neuronas espejo, reaccionan tanto al observar una acción como cuando la realizamos nosotros mismos. Las implicaciones del descubrimiento pueden ser arrolladoras.

A principios de la década de 1990, Giacomo Rizzolatti, al frente de un grupo de neurocientíficos formado por Giuseppe Di Pellegrino, Luciano Fadiga, Leonardo Fogassi y Vittorio Gallese de la Universidad de Parma informó del hallazgo de un tipo de neuronas en macacos que se activan cuando el animal realiza un acto motor, como tomar un trozo de comida con la mano, pero también se activan cuando el animal observa a otro realizar dicha acción.

No se trata de neuronas motrices, sino de neuronas situadas en la corteza premotora, y no se activan simplemente al presentarle al mono la comida como estímulo, ni tampoco se activan cuando el mono observa a otra persona fingir que toma la comida. El estímulo visual efectivo implica la interacción de la mano con el objeto.

Los investigadores llamaron a estas neuronas “espejo”, y el descubrimiento dio pie a una enorme cantidad de especulaciones e hipótesis sobre el papel funcional que podrían tener estas neuronas, y muchos investigadores emprendieron experimentos para determinar si el ser humano y otros animales tenían un sistema de neuronas espejo.

El salto de las neurociencias

De todos los objetos y mecanismos del universo, curiosamente, del que sabemos menos es precisamente el que empleamos para entender, para sentir y para ser humanos: el cerebro.

El estudio de nuestro sistema nervioso se vio largamente frenado quizá por influencia de visiones religiosas que consideran que la esencia humana misma tiene algo de sagrado y por tanto no debe ser sometida al mismo escrutinio que dedicamos al resto del universo. Pero hoy en día estamos viviendo un desarrollo acelerado de la neurociencia y se espera que en los próximos años veamos una explosión del conocimiento similar a la que experimentó la astronomía con Galileo, la biología con Darwin o la cosmología y la cuántica con Einstein.

Las neurociencias son un sistema interdisciplinario que incluye a la biología, la psicología, la informática, la estadística, la física y varias ciencias biomédicas y que tiene por objeto estudiar científicamente el sistema nervioso. Esto implica estudiar desde el funcionamiento de su unidad esencial, la neurona, hasta la compleja interacción de los miles de millones de neuronas que dan como resultado la actividad cognitiva, las sensaciones, los sentimientos, la conciencia, el amor, el odio y la comprensión, entre otras experiencias humanas.

Aunque a lo largo de toda la historia humana se ha pretendido comprender la función del sistema nervioso, su estudio científico nace prácticamente con el trabajo de Camilo Golgi y Santiago Ramón y Cajal a finales del siglo XIX. Su desarrollo sin embargo tuvo que esperar a que la biología molecular, la electrofisiología y la informática avanzaran lo suficiente para aproximarse en detalle al sistema nervioso, lo que ocurrió apenas a mediados del siglo XX.

La identificación de los neurotransmisores, los sistemas de generación de imágenes del cerebro en funcionamiento, la electrofisiología que permite estudiar las descargas electroquímicas de todo el cerebro, de distintas estructuras e incluso de una sola célula, una sola neurona.

Y fue la posibilidad de medir la reacción de una sola neurona la que permitió a los investigadores realizar el experimento que descubrió las neuronas espejo.

Las implicaciones

El doctor Vilanayur S. Ramachandran, considerado uno de los principales neurocientíficos del mundo, especuló sobre el significado y función de las neuronas espejo, a partir de otro estudio, en el que investigadores de la Universidad de Califonia en Los Ángeles descubrieron un grupo de células en el cerebro humano que disparan normalmente cuando se pincha a un paciente con una aguja, es decir, “neuronas del dolor”, pero que también se activaban cuando el paciente miraba que otra persona recibía el pinchazo. Era una indicación adicional de que el sistema nervioso humano también tiene neuronas espejo.

Pero también le daba una dimensión completamente nueva a la idea de “sentir el dolor de otra persona”. Ante los resultados de esa investigación, esa capacidad empática parecía salir del reino de la filosofía, la moral y la política social para insertarse en nuestra realidad biológica. Una parte de nuestro cerebro, al menos, reacciona ante el dolor ajeno como reaccionaría ante nuestro propio dolor.

Para Ramachandran, las neuronas espejo podrían ser a las neurociencias lo que el ADN fue para la biología, un marco unificador que podría explicar gran cantidad de las capacidades del cerebro humano. Incluso, este reconocido estudioso especuló que el surgimiento de las neuronas espejo pudo haber sido la infraestructura para que los prehomínidos desarrollaran hablidades como el protolenguaje, el aprendizaje por imitación, la empatía, la capacidad de "ponerse en los zapatos del otro" y, sobre todo, la "teoría de las otras mentes” que no es sino nuestra capacidad de comprender que otras personas pueden tener mentes, creencias, conocimientos y visiones distintas de la nuestra. Es gracias a esa comprensión que preguntamos cosas que no conocemos pero otros pueden conocer... y que le decimos a otros cosas que quizás ignoran.

Ramachandran también sugería que el sistema de neuronas espejo podría ser responsable de una de las habilidades más peculiares del nuestro cerebro: la de leer la mente.

Evidentemente no leemos la mente como lo proponen las fantasías telepáticas, pero tenemos una gran capacidad para deducir las intenciones de otras personas, predecir su comportamiento y ser más astutos que ellos. Los negocios, las guerras y la política son pródigos en ejemplos de este “maquiavelismo” que caracteriza al primate humano.

Quizás el sistema de neuronas espejo, desarrollado desde sus orígenes bajo una presión evolutiva determinada, es precisamente el que nos hace humanos, el responsable de que hace 40.000 años se diera el estallido de eso que llamamos civilización.

Para Ramachandran, de ser cierto incluso un fragmento de todas estas especulaciones, el descubrimiento de las neuronas espejo podría demostrar ser uno de los descubrimientos más importantes de la historia humana.

El aprendizaje cambia el cerebro

Entre los más recientes avances en el estudio de las neuronas espejo se encuentra un estudio de Daniel Glaser que demostró que las neuronas espejo de los bailarines se activan más intensamente cuando el bailarín ve movimientos o acciones que él domina que al ver movimientos que no están en su repertorio de movimientos. “Es la primera prueba de que ... las cosas que hemos aprendido a hacer cambian la forma en que el cerebro responde cuando ve el movimiento”, dice Glaser.

Los números de los mayas


Numerales mayas del 1 al 29.
(CC via Wikimedia Commons)


La asombrosa matemática maya y sus estrecha relación con la astronomía son fuente de asombros por sus logros... y de temores infundados por parte de quienes poco conocen de esta cultura.

De todos los aspectos de la cultura maya, desarrollada entre el 1800 a.C. y el siglo XVII d.C., uno de los más apasionantes es sin duda el desarrollo matemático que alcanzó este pueblo.

El logro que se cita con más frecuencia como punto culminante de la cultura maya es el cero. El cero ya existía como símbolo entre los antiguos babilonios como indicador de ausencia, pero se perdió y no se recuperaría sino hasta el siglo XIII con la numeración indoarábiga.

El cero era de uso común en las matemáticas mayas, simbolizado por un caracol o concha marina, fundamental en su numeración de base vigesimal. Es decir, en lugar de basarse en 10, se basaba en el número 20, quizá por los veinte dedos de manos y pies.

Sin embargo, hay indicios de que los mayas, aunque lo aprovecharon y difundieron, no fueron los originadores del cero en Mesoamérica. Probablemente lo recibieron de la cultura ancestral de los olmecas, desarrollada entre el 1400 y el 400 antes de nuestra era. Los olmecas fueron, de hecho, los fundadores de todas las culturas mesoamericanas posteriores (incluidas la azteca o mexica y la maya, entre otras), aunque por desgracia no contaban con escritura, por lo que siguen siendo en muchos aspectos un misterio.

El otro gran logro maya fue la utilización del sistema posicional, donde el valor de los números cambia de acuerdo a su posición. El punto que representa uno en el primer nivel, se interpreta como veinte en el segundo nivel y como 400 en el tercero, como nuestro “1” puede indicar 10, 100 o 1000.

Los números mayas se escribían con puntos y rayas. Cada punto era una unidad, y cada raya representaba cinco unidades. Así, los números 1, 2, 3 y 4 se representaban con uno, dos, tres y cuatro puntos, mientras que el cinco era una raya. Cuatro puntos adicionales sobre la raya indicaban 6, 7, 8 y 9, y el diez eran dos rayas una sobre la otra. Así se podía escribir hasta el número 19: tres rayas de cinco unidades cada una y cuatro puntos unitarios. Al llegar allí, se debía pasar a la casilla superior, del mismo modo que al llegar a 9 nosotros pasamos al dígito de la izquierda. El número 20 se escribía con un punto en la casilla superior (que en esa posición valía 20 unidades) y un cero en la inferior.

El sistema funcionaba para cifras de cualquier longitud y permitía realizar cálculos complejos con relativa facilidad si los comparamos con los mismos cálculos utilizando números romanos.

El desarrollo de las matemáticas entre los mayas se relacionó estrechamente con su pasión astronómica, producto a su vez de la cosmovisión religiosa de su cultura. Su atenta y minuciosa observación y registro de los diversos acontecimientos de los cielos llevó a los mayas a tener cuando menos 17 calendarios distintos referidos a distintos ciclos celestes, como los de Orión, o los planetas Mercurio, Venus, Marte Júpiter y Saturno, que se interrelacionaban matemáticamente.

Pero los dos calendarios fundamentales de los mayas eran el Tzolk’in y el Haab.

El calendario sagrado, el Tzolk’in se basa en el ciclo de las Pléyades, de 26000 años, generando un año de 260 días dividido en cuatro estaciones de 65 días cada una. Cabe señalar que las Pléyades, grupo de siete estrellas de la constelación de Tauro, atrajeron la atención de numerosos pueblos, como los maorís, los aborígenes australianos, los persas, los aztecas, los sioux y los cheroqui. A los recién nacidos se les daba su nombre a partir de cálculos matemáticos basados en un patrón de 52 días en este calendario.

El Haab, por su parte, era civil y se utilizaba para normar la vida cotidiana. Su base es el ciclo de la Tierra y ha sido uno de los motivos de admiración del mundo occidental, pues resultaba altamente preciso con 365,242129 días, mucho más preciso que el Gregoriano que se utiliza en la actualidad. Nosotros tenemos que hacer un ajuste de un día cada 4 años (con algunas excepciones matemáticamente definidas), mientras que los mayas sólo tenían que hacer una corrección cada 52 años.

La interacción matemática de los años de 260 y 365 días formaba la “rueda calendárica”. Los pueblos mesoamericanos se esforzaban por hacer calendarios no repetitivos, donde cada día estuviera identificado y diferenciado. Esto lo hacemos nosotros numerando los años, de modo que el 30 de marzo de 1919 no es igual al 30 de marzo de 2006. Los mayas no numeraban los años, y cada día se identificaba por su posición en ambos calendarios, el sagrado y el civil, de modo que un día concreto no se repetía sino cada 18.980 días o 52 años.

Los mayas usaban también la llamada “cuenta larga”, un calendario no repetitivo de más de 5 mil años que señalaba distintas eras. La era actual comenzó el 12 ó 13 de agosto del 3114 antes de nuestra era y terminará alrededor del 21 de diciembre de 2012. Esta cuenta larga utiliza varios grupos de tiempo: kin (día), uinal (mes de 20 kines), tun (año de 18 uinales, 360 días), katún (20 tunes o 7200 días) y baktún (20 katunes o 144.000 días).

Cada fecha se identifica con cinco cifras, una por cada grupo de tiempo. La fecha 8.14.3.1.12 que aparece en la placa de Leyden, por ejemplo, indica el paso de 8 baktunes, 14 katunes, 3 tunes, 1 uinal y 12 días desde el comienzo de la era. Convertidos todos dan 1.253.912 días, que divididos entre los 365,242 días del año nos dan 3.433,1 años, que restados de la fecha de inicio de la era nos da el año 320 de nuestra era.

Esta proeza matemática, por cierto, ha sido malinterpretada por grupos de nuevas religiones. Dado que esta era maya termina hacia el 21 de diciembre de 2012, se ha hablado de una inexistente “profecía maya” que señala ese día como el fin del mundo. Ninguna estela, códice o resto maya indican tal cosa. Sólo señalan que matemáticamente ese día termina una era, y al día siguiente, como ha pasado al menos cinco veces en el pasado según creían los mayas (en cinco eras), comenzará una nueva era. Como el 1º de enero comienza otro año para nosotros y el mundo no se acaba el 31 de diciembre.

El trabajo detrás de la precisión

El calendario lunar maya, Tun’Uc, tenía meses de cuatro semanas de 7 días, una por cada fase lunar. Los mayas calcularon el ciclo lunar en 29,5308 días, contra los 29,5306 calculados hoy, una diferencia de sólo 24 segundos. Para conseguir este cálculo, los mayas usaron sus matemáticas además de una aproximación científica. Al contar sólo con sistemas de observación directos, los astrónomos mayas registraron minuciosamente 405 ciclos lunares durante 11.960 días, más de 30 años de observaciones que, tratadas matemáticamente, permitieron la precisión que aún hoy nos asombra.