Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Fundó la informática, ganó una guerra, murió perseguido

Los ordenadores que hoy son herramienta fundamental de la ciencia, la economía, el arte y la comunicación son, en gran medida, resultado del sueño de un matemático inglés poco conocido.

Estatua de Alan Turing en Bletchley Park.
(Foto Ian Petticrew [CC-BY-SA-2.0],
vía Wikimedia Commons)
Uno de los frentes secretos de la Segunda Guerra Mundial es Bletchley Park, que era un edificio militar (hoy museo) en Buckinghamshire, Inglaterra. Allí, un grupo de matemáticos, ajedrecistas, jugadores de bridge, aficionados a los crucigramas, criptógrafos y pioneros de la informática se ocuparon de derrotar al nazismo quebrando los códigos secretos con los que se cifraban las comunicaciones militares y políticas alemanas.

Desde 1919, los servicios secretos, criptógrafos y matemáticos habían estado trabajando sobre la máquina llamada “Enigma”, inventada originalmente por el holandés Alexander Koch y mejorada por técnicos alemanes para las comunicaciones comerciales, aunque pronto se volvió asunto de las fuerzas armadas alemanas. La máquina Enigma era esencialmente una máquina electromecánica que usaba una serie de interruptores eléctricos, un engranaje mecánico y una serie de rotores para codificar lo que se escribía en un teclado, y en una versión mejorada y ampliada se convirtió en la forma de codificar y decodificar mensajes militares alemanes de modo enormemente eficaz.

Al iniciarse la Segunda Guerra Mundial, aprovechando los esfuerzos criptográficos previos de quienes habían abordado los misterios de la máquina Enigma, el joven de 26 años Alan Mathison Turing desarrolló mejoras al sistema polaco anterior para romper el código Enigma y diseñó la llamada "bomba de Turing", una máquina que buscaba contradicciones en los mensajes para hacer deducciones lógicas que permitían descifrar los mensajes más rápida y eficazmente. Pero, por supuesto, ningún ejército depende de una sola arma, de una sola estrategia ni de un solo sistema de cifrado para sus mensajes secretos. Así, Turing después se vio implicado en el desciframiento del sistema indicador naval alemán, un desarrollo ampliado de Enigma. Más adelante, en 1942 fue parte del equipo encargado de romper el código FISH de la armada nazi y puso algunas de las bases del ordenador Colossus, desarrollado por otro departamento militar inglés durante la guerra.

El que sería, sin proponérselo, soldado clave, en la Batalla de Inglaterra en 1940 y en el triunfo aliado final de 1945 había nacido en 1912. Desde su niñez se habían hecho evidentes sus aptitudes para la ciencia y las matemáticas, lo que sin embargo no deslumbró a sus profesores, más interesados en el estudio de los clásicos. Turing, sin embargo, siguió estudiando y trabajando matemáticas por su cuenta y llegó a entender y desarrollar planteamientos de Einstein cuando sólo tenía 16 años, concluyendo, algo que Einstein aún no había declarado abiertamente, que su trabajo en la relatividad desafiaba la universalidad de las leyes de Newton. Más adelante, como estudiante en el King’s College de Cambridge (fue rechazado en el Trinity College por sus malas notas en humanidades), reformuló algunos planteamientos del matemático Kurt Gödel y en 1936 planteó una máquina hipotética (la “máquina de Turing”), un dispositivo manipulador de símbolos que, pese a su simplicidad, puede adaptarse para simular la lógica de cualquier ordenador o máquina de cómputo que pudiera construirse o imaginarse, de modo que podría resolver todos los problemas que se le plantearan. La máquina de Turing abre la posibilidad de crear máquinas capaces de realizar computaciones complejas, idea que desarrolló más ampliamente en Princeton. Esta máquina imaginaria permitió responder a algunos problemas matemáticos y lógicos de su tiempo, pero sigue siendo hoy en día uno de los elementos de estudio fundamentales de la teoría informática, pues mucha de la informática de hoy surge de la nueva forma de algoritmos (procedimientos matemáticos de solución de problemas) derivados de la máquina de Turing.

Turing trabajó en proyectos criptográficos del gobierno británico y fue llamado a Bletchley apenas Alemania invadió Polonia en 1938. Durante la guerra, además de su trabajo criptográfico, Turing se ocupó de aprender electrónica. Terminada la guerra, en 1946 en el Laboratorio Nacional de Física de Gran Bretaña, presentó el primer diseño completo de un ordenador con programas almacenados, algo trivial hoy en día. Después de años de construcción, retrasos y sinsabores, el ordenador ACE de Turing fue construido y ejecutó su primer programa el 10 de mayo de 1950. A partir de entonces, Turing se ocupó de la matemática en la biología, interesándose sobre todo por los patrones naturales (como la concha del nautilus o las semillas de un girasol) que siguen los números de Fibonacci.

El brillante matemático, sin embargo, era homosexual en una época en que no había ninguna tolerancia a su condición sexual y en un momento y un país donde los actos homosexuales se perseguían como delitos y como una enfermedad mental. Después de que su casa fue robada por uno de sus compañeros sexuales en 1952, Turing admitió públicamente su homosexualidad y fue declarado culpable. Se le dio la opción, tratándose de un personaje de cierta relevancia, de ir a la cárcel o de someterse a un tratamiento de estrógenos para disminuir sus impulsos sexuales, opción ésta que eligió el genio. Debido a su homosexualidad, que se consideraba un riesgo, perdió además sus autorizaciones de seguridad y se le impidió seguir trabajando en la criptografía al servicio de Su Majestad.

Turing apareció muerto el 8 de junio de 1954, según todos los indicios a causa de su propia mano, aunque quedan algunas dudas sobre la posibilidad de un accidente o un menos probable asesinato. Aunque había sido condecorado con la Orden el Imperio Británico por su trabajo en la guerra, éste permaneció en secreto hasta la década de 1970, cuando empezó la reivindicación de su nombre. En 2001, en el parque Sackville de Manchester, se develó la primera estatua conmemorativa que lo resume: "Padre de la ciencia informática, matemático, lógico, quebrador de códigos en tiempos de guerra, víctima del prejuicio”.

La prueba de Turing

Habiéndose ocupado desde 1941 de la posibilidad de la inteligencia de las máquinas, lo que en 1956 pasaría a llamarse "inteligencia artificial", Turing consideró que no había ninguna prueba objetiva para determinar la inteligencia de una máquina, y diseñó la llamada “Prueba de Turing”. En ella, un evaluador mantiene conversaciones simultáneas mediante una pantalla de ordenador con una persona y con una máquina, sin saber cuál es cuál. Tanto la persona como la máquina intentan parecer humanos. Si el evaluador no puede distinguir de modo fiable cuál es la persona y cuál la máquina, ésta habrá pasado la prueba y se debe considerar "inteligente".

La medicina en la guerra de independencia

Conociendo los elementos a disposición de los médicos hace 200 años, podemos apreciar mejor la medicina que tenemos, pese a sus muchas limitaciones.

Quienes en 1808 decidieron levantarse contra los franceses en Madrid tenían poco qué esperar de los médicos de su entorno, no por la falta de patriotismo o de rechazo al ocupante por parte de la profesión médica, sino porque los avances que se estaban viviendo en las ciencias físicas y naturales no se reflejaban en la medicina, que seguía siendo un arte con poca efectividad pese a la innegable buena voluntad de los practicantes. Incluso el sueño de los enciclopedistas de integrar al ser humano al estudio de las ciencias naturales no llevaba todavía a cuestionar y reevaluar profundamente las teorías médicas. Aunque la descripción del cuerpo humano, su anatomía, había recibido un fuerte impulso desde el Renacimiento, el funcionamiento del mismo estaba aún en la oscuridad, y los medicamentos eficaces eran todavía un sueño.

Un médico de principios del siglo XIX atendía a sus pacientes sin lavarse las manos, ni siquiera después de manipular una herida en un paciente y pasar a otro, pues lo ignoraba todo acerca de los gérmenes patógenos. Aunque Anton van Leeuwenhoek ya había observado los “animalillos” o seres vivientes microscópicos a fines del siglo XVII, la conexión de éstos con las enfermedades infecciosas no se establecería sino hasta mediados del siglo XIX.

Según la teoría de los médicos de principios del siglo XIX, las enfermedades se transmitían por algún medio misterioso, como aires malévolos (que se prevenían colocando productos aromáticos en las ventanas y habitaciones, como el ajo), o eran de generación espontánea, afectando a alguno de los cuatro humores que se creía que componían al cuerpo. La medicina todavía sostenía que el cuerpo humano estaba lleno de cuatro “humores” o líquidos, la bilis negra, la bilis amarilla, la flema y la sangre. En un cuerpo sano, los cuatro humores estaban equilibrados, pero creían que alguno de ellos podía aumentar por contagio o de modo espontáneo, y que ese desequilibrio provocaba la enfermedad. La forma de tratar dicha enfermedad era, entonces, devolver el equilibrio humoral al cuerpo. Las sangrías (mediante cortes o con sanguijuelas) comunes en la medicina del siglo XVIII y hasta principios del XIX eran resultado de esta teoría.

Como los cuatro humores se relacionaban con los cuatro elementos que se creía que eran los esenciales del universo (cosa que, increíblemente, aún sostienen algunas personas que hablan de los “cuatro elementos” en lugar de los más de 115 que conocemos hoy (de los que 94 ocurren naturalmente y los demás son sintéticos), se desarrollaron alambicadas correlaciones, asegurando que las personas en las que predominaba un humor u otro se caracterizaban por rasgos físicos y emocionales claros. Esas creencias, carentes totalmente de bases en la realidad, se mantienen con la descripción que podemos hacer de los ingleses como “flemáticos”, que quiere decir persona con exceso de flema, que es por tanto tranquilo y poco dado a expresar emociones, mientras que las personas que se enfadan con facilidad son “coléricas” o “biliosas” por tener un exceso de bilis amarilla.

Esta visión tenía un referente social, como hoy lo tienen otras visiones médicas, como las infecciones graves, el cáncer o el Alzheimer, es decir, no se limitaba a la salud y la enfermedad. Los monarcas y los siervos se calificaban y valoraban según estos principios, y se actuaba en consecuencia, en todos los niveles, desde el jurídico hasta el económico.

Una habilidad caracterizaba a todo buen médico de la época, y era la capacidad quirúrgica, en particular la capacidad de realizar amputaciones con gran precisión y velocidad. Y el motivo era la falta de anestésicos y analgésicos. Recibir un disparo o un corte profundo durante una batalla podía conllevar tal destrucción de los huesos que no se podía esperar que soldaran naturalmente, y se amputaba el miembro, igual que cuando se presentaba una infección y gangrena que, sin antibióticos, sólo podía detenerse con la sierra y el cuchillo, por supuesto que sin desinfectar ni lavar desde la anterior amputación. Si el paciente era rico y poderoso, podía quizás contar con opio suficiente para calmar el dolor de la herida y paliar el de la amputación, pero que de no serlo apenas tenía como opción beber algo de alcohol, morder algo como una rama de árbol y someterse a que lo contuvieran los ayudantes del cirujano mientras éste trabajaba, mientras más rápido mejor. Y si la amputación se decidía poco después de la herida y se realizaba de inmediato, se contaba con ventajas como la insensibilidad relativa del miembro afectado y la constricción de los vasos sanguíneos, sabemos ahora que a causa del shock de la herida. Los cirujanos también podían atender los dientes, como en el caso de abscesos o extracciones, pero la habilidad y conocimientos anatómicos de los cirujanos no se podía aplicar en muchas formas sin los anestésicos y su utilización generalizada que vinieron a mediados del siglo XIX.

Finalmente, el médico de principios del siglo XIX no contaba tampoco con un estetoscopio, aunque ya podía aplicar las vacunas desarrolladas por Edward Jenner, que funcionaban sin que se supiera exactamente cómo. Entre su arsenal tenía dentaduras y varios miembros postizos, así como anteojos e incluso bifocales que le permitían ayudar a sus pacientes a recuperar una visión adecuada y útil. Pero por lo demás estaban solos ante la enfermedad, como los últimos médicos cuya vocación se veía frustrada por la falta de herramientas, conocimientos y teorías adecuados para cumplir su objetivo de conseguir “el bien de sus pacientes”, como reza el juramento hipocrático desde el siglo IV antes de nuestra era.

Pocos años en el futuro, los médicos, quizá incluso los que participaron muy jóvenes tratando de salvar vidas en el levantamiento de 1808, tendrían en sus manos la práctica antiséptica, la anestesia, la teoría de gérmenes, la jeringa hipodérmica, el estetoscopio y todo un arsenal nuevo, inimaginable en los hospitales de campaña de Madrid hace 200 años.

Las heridas de guerra

Más allá de la amputación, los médicos de 1808 disponían de otras armas para tratar las heridas sufridas en combate. Empleaban vendas con yeso para unir fuertemente los dos extremos de una herida rasgada, y las heridas más grandes se cosían con hilo de algodón o hecho de tendones. Las heridas muy profundas causadas por armas punzocortantes no podían tratarse directamente, de modo que la opción era dejarlas sangrar para que salieran la suciedad y otros cuerpos extraños, para lo cual a veces incluso se abrían más. Las balas de mosquete, cuando no producían heridas mortales, eran extraídas por el cirujano con los dedos, y cuando eran demasiado profundas para alcanzarlas, se les dejaba dentro del paciente.

Momias: mensajes del pasado

El hecho de que los seres humanos estemos conscientes de nuestra propia mortalidad, unido al natural, instintivo deseo de sobrevivir, ha convertido a las momias en una fuente continua de asombro, supersticiones, ideas religiosas y, apenas en los últimos 200 años, fuente de información obtenida científicamente sobre el pasado no sólo del individuo momificado, sino de su entorno, su sociedad y su cultura.

Una momia es todo cadáver humano que al paso del tiempo desde su fallecimiento no sufre, el proceso de descomposición habitual, sino que conserva, total o parcialmente, la piel y carne. Esto puede ocurrir debido a las condiciones naturales de la ubicación del cuerpo (lugares en extremo fríos, con muy bajos niveles de humedad o ausencia de oxígeno) o bien puede ser resultado de un proceso intencional mediante el cual se conserva el cuerpo. El proceso de momificación más conocido es, sin duda, el egipcio, que se desarrolló a lo largo de unos tres mil años generando una enorme cantidad de ejemplos de diversos niveles de complejidad (y eficiencia) en el proceso de conservación del cuerpo.

Pero las momias más antiguas no son las egipcias. Hay indicios de que los antiguos persas momificaban a sus príncipes, pero no pruebas. Sin embargo, las momias de mayor antigüedad son las de la cultura chinchorro del norte de Chile, que momificó a sus muertos durante dos mil años empezando al menos en el año 5.000 antes de nuestra era. La antigüedad de sus momias, según explica el Dr. Bernardo Arriaza, uno de los principales estudiosos de las momias chinchorro, ha hecho que se revaloren las ideas preconcebidas sobre el “simplismo” de la vida de las sociedades de cazadores-recolectores, que puede haber sido mucho más elaborada de lo que creíamos. Si tenemos en cuenta que, en la actualidad, en muchas culturas se utilizan técnicas de embalsamamiento de modo habitual, podemos decir que las prácticas de momificación que iniciaron los chinchorro hace 7 mil años siguen en vigor como parte de nuestra cultura.

Las momias chinchorro, al igual que las egipcias y algunas momias chinas, son ejemplos de momificación intencional, es decir, que sus sociedades realizaron un esfuerzo por conseguir que el cuerpo no se descompusiera, o al menos no del todo. Es razonable suponer que las prácticas de momificación artificial se dieran después de que en sus culturas se hubieran observado los efectos de la momificación natural producida por la extrema sequedad de los desiertos de Atacama en Chile o del Sahara en Egipto. La preservación de los cuerpos, fuente de asombro y de creencias religiosas en todas las culturas (pensemos en los “cuerpos incorruptos” que se adoran en el catolicismo moderno como expresiones de cercanía con la divinidad), impulsó el desarrollo de técnicas que consiguieran el mismo resultado. El uso de la sal llamada “natrón” por los egipcios, que desecaba rápida y eficientemente el cuerpo, así como la extracción de las vísceras (excepto el corazón, que se dejaba en su sitio por ser considerado el asiento del alma), fueron los elementos que definieron la técnica egipcia, iniciada alrededor del 3.300 a.n.e. y que se utilizó hasta el siglo VII de nuestra era, cuando Egipto pasó de manos del imperio bizantino a las de los árabes, iniciándose su período islámico.

Las momias, que antes se estudiaban abriéndolas con métodos altamente destructivos, hoy son estudiadas mediante radiografías, escáneres CAT y MRT, estudios de ADN obtenido de la médula de sus huesos o de la pulpa de sus dientes, y otros sistemas que, casi sin dañar a la momia, nos pueden dar más información sobre la persona, su entorno y su cultura. Uno de los mejores ejemplos de esta cosecha de datos lo aporta la momia conocida como Ötzi, la momia natural de un cazador de la era del cobre, alrededor del 3.300 a.n.e. encontrado en un glaciar de los Alpes en la frontera entre Austria e Italia. El estudio de su cuerpo, del polen que se encontraba en su ropa y utensilios, del esmalte de sus dientes, de sus muchos tatuajes y del contenido de su estómago han permitido a los paleoantropólogos dibujar un retrato muy preciso del hombre, de los lugares en los que vivió, de lo que comía, de sus creencias y cultura, e incluso de su muerte, provocada por una flecha que le fue disparada por la espalda y un fuerte golpe en la cabeza.

Otras momias naturales relevantes son las producidas por el enterramiento en suelos altamente alcalinos, en las estepas, o en turberas, donde los cuerpos se conservan de modo espectacular debido a la acidez del agua, el frío y la falta de oxígeno, que en conjunto “curten” la piel y tejidos suaves del cuerpo. Estos ejemplares, lanzados a las turberas como sacrificios o asesinados, según se ha determinado, se han encontrado sobre todo en el norte europeo y en Inglaterra. Quedan por mencionar los casos, algunos dudosos, de momificación espontánea de algunos monjes budistas chinos y japoneses, así como los cuerpos de personajes relevantes del catolicismo y al menos un yogui indostano. Desafortunadamente, las consideraciones religiosas y de los sentimientos de los fieles y los líderes religiosos hacen muy difícil el estudio de estos restos, máxime cuando ya ha habido casos en que la ciencia ha concluido que ciertos “cuerpos incorruptos” habían sido en realidad embalsamados o, incluso, eran figuras de cera que podían albergar en su interior los verdaderos restos, descompuestos, del individuo en cuestión.

En cierto sentido, el punto culminante de la momificación ha sido alcanzado con la plastinación, un proceso desarrollado por el médico alemán Gunther von Hagens mediante el cual el agua y los tejidos grasos del cuerpo son sustituidos por polímeros como la silicona y las resinas epóxicas. Von Hagens crea especímenes para ayudar en las clases de medicina, pero también ha entrado en controversia con sus exposiciones Body Worlds, que muestran cuerpos plastinados en actitudes de la vida cotidiana. Para Von Hagens, “la plastinación transforma el cuerpo, un objeto de duelo individual, en un objeto de reverencia, aprendizaje, iluminación y apreciación”. Sus cuerpos plastinados son toda una lección sobre nuestro cuerpo, ya no un intento de permanecer en otra vida.


La palabra “momia”

El vocablo “momia” nos fue legado del latín, que a su vez lo obtuvo de “mumiya”, vocablo de origen árabe o persa que significa “betún” o “bitumen” y que originalmente designaba a una sustancia negra, parecida al asfalto, de composición orgánica, que se obtenía en Persia y se creía que poseía poderes curativos. Debido al color negro que asume la piel de las momias egipcias, durante siglos se tuvo la creencia de que en su proceso de momificación se utilizaba precisamente betún. La creencia era incorrecta, pero la palabra permaneció.

La antigüedad de las cosas

La comprensión del tiempo que tienen los objetos, los seres, los lugares, los planetas y el universo entero ha exigido que la tecnología sepa cómo medir su edad con una certeza razonable.

Desde que el arzobispo de Armagh, James Usher, usó la cronología bíblica para establecer que la creación del mundo había ocurrido el 23 de octubre del año 4004 A.e.C. hasta nuestra actual estimación, usando los conocimientos de la física y la cosmología, de que la tierra tiene unos 4.540 millones de años de existencia, mucho hemos andado para entender mejor las cifras (muchas veces vagas, o exageradas hacia arriba o hacia abajo) de algunos relatos históricos, no siempre fieles a los hechos, lo que hizo que Heródoto de Halicarnaso sea considerado al mismo tiempo “padre de la historia” y “padre de las patrañas”.

Sin embargo, en cuanto a las fechas de los hechos históricos, Heródoto no tenía más fuentes que las afirmaciones de quienes le relataban las historias, y algunas cronologías más o menos fiables. Otros estudiosos de la antigüedad se veían en problemas al encontrar, por ejemplo, los huesos fosilizados de dinosaurios, y ciertamente habrían encontrado difícil aceptar que tales seres habrían muerto 150 millones de años antes. Pero a nuestro alrededor son muchísimas las cosas que piden que identifiquemos su antigüedad: los seres vivos, en especial los longevos como ciertos árboles, las tortugas o los elefantes; los hechos históricos, reinados, batallas, acontecimientos; los restos del pasado: ciudades, muebles, restos de seres vivos, incluyendo a los seres humanos; los ríos, las montañas, los planetas, las estrellas, el universo todo. Responder a las cuestiones de la datación, de fechar con precisión hechos del pasado, a veces del pasado más lejano posible, del principio mismo del tiempo, ha puesto a prueba los recursos humanos.

La cuenta de los años era un problema, sobre todo cuando coexistían numerosos grupos que tenían distintas formas de medir el año, calendarios lunares, calendarios solares, calendarios rituales, y distintos niveles de conocimiento de las matemáticas y astronomía necesarias para tener cuentas precisas. Poco a poco, mientras se conocían hechos como que la formación de los anillos en los árboles tenía un ciclo anual, es decir, cada anillo correspondía a un año, se fue haciendo claro para los estudiosos que fenómenos como los estratos observables de la corteza terrestre también mostraban una sucesión cronológica. Es decir, cada capa era más joven que la inferior a ella y más antigua que la superior a ella, lo que permitió al menos una serie de dataciones “relativas”, que permitía conocer en qué sucesión ocurrieron algunos hechos, pero no las fechas más o menos precisas en que se dieron. Los fósiles y las características geológicas de los estratos fueron dando datos valiosos sobre la vida del planeta.

La datación “absoluta” o calendárica es un producto sumamente reciente de la tecnología, ya que sus marcos de referencia sólo estuvieron a nuestro alcance cuando conocimos la composición atómica de la materia y el fenómeno de la radiactividad. Con estos conocimientos, en 1949 se diseñó la datación mediante el “carbono 14” o C-14 con un procedimiento “radiométrico”, pues mide la descomposición de isótopos radiactivos. Sus principios son: 1) Toda la materia orgánica del planeta se basa en el carbono, incluidos nosotros y nuestros alimentos vegetales o animales, y día a día consumimos y desechamos carbono continuamente. 2) El carbono que nos forma es principalmente el carbono 12, es decir, la forma de este elemento que tiene 12 neutrones en su núcleo además de los 6 protones que lo definen como carbono. 3) El carbono 14 (con 14 neutrones) es un isótopo radiactivo (por eso se llama “radiocarbono”) que existe en proporciones muy pequeñas mezclado con el carbono 12 y que al emitir radiación se degrada convirtiéndose en nitrógeno 14. En 5730 años (la “vida media” del radiocarbono) la mitad del C-14 presente en una muestra se ha convertido en N-14. 4) La proporción de radiocarbono en todos los seres vivos se mantiene relativamente constante mientras viven, porque el carbono que consumen ny emiten contiene igual proporción de C-14. Sin embargo, al morir se deja de “renovar” el C-14, y el restante se sigue degradando.

Sobre estas bases, si un científico analiza huesos antiguos y descubre que su proporción de C-14 es de una cuarta parte de la que tienen los seres vivos, puede concluir, con buen grado de certeza, que dichos huesos tienen alrededor de 11.460 años.

La corta vida media del C-14 sólo permite utilizarlo para datar objetos o tejidos de hasta 40.000 años de antigüedad, y la precisión de la datación disminuye conforme más antiguo es el especimen de estudio. Para dataciones más antiguas se utilizan otros radioisótopos como el de potasio-argón, que utiliza el isótopo potasio-40 que al decaer se convierte en argón-40, pero tiene una vida media de 1.300 millones de años y además se puede usar para datar no sólo objetos orgánicos, sino también rocas. Otro procedimiento es el llamado “de termoluminiscencia”, que permite analizar la luz emitida por una roca o pieza de cerámica al calentarla para determinar cuándo fue la última vez que se calentó a tal temperatura, obteniendo así, por ejemplo, las fechas de horneado de un artefacto de barro o la fecha de una erupción volcánica.

Los sistemas de datación relativa y absoluta, unidos, permiten ir desentrañando con precisión numerosas fechas de la historia humana. En otros casos las fuentes, interpretadas a la luz de nuevos conocimientos, resultan una importante herramienta, como ocurre con el registro de eclipses o el paso de un cometa que podemos encontrar en escritos antiguos y que unido a la moderna astronomía pueden ponerle fecha exacta al hecho.

Y quizás por todo esto, la pasión humana por registrar los hechos actualmente se fecha tan cuidadosamente, para que nuestros descendientes, de haberlos, no sufran las confusiones que la especie humana ha tenido durante casi toda su historia acerca de la antigüedad de las cosas.

La edad del universo

La verdadera edad del universo, así como la de las estrellas y de los planetas, incluido el nuestro, no pudo calcularse con precisión sino hasta que conocimos la relatividad general gracias a Einstein en 1915, el astrónomo Edwin Hubble nos hizo saber en 1925 que el universo era más grande de lo supuesto y además estaba en expansión, y, finalmente, la técnica y la ciencia nos permitieron medir la radiación de fondo cósmico de microondas, que demostró que el universo y el tiempo habían comenzado en el Big Bang, y además nos han permitido la medición más precisa hasta hoy de la edad de nuestro universo: 13.700 millones de años, con un margen de error de 200 millones arriba o abajo.