Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

De la cerradura a la contraseña y más allá

Proteger nuestras posesiones, físicas o inmateriales es una de nuestras principales preocupaciones e inspiración de los más diversos métodos de garantizar su seguridad.

Llaves romanas de hierro del siglo II-III de la Era Común.
(Foto CC de Matthias Kabel vía Wikimedia Commons)
Todo a nuestro alrededor está salvaguardado con cerraduras, pestillos, combinaciones y contraseñas, todo destinado a mantener a salvo de las personas incorrectas todos nuestros bienes, sean nuestra información personal o los grandes secretos de gobiernos y empresas.

El otro lado de esta preocupación lo conforman, por supuesto, quienes buscan hacerse de nuestros bienes.

Quizá esta guerra comenzó cuando nuestros ancestros quisieron poner a salvo sus bienes, ocultándolos acaso en un agujero o sitio insospechado. Pero bastaba que el ladrón conociera el lugar secreto para que se hiciera con ellos. Se precisaba un sistema más seguro, una combinación de un cierre y algo único que lo pudiera abrir: una llave.

Hay evidencias de cerraduras de hace más de 4.000 años en Egipto, y la primera encontrada hasta ahora, de madera, es del año 700 antes de la Era Común y se halló en lo que hoy es Khorsabad, capital de la antigua Asiria. Su mecanismo es muy similar al de la cerradura de tambor de pines común en la actualidad: unos tacos de madera tenían que alinearse con una enorme llave también de madera para que pudiera girar el pestillo.

Los romanos tomaron los diseños egipcios usando hierro y bronce en lugar de madera para la cerradura y la llave. Estas cerraduras sirvieron para salvaguardar, más o menos, las posesiones humanas hasta que, en 1778, Robert Barron creó una nueva cerradura de cilindro de pines y disparó una serie de innovaciones que siguen sucediéndose hasta llegar a la tarjeta con chip o banda magnética, cuya información es leída para darnos, o negarnos, acceso a lugares o servicios como nuestra cuenta bancaria.

Las cerraduras de combinación, conocidas desde el imperio romano, fueron objeto del interés de ingenieros árabes medievales y estudiosos del Renacimiento, pero no se popularizaron sino hasta el siglo XIX, cuando se dio una plaga de ladrones capaces de abrir con ganzúas las cerraduras de la época y el alemán Joseph Loch le dio a la joyería Tiffany’s de Nueva York una cerradura de combinación segura y eficiente.

Sobre estas bases, en los albores de la informática, se hizo evidente que era necesario tener un sistema llave y cerradura para evitar los accesos no autorizado a programas, datos y demás servicios. Las contraseñas fueron utilizadas por vez primera en el sistema operativo llamado Sistema de Tiempo Compartido Compatible, el primeros que podía ser utilizado por varios usuarios al mismo tiempo, compartiendo su tiempo, y que se puso en marcha en el legendario Massachusets Institute of Technology en 1961.

Este sistema, CTSS por sus siglas en inglés, fue pionero en muchos aspectos que hoy nos resultan familiares: permitía intercambiar correo electrónico, podía tener máquinas virtuales, incluyó el primer sistema de mensajería instantánea y dio a sus usuarios la posibilidad de compartir archivos. Según cuenta la revista Wired, la idea de utilizar como identificación un nombre de usuario y contraseña fue el científico Fernando Corbató, responsable del proyecto, que lo vio como una solución sencilla para controlar el acceso.

De modo cada vez más generalizado, la combinación de nombre de usuario y contraseña se convirtió en el sistema preferido de protección de datos y de acceso a espacios, programas y servicios en máquinas individuales, servidores y sitios o servicios de Internet.

Y así como el siglo XVIII vio el florecimiento de los expertos en apertura de cerraduras tradicionales, el siglo XX y el XXI han asistido a la multiplicación de los hackers que, por diversión o por negocio, se esfuerzan por romper la seguridad de individuos, instituciones, empresas y gobiernos.

En realidad, las contraseñas son relativamente fáciles de romper, si uno cuenta con los programas y la experiencia mínima necesarias. Simplemente ocurre que, como en el caso de muchas cerraduras, el esfuerzo no vale la pena en la mayoría de los casos. Pero en algunas ocasiones la tentación aumenta proporcionalmente a los beneficios de distintos tipos que el hacker puede obtener.

El siguiente paso en las cerraduras que protejan nuestra vida digital, que es cada vez más nuestra vida real, donde ocurren cosas tan delicadas como nuestras comunicaciones de negocios o sentimentales, nuestras operaciones bancarias y nuestra compra de bienes y servicios, es la seguridad llamada “biométrica”, en la cual las “llaves” de acceso pueden ser diversas características biológicas únicas de cada individuo. Entre las más conocidas (sobre todo gracias a las especulaciones del cine de ciencia ficción) son el patrón de vasos sanguíneos de la retina, los pliegues del iris del ojo, las huellas digitales, la voz, el ADN y ciertos patrones electroencefalográficos popularmente conocidos como “contraseñas mentales” captados por electrodos superficiales en nuestra cabeza, similares a un juego de auriculares.

Todos estos sistemas tienen sus lados negativos. Las huellas dactilares, por ejemplo, pueden verse alteradas por cortes, quemaduras o ser difíciles de leer por el desgaste que sufren debido a ciertas actividades (como la interpretación de ciertos instrumentos musicales). Igualmente, el reconocimiento de voz puede verse anulado por un simple resfriado. El reconocimiento del iris depende de la dilatación o contracción de las pupilas y requiere, entre otras cosas, quitarse gafas y lentillas para ser más o menos preciso. Finalmente, el ADN sería un sistema bastante seguro a no ser porque, claro, hacer un reconocimiento personal por ADN es todavía demasiado costoso y tardado (al menos varios días) y porque es muy fácil robar el ADN de otra persona simplemente consiguiendo un cabello todavía con raíz, como saben los espectadores de CSI.

Así que, mientras la tecnología no avance de manera notable, parece que tendremos que convivir con el sistema de seguridad de las contraseñas y números de identificación personal durante muchos años. Y allí, claro, la mejor recomendación es no ser obvio. Esto incluye no usar su cumpleaños, el nombre de su mascota y todas las contraseñas fáciles de adivinar que ha visto en el cine y la televisión.

Cifrado y santo y seña

La seguridad de datos se ha buscado utilizando cifrados o sistemas criptográficos que, en su versión actual, son parte importante de la protección mediante contraseñas. Otro elemento relacionado con ellas era el “santo y seña”, una palabra o frase secreta que demostraba que quien la pronunciaba tenía derecho a conocer una información, franquear un paso o dar una orden, tal como se usaba en el ejército romano y que es el ancestro directo de su contraseña de correo electrónico.

La civilización del fuego... en el siglo XXI

El ser humano ha obtenido su energía quemando combustibles durante 2 millones de años y ha sido totalmente dependiente de ellos. El desafío hoy es obtener energía de otro modo.

La revolución industrial y su quema de carbón vistos
por el pintor Gustave Courbet.
Siempre que se menciona el descubrimiento del fuego es útil recordar que en ese momento comenzó nuestra dependencia de los combustibles, fuentes de energía que hoy siguen siendo uno de los grandes temas sociales, políticos y económicos.

Hay algunas evidencias, en excavaciones arqueológicas en Kenya, de que el Homo erectus ya tenía dominio del fuego hace dos millones de años. Y las primeras pruebas incontrovertibles de uso del fuego se remontan a hace 250.000 años.

El fuego, además de alejar a los depredadores en la noche y dar calor en climas no amables para el ser humano, permitió además cocinar los alimentos, actividad que, según Richard Wrangham, autor de La captura del fuego: Cómo cocinar nos hizo humanos, nos permitió aprovecharlos mejor, en especial la carne, sin exigirnos evolucionar características de los depredadores, como aparatos digestivos más largos y dientes adaptados para desgarrar. Esto nos dio las calorías excedentes necesarias para que creciera y se desarrollara nuestro cerebro, que utiliza casi una cuarta parte de la energía que gastamos.

A partir de ese momento, en todas las culturas humanas una de las actividades fundamentales fue la obtención de combustible para el fuego.

Pero aunque la biomasa o materia orgánica (principalmente leña de madera o bambú) fue el combustible dominante hasta el siglo XVIII, no fue el único. La grasa animal, natural o derretida para convertirla en sebo ya se usaba hace alrededor de 70.000 años, de cuando proceden las primeras lámparas: objetos cóncavos naturales que se llenaban con musgo o paja empapados en sebo. Con estas lámparas se iluminaban en las cuevas los creadores de pinturas rupestres, como lo evidencian las 130 que se han encontrado en Lascaux. El sebo siguió usándose en antorchas, en lámparas y en un invento de los romanos: las velas dotadas con una mecha que servía para ir derritiendo el sebo al mismo tiempo que lo absorbía y lo iba quemando.

Al sebo animal se unió después el aceite vegetal. La primera referencia del aceite de oliva, el primero que se produjo, data del 2400 antes de la Era Común, en unas tablas de arcilla halladas en Siria que enumeran las enormes plantaciones de olivos y las reservas de aceite que tenía la ciudad-estado de Ebla: 4.000 grandes jarras de unos 60 kilogramos de aceite cada una para la familia real y 7.000 para el pueblo. Para llegar aquí, podemos suponer que la producción de aceite de oliva llevaba ya tiempo institucionalizada como actividad. Y los restos de hollín dentro de las tumbas, pirámides y otras edificaciones de Egipto nos dicen que su interior se iluminaba con lámparas de aceite que se colgaban de las paredes.

El carbón mineral tiene también una historia de más de 3.000 años, cuando hay referencias de que los chinos lo utilizaban. Para el siglo IV antes de la Era Común, el científico griego Teofrasto ya escribe sobre el uso del carbón como fuente de calor muy eficiente para el trabajo en metales. Además de su uso en la metalurgia, los romanos los utilizaron para calentar los baños públicos.

Aunque la recolección de miel ya aparece en pinturas rupestres que datan de hace 6.000 años, la cera se generalizó como combustible apenas en la Edad Media como sustituto del sebo en las velas. Pero era escasa y costosa, así que las grasas animales (incluida la de ballenas o focas), los aceites vegetales, el carbón y la biomasa fueron los principales combustibles con los que el ser humano se las arregló hasta el siglo XIX (salvo algunas excepciones, como los documentos que hablan de que en China se llegó a recolectar gas natural en odres para quemarlo).

A mediados del siglo XVIII empezó a desarrollarse en Inglaterra la serie de acontecimientos conocidos como la revolución industrial, alimentada principalmente por el carbón, que aportaba el abundante calor necesario para accionar las nuevas máquinas de vapor. El gas que acompañaba al carbón en sus yacimientos se empezó a utilizar para la iluminación hacia 1792, y muy pronto la mayoría de las ciudades importantes de Estados Unidos y Europa tenían iluminación de gas en sus calles.

El combustible que acciona esencialmente al siglo XXI, el petróleo, era conocido desde la prehistoria, cuando el betún o asfalto ya se utilizaba como adhesivo para fijar puntas de flecha en sus ástiles, y ha sido empleado como adhesivo, material impermeabilizante de barcos y tejados, para conservar momias e incluso como presunto medicamento. Pero ni el asfalto ni el petróleo crudo que ocasionalmente se encontraba a flor de tierra fueron utilizados como combustibles hasta el siglo XIX, cuando empezó a perforarse para buscarlo y aprovechar la popularidad de la lámpara de queroseno lanzada en 1853.

La aparición de la electricidad y los motores a explosión en autos, trenes, barcos, fábricas y aviones disparó la utilización de los combustibles de origen fósil, es decir, producto de la transformación de materia orgánica del pasado de la vida en el planeta. Su predominio es notable pese a que al quemarse emiten sustancias nocivas y además generan grandes cantidades de bióxido de carbono que, según el consenso de los expertos del clima, contribuye claramente al cambio climático.

De ahí que se haya vuelto la vista a otras fuentes de energía no combustibles, todos ellos ya conocidos desde la antigüedad. El agua, empleada en Mesopotamia y Egipto desde el año 4000 a.E.C. para irrigación, y después utilizada para accionar molinos y otras máquinas; el viento, usado desde el año 200 a.E.C. en Mesopotamia para accionar molinos y que se generalizó en Europa en el siglo VIII, y la energía solar, empezaron a utilizarse para generar electricidad todos a fines del siglo XIX: turbinas aerogeneradores y placas solares no son, pues, inventos tan recientes. El siglo XIX vio también los primeros usos de la biomasa para producir otros combustibles. La única fuente de energía nueva del siglo XX fue, en realidad, la nuclear, las reacciones de fisión controlada que producen calor para hacer vapor que mueva turbinas.

Lo que es novedoso, en todo caso, es el aumento en la eficiencia de las fuentes de energía alternativas, y que las convierte en la esperanza para independizar a la humanidad de los combustibles y que, al cabo de dos millones de años, o más, deje de ser la especie que quema cosas para vivir.

Los números del desafío de la energía

En 2009, el 40% de la energía mundial provenía del carbón, 21% del gas, 17% era hidráulica, 14% nuclear, 5% de petróleo y sólo 3% de las llamadas renovables. Y el consumo de energía en el mundo ha crecido casi 50% sólo desde 1990.

Ada Lovelace, de la poesía a las matemáticas

Con una de las más interesantes y ardientes inteligencias del siglo XIX, Ada Lovelace fue no sólo la primera programadora informática, sino una visionaria de las posibilidades de las máquinas que hoy llamamos ordenadores.

Augusta Ada Byron, condesa de Lovelace, a los 17 años
(Imagen D.P. de la Lovelace-Byron Collection, vía Wikimedia Commons)
Era la primera mitad del siglo XIX y los seres humanos se comunicaban escribiendo con plumas de ganso, el telégrafo era un sistema experimental y la electricidad era un misterio asombroso.

Por entonces, una inquieta joven llamada Augusta Ada, nacida en 1815, se negaba a disfrutar la poco estimulante vida social normal y esperada para las chicas inglesas de la época. A cambio, organizaba con sus amigas, las llamadas “bluestockings” o “medias azules”, reuniones de lectura y discusión de temas científicos, así como visitas a científicos y museos.

Éste era el resultado del empeño de su madre por llevarla al camino de las matemáticas, la música y la ciencia, y de reprimir sus posibles inquietudes literarias. La buena señora, Anna Isabella Milbanke, esperaba que una rigurosa educación en estos terrenos contrarrestara en su hija la posible malhadada herencia de su padre, George Gordon, mejor conocido como Lord Byron, notorio poeta y aventurero. Anna Isabella había estado casada apenas poco más de un año con el irascible poeta, que por entonces bebía en exceso, tenía ataques de ira y era notoriamente infiel, así que se separó legalmente a poco de nacer Ada.

Después de haber pasado tutorías de matemáticas y de haber incluso creado el diseño de una máquina voladora cuando sólo tenía 13 años, la joven asistió, el 15 de junio de 1833, a la demostración de un invento del matemático, catedrático, ingeniero e inventor inglés Charles Babbage, por entonces de 42 años de edad.

Lo que mostraba Babbage era una parte de la calculadora mecánica que había diseñado (aunque nunca construyó en su totalidad), la “máquina diferencial”, heredera de las calculadoras mecánicas de Pascal y Leibniz, que podía hacer operaciones matemáticas tales como elevar al cubo o a la cuarta potencia, y trabajar con polinomios. Todo mundo estaba fascinado, pero, según contó después el matemático Augustus De Morgan, “La señorita Byron, pese a su juventud, entendía su funcionamiento y vio la gran belleza del invento”.

Babbage le habló a la joven de 18 años de un proyecto aún más ambicioso, la “máquina analítica”, un portento imaginario capaz de hacer todo tipo de cálculos utilizando un programa externo codificado en tarjetas perforadas del mismo modo en que los telares de Jacquard usaban tarjetas para cambiar los diseños de las telas que tejían.

Ada Byron quedó prendada de la idea, a la que dedicó cuanto pudo en los años siguientes. La máquina que imaginó Babbage y ayudó a desarrollar la joven matemática podía almacenar datos, y programas, y hacer operaciones repetitivas... todo lo que hoy nos parece lo más normal en nuestros equipos informáticos, accionada por un programa.

Ese mismo año, Babbage dejó de interesarse en fabricar la máquina diferencial y empezó a concentrar todos sus esfuerzos en la analítica, con el apoyo de su “encantadora de los números” a la que ayudó a entrar a estudiar matemáticas avanzadas en la Universidad de Londres, precisamente con De Morgan.

En 1835, Ada se casó con William King, poco después Conde de Lovelace, con lo cual ella se hizo también con el título con el que pasaría a la historia además de tener tres hijos. King apoyaba la labor académica de su esposa y ambos mantuvieron estrecha relación con algunas de las personalidades más estimulantes de la Inglaterra del siglo XIX, como el pionero de la electricidad Michael Faraday y al influyente escritor Charles Dickens.

La culminación del trabajo de Ada con Charles Babbage ocurrió en 1842. Babbage había hecho una gira para presentar la idea de su máquina analítica y a su paso por Italia, Federico Luigi Menabrea, un matemático, ingeniero militar y estadista que eventualmente llegaría a ser primer ministro italiano, escribió un boceto sobre la máquina del inventor británico. Se le pidió a Ada que hiciera la traducción del trabajo de Menabrea, pero añadiéndole sus propias notas sobre la máquina que ella tan bien conocía.

Al final, las notas de Ada, que sólo aparecía como traductora con las siglas AAL, acabaron ocupando un espacio tres veces mayor que el escrito original de Menabrea. Son esas notas las que se convertirían en su gran legado intelectual, pues en ellas la matemática especula, imagina, aclara y desarrolla las ideas de la máquina analítica y va matemáticamente mucho más allá que el artículo original.

Asi, por ejemplo, explica detalladamente la diferencia entre la máquina analítica y las calculadoras conocidas hasta entonces y tiene la intuición extraordinaria de que ese tipo de máquinas, que hoy llamamos computadoras, ordenadores o computadores, no tienen que trabajar sólo con números, sino que pueden hacerlo con cualquier cosa que pueda ser representada matemáticamente, como colores, sonidos, texturas, movimientos, luces, etc. Que es precisamente lo que hacen las máquinas de hoy en día. Explica cómo se podría escribir una secuencia de instrucciones utilizando tarjetas, aprovechando el almacén de datos y las tarjetas de control que permitirían a la máquina hacer diversas operaciones, es decir, cómo se escribe lo que hoy llamamos un programa informático.

Porque para Ada Lovelace, que por este trabajo es considerada la primera persona que hizo programas informáticos, lo esencial es la idea de que el programa era tan importante como la máquina, es decir, que la máquina era una forma de hacer efectivas las ideas incorporadas en el programa, pero que sin éste, era totalmente inerte. Y al mismo tiempo, observó que la máquina no podría hacer nada original, sólo aquello para lo cual sabemos programarla. Y lo demostró en la última nota al artículo de Menabrea, donde escribió un programa con el cual la máquina de Babbage podría calcular tablas de números de Bernoulli, una secuencia de números racionales.

De salud frágil y con problemas económicos que la llevaron a intentar conseguir el mítico “sistema” para ganar dinero apostando, Augusta Ada Byron, condesa de Lovelace, murió el 27 de noviembre de 1852, días antes de cumplir los 37 años.

En su memoria, el Departamento de Defensa de los Estados Unidos creó el lenguaje de programación “Ada”.

Sobrevaluar y despreciar

Ada Lovelace dijo en sus notas hablando de la máquina de Babbage: “Al considerar cualquier nuevo tema, hay habitualmente una tendencia, primero, a sobrevaluar lo que hallamos interesante o destacable y, en segundo lugar, por una especie de reacción natural, a infravalorar el verdadero estado del caso, cuando descubrimos efectivamente que nuestras nociones han sobrepasado a aquéllas que eran realmente sostenibles”.

Virus en tu ADN

Los virus que han infectado a nuestra especie durante millones de años han dejado una huella sorprendente en nuestro ADN, un legado ajeno cuya importancia apenas estamos desvelando.

ADN purificado que fluoresce de color naranja bajo una
luz ultravioleta
(Foto D.P. de Mike Mitchell via Wikimedia Commons)
Una buena parte de nuestro ADN no es de origen humano. Ni siquiera vertebrado o mamífero. Ha llegado subrepticiamente como un accidente evolutivo.

El ADN, esa molécula que forma nuestros cromosomas y es responsable de la transmisión de la información genética reunida a lo largo de toda nuestra historia evolutiva y del control de toda la producción de proteínas denuestro cuerpo, ha sufrido a lo largo de su historia numerosos cambios, algunos de ellos causados por la infección de virus que se han integrado en él. Entre el 8 y 10 por ciento de nuestro ADN está formado por numerosas copias de restos de estas infecciones virales, los retrovirus endógenos humanos (HERV por sus siglas en inglés). Y si tenemos en cuenta los productos y derivados de estos fragmentos de ADN, hasta la mitad de todas nuestras cadenas genéticas podrían proceder de virus.

Fue entre principios de la década de 1970 y 1980, cuando los científicos descubrieron que en las cadenas de ADN de algunos animales tenían segmentos que se parecían a algunos retrovirus ya conocidos.

Los virus son estructuras biológicas muy simples formadas por material genético (ADN o ARN) y una capa de proteína que infectan las células y secuestran sus sistemas para crear copias de sí mismos, provocando enfermedades como la rabia, la gripe, el papiloma, el sarampión, la poliomielitis, la hepatitis A y el herpes.

Una clase especial de virus de ARN son los llamados retrovirus, que en vez de crear copias de sí mismos directamente, utilizan un sistema llamado “transcripción inversa” para sintetizar un segmento de ADN e insertarlo en el material genético de la célula infectada. Una vez allí, el ADN produce las proteínas del retrovirus.

Una característica de los retrovirus es que ese proceso de transcripción inversa es tremendamente susceptible a errores. Esto significa que las copias del virus son con gran frecuencia distintas, incluso muy distintas, del original, logrando así una evolución mucho más rápida en su capacidad destructiva que otros agentes infecciosos. Ésta es una de las causas por las que resulta tan difícil combatir las enfermedades provocadas por retrovirus como sería el caso del VIH-SIDA, a diferencia de afecciones virales como la rabia o la gripe, que podemos enseñar a nuestros cuerpos a combatir por medio de vacunas desde hace muchos años.

Sin embargo, en algunos casos, el retrovirus invasor no destruye la célula y acaba integrándose como parte de ella. De hecho, desde su descubrimiento, se ha podido demostrar que los retrovirus endógenos están presentes en las líneas de células reproductoras de todas las especies de vertebrados y se replican como parte integral de la reproducción del organismo, convirtiéndose en parte de la herencia genética para todas las generaciones futuras. En el caso de los seres humanos, hemos acumulado en nuestro material genético retrovirus endógenos debido a invasiones ocurridas a lo largo al menos de los últimos 60 millones de años.

Los científicos pueden reconocer estos fragmentos ajenos gracias a que todos los retrovirus infecciosos contienen al menos tres genes llamados gag, pol y env, encerrados entre secuencias conocidas como repeticiones terminales largas o LTR por sus siglas en inglés, de modo tal que la presencia de estos genes y secuencias en cualquier zona del ADN de nuestros cromosomas nos indica de modo claro que se trata de un fragmento de un retrovirus que infectó a nuestra especie en el pasado.

Para nuestra fortuna, los retrovirus endógenos humanos están fundamentalmente desactivados en cuanto a su capacidad para producir proteínas.

Pero quizás no del todo.

Procesos de control y enfermedad

Diversos estudios indican la posibilidad de que los HERV no sean fragmentos totalmente inactivos, sino que pueden jugar un papel en distintos procesos. Así, por ejemplo, 2 de los 16 genes identificados del retrovirus llamado HERV-W parecen jugar un papel esencial en el proceso de placentación, especialmente en la supresión de la reacción inmune de la madre a los tejidos del feto y la placenta. Es decir, la evolución ha utilizado estos genes “extranjeros” para realizar funciones útiles para nuestro organismo. Después de todo, los procesos evolutivos siempre utilizan los elementos ya existentes, no pueden crearlos desde la nada.

Pero también se han descrito algunos mecanismos mediante los cuales estos segmentos podrían estar relacionados con enfermedades crónicas, incluidas ciertas formas de cáncer, enfermedades del sistema nervioso y afecciones autoinmunes y de los tejidos conjuntivos, e incluso con la esquizofrenia.

Hay varias formas en que los HERV pueden provocar enfermedades. Primero, simplemente produciendo las proteínas de las que tienen el código de ADN y que nuestro sistema inmune reconocería como ajenas o invasoras y contra las que actuaría, generando reacciones complejas con otras proteínas de nuestro cuerpo. Ése podría ser el origen de algunas afecciones autoinmunes (en las cuales reaccionamos contra elementos de nuestro propio cuerpo) como el lupus eritematoso o la artritis reumatoide. Pero también pueden influir en que se activen o desactiven genes adyacentes. Finalmente, hay estudios que indican que pueden activarse (o expresarse, en términos técnicos) debido a algunos elementos del medio ambiente, como ciertas sustancias químicas o incluso la luz ultravioleta.

Esto, sin embargo, no significa que esté demostrado que los HERV produzcan o influyan en algunas enfermedades. El descubrimiento de estas singulares secuencias dentro de nuestro material genético es tan reciente que aún queda mucho por saber sobre su actividad real, y muchos estudios son sólo indicios que sirven como base para especulaciones que a su vez se utilizarán para diseñar nuevas investigaciones que nos permitan comprender cómo estos fragmentos ajenos actúan o dejan de actuar en nuestra fisiología y hasta dónde tienen relevancia en ciertas enfermedades o ciertos subtipos de algunas enfermedades.

Además de estos mecanismos, los HERV han sido exitosamente utilizados por algunos investigadores como una forma de hacer el seguimiento de la evolución de algunas especies e incluso como un indicador o reloj molecular, que nos puede decir cuándo se integraron a nuestro material genético.

Los muchos HERV que nos conforman

El proyecto del genoma humano ha permitido ir identificando a los distintos retrovirus endógenos que tenemos. Los investigadores han identificado al menos a 22 familias de retrovirus que llegaron independientemente a nuestro acervo genético, y se clasifican según su similaridad con uno u otro retrovirus

Izar, levantar, elevar

La capacidad de mover eficazmente objetos de un peso enorme ha sido fundamental en la civilización humana.

Representación de una grúa del siglo XIII en el proceso
de construcción de una fortaleza.
(Via Wikimedia Commons)
La marca mundial de peso levantado por un ser humano podrían ser los 2.840 kilogramos que se dijo que había conseguido el estadounidense Paul Anderson, levantándolos sobre sus hombros (no desde el suelo). Pero hubo dudas y el libro Guinness de récords mundiales decidió borrarlo de sus páginas hace algunos años.

Compárese con los más de 2 millones de kilogramos que puede levantar “Taisun”, que es como se llama a la mayor grúa puente del mundo, utilizada en los astilleros de Yantai, en China para la fabricación de plataformas petroleras semisumergibles y barcos FPSO.

Para la evolución de la civilización humana un requisito fundamental ha sido la capacidad de levantar grandes pesos, mucho mayores que los que puede levantar un grupo grande de seres humanos. A fin de conseguirlo, desde la antigüedad se desarrollaron las llamadas “máquinas simples” o básicas: la palanca, la polea, la rueda con eje, el plano inclinado, la cuña y el tornillo. Lo que consiguen estas máquinas es darnos una ventaja mecánica, multiplicando la fuerza que les aplicamos para hacer un trabajo más fácilmente. No es que “cree” energía, sino que la utiliza de manera más eficiente. Si la fuerza viaja una distancia más larga (por ejemplo, de la palanca de un gato que accionamos), será mayor a una distancia más corta, el pequeño ascenso que tiene el auto a cambio de nuestro amplio movimiento.

El plano inclinado nos permite, por ejemplo, subir un peso más fácilmente que izándolo de modo vertical. Mientras mayor es la inclinación, mayor esfuerzo nos representará negociarlo, algo que ejemplifican muy bien algunas etapas de montaña de las vueltas ciclistas. Es la máquina simple que, según los indicios que tenemos, usaron los egipcios junto con la planca para mover los bloques de piedra utilizados en la construcción no sólo de sus pirámides, sino de sus obeliscos y templos impresionantes como el de Abu Simbel.

La grúa hizo su aparición alrededor del siglo VI antes de la Era Común, en Grecia, basada en las poleas que desde unos 300 años antes se empleaban para sacar agua de los pozos. Las poleas compuestas ofrecen una gran ventaja mecánica y, junto con la palanca, permitieron el desarrollo de las grúas y con él la construcción de edificios de modo más eficiente y rápido.

Si la cuerda utilizada para izar se une a un cabrestante o cilindro al que se de vuelta mediante palancas, se va creando un mecanismo más complejo y capaz de elevar mayores pesos más alto y con menos esfuerzo.

Una consecuencia directa de esta idea fue la creación de cabrestantes accionados por animales o por la fuerza humana. Quizá resulte curioso pensar que ya los antiguos romanos utilizaban grandes ruedas caminadoras, como ruedas para hámsters, con objeto de accionar las grúas con las que construyeron las grandes maravillas de la ingeniería del imperio. Y esas mismas grúas accionadas por seres humanos caminando en su interior fueron las que permitieron construir todas las maravillas de la arquitectura gótica y renacentista, además de cargar y descargar barcos conforme el comercio internacional se iba desarrollando, entre otras muchas aplicaciones. Mezclas de máquinas simples formando mecanismos más complejos pero que, en el fondo, se basan en los mismos principios conocidos desde el inicio de la civilización.

El gran cambio en estas máquinas se dio al aparecer la máquina de vapor. Según los expertos, en teoría no hay límite a la cantidad de peso que puede moverse con una grúa accionada por una rueda movida por la fuerza humana, pero accionarla con una energía como la del vapor o la electricidad permite hacerlo más rápido y usando maquinaria más pequeña.

Con estos elementos se han creado varios tipos de grúas, desde las móviles en diversos tipos de vehículos, las carretillas elevadores, las grúas puente en forma de pórtico que se usan en la construcción naval y naves industriales, las grúas Derrick y las más conocidas en el panorama urbano, las grúas torre utilizadas para la construcción de edificios.

Elevar personas

Construir edificios más altos implica, por supuesto, llevar a seres humanos a los pisos superiores. Se dice que Arquímedes ya construyó el primer ascensor o elevador en el 236 a.E.C. pero estos aparatos empiezan realmente a ser parte de la vida cotidiana de los mineros en el siglo XIX, cuando se usan para llevarlos y traerlos de las plantas, cada vez más profundas, de las minas, especialmente de carbón.

Es en 1852 cuando Elisha Otis desarrolla el diseño de ascensor que, esencialmente, seguimos utilizando hoy en día, con características de seguridad que permitieran la máxima tranquilidad al usuario, y que permite la aparición de lo que se llamaría el “rascacielos”.

Y los rascacielos fueron cada vez más arriba. El ascensor común de un edificio de 10 pisos se mueve a una velocidad de más o menos 100 metros por minuto, una velocidad poco práctica para subir a edificios como la torre Taipei 101, con sus 509 metros de altura, pues tardaríamos 5 minutos en llegar del piso más bajo al más alto, cuando los fabricantes tienen como norma que el recorrido sin paradas entre el piso más bajo y el más alto de un edificio debe ser de unos 30 segundos. En un edificio de más de medio kilómetro de altura esto exige ascensores capaces de una velocidad media de 1 kilómetro por minuto o 60 kilómetros por hora.

Pero no es una velocidad continua. Debe acelerarse y desacelerarse de modo tolerable para los pasajeros. Si uno va del piso 1 de la torre al 101, acelerará de 0 a 60 kilómetros por hora en 14 segundos, viajará a la velocidad máxima durante tan sólo 9 segundos y después desacelerará de regreso hasta detenerse en otros 14 segundos. Y todo ello con una tecnología que reduce al mínimo las vibraciones y el malestar de los viajeros.

Finalmente, la tecnología ha tenido que tener en cuenta el diferencial de presión atmosférica entre el piso inferior y el superior, y usar un original sistema de control de presión como el de los aviones para equilibrarla y darle las menos incomodidades posibles a los pasajeros.

Un largo camino que empezó con un plano inclinado, una polea y la decisión de ir más alto.

En la ciencia ficción

En 1979, el legendario autor de ciencia ficción Arthur C. Clarke publicó Las fuentes del paraíso, una novela en la cual un ingeniero propone crear un ascensor capaz de llevar carga y gente al espacio, situado entre la cima de una montaña y un satélite en órbita (Clarke fue el proponente original del satélite geoestacionario). La trama de la novela gira alrededor del rechazo al ascensor por parte de un monasterio budista que ocupa la montaña. Un clásico que merece relectura.

El planeta flotante

Las muchas sorpresas que no sigue ofreciendo Saturno, el miembro de nuestro sistema solar al que algunos llaman “el señor de los anillos”, y sus numerosos satélites.

La Tierra (abajo, derecha) vista desde los anillos de
Saturno por la sonda Cassini en julio de 2013.
(Fotografía D.P. NASA)
En 1610, Galileo Galilei dirigía su sencillo telescopio a Saturno, uno de los cinco planetas “clásicos”, llamado así por ser visibles a simple vista y por tanto conocidos por todas las culturas desde la prehistoria, junto con Marte, Mercurio, Júpiter y Venus. El astrónomo italiano ya había sacudido las bases de la cosmología renacentista con su descubrimiento de las lunas de Júpiter, y ahora el segundo mayor planeta del sistema solar le ofrecía nuevas sorpresas.

En el mes de julio le escribió con entusiasmo a su protector, Cosme II de Médici para informarle de “una muy extraña maravilla”, que le pedía que mantuviera en secreto hasta que el astrónomo publicara su obra. “La estrella de Saturno”, le contaba Galileo al mecenas, “no es una sola estrella, sino que está compuesta de tres que casi se tocan entre sí, nunca cambian ni se mueven en relación con las otras y están organizadas en fila a lo largo del zodiaco”. Señalaba además que la estrella de en medio era tres veces mayor que las otras dos.

Galileo había sido víctima de la poca resolución de su telescopio, que hacía que los anillos de Saturno, vistos en ángulo, parecieran dos lunas a los lados del planeta, dos orejas o asas. Dos años después, para su perpleijdad, Galileo observó que tales lunas habían desaparecido, sólo para volver a ser visiblesdos años después. No fue sino hasta 1659 cuando el astrónomo holandés Christiaan Huygens descifró el enigma determinando que el gran planeta estaba rodeado de anillos.

Aunque hoy sabemos que también Júpiter, Urano y Neptuno son planetas rodeados de anillos, menos conspicuos que el de Saturno, esa característica distintiva es sólo una de las muchas que lo convierten en un cuerpo singular en el sistema solar.

Saturno es el más achatado de todos los planetas. Aunque los llamados gigantes gaseosos están todos achatados por los polos, Saturno es el que mayor diferencia tiene entre su diámetro ecuatorial y el de polo a polo, alrededor de un 10%. Esto se debe a las enoremes fuerzas que operan en su interior, formado principalmente por gases y un núcleo rocoso, y a la gran velocidad de su rotación, pues su “día”, el tiempo que tarda en girar una vez alrededor de su eje, dura apenas 10 horas y media. Por contraste, el año saturniano, el tiempo que tarda en dar una vuelta completa alrededor del sol, es de casi 30 años terrestres.

Es, además, el planeta más tenue de todos, el único cuya densidad es menor que la del agua, lo que quiere decir que si se pusiera a Saturno en un gran recipiente de agua, flotaría sobre ella.

Saturno tiene en órbita a su alrededor una gran cantidad de satélites. Se le han descubierto más de 60 lunas, y 53 de ellas ya tienen nombre, una cantidad apenas superada por las 66 lunas de Júpiter. Sin embargo, el problema para decidir quién tiene más lunas es determinar desde qué tamaño se puede considerar que un objeto en órbita es una luna, pues los anillos de Saturno, finalmente, están formados de innumerables trozos de hielo y roca cubierta de hielo, que van desde algunos centímetros de diámetro hasta varios metros, e incluso es posible que los haya de varios kilómetros de circunferencia. Si todos ellos son lunas, entonces Saturno es el campeón sin discusión posible.

Las lunas que pueden tener vida

Fue el propio Huygens, gran estudioso del planeta, quien descubrió, en 1655, la mayor luna de Saturno, Titán, que es a su vez la segunda más grande del sistema solar después de Ganímedes, luna de Júpiter. Titán tiene un tamaño de 1,48 veces la Luna de nuestro planeta, y exhibe la apasionante peculiaridad de ser la única luna del sistema solar que tiene una atmósfera real, no sólo una tenue capa de gas a su alrededor. Esa atmósfera es rica en nitrógeno, lo que la hace similar a la de nuestro planeta. De hecho, las primeras sondas humanas que visitaron Saturno, las Voyager 1 y 2 en 1980 y 1981, descubrieron que es mucho más densa que la de la Tierra; la presión en la superficie del satélite es de 1,45 atmósferas terrestres. La misma a la que está sometido un buceador a una profundidad de 5 metros en el mar.

La atmósfera de Titán tiene, además, una bruma anaranjada que impide la observación directa de su superficie, que no pudimos ver sino hasta que en 2005 la sonda apropiadamente llamada Huygens fue lanzada hacia Titán por la misión Cassini. En su superficie hay mares formados no por agua, sino por por metano y etano, hidrocarburos que forman parte del gas natural en la Tierra. Estas características, junto con la presencia de moléculas orgánicas formadas por carbono, hidrógeno y oxígeno, hacen pensar a los científicos que Titán tiene condiciones similares a las que presentaba la Tierra al principio de su historia, condiciones que pueden ser conducentes al surgimiento de la vida.

Pero Titán no es la única interesante de las muchas acompañantes de Saturno. La misión Cassini, que continúa hoy observando a Saturno y sus lunas, ha descubierto otras maravillas en los alrededores del planeta anillado, como los géiseres en la luna Enceladus, que arrojan agua líquida, parte de la cual vuelve al satélite en forma de lluvia y parte se une a los anillos del planeta. El agua está en estado líquido gracias al calor interno de Enceladus, que junto con su tenue atmósfera lo hace que se plantee la posibilidad de que albergue vida.
Enceladus y Titán son los mejores candidatos en nuestro sistema solar, junto con Marte, para encontrar en ellos la mítica primera forma de vida extraterrestre, así sea peculiar, extraña y simple. O al menos eso esperan algunos científicos. Recientes descubrimientos en la Tierra de organismos llamados “extremófilos” por su capacidad de sobrevivir en condiciones, precisamente, extremas, alimentan esta especulación.

Además de estas dos lunas, otras como Rhea resultan de interés por estar compuestas de hielo de agua, por sus cráteres e incluso por su origen e influencia sobre Saturno.

La misión Cassini, lanzada en 2005, continúa hoy estudiando a Saturno y a su entorno, e incluso realizando inéditas fotografías de la Tierra vista desde el espacio profundo. Los anteriores visitantes del planeta, las sondas Voyager, están viajando fuera del sistema solar.

Las tormentas desveladas

Saturno experimenta una gigantesca tormenta cada treinta años, produciendo el fenómeno llamado la “gran mancha blanca”, observada por primera vez en 1876. Los mecanismos de cómo se producen estas tormentas en la atmósfera de Saturno eran un misterio hasta 2013, cuando un grupo de investigadores de la Universidad del País Vasco encabezados por Enrique García Melendo desarrolló un modelo informático de la tormenta saturniana.

El comparador de huesos

Uno de los grandes opositores a la idea de la evolución en el siglo XIX fue también uno de los científicos que más sólidas pruebas encontró a favor de este proceso.

Georges Cuvier
(imagen CC vía Wikimedia Commons)
Una de las hazañas más impresionantes de paleontólogos y paleoantropólogos consiste en la reconstrucción de un animal a partir de restos muy escasos, tanto que muchas personas llegan a pensar que los científicos sólo están especulando ciegamente.

Pero este logro es posible, y ello gracias al estudio de la anatomía comparada y al conocimiento de que cada órgano o hueso está modelado por su función y por el lugar que ocupa, de modo que un observador informado puede saber con sólo verlo, por ejemplo, si un diente pertenece a un ser humano, a un primate, a un herbívoro o a un depredador. Y, si es de un herbívoro, por ejemplo, su tamaño y detalles, y su parecido con los de otras especies ya conocidas, le permiten saber el tamaño del animal, su aspecto aproximado e incluso qué tipo de dieta empleaba como alimentación.

El primer científico que pudo hacer esto gracias a sus desubrimientos, Georges Cuvier, decía: “Si los dientes de un animal son como deben ser para que se alimente de carne, podemos estar seguros, sin más exámenes, que el sistema completo de su órgano digestivo es adecuado para ese tipo de alimento”.

Este científico francés, considerado una de las mentes más capaces de su época, era también un personaje mezquino, racista y rencoroso, lo cual en todo caso confirma la idea de que el conocimiento científico es válido consígalo quien lo consiga. Y, según sus contemporáneos, Georges Cuvier lo era, pero sin perder el favor de los poderosos, siempre indispensable para que los científicos tengan los recursos necesarios para su estudios.

El defensor de los hechos

Jean Léopold Nicolas Frédéric Cuvier nació en 1769 en la familia de un oficial militar de bajo rango. Su ciudad natal, Montbéliard, está hoy en Francia, cerca de la frontera con Suiza, pero en aquél entonces era parte del ducado Württemberg, en la Suavia alemana, donde la educación era obligatoria, algo desusado para la época, pero que permitió al joven asistir a la escuela después de que su madre, tenaz creyente en las capacidades de su hijo y en el valor de la educación, ya le hubiera enseñado a leer para los 4 años de edad y lo apoyó continuamente con libros.

En la escuela, Cuvier se encontró con los trabajos de Georges-Louis Leclerc de Buffon, botánico, matemático, uno de los enciclopedistas y figura de la ilustración francesa, y ello lo dirigió hacia lo que entonces se llamaba “naturalismo” y que implicaba a numerosas disciplinas actuales como la biología, la geología, la antropología y la paleontología. A los 12 años había leído los 36 volúmenes de la monumental “Historia natural” de Buffon.

Al salir de la escuela empezó a trabajar como tutor de una familia en Normandía y empezó a forjarse una reputación como naturalista serio, que lo llevaría a la prestigiosa Academia de Ciencias francesa, a ser miembro de la Royal Society y a convertirse en una especie de árbitro de la ciencia.

Su principal aportación, que impulsaría el estudio de la evolución y daría bases sólidas para las conclusiones a las que llegaría Darwin algunos años después de la muerte de Cuvier. A diferencia de algunos pioneros de la evolución como su compatriota Jean-Baptiste Lamarck, Cuvier creía que los seres vivos no cambiaban gradualmente al paso del tiempo. Sin embargo, los hechos le demostraban algo indiscutible: los seres vivos sí se extinguían, idea que presentó en un artículo cuando tenía tan sólo 26 años de edad.

Muchos de sus contemporáneos creían que los fósiles eran restos de especies vivientes conocidas o, incluso, desconocidas que con el tiempo se descubrirían en lugares lejanos del mundo que se estaba apenas explorando. Así, llegaron a considerar los fósiles de mamut hallados en Italia como restos de los elefantes con los que Aníbal cruzó los Alpes en su invasión de la península itálica. Contrario a ellos, Cuvier determinó mediante la comparación de restos fósiles que algunas especies se habían extinguido para siempre de la faz de la tierra. Sus estudios de la anatomía de los elefantes demostraron que los elefantes africanos y asiáticos pertenecían a dos especies distintas, y que ambos eran distintos a los mamuts hallados en Europa y Siberia. Así consiguió demostrar la existencia de animales extintos como el perezoso gigante. En el proceso, fundó la moderna paleontología de vertebrados y la anatomía comparativa.

Además, sus investigaciones en geología, como las que realizó en los alrededores de París, le permitieron determinar que ciertos fósiles sólo aparecen en ciertos estratos geológicos, y que en los propios estratos geológicos había evidencias de glaciaciones y catástrofes diversas. Tratando de conciliar los hechos desarrolló la teoría de que la vida se había extinguido varias veces en la historia del planeta, y que había habido, por tanto, sucesivas creaciones de la vida a partir de cero. Sus evidencias, sin embargo, demuestran que la creciente diferenciación de los seres vivos conforme más antiguos son los estratos geológicos se debe al proceso de la evolución.

Si bien se equivocaba en la conclusión, los hechos eran incuestionables. Y los hechos eran los que consideraba fundamentales.

Su idea de que los animales eran unidades funcionales donde todos los órganos actúan enc concordancia, apoyándose entre sí, le permitió la hazaña de identificar ciertas especies sólo a partir de un hueso determinado, aunque también le hizo rechazar la idea de la evolución, pues argumentaba que un cambio en un solo órgano alteraría el equilibrio del todo, incluso de modo peligroso.

Entre sus otras, abundantes aportaciones, Cuvier amplió el sistema de clasificación de los seres vivos de Linneo reuniéndo a las clases en filos, y afirmando que los animales estaban divididos en cuatro ramificaciones: los vertebrados, los moluscos, los articulados (insectos y crustáceos) y los radiados (seres con simetría radial como la estrella o el erizo de mar).

Cuvier murió de cólera en 1832, habiendo sostenido su prestigio como científico durante la revolución francesa, el régimen napoleónico y la restauración de la monarquía, que le confirió el título de barón poco antes de su muerte.

El espectáculo de la ciencia

Además de promover la educación en Francia, Cuvier hacía demostraciones públicas de sus conocimientos como un moderno divulgador. En algunos casos, se le mostraba una roca que contenía un fósil y, viendo la composición de la roca, podía decir qué animal estaba encerrado en ella. Unos trabajadores rompían la roca cuidadosamente durante largas horas hasta que descubrían el fósil, demostrando que Cuvier estaba en lo correcto y provocando los aplausos de la concurrencia.

Los posibles ordenadores del mañana

Es habitual imaginar lo que podrían hacer los ordenadores del mañana, pero sus capacidades dependerán de la forma que asuman esos ordenadores. Y serán muy distintos de los de hoy.

El primer ordenador cuántico comercial
(Foto de D-Wave Systems, Inc.) 
Imagine un ordenador de sobremesa cuyo procesador estuviera formado por células vivientes, que antes que electricidad requiriera nutrientes, o por moléculas de ADN, el transmisor de la información genética de los seres vivos, o que funcionara a nivel cuántico, en el espacio subatómico donde ocurren cosas que desafían nuestro sentido común (y que, hay que recordarlo, no ocurren a nivel macroscópico).
Ésas son algunas de las posibilidades que se plantean quienes están trabajando para desarrollar los ordenadores del mañana. No de un futuro vagamente lejano, sino razonablemente cercano e inmediato.

Un ordenador es un dispositivo capaz de compartir y almacenar datos, y realizar con ellos operaciones lógicas, correlacionarlos, interpretarlos o procesarlos de alguna otra forma. A eso se reduce cuanto hacen nuestros ordenadores, sea enviar correos electrónicos o reproducir música, procesar fotos o crear textos. Cada acción de un ordenador está programada, paso a paso, para llegar al resultado que observamos sin exigirnos casi ningún esfuerzo a nosotros.

Aunque los ordenadores tienen su origen conceptual en las máquinas que diseñó Charles Babbage y los primeros programas para ellas que diseñó Ada Lovelace, el concepto actual del ordenador surgió en 1946 con ENIAC, una máquina electrónica diseñada para calcular trayectorias balísticas para el ejército estadounidense, lo que en la Segunda Guerra Mundial hacían a mano grupos de mujeres llamadas, precisamente, “computadoras”.

Lo que siguió fue, principalmente, un proceso de miniaturización de los ordenadores y sus componentes, en un momento dado impulsada por la carrera espacial entre EE.UU. y la URSS. De los tubos de vacío para manejar corrientes eléctricas se pasó a los transistores y luego a los microcircuitos integrados de semiconductores, cada vez más pequeños, cada vez más rápidos y cada vez más potentes.

Un smartphone o teléfono inteligente de hoy en día tiene una potencia increíblemente superior a ENIAC. El primer ordenador podía realizar 5.000 instrucciones por segundo, mientras que el aparato que probablemente tiene en el bolsillo puede realizar 5 mil millones de instrucciones por segundo. Y en cuanto a almacenamiento, el primer disco duro que hizo IBM, de 5 megas, pesaba más de una tonelada. Hoy es fácil tener 64 gigabytes (64 mil megabytes) en una tarjeta SD de apenas dos gramos de peso.

Sin embargo, hay un límite a la miniaturización física de los componentes de un ordenador. En 2008, Gilles Thomas, director de investigación de una de las más importantes firmas productoras de semiconductores, calculaba que alrededor de 2023 llegaríamos a un punto en el que ya no será económicamente rentable hacer más pequeños los componentes de un microcircuito.

La forma que adoptará el futuro

Un entretenimiento común es imaginar qué podrán hacer los ordenadores del futuro... y la imaginación es el único límite. Pero todas las especulaciones parten de que vamos a tener máquinas capaces de funcionar a mucha mayor capacidad, con mucho mayor almacenamiento de datos. El problema es cómo conseguirlo.

Quizá las moléculas vivientes, como el ADN, puedan ser las sucesoras del ordenador electrónico que ha dominado nuestra vida desde la década de 1970. Ya en 2003, el científico israelí Ehud Shapiro consiguió crear un “ordenador” biomolecular en el que moléculas de ADN y enzimas que hacen que el ADN produzca determinadas proteínas podrían resolver problemas como la identificación de ciertos tumores en sus etapas más tempranas. Un ordenador que utilizara cadenas de ADN para realizar las operaciones de proceso de datos podría ser, en teoría, miles de veces más poderoso y rápido que los mejores procesadores electrónicos de hoy en día, al menos en ciertos tipos de procesos.

En el terreno de los posibles ordenadores biológicos, también se trabaja en uno formado por neuronas, es decir, las células del sistema nervioso de los animales. En 1999 se desarrolló el primero, formado por una serie de neuronas procedentes de sanguijuelas, donde cada neurona representaba un número y las operaciones se realizaban conectando a las neuronas entre sí. Uno de los atractivos de los ordenadores de neuronas es, según Bill Ditto, creador de este sistema pionero, que hipotéticamente pueden alcanzar soluciones sin tener todos los datos, a diferencia de los ordenadores electrónicos. Al poder realizar sus propias conexiones, en cierto modo estas neuronas podrían “pensar” de modo análogo, a grandes rasgos, a como pensamos nosotros cuando tratamos de resolver un problema sin datos suficientes.

Pero el área de trabajo más intenso como alternativa al ordenador electrónico es la informática cuántica, que trabaja a niveles subatómicos.

En el mundo a nuestra escala, los ordenadores trabajan con un lenguaje binario, es decir, que cada elemento de su lógica o “bit” sólo puede tener uno de dos valores: 1 o 0. Las operaciones de proceso de datos van transformando cada bit hasta que llega a un valor final que es la solución del problema.

Pero en un ordenador cuántico no tenemos bits sino qbits (bits cuánticos), que debido a las propiedades de las partículas elementales que describe la mecánica cuántica, pueden tener un valor de 0, de 1 o de una“superposición” de esos dos valores, es decir, ambos a la vez. Pero si tomamos un par de qbits, pueden estar cualquier superposición de cuatro estados. Así, la cantidad de qbits para representar la información en un ordenador cuántico es mucho menor que la cantidad de bits en uno electrónico y la cantidad de procesos que puede realizar es mucho mayor y a mayor velocidad, explorando diversas opciones para cada problema.

Los primeros ordenadores cuánticos comerciales han sido ya adquiridos por una empresa aeroespacial y por el gigante de las búsquedas en Internet, Google. La decisión se tomó después de constatar que el ordenador cuántico resolvía en medio segundo un problema que le tomaba media hora a uno de los más poderosos ordenadores industriales existentes.

Por más que nos pueda asombrar cuánto ha avanzado la informática desde sus inicios en 1946, es posible que apenas estemos por salir de la infancia de los ordenadores. Y el futuro será todo, menos predecible.

La “ley” de Moore

En 1965, Gordon Moore, uno de los fundadores de Intel, observó que el número de transistores en un circuito integrado, y por tanto aproximadamente el poder de cómputo, se duplicaba más o menos cada dos años. Sin ser una ley, esta aguda observación se ha mantenido válida durante 48 años, pero los expertos de la industria calculan que esta velocidad empezará a disminuir en poco tiempo.

La extraña forma de andar a dos pies

Somos el único primate completamente bípedo, característica que adquirimos de modo relativamente reciente y de la cual aún queda mucho por saber.

Reproducción del esqueleto de "Lucy" y reconstrucción
en el Museo Nacional de Naturaleza y Ciencia de Tokio.
(Foto CC de Momotarou2012, vía Wikimedia Commons) 
Durante largo tiempo se vivió un debate intenso intentando determinar si, en la evolución que ha llevado hasta los humanos modernos, había aparecido primero una gran capacidad craneal o el bipedalismo, nuestra curiosa forma de locomoción. Los especialistas comparaban datos, especulaban con base a la evidencia existente y cotejaban puntos de vista.

Ambas adaptaciones, son esenciales para lo que nos hace humanos. La gran capacidad craneal implica un mayor cerebro en relación al cuerpo, permitiendo la aparición de funciones cerebrales que todo parece indicar que sólo tiene el ser humano, como el cuestionamiento de la realidad y un lenguaje conceptual capaz de transmitir conocimientos de una generación a la siguiente. Pero el bipedalismo a su vez era fundamental para liberar nuestras extremidades superiores, permitiendo que se desarrollaran capacidades como la de hacer y manipular herramientas complejas con un control muy fino, del que son incapaces nuestros más cercanos parientes primates, que aún utilizan las extremidades superiores para la locomoción, como el gorila, el chimpancé o el orangután.

A principios del siglo XX, los pocos fósiles que se tenían de homininos (es decir, de las especies que se separaron de los chimpancés abriendo una nueva línea que desembocó en las varias especies humanas que conocemos) tenían cerebros relativamente grandes, al menos en comparación con los otros primates. Esto apoyaba la idea de que la gran capacidad craneal había sido el primer paso hacia la humanización: la inteligencia había forjado al cuerpo.

Pero en 1924, en una cantera sudafricana, se encontraron algunos fragmentos de un fósil nuevo, un joven de unos 2,5 millones de años de antigüedad al que se bautizó como el Niño de Taung, por la zona donde fue descubierto. Era una nueva especie y un nuevo genus, el Australopitecus africanus. La reconstrucción que se hizo sugería que, pese a tener un cerebro de tamaño comparable al de los chimpancés modernos, parecía tratarse de un ser que se había trasladado sobre dos pies. El debate seguía, pero con nuevos datos.

En 1974, el paleoantropólogo Donald Johanson encontró lo que es un sueño para cualquiera de sus colegas: un esqueleto muy completo de una hembra de la especie Australopithecus afarensis, con una antigüedad de 3,2 millones de años a la que es bautizó como “Lucy” porque en la celebración de su hallazgo los miembros del grupo de Johanson estuvieron escuchando la canción de Los Beatles “Lucy in the sky with diamonds”.

Y la cadera, los huesos de las piernas, las vértebras y el cráneo de Lucy no dejaban lugar a dudas: era un pequeño ser de 1,1 metros de estatura, con una capacidad craneal apenas mayor que la de un chimpancé de su tamaño, pero claramente bípeda.

Antes de usar herramientas, antes de poder hacer arte o filosofía, nuestra estirpe había caminado sobre dos pies. El debate estaba zanjado. Primero fue el bipedalismo. Y descubrimientos posteriores han confirmado esta conclusión de modo clarísimo, indicando que nuestra línea es bípeda al menos desde hace 7 millones de años.

Pero la respuesta obtenida por la ciencia abría nuevas preguntas. ¿Por qué nuestro linaje se volvió bípedo?

De una parte, la aparición de esta característica coincidió con un evento climático de súbita disminución de la temperatura, aumento de los hielos de la Antártida y descenso del nivel del mar. Es posible que al hacerse menos densos los bosques, el medio favoreciera que nuestros ancestros arborícolas cambiaran su forma de locomocion, siendo más eficientes en la sabana y, de paso, más capaces de ver a su alrededor para protegerse de los depredadores. Además, esto les permitía llevar en los brazos comida en distancias más largas, era más eficiente que el cuadrupedalismo de otros primates y daba lugar a una característica singular del ser humano: la capacidad de correr a lo largo de enormes distancias.

Son pocos los animales que pueden competir con el ser humano en las largas distancias. Nuestra capacidad de desprender calor mediante el sudor y gracias a la falta de pelo corporal nos pone en una liga muy selecta de animales capaces de correr más de 30 kilómetros a una velocidad sostenida, como los perros, lobos, caballos, camellos y avestruces. Esto eventualmente permitió a los primeros cazadores seguir a una presa hasta conseguir agotarla sin tener que correr más rápido que ella, simplemente a base de persistencia.

Andar del modo peculiar en que lo hacemos permitió a los australopitecinos manejar mejor su medio ambiente y convertirse, eventualmente, en cazadores capaces de usar herramientas y armas. Los desafíos y la mejor alimentación del recolector-cazador desembocaron en lo que somos nosotros.

Y sin embargo, hay muchas indicaciones de que caminar sobre dos pies es un acontecimiento novedoso en términos de la evolución y su lento decurso, y que buena parte del diseño de nuestro cuerpo es el resultado de compromisos entre el bipedalismo y otras funciones. El parto difícil de la hembra humana, por poner el ejemplo más conocido, es resultado del rediseño de la columna vertebral y la pelvis, que hizo del canal de parto un recorrido difícil y peligroso para el hijo y para la madre, donde el bebé debe hacer un giro de 90 grados para poder salir por un espacio estrecho y curvado. Distintas presiones de selección en distintos momentos llevaron a un resultado satisfactorio, pero ciertament eno perfecto. Y ello lo vivimos también en nuestros problemas de espalda, la aparente fragilidad de nuestras rodillas, la propensión al pie plano.

Pero todo ello es el resultado de un cambio fundamental y revolucionario que en el fondo resulta una maravilla de la ingeniería. Y para recordarlo, basta tener presente lo difícil que ha sido para los más avezados diseñadores de robots hacer un autómata bípedo que camine como nosotros. Ni siquiera el más avanzado robot es capaz de recuperarse de un empujón y, mucho menos, de dar los pasos de danza de una bailarina profesional con los que nuestra forma de locomoción se convierte en medio para crear belleza y emoción.

Una nueva hipótesis

Un reciente estudio de la Universidad de York sugiere que nuestro peculiar modo de locomoción puede haber tenido su origen no en la expulsión de nuestros ancestros de los bosques por motivos climatológicos, sino por su migración hacia los terrenos abruptos del oriente y sur de África, zonas rocosas a las que se habrían visto atraídos tanto por el refugio que ofrecían como por tener mejores oportunidades de atrapar a sus presas allí, un terreno que pudo contribuir a desarrollar nuestras habilidades cognitivas.

La técnica y la ética de la clonación

Clonar seres nos permite conocer mejor la transmisión genética y, sobre todo, de cómo el medio ambiente determina si nuestros genes se activan o no. Un conocimiento que aún provoca temores.

La oveja Dolly, el primer mamífero superior clonado está
expuesta actualmente en el Museo de Edimburgo.
(Foto CC de Tony Barros, vía Wikimedia Commons) 
Si dos animales tienen la misma carga genética, como los gemelos, trillizos, cuatrillizos o quintillizos idénticos, son clones. No son siquiera fotocopias, sino que son como dos grabados producidos a partir de la misma plancha. Y pese a ser muy comunes, los clones nos siguen pareciendo desusados.

En el mundo de la agricultura, la clonación es una técnica ordinaria y no precisamente una tecnología de vanguardia. Consta en cortar un brote de una planta e injertarlo en otra, de modo que la segunda dé exactamente los mismos frutos que la primera, con exactamente la misma composición genética.

El injerto es la mejor forma de obtener un producto de una calidad, sabor, aroma, color y tamaño razonablemente uniformes. Cien manzanos procedentes de cien semillas pueden tener frutos muy distintos. Por ello, cuando tenemos un árbol con manzanas muy deseables, se injertan sus brotes en otros manzanos, y en poco tiempo tendremos un huerto uniforme donde todos los árboles nos dan manzanas iguales. Es el caso de la variedad Granny Smith: manzanas genéticamente idénticas que se remontan, todas, a un único árbol del que tomó sus primeros injertos, en 1868, María Ann Smith en Australia.

Así podemos productos agrícolas al gusto del consumidor sin sorpresas desagradables. Y, sabiéndolo o no, todos consumimos grandes cantidades de clones vegetales.

Si hay clones vegetales procedentes de manipulaciones humanas, los clones animales suelen ocurrir sin intervención del ser humano. Las camadas de animales idénticos, organismos como la planaria, pequeño gusano plano con frecuencia plaga de los acuarios, y que para clonarlo basta cortarlo cuidadosamente en dos, y cada mitad regenerará su otro lado, dejándonos con dos clones. Y reptiles que se reproducen por partenogénesis, que es una forma de clonación.

Sin embargo, cuando la gente se refiere al proceso de clonación no está pensando en un campesino injetando un brote. Piensa en un proceso más complejo para crear un nuevo ser viviente a partir de otro, al estilo del thriller de Michael Crichton Parque jurásico.

La complejidad de la clonación

La teoría detrás de la clonación es bastante simple: tomamos una célula de una persona, le extraemos el núcleo, donde está toda la información genética e introducimos ese núcleo en un óvulo cuyo núcleo propio haya sido destruido. El núcleo toma el control y el óvulo se desarrolla normalmente hasta que tengamos un bebé genéticamente idéntico al donante del núcleo original, un gemelo nacido muchos años después.

Pero no es necesario plantear la clonación de seres completos. Clonar únicamente nuestros pulmones, hígado, riñones, páncreas y otros órganos podría, se ha especulado, permitirnos trasplantes sin problemas de rechazo, salvando muchas vidas.

La posibilidad de llevar a cabo este proceso se empezó a hacer realidad en 1901, cuando Hans Spemann dividió un embrión de salamandra de dos células y vio que ambas se convertían en salamandras completas y sanas, indicando que ambas células tenían toda la información genética necesaria para crear un nuevo organismo. Poco después, Speman consiguió transferir un núcleo de una célula a otra y en 1938 publicó sus experimentos y propulo lo que llamó un “experimento fantástico” para transferir el núcleo de una célula a otra que no lo tuviera.

Apenas empezábamos a saber cómo funcionaba el ADN cuando, en 1962, John Gurdon afirmó que había clonado ranas sudafricanas. En 1963, el excéntrico biólogo J.B.S. Haldane usó el término “clonar” en una conferencia y, en 1964, F.E. Steward produjo una zanahoria completa a partir de una célula de la raíz.

Conforme los descubrimientos científicos iban avanzando claramente y a velocidad acelerada hacia la posibilidad de clonar mamíferos superiores y, eventualmente, al ser humano, se empezaban a formular las cuestiones éticas que representaba la clonación. Las distintas corrientes religiosas en general expresaban su rechazo a la idea basados en su concepción del origen excepcional del ser humano. Pero aún fuera de la religión las dudas las resume la Asociación Médica estadounidense en cuatro puntos que merecen atención: la clonación puede causar daños físicos desconocidos, daños psicosociales desconocicos que incluyen la violación de la privacidad, efectos imprevisibles en las relaciones de familia y sociedad, y efectos posibles sobre la reserva genética humana.

El debate se hizo más urgente en febrero de 1997, cuando el embriólogo Ian Wilmut de Escocia anunció la clonación exitosa del primer mamífero superior: la oveja Dolly, que de inmediato entró en la historia y el debate dentro y fuera del mundo científico.

Y los problemas también se hicieron evidentes muy pronto. En vez de vivir los 12 años normales de una oveja, Dolly murió a los seis afectada de enfermedades propias de ovejas de mucha mayor edad, como artritis y enfermedad pulmonar progresiva. Una de las peculiaridades que se observó en el material genético de Dolly es que los extremos de sus cadenas de ADN tenían telómeros demasiado cortos. Los telómeros son variedades de ADN que se van acortando al paso del tiempo y se utilizan como indicadores de la edad de un ser vivo. Desde entonces, se estudian intensamente los telómeros y otros aspectos que pueden obstaculizar el que un ser clonado tenga una vida larga y normal.

El debate volvió a encenderse en mayo de 2013, cuando un grupo de científicos anunció que había conseguido producir embriones humanos a partir de células de piel y óvulos. El proceso está muy lejos de generar finalmente un ser humano clonado completo, y no tiene ese objetivo, es más bien una forma de obtener células madre para el tratamiento de distintas enfermedades a través de la medicina genómica personalizada, donde el material genético del propio paciente se usa para producir las sustancias o elementos necesarios para su curación.

¿Tiene sentido clonar a un ser humano? Muchos científicos consideran que la única razón para intentarlo es todo lo que podemos aprender en el proceso, pero el fin último de la investigación en esta área no es crear seres humanos idénticos entre sí. Después de todo, parece ser que el procedimiento que hemos empleado para crear nuevos seres humanos hasta hoy es bastante eficiente, sencillo y, claro, divertido.

Antiguas clonaciones

La primera referencia histórica que tenemos de la clonación procede del diplomático chino Feng Li, que en el año 5000 antes de nuestra era ya clonaba melocotones, almendras, caquis, peras y manzanas como un emprendimiento comercial. Aristóteles, en el 300 antes de nuestra era, escribió ampliamente sobre la técnica.

Chris Hadfield: la emoción del espacio

La aventura espacial sigue siendo uno de los más relevantes emprendimientos del ser humano. Simplemente, al parecer, lo habíamos olvidado.

Chris Hadfield en su histórica interpretación de
Space Oddity en la Estación Espacial Internacional
Desde fines del siglo XIX, la posibilidad real de salir de los límites de la atmósfera terrestre disparó un duradero entusiasmo por los viajes al espacio, alimentado por la primera obra de ficción que trató la posibilidad con seriedad: “De la Tierra a la Luna” de Jules Verne.

En 1903, el ruso Konstantin Tsiolkovsky publicó dos monografías sobre la exploración espacial y, basado en sus ecuaciones, propuso el uso de cohetes de varias etapas para alcanzar una órbita alrededor del planeta. Poco después, en Estados Unidos, Robert Goddard presentó en 1919 sus teorías sobre viajes en cohetes y las llevó a la práctica en 1926, lanzando el primero de muchos cohetes de combustible líquido.

Los viajes al espacio se empezaron a hacer realidad como parte de la “guerra fría” entre Estados Unidos y la Unión Soviética. Y el entusiasmo por ellos era universal, ya estuviera uno en la órbita soviética o en la estadounidense: era una gran aventura, con el añadido de la competencia que le daba mayor emoción, una gran carrera espacial, como se conoció.

Pero una vez alcanzada la Luna, el objetivo que los contendientes se habían planteado como premio de su enfrentamiento, el entusiasmo empezó a decaer junto con los presupuestos. Después de la llegada a la Luna, las siguientes seis misiones a la Luna (de las que llegaron cinco y fracasó la Apolo XIII) fueron cada vez menos interesantes para el público, sin importar los beneficios que el proyecto espacial estaba empezando a entregar “en tierra” (por mencionar sólo uno, la microminiaturización de componentes forzada por el coste de envío al espacio de cada gramo, que desembocó en los ordenadores personales y la revolución que provocaron).

Mientras la NASA sufría recortes continuos desde 1970, sus adversarios se ocuparon de los viajes orbitales... hasta que la Unión Soviética se desmoronó en 1991. Los entusiastas del espacio siguieron teniendo motivos de alegría, pero para el público en general la exploración espacial pasó a ser algo que estaba allí, con científicos y técnicos, astronautas de una glacial seriedad y tan poco emocionante como un trabajo de fontanería.

Y llegó el canadiense

Cierto, se había intentado suavizar la imagen de los astronautas. En abril de 2011, la astronauta Candy Coleman en el espacio y el mítico líder de Jethro Tull, Ian Anderson, hicieron un dueto de flauta celebrando los 50 años del vuelo orbital de Yuri Gagarin. José Hernández, “Astro_José”, el astronauta de origen mexicano, alcanzó cierta relevancia en Twitter. Pero siempre dejaban la impresión de que todo estaba demasiado coreografiado, que estaban haciendo relaciones públicas para la NASA. Eran como dijo Kevin Fong, director del centro de medicina espacial del University College de Londres, “una orden monástica silenciosa”.

Incluso el hecho mismo de que existiera un grupo de rock formado exclusivamente por astronautas, llamado Max Q, era asunto que sabían muy pocas personas, pese a que la banda ya tiene 26 años de existencia y por ella han pasado 19 hombres y mujeres que han estado en el espacio.

Todo cambió cuando Chris Hadfield, bajista y vocalista de Max Q, fue nombrado como tripulante de la Estación Espacial Internacional.

Durante cinco meses, pero especialmente durante los tres en los que fue comandante de la Expedición 35 de la ISS, Hadfield se convirtió en el astronauta que humanizó el espacio y devolvió a muchos, especialmente a los jóvenes, el entusiasmo por lo que pasa más allá de los confines de nuestro planeta.

Y no lo hizo asombrándonos con los elementos técnicos más desarrollados, sino llevando a tierra, mediante vídeos, fotos y sus cuentas en las redes sociales, la cotidianidad del espacio, a veces lo más simple, lo cotidiano.

Así, explicó lo que pasa si uno llora en el espacio (se crea una bola de agua en el ojo, acumulando las lágrimas, por lo que debe quitarse con un pañuelo desechable, las lágrimas no caen), por qué los astronautas no pueden llevar pan a la estación (las migas que se desprenden del pan flotan e incluso pueden aspirarse por la nariz, en vez de ello comen tortitas mexicanas, llamadas allá “tortillas”), cómo lavarse los dientes, cómo afeitarse, cómo dormir... la vida diaria compartida por un comunicador entusiasta, eficaz, con carisma y capaz de hacer que la gente, como dijo en una sesión de preguntas y respuestas de la red social Reddit “experimentara un poco más directamente cómo es la vida a bordo de una nave de investigación en órbita”.

Pero además de las fotografías y momentos ligeros, como su conversación con William Shatner, actor canadiense que dio vida al Capitán James Kirk en la serie original de televisión Star Trek y en las primeras 6 películas de la franquicia, también llevó a quienes lo seguían en las redes sociales a las emociones reales de la vida en órbita, como una fuga de amoníaco que puso en riesgo el suministro de electricidad de la estación, cuya reparación contó por Twitter mientras la preparaban, o un paseo espacial de emergencia de dos de los astronautas bajo su mando.

La culminación de la estancia del comandante Hadfield fue, sin duda, su interpretación, como guitarrista y cantante que es, de la canción “Space Oddity” de David Bowie, a modo de despedida. Poco después de subir el vídeo, las redes sociales hervían comentándolo.

Lo que se supo después es que primero Hadfield tuvo que se convencido por sus hijos de que sería buena idea llevar su misión a las redes sociales, y luego él tuvo que convencer a la agencia espacial canadiense y a la NASA de darle los medios y el tiempo para hacerlo.

Gracias a ello, y a su forma de responder preguntas, a sus explicaciones, su buen humor y su evidente entusiasmo por su trabajo, muchos jóvenes que no habían prestado demasiada atención a las evoluciones de los astronautas han recuperado el entusiasmo por la exploración del espacio, por las posibilidades que ofrece, por grandes desafíos como el mítico viaje a Marte que algunas agencias espaciales, como la de China, se están planteando seriamente.

Y si hay el entusiasmo necesario, se podrá hacer realidad la sentencia de Tsiolkovsky: “La Tierra es la cuna de la humanidad, pero uno no puede vivir para siempre en una cuna”.

En el aire y en el espacio

Chris Hadfield nació en Ontario, Canadá, en 1959 y estudió ingeniería mecánica al tiempo que era piloto de la Real Fuerza Aérea canadiense. Al espacio en 1995, en la misión 74 del transbordador espacial y en 2001 en la número 100. Fue enlace de la NASA con todos sus astronautas y su representante en el centro Yuri Gagarin. En diciembre de 2012 subió a la ISS, de la que fue comandante del 13 de marzo al 12 de mayo de 2013.

El juego del gato

La que hoy es la mascota más popular del mundo fue considerada maligna y diabólica durante cientos de años.

El gato salvaje africano, Felis silvestris lybica, ancestro
del gato común.
(Foto CC de Rute Martins (www.leoa.co.za),
vía Wikimedia Commons)
Si una proverbial civilización extraterrestre tuviera acceso a Internet, bien podría concluir que los gatos juegan un papel absolutamente esencial en la sociedad humana viendo el número de imágenes de gatos que pueblan de modo desbordante la red mundial.

Sin llegar a tanto, lo cierto es que el gato, junto con el perro, han formado con los seres humanos una relación entre especies que no tiene paralelo en el mundo vivo. A partir de una relación mutuamente beneficiosa en términos de alimentos, protección y seguridad, se desarrolló otra que satisface necesidades más subjetivas, emocionales, de compañía y amistad.

Si el perro comenzó su relación con el hombre, hasta donde sabemos, rondando a los grupos de cazadores para aprovecharse de sus sobrantes alimenticios y después integrándose a las partidas de caza, el gato entró en escena mucho tiempo después, probablemente atraído por otro animal que se adaptó al ser humano: el ratón.

Según el arqueólogo J.A. Baldwin, el proceso de domesticación del gato se produjo a raíz del desarrollo de la agricultura por parte de los seres humanos. Cuando aún no había formas de conservar frutas y verduras, los cereales se añadieron a la dieta humana y se domesticaron por lo relativamente sencillo que es secarlos y almacenarlos en grandes cantidades sin que pierdan sus propiedades alimenticias o se pudran como otros productos agrícolas. Pero un granero era una tentación para los ratones, una fuente de alimento para los duros meses de invierno y una protección de sus depredadores habituales. La abundancia de grano trajo la abundancia de ratones, como lo demuestran, según los estudios, las grandes cantidades de esqueletos de ratones encontrados en los sótanos de las viviendas del neolítico en el Oriente medio. Y eso era a su vez una invitación a sus depredadores, para los cuales un granero era en realidad un almacén de ratones, un coto de caza. Y los principales eran unos gatos salvajes.

Un estudio genético de 979 gatos domésticos, publicado en la revista Science en 2007, concluyó que la domesticación del gato coincidió efectivamente con la aparición de las primeros poblados agrícolas en el creciente fértil de oriente medio. Y determinó que todos los gatos domésticos de hoy, (cuyo nombre científico es Felis sylvestris catus) proceden del gato salvaje de Oriente Medio o gato salvaje africano, Felis sylvestris lybica, aunque en distintos momentos ha habido cruzas con las otras cuatro subespecies de gatos silvestres: el europeo, el de Asia central, el de Sudáfrica y el del desierto de China.

La primera evidencia de la domesticación data de unos 10.000 años, en un enterramiento humano neolítico de Chipre estaba acompañado de un gato y de una escultura que mezclaba rasgos gatunos y humanos.

Uno de los científicos del estudio genético, Carlos Driscoll, sugirió que los gatos de hecho se domesticaron a sí mismos. Entraron por su cuenta en la vida humana y, al paso del tiempo, los seres humanos fueron alimentándolos y favoreciendo rasgos más dóciles y más amables, como ocurrió con el perro. Esto habría implicado prolongar la duración de algunos rasgos y comportamientos infantiles, lo que los biólogos evolutivos conocen como “neotenia”, proceso responsable de que perros y gatos adultos aún gusten de jugar. Implicó también la reducción del tamaño del animal, de sus secreciones hormonales y de su cerebro, haciéndolo más tolerante a la convivencia con humanos.

Un proceso difícil porque el lobo al que convertimos en perro ya era un animal gregario, acostumbrado a la estructura de la manada y la vida ordenada de una sociedad, pero el gato silvestre era (y es) un depredador solitario, como la mayoría de sus parientes de mayor tamaño.

La primera época de gran popularidad de los gatos se vivió en el Antiguo Egipto a partir del año 2000 antes de nuestra era, cuando empezaron a aparecer en el arte y en enterramientos. Se les consideraba valiosos por el control de distintas plagas y se les consideraba parte de la familia. En el panteón de dioses con cabezas animales de la religión egipcia, Bastet, diosa de los gatos, del calor del sol y, según algunos, del amor, tenía cabeza de león cuando estaba en guerra o de gato en sus advocaciones más amables, estableciendo la relación de los felinos con la sensualidad.

Hacia el año 900, la ciudad dedicada a la diosa, que hoy es la ciudad de Zagazig, se convirtió en capital de Egipto y por tanto la adoración de los egipcios por la diosa Bastet creció enormemente. Locales y peregrinos visitaban el gran templo de Bastet, donde merodeaban numerosos gatos, considerados reencarnaciones o ayudantes de la diosa, y le presentaban como ofrenda gatos momificados. En él se han encontrado más de 300.000 de estas momias y se calcula que debe haber millones más, resultado de cientos de años de adoración a la diosa. Para abastecer a los peregrinos, se establecieron los primeros criaderos de gatos, que además los sacrificaban y momificaban para su venta a los fieles.

En los siglos siguientes, el gato se fue extendiendo por el mundo como mascota, apreciado por su utilidad o por su belleza. Pero a partir del siglo XI empezó a identificarse con la maldad, con el diablo y con las brujas que dominaron el imaginario tardomedieval. Diversos herejes (entre ellos los templarios) fueron acusados de adorar al diablo, que se aparecía como un gran gato negro. En 1232, el papa Gregorio IX emitió una bula que describía el uso de gatos en rituales satánicos, lo cual azuzó el rechazo popular a los gatos, y alentó la práctica de cazar y matar gatos, especialmente mediante el fuego, que se mantuvo durante 500 años.

Pero, después de siglos de tristezas y mala publicidad, a partir del siglo XVIII los gatos volvieron a ser considerados compañeros útiles y apreciados, apareciendo primero como mascotas en París. De allí en adelante, la explosión demográfica de los gatos se ha desarrollado sin cesar hasta convertirlos en las mascotas más populares del mundo. Hoy existen más de 50 razas de gatos y se calcula que existen más de 200 millones de gatos que la gente mantiene como mascotas en todo el mundo, y un número indeterminado de gatos asilvestrados.

Y, dicen algunos, parece que casi todos ellos aparecen en alguna foto o vídeo en Internet.

Los gatos y la peste negra

Algunos estudiosos especulan que la práctica del sacrificio de gatos por sus rasgos diabólicos fue un factor responsable, al menos en parte, de la gran epidemia de peste negra de 1348-1350. De haber habido más gatos, no habrían proliferado tanto las ratas que diseminaron a las pulgas que transmitían la peste, y que fue responsable de entre 75 y 200 millones de muertes en Europa.