Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El tejido del tiempo

No podemos definir el tiempo, apenas podemos medirlo y tratar de responder a algunas de las interrogantes que plantea: ¿tuvo comienzo?, ¿transcurre de modo uniforme?, ¿se puede viajar al pasado?

Muy temprano en su historia como especie, el hombre enfrentó el acertijo del tiempo. La sucesión del día y la noche y de las estaciones, los ciclos recurrentes, contrastaban con sucesos que no se repetían, sino que tenían una duración determinada, como la leña que se quemaba y, en particular, la vida humana. Para algunos paleoantropólogos, la aparición de los ritos funerarios es una de las señas claras de humanidad en nuestra especie y en las otras especies humanas que ha habido, como los neandertales.

La primera persona que sabemos que enunció la irreversibilidad del tiempo y su efecto en el universo, que es el cambio, fue el filósofo griego Heráclito de Éfeso, que señaló que "Todo fluye, nada está detenido" y observó que un hombre no puede entrar dos veces en el mismo río, porque entre la primera y la segunda vez, tanto el hombre como el río habrán cambiado. El tiempo, así, se convierte en la medida del cambio. Para Isaac Newton, el tiempo era, junto con el espacio, un contenedor o recipiente de los sucesos, tan real como los sucesos que contiene, y su flujo era siempre constante. Esta visión se contraponía con lo sugerido por el matemático Karl Leibniz, para quien el tiempo, como el espacio y los números, eran sólo aparatos conceptuales que usamos para describir las interrelaciones de los acontecimientos, pero sin existencia real.

El debate entre ambas posiciones se mantuvo hasta la llegada de Albert Einstein al panorama de la física con su Teoría General de la Relatividad. Esta teoría, que explica mejor el universo que la de Newton, ampliándola a los terrenos de lo muy grande y lo muy pequeño, derribó efectivamente la frontera entre el espacio y el tiempo para enseñarnos a hablar de un "continuo espaciotemporal", situando al tiempo como la cuarta dimensión del universo.

Hoy, el simple sentido común nos dice que la conclusión de Einstein es perfectamente lógica. Por ejemplo, supongamos que alguien nos cita para una reunión. Nos tiene que dar, por supuesto, direcciones en tres dimensiones espaciales, es decir, en qué punto del mapa está el lugar de la reunión, por ejemplo, la esquina de la calle A con la calle Z. Eso nos da, por supuesto, dos dimensiones. Pero necesitamos una tercera, para saber si habremos de verlo en los bajos del edificio o en el piso 18. Así, nuestros domicilios son un conjunto de coordenadas en tres dimensiones que indican dónde vivimos. Pero para esa reunión necesitamos la cuarta coordenada, la cuarta dimensión: la hora de la reunión. Así, el acontecimiento se define en cuatro dimensiones, las tres del espacio (calle A esquina con calle Z, piso N) y una del tiempo (a las 4:30 en punto).

Pero Einstein hizo algo más importante: eliminó el concepto del "tiempo absoluto" de Newton sin caer en el tiempo conceptual de Leibniz. En la teoría de la relatividad, se puede describir el movimiento sin acudir al tiempo. Las ecuaciones fundamentales de la teoría einsteiniana no hacen referencia alguna al tiempo, de modo que no se puede hablar del tiempo de modo general (como Newton) ni abstracto (como Leibniz), sino que debe establecerse en cada caso en particular estableciendo los procesos físicos que se usarán para medir el tiempo. Una vez que se indica el proceso, la teoría puede explicar todo el movimiento.

Esto significaba algo especialmente importante, que el tiempo no es un elemento absoluto ni fluye de modo constante, sino que es relativo a la velocidad de desplazamiento de un objeto o persona. La forma más clara de expresar esta conclusión, convalidada por numerosos experimentos, es la de los hermanos gemelos. Supongamos que uno de dos hermanos gemelos se queda en la Tierra durante sesenta años, mientras que su mellizo viaja a grandes velocidades (cercanas a la de la luz) durante ese mismo tiempo. Lo que ocurrirá será que, al volver, el hermano viajero será mucho más joven que el que se quedó en la Tierra, ya que al moverse a gran velocidad, el tiempo transcurrirá más lentamente para él. Si se mueve a la velocidad de la luz, el tiempo se detendría completamente para él, pero es imposible alcanzar la velocidad de la luz por asuntos que también se derivan de la teoría de Einstein.

Sin embargo, otros problemas del tiempo se mantienen. Hasta hoy, toda la evidencia que tenemos indica que lo que los físicos llaman "la flecha del tiempo" sólo se mueve en una dirección, es decir, que es imposible ese sueño de los escritores de ciencia ficción de viajar al pasado. El único viaje en el tiempo que podemos hacer es, como decía el escritor Damon Knight, hacia delante, a un segundo por segundo. Y, sin embargo, algunas interpretaciones de la física cuántica indican que esto podría no ser del todo cierto.

El otro problema que ha resuelto la física es el del inicio del tiempo. Para los cosmólogos, el tiempo surgió junto con el espacio y la materia en la gran explosión o Big Bang que dio origen al universo, hace aproximadamente 15 mil millones de años. Dado que sólo en ese momento existió el tiempo, no tiene siquiera sentido preguntar ¿qué había antes del Big Bang?, porque no existió un "antes" de ese acontecimiento. Es el principio de todo. Esto dejaría, claro, pendiente el problema del final del tiempo. La eternidad concebida como un tiempo sin fin (tenga o no un principio) puede no ser una visión precisa de la realidad: el tiempo que comenzó podría terminar, así sea dentro de miles de millones de años, posibilidad que algunos encuentran muy poco agradable.

La paradoja del abuelo


La idea de viajar al pasado, recurrente en la ciencia ficción, enfrenta un problema que se conoce como "la paradoja del abuelo": si usted viaja en el tiempo y asesina a su abuelo antes de que éste pudiera procrear a su padre, su padre no existirña en el futuro y, por tanto, usted tampoco existiría. Y si usted no existe, no podría volver al pasado para matar a su abuelo.

La paradoja parece irresoluble a menos que se considere la posibilidad no de un universo, sino, siguiendo algunos desarrollos de la física cuántica, la de los multiversos, un número infinito de universos posibles. Todos los universos posibles, según esta idea, coexisten al mismo tiempo. Así, al viajar usted al pasado y matar a su abuelo, estaría realmente viajando a otro pasado posible idéntico a éste en el que mataría a su abuelo. En ese universo, su padre y usted nunca existirían, pero eso no importaría porque usted sería un extraño en ese universo. Pero en ese supuesto, al volver a su universo vería que no habría matado a su abuelo, reconciliándose así los dos polos de la paradoja.

El mundo digital

Todo parece ser digital, y todo lo digital parece ser bueno y deseable, pero ¿qué es lo digital, cuáles son sus ventajas y desventajas?

La democratización o, quizás, mercantilización de la palabra "digital", y los años transcurridos desde que se puso en marcha, ha dejado olvidado el significado de la palabra "digital" y las importantes diferencias que tiene respecto de la forma anterior de representar el mundo y la información, la "analógica". Parece oportuno, entonces, hacer un repaso de lo que realmente significa esa omnipresente palabra.

Muchas cosas ocurren de manera continua en el tiempo. Por ejemplo, en la música tenemos sonido vibrando continuamente. Si deseamos registrar el sonido, podemos utilizar un sistema como el de Tomás Alva Edison: un sustrato en el cual las ondas sonoras mueven un estilete que va grabando físicamente un surco continuo. Al hacerse pasar otro estilete con un dispositivo de amplificación sobre el sustrato, se reproducirá el sonido de manera analógica, es decir, donde cada valor representado es análogo al original. Es el principio que se utilizó en los discos de música hasta principios de los años 80, cuando apareció el disco compacto digital. Recientemente, y en manos de pichadiscos, DJ o diyéis, el disco de vinilo ha reaparecido como recordatorio de los orígenes del registro analógico de la música.

El problema es que los ordenadores no pueden trabajar con señales continuas o analógicas. Los ordenadores sólo entienden un idioma formado a partir de números, y los números no son continuos, sino son lo que los matemáticos llaman "discretos". Los números son dígitos, y por tanto digitalizar algo es simplemente convertirlo en una serie de números que puedan manejar los ordenadores y todos los dispositivos, máquinas, aparatos y adminículos basados en los principios de la informática.

Los números y los símbolos tales como las letras son de por sí discretos o discontinuos. No hay una gradación continua de valores entre la letra "a" y la letra "b", por ejemplo, de modo que los símbolos que forman las palabras que usted lee mantienen intacto su valor desde que yo los escribo en un ordenador hasta que llegan a usted. Pero si tratamos de representar para un ordenador un sonido que suba continuamente de una nota grave a una aguda, como lo puede hacer un cantante o un violón, tenemos que digitalizarlo o convertirlo en números, y para ello debemos darle un valor a la nota más grave y otro a la más aguda. Por ejemplo, podemos asignarle 1 a la nota más grave y 50 a la nota más aguda. Lo que ocurrirá es que nos veremos obligados a incluir toda la gradación tonal en sólo 50 sonidos. En la vida real, la señal analógica es continua, pero en el mundo digital habrá un 1 y luego un 2, sin nada en medio. Al escuchar esta sucesión de 50 tonos, lo más probable es que el oído humano detecte 49 saltos desagradables de un tono a otro más alto, sin la continuidad del original.

Para mejorar nuestra percepción de ese sonido, podemos dividirlo no en 50 fragmentos, sino en 100, o en 1000, o en 100.000. Al ir usando más números para representar esa continuidad, llegará el momento en que nuestro oído perciba los fragmentos como si fueran continuos. Esto se debe solamente a las limitaciones de los sentidos, pero sigue siendo una sucesión de fragmentos discontinuos. Es decir, al aumentar la tasa de muestreo o la resolución digital de lo que estamos reproduciendo, podemos dar la ilusión de que es continuo, nada más. Y, lo que es más importante, hay una determinada cantidad de información que se habrá perdido en el proceso de digitalización o conversión en números.

La tasa de muestreo o la resolución del proceso de digitalización resulta así esencial para la calidad del producto final. Una fotografía de una cámara digital ya vieja, de 640 x 480 píxeles, por poner un caso, pierde muchísima información, porque todo lo que hemos fotografiado está representado únicamente por 307200 puntos, y cada uno de esos puntos sólo puede tener una cantidad limitada de información en cuanto a color y luminosidad. Esa cámara tiene así 1/3 de megapíxel de resolución. Muy poco si la comparamos con una moderna cámara profesional capaz de registrar la misma escena con 11 millones de puntos (11 megapíxeles), cada uno con varios miles de valores posibles en cuanto a color y luminosidad.

Sin embargo, por grande que sea la calidad, la información que se pierde al digitalizar un continuo es irrecuperable. Esto carece de importancia en algunos casos, como en documentos que podemos escanear o digitalizar a baja resolución porque sólo nos importa su contenido literal, y da igual que no se haya reproducido una mota de polvo o una arruga del papel. Pero la pérdida de información es una preocupación al digitalizar un documento histórico que puede contener información no sólo por lo que está escrito en él, sino por la disposición de las fibras del papel (que pueden dar pistas sobre su fecha y lugar de producción), minucias caligráficas, imperfecciones en el trazo que pueden hablar del tipo de pluma o tinta empleadas.

La pérdida de esa información se compensa con una de las características más asombrosas de los documentos digitales, una que hoy damos por hecho pero que fue un sueño inalcanzable durante gran parte de la historia humana: la posibilidad de tener copias perfectas de los archivos digitales. Ya teniendo un archivo digital, de sonido, de imagen, de cine, de lo que sea, lo podemos copiar sin que pierda ya nada más de información.


La telefonía digital


Anteriormente, nuestras palabras se convertían en variaciones de voltaje que viajaban por un cable de un teléfono al otro. Esa telefonía analógica se ha visto reemplazada por una telefonía digital asombrosa, en la que todos los sonidos que emitimos se convierten en números que se unen en "paquetes". Dada la velocidad a la que se comunican los ordenadores, un solo cable (y más si es de fibra óptica) o una onda de radio (en la telefonía móvil) puede transmitir decenas y hasta miles de conversaciones al mismo tiempo. Los "paquetes" de cada conversación tienen una "etiqueta" numérica que permite que un ordenador al otro extremo reconstruya la "grabación digital" de las palabras de cada una de las conversaciones, sin confundirlas, y las transmita a la persona con la que hablamos, todo a tal velocidad que nos resulta imperceptible. Y al no estar sometidos tales "paquetes digitales" a interferencias eléctricas, la calidad del sonido es muy superior a la de la telefonía analógica, pese a que cada cosa que decimos y escuchamos ha sido convertida en números, destazada, enviada y recompuesta de nuevo, a veces al otro lado del mundo.

Las reglas del cortejo

Encontrar pareja y reproducirse es uno de los imperativos de la vida. El proceso tiene expresiones que a veces rayan en el absurdo, y no sólo entre los otros animales.

"El cortejo", pintura de Edmund
Leighton
(D.P., vía Wikimedia Commons)
La danza de cortejo de las aves llega a su mayor complejidad entre las aves del paraíso, varias decenas de especies de aves de Oceanía cuyos machos tienen los plumajes más elaborados y coloridos del planeta, a más de ser en muchos casos danzarines capaces de complejísimas evoluciones, recolectores de objetos brillantes, tejedores de chozas y expertos en otros tipos de exhibición cuyo objetivo es conseguir pareja entre las hembras, de colores poco llamativos y sin plumajes excesivos.

Estas acciones y el aspecto de los machos en muchas especies lo explica la biología evolutiva como una forma de señalar a las hembras que tienen ante ellas a posibles parejas que sanas, capaces, hábiles y, por tanto, adecuados para donar sus genes a la siguiente generación y, en su caso, para cuidarla. Las conductas y aspecto han ido evolucionando como parte de la competencia de los machos, hasta llegar incluso a poner en riesgo otras capacidades. El ejemplo clásico es el pavorreal, cuyas plumas casi le impiden volar, pero como los machos que las tienen muy cortas no consiguen procrear, al paso de miles de generaciones, las plumas del pavorreal se mantienen en el precario equilibrio necesario para todavía volar pero al mismo tiempo impresionar debidamente a las hembras.

El cortejo puede ser mortal. Una leona madre y solitaria que se una a un nuevo macho verá cómo su pareja recién obtenida mata a los cachorros del anterior padre, asegurando así que la hembra entre en celo más rápidamente y los que vivan sean sus descendientes, los que llevan sus genes. El cortejo de los zánganos en el macabro "vuelo mortal" de la abeja reina termina con todos muertos, incluso el triunfador, el más fuerte que logra alcanzar a la hembra y aparearse con ella. Entre los insectos y arañas no es infrecuente que el que el macho termine como almuerzo de su pareja incluso durante la cópula o que se haya reducido en tamaño hasta ser casi un parásito de la hembra, un simple depósito de esperma.

Todas las herramientas de los sentidos pueden entrar en acción durante el cortejo, desde la vista y el sonido (el canto de las aves, además de marcar territorios es, en algunas especies, elemento clave para obtener cónyuge), hasta el olor, el sabor y el tacto. Por ejemplo, al parecer los seres humanos somos más sensibles a los olores sexuales (las llamadas feromonas) de lo que creíamos. El hecho de que nuestro olfato esté atrofiado para algunos menesteres no significa, en modo alguno, que lo esté del todo, y así lo demuestran experimentos donde grupos de mujeres y hombres han identificado los olores más y menos atractivos en camisetas usadas por miembros del sexo opuesto. El estudio ya famoso de Claus Wedekind en Berna, en 1996, demostró por ejemplo que hombres y mujeres hallaban más atractivo el olor de los miembros del sexo complementario cuyos sistemas inmunes eran radicalmente distintos a los propios. Desde entonces, las camisetas sudadas se han usado en numerosos estudios que nos van revelando nuestra sensibilidad a los aromas. (Habría que señalar que estos aromas humanos (que se degradan fácilmente debido al uso de la ropa, volviéndose desagradables en muy poco tiempo) nada tienen que ver con los perfumes que ahora ofrece el mercado con "feromonas", palabra que se usa como reclamo publicitario sin contenido significativo real.)

Luchas a topes entre los carneros o enfrentamientos enseñándose los dientes entre los lobos, exhibición del plumaje entre las aves, el potente croar entre las ranas, las complejas danzas en algunas especies de peces o los largos días de juegos, persecuciones y arrumacos de los osos antes de que la hembra decida si acepta o rechaza al candidato… todas las formas del cortejo que ha generado la evolución finalmente sólo tienen un objetivo: demostrarle a la hembra que el macho tiene los mejores genes. Y en ese contexto generalizado entre las especies, algunas personas se preguntan por qué el ser humano es distinto, por qué entre los seres humanos las hembras se decoran y perfuman para ser atractivas mientras que el macho de la especie es poco agraciado.

Según estudiosos de la etología, la ciencia natural del comportamiento animal, como Anatoly Protopopov, el producto cultural de la belleza femenina artificial no puede equipararse a los despliegues de los machos en otras especies, y recuerda que entre los demás animales, especialmente mamíferos superiores, no siempre el macho se distingue o consigue el triunfo en el cortejo por su atractivo físico, sino que demuestra la "calidad" de sus genes exhibiendo otras características reveladoras, como la fuerza, la habilidad para procurarse alimento, el valor y la inteligencia. Según estos estudios, la mujer se hace atractiva para informar que está dispuesta para el cortejo, que los hombres a su alrededor pueden competir con la esperanza de ganar, si les interesa ella, pero son ellos los que tienen que demostrar que son más fuertes, más simpáticos, más inteligentes, más hábiles, y entonces, la mujer elige, aunque lo haga con enorme sutileza. Salvo en las sociedades en las que los hombres pretenden derrotar este mecanismo forzando la sumisión total de las mujeres (y aún en tales sociedades ellas pueden ejercer fuertes represalias), este mecanismo es evidente en cuanto sabemos buscarlo. Difícilmente se puede decir que una cantante famosa tenga más parejas por el hecho de ser rica y famosa, pero parece bastante evidente que tal sí es el caso de los ricos, poderosos y famosos en general, aunque no sean muy agraciados.

Resulta así que, si bien en la ecuación del cortejo humano intervienen muchos elementos culturales y sociales, no está de más tener presente que estamos por nuestras bases biológicas, y que, en gran medida, seguimos las mismas reglas del cortejo que los demás animales del planeta.

La química del amor

La doctora Helen Fisher, de la Universidad de Rutgers, es una de las principales estudiosas del amor desde el punto de vista científico, una tarea que apenas ahora se empieza a abordar. Para el amor, identifica tres fases en las que intervienen distintas sustancias. La primera es el deseo sexual, movido por las hormonas sexuales, la testosterona y el estrógeno. La segunda es la atracción o enamoramiento arrebatado, donde entra en juego un grupo de neutotransmisores específicos: la dopamina, la adrenalina y la serotonina. La tercera etapa es la de la apego, que permite la formación de una pareja a largo plazo, donde actúan de modo especial dos hormonas del sistema nervioso: la oxitocina y la vasopresina.

La energía gratis y el universo de queso

Una empresa irlandesa ha anunciado que ha creado una máquina que produce más energía de la que consume. No es la primera en afirmarlo… ni será la última… ni es probable que sea verdad.

Ante los problemas del petróleo en el mundo, tanto por la situación de los principales países productores como por el hecho de que se agotará en un futuro más o menos previsible y más o menos cercano, no es raro que resurja el sueño de obtener energía gratis. Y no no se trata de emplear fuentes de energía de fácil acceso y difícil monopolio (el sol, el viento, las mareas), sino de algo mucho más esotérico: obtener energía, literalmente, de la nada.

Periódicamente aparece alguien afirmando haber logrado esta hazaña que cambiaría la historia. Imaginemos pozos y bombas de riego en África, donde las sequías provocan atroces tragedias. Contar con ordenadores, televisores, videocámaras, respiradores, bombillas de alumbrado, teléfonos móviles, ambulancias, cohetes para poner satélites en órbita y cuanto aparato hoy consume electricidad o cualquier otro tipo de combustible, pero accionados por una fuente de energía que los físicos llaman máquina de movimiento perpetuo. Y se lograría la paz en el Medio Oriente.

Ahora toca el turno a Sean McCarthy, dueño de la empresa irlandesa Steorn Research, quien ha conseguido más publicidad de la que podría pagar su empresa con un anuncio en la prestigiosa revista The Economist "invitando" a los científicos a poner a prueba un motor que, asegura, produce energía de la nada. La afirmación, sin embargo, perdió bastante emoción una semana después, cuando los reporteros del prestigioso diario The Times de Londres se presentaron a entrevistar a McCarthy acompañados de su experto en física John White, y el empresario decidió sin más explicaciones no enseñarles la máquina, sino apenas una puerta que decía "Prohibido el paso", asegurando que tras ella estaba la maravilla.

Antes de McCarthy, el camino de la máquina de movimiento perpetuo ha sido recorrido por muchos desde que, en el siglo XII, el autor indostano Bhaskara propuso un curioso ingenio formado por una rueda rodeada de recipientes llenos en parte con mercurio y que conseguiría teóricamente que siempre fuera más pesada de un lado que del otro, provocando que girara eternamente. No funcionó… y no funcionaron los miles y miles de máquinas similares propuestos desde entonces. En algunos casos, los pretensos inventores son bienintencionados que creen haber descubierto algo con una suposición ingeniosa que se rehúsa a operar en la realidad. En otros, son personas convencidas de que las leyes de la física son imposiciones opresoras inventadas por los científicos como parte de una conspiración para ocultar "la verdad" y así servir a los intereses de las grandes petroleras (o cosa similar), y buscan demostrar su creencia, exagerando sus aparentes avances y minimizando sus constantes fracasos. Están, al final, los timadores simples que utilizan máquinas fraudulentas para pescar "inversores" que aporten los fondos necesarios para “perfeccionar” el descubrimiento… el descubrimiento no existe ni se perfecciona, pero el ofertante de este sueño de humo consigue vivir como marajá.

Cada nueva máquina de movimiento perpetuo fallida, que parecía que podía funcionar pero que no lo conseguía en la realidad, sirvió al menos para que los físicos se preguntaran por qué no funcionaban. Esto llevó a algunas observaciones interesantes. Por ejemplo, se constató que en un sistema estable, el calor fluye siempre de los cuerpos más calientes a los más fríos, algo que se conoce como la Segunda Ley de la Termodinámica. Debido a ella, un aparato que provoque el frío mediante una bomba de calor (como la nevera de nuestra casa) sólo puede hacerlo utilizando más energía de la que extrae de la zona fría. Esto se ejemplifica con un experimento: si dejamos la nevera con la puerta abierta en una habitación herméticamente cerrada, ¿la temperatura de la habitación tenderá a subir o a bajar? La respuesta es que subirá sin cesar, porque el motor de la nevera genera más calor que frío, y la energía eléctrica que acciona la nevera acaba convertida en calor dentro de la habitación, superando con mucho al frío local del interior del aparato. Ese comportamiento del universo se describe mediante leyes que no tienen nada que ver con las leyes mutables, variables y dependientes del capricho humano que pueden salir de un congreso de legisladores o de los delirios de un dictador, sino que son sistematizaciones de lo observado.

El estudio del universo también nos ha enseñado que no existe ninguna máquina que sea 100% eficiente. En un automóvil, no toda la energía del combustible se convierte en movimiento del vehículo, sino que una parte se disipa como calor por las explosiones, por la fricción de las partes del motor y la transmisión, por la fricción de las ruedas contra el suelo y por la fricción del vehículo contra la atmósfera. Esa energía disipada no es recuperable. Una máquina 100% eficiente no generaría calor, ni estaría sujeta a la fricción que encontramos incluso en el espacio exterior, sino que convertiría en trabajo utilizable la totalidad de la energía que se le alimente, eléctrica, química o de cualquier forma, y por tanto una máquina que fuera más de 100% eficiente no sólo no disiparía energía, sino que estaría produciéndola de la nada. Y hasta donde sabemos, la energía en el universo es constante, no se puede crear ni destruir, sólo transformar.

Pero la duda no es trivial: ¿no es posible que los conocimientos que tenemos de la física sean incorrectos?, ¿es totalmente imposible una máquina de movimiento perpetuo? Lo más que se puede decir es que parece tan poco probable como levantarnos nosotros mismos tirando de los cordones de nuestros zapatos, pero podría ser… e igualmente podría ser que el universo esté hecho fundamentalmente de queso de cabra. Pero mientras no se vea y estudie una de esas máquinas funcionando, no sería recomendable empezar a construir las estatuas que en todo el mundo deberían erigirse a quien nos liberara de los límites que impone el universo… ni comprar una franquicia de queso de cabra universal.

Leonardo ya lo sabía


“Sacar algo de nada” es, precisamente, la forma en que Isaac Newton se refirió a quienes buscaban el “santo grial” llamado “máquina de movimiento perpetuo”, y eso pese a que el propio Newton se planteó seriamente la posibilidad de convertir unos metales en otros siguiendo las tradiciones alquímicas. Leonardo Da Vinci realizó varios dibujos de posibles máquinas de movimiento perpetuo, se dio cuenta de que no funcionarían y al final se burló de quienes deseaban crear el movimiento perpetuo poniéndolos a la par de “los más estúpidos nigromantes y magos”.

No hay un robot llamado Luisa

De la ficción a la realidad, la evolución de los robots ha recorrido caminos que han sorteado casi por completo todo lo que la literatura imaginó.

Dejando de lado a autómatas míticos como el Golem de Praga o la Galatea de Pigmalión, y a los seres metálicos de los relatos mitológicos como el Talos de bronce de los Argonautas o los sirvientes metálicos de Vulcano, los antecedentes del robot son los autómatas, seres que imitaban la vida, movidos por agua o vapor. En Grecia, en el siglo V a.C., Arquito de Tarento propuso una paloma mecánica accionada por vapor, y Herón de Alejandría construyó varios autómatas en el siglo I de nuestra era. Cierto que podían hacer pocas cosas, pero el aparente carácter voluntario de sus movimientos cautivó a los espectadores.

Fue Leonardo Da Vinci quien diseñó hacia 1495 el primer robot: un caballero cubierto por una armadura medieval germanoitaliana capaz, según el diseño, de sentarse, ponerse de pie, mover los brazos y accionar una quijada anatómicamente correcta. Lo más probable es que Leonardo nunca intentara construirlo, como pasó con las demás ideas que lo asaltaban, apasionado por atacar nuevos desafíos a su intelecto. Fue hasta 1738 cuando el ingeniero francés Jacques de Vaucanson presentó ante la Academia de Ciencias francesa el primer autómata moderno, un personaje que tocaba la flauta y el tambor, y que superaba con mucho a los juguetes mecánicos en boga por entonces. De Vaucanson construiría algunos autómatas más, incluido un pato con 400 partes móviles, capaz de comer grano y defecar, antes de dedicarse a la industria, como uno de los pioneros de la automatización.

El robot moderno nace en 1920 con la obra teatral R.U.R. Rossum's Universal Robots, del dramaturgo checo Karel Capek, estrenada en 1921. En ella, un científico crea a unos trabajadores artificiales que, en la mejor tradición frankeinsteiniana, se rebelan contra el creador, intentan apoderarse del mundo y descubren sus propios sentimientos humanos. La palabra "robot" fue sugerida a Karel por su hermano, el pintor Josef Capek, y proviene del checo "robota", que significa, precisamente, "trabajo aburrido o pesado".

Los robots de Capek no eran metálicos, sino orgánicos, lo que llamaríamos hoy "androides" o, siguiendo a Blade Runner, replicantes. Pero lo esencial es que no eran simples máquinas programadas, eran capaces de decidir con autonomía. Con Capek, el autómata deja de ser una simulación del movimiento para entrar de lleno en la simulación del pensamiento y las emociones. Sin embargo, la ciencia ficción en general optó más bien, en una visión industrial y simplona propia del momento, convirtiendo al robot en un ser electromecánico. A ello contribuyó de manera especial "Elektro", robot humanoide construido a fines de la década de 1930 por la empresa Westinghouse, con objeto de promocionarse.

El surgimiento de los ordenadores a resultas del trabajo de Alan Turing hizo posible la idea de realmente crear aparatos capaces de manipulaciones complejas con cierto nivel de autonomía, verdaderos robots. Nació así la robótica (bautizada por el escritor de ciencia ficción Isaac Asimov). Pero mientras la ciencia y la tecnología avanzaban lentamente en busca de verdaderos robots, en los años 40-50 del siglo pasado el cine de ciencia ficción de serie "B" se llenó de robots, algunos memorables como el Robbie de Planeta prohibido o el Goort de El día que paralizaron la tierra, pero en general lamentables cuando no cómicos, simples actores malos, pero enlatados.

Los robots de la ciencia y la tecnología, sin embargo, no se parecían a los imaginados por el arte. No son humanoides, sino a veces brazos móviles controlados por ordenador capaces de complejos movimientos, que pronto se hicieron presentes en las líneas de montaje, o pequeños vehículos con vulgares ruedas, poco impresionantes incluso cuando van armados con fusiles de asalto para detener delincuentes sin poner en peligro a los policías humanos… carritos muy alejados de Robocop y de Terminator.

Y, sin embargo, los robots de hoy, además de sus devastadores efectos en el empleo en la industria, se han convertido en elementos esenciales en muchas actividades humanas. Desde los pilotos automáticos de los aviones modernos como los Airbus, que, en palabras de un ingeniero aeronáutico asombrado "vuelan solos", moviendo robóticamente todas las piezas de dirección y velocidad de la aeronave, pasando por los robots que recogen y aseguran paquetes sospechosos de contener explosivos, los robots que sueldan los microcircuitos de nuestros ordenadores y los proyectos de robots que eviten a los bomberos acciones de avanzadilla altamente peligrosas en incendios, los robots de aspecto poco o nada humano ya están salvando vidas, que no es mal principio.

De todos modos, hay quienes siguen empeñados en la creación del mítico robot humanoide. Proyectos como los de los robots Asimo y P3 de la empresa japonesa Honda, los robots de la Universidad de Waseda (como Wasubot, capaz incluso de interpretar un concierto) y el más reciente, Choromet, con su aspecto de Transformer, han impulsado además intensos trabajos en áreas sumamente diversas. Para que un robot camine, por ejemplo, es indispensable conocer a fondo los secretos de la locomoción humana, y en ello participan médicos, físicos, anatomistas y neurólogos. A ello se añaden los programadores que convierten esos conocimientos en instrucciones que puedan, efectivamente, permitir a un robot realizar algunas acciones aparentemente humanas.

Así, si pese a todo no se consiguiera nunca tener un robot llamado Luisa, que se parezca a una Luisa humana y actúe como ella, los avances sirven, por ejemplo, para crear prótesis robóticas que liberan a personas que han perdido miembros o movilidad. El sueño de tener robots humanos es, en todo caso, un potente motor para buscar y encontrar nuevos límites a la tecnología y a la ciencia. Lo cual ya es motivo para estar agradecidos con nuestros robots.

Las leyes de la robótica


Atribuidas a Isaac Asimov, quien las utilizó en numerosos cuentos y novelas, las tres leyes de la robótica de la ciencia ficción fueron desarrolladas por él junto con el mítico editor John W. Campbell. Las contradicciones entre esas tres leyes aparentemente sencillas que los robots deben seguir fueron, y siguen siendo, alimento de muchas obras de la ciencia ficción:

1. Un robot no puede dañar a un ser humano, ni permitir por su inacción que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes que le den los seres humanos, salvo cuando tales órdenes entren en conflicto con la primera ley.

3. Un robot debe proteger su propia existencia, siempre y cuando tal protección no entre en conflicto con la primera o segunda ley.

Dormir, tal vez soñar

Pasamos la tercera parte de nuestra vida durmiendo, y sin embargo apenas estamos averiguando lo que ocurre en esas horas de silencio.

El sueño es un estado peculiar: no estamos inconscientes, pero se reduce notablemente nuestra sensibilidad a los estímulos externos; nuestros movimientos voluntarios se cancelan, aumenta el anabolismo (la creación de estructuras celulares) y disminuye el catabolismo (la destrucción de las mismas). Dormir no es, sin embargo, un acto peculiarmente humano. Todos los mamíferos, aves y peces duermen, de distintas maneras. y al menos los mamíferos superiores exhiben comportamientos y ofrecen mediciones que nos hacen suponer que experimentan alguna forma de ensoñación. Quien haya visto a su perro mover las patas como si corriera jadeando mientras duerme, no puede evitar pensar que está soñando en perseguir a una liebre o cosa similar.

Durante gran parte de la historia, el acto de dormir fue un profundo misterio. ¿Por qué en un momento dado nos vemos agobiados por la necesidad de quedar dormidos, indefensos, durante largas horas? ¿Qué es ese estado peculiar que se parece a la muerte? ¿Qué pasa con la personalidad durante ese tiempo? No deja de ser llamativo que el sueño sea una necesidad tan apremiante y tan poderosa que puede uno ver soldados durmiendo en el fragor de una batalla, cuando el cansancio los había vencido con más eficacia que el enemigo. Por otra parte, a los sueños en sí (que los científicos llaman "ensoñaciones" por cuestiones de claridad) se les consideró "revelaciones", "comunicaciones con los dioses o con el mundo de los muertos", "visiones proféticas", "tentaciones del diablo" y muchas cosas más.

Pero, además, la falta de sueño puede ser muy peligrosa. El no dormir lo suficiente de manera continuada, según algunas investigaciones publicadas sólo durante 2006, puede ser responsable de un aumento en el riesgo de ciertos tipos de obesidad, hacer menos confiable la memoria, reducir la confiablidad de los conductores, perjudicar nuestra capacidad de tomar decisiones correctas, reducir la disposición al aprendizaje, aumentar la tendencia a la hipertensión arterial y ocasionarnos muchísimos otros problemas.

El estudio científico y riguroso del sueño y de las ensoñaciones no comenzó sin embargo sino hasta el siglo XX, con herramientas como el electroencefalógrafo, que nos permite ver, así sea mínimamente y de modo más bien confuso, parte del funcionamiento del cerebro humano. Esta y otras formas de observación nos han permitido identificar cinco etapas del sueño. La quinta es la llamada "REM", por las siglas en inglés de "movimiento rápido de los ojos", y que ocurre sobre todo en el último tercio de la noche, ya que la caracteriza el rápido movimiento de los ojos detrás de los párpados, algo que no ocurre en las primeras cuatro, llamadas por ello "no-REM". Las etapas de sueño REM y no-REM se suceden continuamente durante la noche en ciclos de aproximadamente 90 minutos. La primera, la de somnolencia, ocurre cuando estamos quedándonos dormidos, y durante ella ocurren las alucinaciones hipnagógicas, sensaciones que parecen reales (por ejemplo, muchas historias de fantasmas y de secuestros por parte de supuestos extraterrestres son claramente alucinaciones de este tipo, que incluyen sensaciones de parálisis y desamparo). En la segunda etapa desaparece la conciencia del mundo externo y cae el tono muscular; está presente durante más de la mitad del período de sueño. La tercera es considerada una transición hacia la cuarta y no ocupa ni el 10% del tiempo de sueño. La cuarta es el "sueño profundo" porque es muy difícil despertar de él al sujeto, y es la etapa en la que ocurren episodios de terror nocturno, de mojar la cama y de sonambulismo, y ocupa alrededor del 10% del período de sueño.

Anteriormente, se pensaba que las ensoñaciones sólo se presentaban durante el sueño REM, pero ahora se sabe que también las hay durante las otras cuatro etapas, aunque es en la etapa REM donde suele haber más sueños visuales y profundamente estrafalarios, absurdos y al azar, los que más identificamos precisamente con la ensoñación.

El significado mismo de las ensoñaciones aún es materia de debate, en parte por su carácter esencialmente subjetivo. Hay desde hipótesis que indican que las sensaciones que percibimos son sólo un intento del cerebro por darle sentido a una serie de descargas aleatorias y sin significado intrínseco, como tratamos de encontrar caras en formaciones al azar. Esta hipótesis estaría al otro extremo de quienes aún creen que los sueños son una puerta hacia aspectos especiales o relevantes de nuestra personalidad o emociones. Entre ambos extremos, abundan las propuestas, pero aún estamos lejos de tener respuestas sólidas y confiables.

Las alteraciones del sueño "normal", definido como aproximadamente ocho horas diarias de reposo continuo, pueden interferir gravemente con la vida normal. El insomnio, la más frecuente de ellas, produce graves alteraciones físicas y, sobre todo, emocionales. Su extremo contrario es la narcolepsia, que hace que sus víctimas se queden dormidas inevitablemente en cualquier momento, incluso, por poner ejemplos especialmente peligrosos, mientras están cocinando o bajando escaleras. Las pesadillas recurrentes, las alucinaciones hipnagógicas (y su contraparte, las hipnopómpicas, similares a las anteriores, pero que ocurren en la transición que se da al despertarnos), el bruxismo (rechinar los dientes durante el sueño), las sacudidas de las piernas (que resultan en darle patadas al compañero de cama), los ronquidos excesivos, los terrores nocturnos y el temido jet lag o desincronosis, son áreas en las que se sigue investigando pero cuyos efectos desagradables son conocidos por prácticamente todos nosotros.

Si según Calderón la vida es sueño, de lo que cada vez hay menos dudas es de que el sueño, un sueño suficiente y de calidad, es vida. Y sin necesidad de buscarle siquiera significados más allá de lo razonable.

La ciencia de la siesta


En junio de este año, el Dr. Denis Burdakov, de la Facultad de Ciencias de la Vida de la Universidad de Manchester informó de la identificación del mecanismo que nos produce somnolencia después de comer, es decir, lo que invita a la siesta, costumbre extendida entre muchos animales además del ser humano. En líneas generales, el aumento de la glucosa en sangre que se da después de la comida bloquea o inhibe a las neuronas que producen ciertas proteínas, llamadas orexinas, cuya función es regular nuestro estado de conciencia. Es decir, nuestro organismo está diseñado para tener sueño después de comer. Y esto también explica por qué es difícil conciliar el sueño cuando se tiene hambre.

No dormir siesta podría ser, al fin y al cabo, antinatural.

¿Es una nueva especie?

El cada vez más amplio conocimiento que tenemos de la vida en el planeta está, sin embargo, lejos de estar completo, y a veces parece menos preciso que en el pasado.

Se calcula que pueden existir entre 10 millones y 30 millones de especies de insectos en nuestro planeta. Una cifra especialmente asombrosa si tenemos presente que únicamente se conoce y tiene clasificado menos de un millón de especies de insectos. De todas las demás formas animales, actualmente conocemos alrededor de 200 mil especies, y es difícil calcular cuántas pueden existir en realidad. En lo referente a las especies vegetales, nuestro conocimiento es igualmente escaso, pero a guisa de ejemplo conocemos alrededor de cien mil especies de hongos, y se calcula que debe de haber más de un millón y medio de ellas.

Solemos pensar que las "nuevas especies" (es decir, nuevas para la clasificación científica, para nuestro conocimiento, pero evidentemente no de surgimiento reciente) sólo pueden encontrarse en lugares inaccesibles y que están esencialmente aún por explorar: selvas aisladas, las fosas abisales del mar, las más altas cumbres, cañones, gargantas, cuevas, cavernas y demás sitios a los cuales sólo pueden llegar exploradores que sumen espíritu aventurero y habilidades singulares junto con una condición física admirable, algo así como Indiana Jones. Pero el hecho es que la aparición de nuevas especies es un fenómeno constante en todo el mundo. Actualmente se calcula que se clasifican cada año alrededor de 15 mil nuevas especies animales, de las que más del 60% son insectos, y de ellos, 20 son descritos en España.

Calcule usted, simplemente, cuánto tiempo se ha dedicado a observar las aguas poco profundas frente a la costa del Cantábrico, cuánto de ellas ha sido observado cuidadosamente y pregúntese si es razonable suponer que ya conocemos a toda la flora y fauna de la zona.

El problema, pues, no es encontrar "nuevas especies" en general, esto ocurre constantemente, aunque los medios se hacen eco únicamente de algunos descubrimientos, sobre todo de mamíferos de gran tamaño o de parientes del hombre, como sería el caso de los chimpancés gigantes o del hombre de Flores. El hallazgo de cada nuevo escarabajo, lagartija o rana, de cada una de las 15 mil especies mencionadas, no podrían materialmente ocupar espacios en la prensa.

Esto ha llevado a afirmaciones curiosas por parte de los detractores de la ciencia, que suelen hacerse presentes cuando se difunde alguna de estas noticias para sugerir que "los científicos" ya creían conocer a todas las especies y algunos, incluso, "decían" que ya no se iban a encontrar más, demostrando únicamente su propia ignorancia.

El verdadero problema está en el hecho de que la definición misma de "especie" es todavía imprecisa y a veces tremendamente nebulosa.

¿Qué es una especie?

Lo más probable es que usted conozca alguna variante de la definición de "especie" que propuso en 1942 el recientemente fallecido biólogo evolutivo Ernst Mayr: un grupo de seres que pueden reproducirse entre sí, pero están reproductivamente aislados de los demás. De acuerdo a esta definición, por ejemplo, pertenecen a una especie todos los caballos que se pueden reproducir entre sí dando como resultado hijos fértiles. Las hibridaciones como las mulas, producto de la cruza del caballo y el burro, no son fértiles, por lo cual el caballo y el burro son de especies distintas.

Esta definición es útil en muchos casos, pero pronto topó con el problema de que sólo se ocupaba de los seres vivos que se reproducían sexualmente. Es decir, dejaba fuera, por ejemplo, a los entre cinco y diez millones de especies de bacterias que se calcula que existen en nuestro planeta. Por otro lado, algunos híbridos como los "ligres" y "tigones" (resultado de la cruza de tigres y leones) son fértiles, en particular las hembras de ligre, que pueden cruzarse con tigres para procrear "tiligres". Todo lo cual no nos lleva a cerrar los ojos al hecho de que en su conducta, su morfología, su biología y su vida social "normales", tigres y leones no son lo mismo, sino que pertenecen a especies diferenciadas.

Por ello, los científicos añadieron otras definiciones de "especie" destinadas a permitirnos distinguir y clasificar mejor a los seres vivos a nuestro alrededor. En algunos casos, la especie es determinada por sus diferencias morfológicas (un buitre y un halcón tienen una anatomía distinta). En otros casos, la especie se define porque los miembros del grupo se reconocen entre sí como posibles parejas para la reproducción. Se usa también la definición evolutiva: una especie comparte a un ancestro y tiene un linaje que mantiene su integridad respecto de otros linajes a través del tiempo y el espacio (por ejemplo, los seres humanos y los chimpancés compartimos un mismo ancestro, pero nuestros linajes se han mantenido aislados durante millones de años). Finalmente, está la idea de las microespecies, las de los seres que se reproducen por bipartición de modo que cada generación es genéticamente idéntica a la anterior.

El problema, claro, es que los seres vivos no se dividen en "especies" naturalmente. El concepto lo hemos creado nosotros para clasificar y dar orden a lo que nos rodea. Pero, a diferencia de aspectos como los elementos químicos, donde la diferencia entre uno y otro es clara y se puede definir objetivamente, en el caso de los seres vivos en muchas ocasiones las fronteras son borrosas, hay estados intermedios y, por si ello fuera poco, los objetos de estudio, las poblaciones de seres vivos, cambian continuamente, sufren mutaciones o se ven sometidos a presiones selectivas por el medio ambiente o por la intervención del hombre.

Por todo ello, en ocasiones no es sencillo saber, cuando estamos ante un animal o una planta aparentemente nuevos, si realmente son o no "una nueva especie". Al final, el significado real de la idea de "una nueva especie" sólo se encuentra en la medida en la que sea importante para la biodiversidad del planeta, de la que depende el funcionamiento de toda la maquinaria de la vida, y que nos ayude a entender un poco mejor, sólo un poco, a los seres que comparten nuestro mundo.

Especies humanas


Sin importar cuál de las diversas definiciones de "especie" utilicemos, los acontecimientos de las últimas décadas nos han enseñado que los seres humanos no somos tan singulares como gustaría a quienes pretenden que la humanidad sea el centro del universo. De hecho, hoy conocemos al menos 11 especies humanas (pertenecientes al género Homo) además de la nuestra, varias de ellas capaces de usar herramientas, de crear piezas artísticas, de realizar rituales funerarios e incluso, según creen los paleoantropólogos, de utilizar el lenguaje. Nuestra especie es, simplemente, la más afortunada… hasta ahora.

Alrededor del sol

El dios al que no se podía ver de frente sin quedar ciegos es para nosotros hoy la estrella más cercana, responsable de la vida en nuestro planeta y, todavía, una fuente de asombro.

El Sol es quizás la presencia más abrumadora en la existencia en nuestro planeta. Su calor y luz de día, y los drásticos efectos de su ausencia de noche, fueron sin duda asunto clave para los primeros hombres que abandonaron el nomadismo por una vida sedentaria con bases agrícolas. La misma semilla, plantada a la sombra, no germinaba ni se desarrollaba como otra sembrada al Sol, lo que parecía decir que la luz del Sol-padre en el vientre de la tierra-madre se unían para darnos alimento con alguna certeza, cosa nada despreciable para grupos que durante milenios dependieron de encontrar a tiempo los animales y plantas que comían. Unos cuantos días sin cacería y sin recolección bastaban para condenar a muerte a todo un grupo humano o prehumano, mientras que la cosecha era mucho más predecible siempre que se reuniera un conocimiento astronómico suficiente como para conocer las estaciones y sus variaciones a lo largo del año.

No es extraño, por tanto, que desde los inicios del pensamiento el Sol haya ocupado un lugar igualmente central en las preocupaciones humanas. Un extremo de esta pasión solar lo dan sin duda los aztecas o mexicas, pueblo convencido de que su misión era garantizar que el Sol volviera a salir todos los días, y que para conseguirlo lo alimentaban con sacrificios humanos que le daban la fuerza necesaria para volver. Los aztecas estaban seguros de que su desaparición como pueblo significaría el fin del ciclo solar y la muerte de todo ser vivo en la tierra. En esa cosmología, el sacrificio de algunas vidas no parecía un elevado precio a pagar para garantizar la vida de todos los demás seres.

En occidente, fue Anaxágoras el primero que abandonó las explicaciones teísticas para proponer que, en lugar del carruaje de Helios, el Sol era una bola de metal incandescente de enormes dimensiones (o, al menos, más grande que el Peloponeso). Esta idea hizo que Anaxágoras fuera arrestado, enjuiciado y condenado a muerte, sentencia que no se cumplió gracias únicamente a la intervención de Pericles. Estos malos ratos no son infrecuentes en la historia de la observación y el estudio del Sol, como lo atestiguarían después Copérnico y Galileo al defender que los planetas giraban alrededor del Sol y no de nuestro planeta. Sin embargo, los herederos de estos astrónomos continuaron desvelando hechos acerca de nuestra estrella

Los acertijos de la posición y el tamaño del Sol, sin embargo, no eran nada comparados con el que presentaba la energía que emite en forma de luz, calor y, como se fue descubriendo, de radiaciones de otro tipo, como los rayos X y los gamma. La resolución de ese problema hubo de esperar a que la física atómica y nuclear habían emprendido su camino de desarrollo, cuando Hans Bethe, en artículos de 1938 y 1939, calculó las dos principales reacciones nucleares que generan la energía solar y confirmó la idea de que nuestra estrella, el antiguo dios Sol, era un horno de fusión nuclear de dimensiones asombrosas.

Algo más de tiempo hubo de esperar la pregunta de cómo nació nuestro astro. Hoy, los datos acumulados por los astrónomos sugieren que el Sol y todo el sistema solar se formaron hace unos 4.500 millones de años a partir de una masa de gas estelar que debido a la gravedad se fue acumulando en conjuntos o agregaciones: una central, el Sol, la mayor, donde los procesos físicos llevaron al inicio de una reacción de fusión nuclear, convirtiéndola en una estrella, y otras más pequeñas que formaron los planetas, incluido el nuestro. La fusión nuclear que es el origen de toda la energía del Sol es el proceso mediante el cual los átomos de un elemento se combinan para formar átomos de otro elemento más pesado, proceso que desprende una gran cantidad de energía. En el caso del Sol, los átomos de hidrógeno que lo conforman en su mayor parte se fusionan continuamente formando átomos de helio, el siguiente elemento más pesado. El proceso opuesto a la fusión nuclear es la fisión o división nuclear, que es lo que ocurre en las bombas atómicas (de manera brutal) y en los reactores nucleares (de manera controlada), y produce muchísima menos energía.

Sin esa continua fusión nuclear y el calor que nos llega de ella, no existiría vida en la Tierra. Salvo algo de calor del centro del planeta y algunos procesos químicos modestos, toda nuestra energía procede del Sol. Incluso los combustibles fósiles, producto de seres que vivieron hace millones de años, contienen la energía que esos animales y plantas derivaron del Sol, y que quedó almacenada químicamente hasta que el ser humano aprendió a explotarla en su beneficio. Y, precisamente por ello, la principal búsqueda en cuanto a fuentes de energía que eventualmente sustituyan al petróleo se centra en el Sol, y en formas de convertir la energía que recibe el planeta en una forma utilizable por nuestras máquinas, nuestras fábricas, nuestros medios de transporte.

Aún quedan incógnitas alrededor del Sol, algunas de difícil resolución ya que sigue siendo imposible siquiera acercarse a una distancia razonable para estudiar a nuestra estrella con el detenimiento y detalle que quisiéramos. Incluso nuestro observatorio solar más desarrollado, el SOHO, esfuerzo conjunto de la Agencia Espacial Europea y la NASA, se encuentra a 1,5 millones de kilómetros de la Tierra, es decir, a más de 148 millones de kilómetros del Sol.

Sin embargo, las respuestas que sobre el Sol nos puedan dar los astrónomos, astrofísicos y otros profesionales no sólo tienen un interés claramente científico, sino que podrían incidir de modo decisivo en el futuro de nuestro mundo en cuanto a la disponibilidad de energía, en la viabilidad de la supervivencia de la humanidad y en la relación que mantengamos con el resto del sistema de vida que, gracias al Sol, existe en nuestro planeta.

Los números del sol


En promedio, el diámetro del Sol es igual 109 veces el diámetro de la Tierra, y su volumen es de un millón 300 mil veces el de nuestro planeta. La gravedad en su superficie (suponiendo que pudiéramos posarnos en ella sin volatilizarnos) es de casi 30 veces la que hay en nuestro planeta, de modo que una famélica supermodelo de 50 kilos pesaría 1500 kilos allí. La temperatura de su corona es de 10 millones de grados y está compuesto fundamentalmente de hidrógeno (73.46 %) y el helio en el que se convierte el hidrógeno al fusionarse (24.85 %). Al ritmo de actividad nuclear actual, el Sol seguirá estable unos 4 mil millones de años más, después de lo cual ocurrirá, cumpliendo tardíamente las teorías apocalípticas, el fin del mundo.

Microbios para curarnos

La entrada de algunos microbios a nuestro organismo puede ser beneficiosa, no sólo por lo que nos pueden dar, sino por ser ideales para luchar contra otros microbios que nos ocasionan diversas enfermedades.

El descubrimiento de Pasteur que identificó a los microbios como causantes de numerosas enfermedades y fundó la medicina científica, ha tenido tal trascendencia para la salud humana, que con gran frecuencia la palabra misma "microbio" ha adquirido connotaciones negativas, como si todas las formas de vida microscópicas o unicelulares fueran, por definición, nocivas para la salud y la vida humanas. La enorme variedad de afecciones provocadas por bacterias y virus, así como el hecho de que precisamente estas afecciones son las que se transmiten por contagio (a diferencia, digamos, de los desarreglos fisiológicos como la diabetes o los problemas congénitos como el paladar hendido) explican esto con facilidad, pero ciertamente tal percepción deja fuera gran parte de la historia.

Es imposible aislarnos de las formas de vida con las que convivimos, tanto los microbios como otros muchos seres (incluidos los ácaros que, por millones, viven en nuestros sofás, en nuestros colchones, en nuestras moquetas y en nuestras almohadas) a menos que viviéramos como el famoso "niño de la burbuja", cuya total falta de defensas lo obligó a vivir en un aislamiento total hasta su muerte debida, precisamente, a una infección vírica inesperada en la médula ósea que se le había trasplantado de su hermana esperando así ayudar a que desarrollara el sistema inmunológico del que carecía.

El sistema inmunológico de los seres humanos es, precisamente, el que nos permite vivir en un mundo infestado por terribles microbios. Un experimento sencillo con una caja de Petri esterilizada, que abramos durante unos minutos en nuestra casa, nos mostrará en pocos días un panorama aterrador: el crecimiento de numerosas variedades de microorganismos, algunos causantes de graves enfermedades que, sin embargo, no sufrimos porque nuestro cuerpo puede manejarlos en las pequeñas cantidades en las que están presentes a nuestro alrededor. Pero allí están, siempre. De hecho, tenemos más bacterias viviendo dentro de nosotros que células en nuestro propio cuerpo. Nuestro aparato digestivo, especialmente los intestinos y muy particularmente el intestino grueso o colon, alberga a cientos de billones de bacterias pertenecientes a entre 300 y mil especies distintas. Estas bacterias se benefician de nuestros alimentos, ciertamente, pero al mismo tiempo nos ayudan a aprovecharlos mejor (por ejemplo, descomponiendo alimentos que no podemos digerir de otro modo. como algunos polisacáridos o azúcares complejas, y ayudándonos a absorberlos), a estimular el crecimiento celular, a impedir el crecimiento de bacterias que sí son dañinas, a enseñar a nuestro sistema inmunológico a responder sólo a los gérmenes patógenos, a evitar algunas alergias y a defendernos de algunas enfermedades.

Esas bacterias intestinales, o flora intestinal, no son parásitos ni comensales, sino que mantienen una relación mutualista con cada uno de nosotros. Son "buenos microbios" que viven y se multiplican en nuestro interior, y han recibido el nombre de "organismos probióticos" o microbios buenos. La palabra "probióticos" fue definida por la OMS en 2001 como "microorganismos vivos que, al ser administrados en cantidades adecuadas, confieren un beneficio de salud al anfitrión". Es decir, no se limita a las bacterias que ayudan a nuestra flora intestinal, en especial las pertenecientes a la familia de los lactobacilos, muy presentes hoy en la publicidad. En un informe de junio de 2006, la Sociedad Estadounidense de Microbiología publicó un informe en el que considera a los microbios probióticos como una de las mayores promesas de la medicina para llevar a cabo la curación más eficaz o más rápida de numerosas afecciones.

El informe, que lleva el título Microbios probióticos, las bases científicas señala: "Teóricamente, se podrían usar microorganismos benéficos para tratar una gama de afecciones clínicas que se han vinculado a los patógenos, entre ellas problemas gastrointestinales como el síndrome de intestino irritable y las enfermedades intestinales inflamatorias (por ejemplo, la colitis ulcerante y la enfermedad de Crohn), enfermedades orales como la caries y la enfermedad periodontal, y varias otras infecciones, incluidas las vaginales y, posiblemente, las de la piel. Los probióticos también podrían utilizarse para evitar enfermedades o combatir desórdenes autoinmunes".

Aunque algunas de estas posibilidades apenas están siendo estudiadas actualmente en laboratorios de distintos países, el salto que podrían representar para la medicina, especialmente conforme el mal uso de los antibióticos presenta dificultades crecientes para el control de algunas afecciones debido a que los gérmenes que las causan se han vuelto inmunes a cada vez más productos farmacéuticos. Igualmente, en veterinaria podrían reducir la cantidad de medicamentos que se administra a los animales cuyos productos o carne consumimos los seres humanos.

La investigación que se desarrolla hoy en día se basa en ejemplos ya probados, como el uso de bacterias y levaduras para reducir episodios de diarrea producida tanto por el rotavirus como por algunas otras bacterias, lo cual se confirmó apenas en 2005. En ese mismo año, una serie de estudios clínicos validó la idea de que algunas variedades de lactobacilos resultaban efectivos en el tratamiento de infecciones del tracto urinario y vaginales.

Algunos usos potenciales de los microbios benéficos están, por ejemplo, en el uso de bacterias probióticas para desplazar a variedades de bacterias patógenas resistentes a los antibióticos, en el control de las capacidades de degradación de nutrientes de la flora intestinal para conseguir una mejor absorción de los nutrientes adecuados sin provocar aumentos de peso no deseados, la degradación o digestión de sustancias químicas potencialmente dañinas (como los venenos a los que pueden estar expuestos crónicamente algunos obreros), entre otros.

Así, compitiendo (con ventaja) contra los microbios patógenos, los probióticos pueden convertirse en una de las grandes armas de la salud en un futuro no muy lejano.

El miedo al microbio


Identificar a todos los microbios incorrectamente como nocivos puede generar una gran angustia en algunas personas, cuyo caso extremo es la llamada "microbiofobia" o "bacilofobia", un temor irracional a los microbios y a las infecciones. Dos ejemplos famosos de esta afección son el cineasta, aviador y millonario Howard Hughes, quien vivió sus últimos años atenazado por el miedo a los gérmenes patógenos y, aparentemente, el antiguo rey de la música pop, Michael Jackson.

CSI: realidad y fantasía

La criminalística se ha beneficiado enormemente de la ciencia... pero no tanto como quisieran los guionistas de cine y televisión.

Para muchas personas, la moderna criminalística tiene su punto de inflexión en 1866, no con un acontecimiento policiaco, sino con un hecho literario trascendente: la publicación de Estudio en escarlata, de Arthur Conan Doyle, la primera novela que protagonizaría Sherlock Holmes. En el primer capítulo, cuando el doctor Watson es llevado a conocer al detective como posible compañero de piso, lo encuentra gritando "¡Lo he encontrado! ¡Lo he encontrado!", refiriéndose al descubrimiento de una sustancia química que reacciona solamente en contacto con la hemoglobina y con ninguna otra sustancia. En la ficción, Holmes había dado el primer paso para determinar con certeza si una mancha era producto del óxido, de pintura, de salsa de tomate o de sangre, que viene siendo el primer paso para llegar a la actual identificación por ADN.

La investigación criminal se ha apoyado cada vez más en la ciencia para poder reconstruir los hechos y resolver sus casos. Hoy parece inimaginable que se realizaran investigaciones sin estudios sobre el rayado de los cañones de rifles y pistolas, sin análisis químicos de sustancias, sin fotografías, sin identificación de huellas dactilares, sin nada más que las siempre poco confiables afirmaciones de testigos o las suposiciones más o menos vagas que llegaron a lanzar a la hoguera a miles de inocentes acusados de herejías y brujerías diversas. La sola idea del CSI, la investigación de la escena del crimen, ha casi sustituido al policía de gatillo ligero.

El médico escocés Henry Faulds señaló en 1880 que las huellas dactilares eran individuales y no cambiaban a lo largo de la vida, y sugirió que las huellas de grasa dejadas por los dedos podrían usarse para identificar científicamente a los delincuentes. Sin embargo, cuando propuso este método a la policía metropolitana de Londres, no encontró eco. Fue hasta 1892 cuando el policía argentino Juan Vucetich, basado en el trabajo del científico multidisciplinario Francis Galton, utilizó una huella digital para demostrar la culpabilidad de Francisca Rojas en el asesinato de sus dos pequeños hijos. Poco después, los departamentos de policía de todo el mundo ya recopilaban huellas dactilares de delincuentes y perfeccionaban sistemas para recoger, resaltar y conservar las huellas halladas por los investigadores. Hoy incluso es posible obtener impresiones útiles de los dedos de cadáveres en avanzado estado de descomposición o recuperar huellas de superficies como el papel, además de rescatar impresiones digitales de gran antigüedad.

Las pruebas de ADN para uso forense fueron desarrolladas apenas en 1984 por el genetista inglés Alec Jeffreys, de la Universidad de Leicester. Estas pruebas no sólo implicaban la identificación o perfilado de una persona por su ADN, sino la forma de obtener ADN de manchas antiguas y un proceso complejo para la separación del semen y las células vaginales, lo que permitía el uso del sistema en casos de violación. La identificación por ADN se empleó por primera vez en un tribunal para condenar al asesino y violador Colin Pitchfork en el propio Leicester en 1988, y también para exonerar al primer acusado del crimen, Richard Buckland. El impacto de esta nueva herramienta es difícil de valorar, no sólo por la enorme cantidad de delincuentes descubiertos debido a ella, sino principalmente por la gran cantidad de inocentes cuyas afirmaciones de no culpabilidad han sido finalmente reivindicadas, en ocasiones después de purgar largas penas de cárcel. Las pruebas de ADN son tanto o más confiables que las huellas dactilares.

La informática ha representado un importante apoyo al trabajo de la investigación policiaca. Simplemente las enormes bases de datos recopiladas y la facilidad que los ordenadores ofrecen para hacer búsquedas en ellas bastan para plantear una realidad totalmente nueva en el terreno de la investigación de los delitos, una diferencia quizá tan grande como la que marcó la llegada del microscopio a los terrenos policiacos. Igualmente, la informática es un excelente auxiliar en el análisis de sustancias diversas, tendencias estadísticas y, por supuesto, imágenes. Sin embargo, no existe, por desgracia, el ordenador, o el programa de ordenador, que pueda realizar las hazañas de los que nos ofrece la ficción. Una imagen digital tiene un número determinado de píxeles en su superficie, y esos píxeles o puntos de información visual representan la resolución de la imagen. Acercarse a una imagen más allá de su resolución natural la convierte en una colección de puntos que no ofrecen más información al observador. Sin embargo, los ordenadores casi mágicos del cine y la televisión consiguen hacer acercamientos imposibles, reconstruyendo de modo mágico la información que originalmente no estaba allí, para regocijo del público y molestia generalizada de informáticos, fotógrafos, artistas digitales y videógrafos por igual.

¿Y la sustancia ficticia de Sherlock Holmes, el agente químico que reaccionaba en presencia de la hemoglobina? Lo más parecido que tiene la criminalística actual es el luminol, frecuente actor en las series y películas policiacas. Descubierto en 1928 por el químico alemán H.O. Albrecht y cuyas propiedades como detector de sangre fueron señaladas en 1936, es una sustancia que emite una débil luz azul cuando está en contacto con manchas de sangre. Como el reactivo de Holmes, puede detectar una parte de sangre entre un millón de otra sustancia, pero no es tan infalible como el producto literario del siglo XIX, ya que también emite luz al estar en contacto con metales como el cobre, las aleaciones de cobre, algunas formas de lejía... y el rábano picante. Sigue siendo, pues, menos confiable que la sustancia que el detective británico había encontrado en las primeras páginas de su saga.

El renacer de un rostro


Si bien algunos aspectos de la criminalística, como la entomología forense, han dado lugar a famosas películas (como El silencio de los corderos), pocas especialidades son tan inquietantes como la identificación forense. Con base en los conocimientos de la anatomía y fisiología de la cabeza humana, un experto en identificación forense puede tomar un cráneo totalmente descarnado y recrear sobre él el rostro que tuviera su dueño en vida. El grosor de las distintas capas de tejido que sabemos que tenemos permite una reconstrucción con una exactitud absolutamente asombrosa, que ha permitido la identificación de numerosas víctimas y que ha tenido el beneficio adicional de permitirnos ver el rostro que debieron tener personajes de la historia como el propio Tutankamón, sometido hace poco tiempo a una reconstrucción facial forense.

Hombre y perro: extrañas complicidades

Dos especies protagonizan la asociación más peculiar de la naturaleza en la Tierra. El hombre y el perro se han moldeado mutuamente de formas que apenas estamos descubriendo.

"Muchacho con un perro" cuadro de Bartolomé
Murillo. Museo del Hermitage. (Imagen vía
Wikimedia Commons)
El pacto entre el hombre y el perro, según nos dicen estudios de ADN de perros y lobos realizados entre 1997 y 2002, puede haber comenzado hace cien mil años, aunque ya se encuentran poblaciones de lobos asociadas con restos de homínidos hace 400 mil años. En todo caso, hace algo menos de 20 mil años la domesticación ya estaba consolidada. La variación genética del perro, además, parece señalar que la domesticación ocurrió muchas veces, en distintos lugares, con distintas subespecies de lobos que coexistían con grupos humanos con los que, suponemos, competían antes de descubrir los beneficios que comportaba el asociarse y hacer algo tan desusado como compartir. Así el hombre ya tenía perros con los que compartía la vida en África, en Europa y en Asia, y llegó con ellos al continente americano, hace al menos 15 mil años. El aprecio por el perro lo demuestran los entierros ceremoniales de estos animales que ya se encuentran en Dinamarca durante el mesolítico.

El proceso de domesticación del perro tiene, según se desprende de los estudios zoológicos, una extraordinaria similitud con el proceso de "humanización" (por decirlo de algún modo) de nuestros ancestros primates. Fue el etólogo (estudioso del comportamiento natural) Desmond Morris quien difundió, en su libro esencial El mono desnudo el descubrimiento de que nuestra especie había sufrido un proceso llamado neotenia en el cual ciertas características infantiles se prolongan en el tiempo, manteniéndose presentes durante gran parte de la vida del individuo… o incluso para siempre. Ciertamente somos la especie con la infancia más larga, y en muchas formas es desusado que nuestras crías sean tan tremendamente indefensas durante tanto tiempo, tiempo que se necesita, según los zoólogos, para poder aprender lo suficiente.

Un rasgo infantil de prácticamente todos los animales superiores es el juego, la capacidad de divertirse que el ser humano de nuestros días conserva a lo largo de toda su vida. Más allá de casos de amargura notables, incluso los más ancianos se divierten, ríen, disfrutan los deportes o juegan, ya sea a las cartas o con sus nietos, exhibiendo una conducta que no tienen la mayoría de los demás animales. El perro, en su proceso de domesticación, también fue sometido, suponemos que por los propios seres humanos con los que se asoció, a un proceso de neotenia. El perro adulto comparte numerosas características infantiles de las crías de lobo, entre ellas precisamente la capacidad de disfrutar del juego hasta las etapas más avanzadas de su vida.

La asociación del hombre y el perro es sumamente lógica si se analiza únicamente desde el punto de vista de la supervivencia. Para el ser humano, el perro era igual el guardían en la noche que el aliado con velocidad singular en la cacería o el socio capaz de detectar olores que eran imposibles de apreciar para el primate (animal esencialmente visual), mientras que para el perro (o para el lobo que eventualmente se convertiría en perro), el hombre era una certeza de alimentación mayor que la que tenía la manada sola, una mayor protección contra las inclemencias del clima alrededor de la fogata de la tribu o clan y la posibilidad de contar con un socio de vista mucho más aguda que la propia.

Sin embargo, la asociación de una manada de lobos con una tribu o clan humano (o prehumano) sufrió en algún momento una transformación absolutamente radical, dando como resultado una relación individual, de un perro a un ser humano. En este proceso, quizá lo que más llama la atención es la forma en que los miembros de cada una de las especies trata al otro. Para el perro, su "amo" (palabra desafortunada si las hay) es parte de su manada. Más aún, el humano preferido es tratado, en la gran mayoría de las ocasiones, exactamente de la misma manera en que la manada trata al macho o hembra alfa (los jefes de la manada de lobos). Por su parte. El ser humano considera a "su" perro en muchísimas ocasiones como un miembro más de la familia, no sólo en el trato cotidiano sino, sobre todo, en los sentimientos que alberga por el animal que lo acompaña. La expresión de los sentimientos, según algunos zoólogos, ha sido también seleccionada por el ser humano como parte del proceso de domesticación. Así tenemos la llamada "sonrisa del perro", con el hocico entreabierto, los labios relajados (no mostrando los dientes para amenazar), jadeando ligeramente y con la lengua descansando sobre los dientes inferiores. En los perros con orejas rectas, el mantenerlas enhiestas, sin echarlas para adelante buscando una amenaza ni hacia atrás preparando la lucha (se aplanan con objeto de protegerlas de los mordiscos), se considera también la "sonrisa del lobo".

Si bien los clubes caninos hablan de 800 "razas", desde el punto de vista genético no es posible distinguir tales razas de perros (como no se distinguen las supuestas razas humanas). El perro es una simple subespecie del lobo, y es que, más allá de las dificultades mecánicas que puedan presentarse entre tipos de perros muy pequeños y muy grandes, todos los 800 tipos o razas de perros que existen en el mundo pueden cruzarse entre sí, y todos pueden cruzarse con los lobos.

Sí, dentro de ese pequeño caniche, maltés, Yorkshire terrier o chihuahueño hay un lobo, un lobo tan orgulloso, tan libre y tan admirable como el de las novelas de Jack London, aunque tenga el disfraz de un juguetón animalillo. Y basta hacerlo enfadar para ver que en sus ojos brilla el lobo que es en realidad.

¿Ataque o defensa?

Los ataques de perros, con frecuencia atribuidos a "razas peligrosas", pueden ser resultado de un simple problema de comunicación. Algunos comportamientos inocentes que pueden ser mal entendidos por un perro incluyen mirar a un perro fijamente a los ojos puede disparar un ataque ya que se trata de una mirada dominante, propia del macho alfa, y se considera un reto si la usa un miembro inferior de la manada. La mirada fija es más peligrosa si se hace a la altura de los ojos del perro, como pueden hacerlo los niños pequeños. Es especialmente peligrosa una acción en apariencia muy inocente: acercarse a un perro desconocido con la mano extendida palma abajo sobre su cabeza para acariciarlo. Por ello, los expertos recomiendan que al acercarse a un perro desconocido se incline, no lo mire fijamente a los ojos y le ofrezca la mano con la palma hacia arriba, por debajo de la altura del hocico del animal. Así, no percibirá amenaza alguna y, además, su curiosidad natural lo empujará a investigar qué lleva en esa mano tan poco amenazante.

Lo que sabían los antiguos

Cierto culturocentrismo en ocasiones nos hace creer en el mito de los "salvajes primitivos" y suponer que toda cultura antigua era ignorante.

El mecanismo de Antiquitera, uno de los
objetos a los que la ignorancia sobre el
conocimiento de los antiguos le atribuye
orígenes misteriosos.
(Imagen GFDL vía Wikimedia Commons)
Un argumento frecuente utilizado para defender ideas más o menos extravagantes es, simplemente, que los pueblos antiguos "no podían" haber hecho tales o cuales cosas: cortar y trasladar grandes bloques de piedra (para hacer las pirámides de Egipto, por ejemplo), orientar con exactitud astronómica una edificación (como Stonehenge o Abu Simbel), cruzar mares sin modernos métodos de navegación (digamos, para poblar Australia) y un largo etcétera.

Es un hecho que en la enseñanza de la historia, con frecuencia la enumeración de gobernantes, guerras y batallas suele sacrificar en nuestras escuelas el conocimiento de las civilizaciones antiguas. Si se toca algún punto, como la filosofía griega o el conocimiento matemático de los mayas, es de paso, sin profundizar en lo que conformaba el universo del conocimiento en la vida cotidiana de nuestros ancestros.

La astronomía es una de las grandes incomprendidas por muchas personas que hoy en día persisten en hallar "increíble" que muy antiguas culturas conocieran perfectamente su situación geográfica y astronómica sin contar con un modelo viable del universo. Y sin embargo, todas las culturas que dieron el paso del nomadismo al sedentarismo lo hicieron con base en la astronomía. Dicho de otro modo, si no hubieran sabido astronomía, no habrían podido dedicarse a la agricultura. El conocimiento de las estaciones, y por tanto de la orientación norte-sur, así como el recuento del año, son requisitos esenciales para establecer una sociedad agrícola. Y dado que todo el ciclo de las cosechas parece depender de las posiciones de los astros respecto del sol, ¿es acaso extraño que estas culturas pretendieran ajustar sus construcciones rituales a lo que veían ya como un cierto orden universal, por mucho que estuviera teñido de variadísimas creencias teístas?

Para los antiguos egipcios, por ejemplo, el norte era un espacio vacío circundado por dos estrellas, las que hoy llamamos Kochab y Mizar, y cuya alineación marcaba el "norte verdadero"… o al menos lo hizo durante algún tiempo alrededor del 2480 a.C., fecha calculada para la construcción de la pirámide de Keops. Hoy, el norte está marcado por la estrella Polaris, nuestra "estrella del norte", pero esto también cambiará, dado que el eje terrestre se "tambalea" en su viaje por el espacio, y por tanto las estrellas que ayudan a ubicar el norte cambian en un ciclo de unos 26 mil años.

La astronomía se basa en matemáticas y geometría, sin ellos no hay más que cálculos "a ojo" y poca precisión para saber cuándo empezar a plantar, por no hablar de los problemas de agrimensura que no sólo se refieren a la propiedad de la tierra, sino a temas tan delicados como la cantidad de semilla necesaria para garantizar una buena cosecha en una parcela determinada. Un pequeño error de cálculo podía ser la diferencia entre el bienestar general o la muerte por hambruna. Esto evidentemente da a los números una gran importancia y un aspecto místico que llevó a que, en algunas culturas como la maya, los matemáticos y los sacerdotes fueran unos y los mismos.

Uno de los motivos de la incomprensión respecto de las civilizaciones antiguas es la presunción de que sus intereses y visiones debían ser similares a los nuestros. Por ejemplo, en principio suena inviable que los antiguos griegos conocieran la energía del vapor, pero no por considerarlos ignorantes o incapaces, sino porque no la utilizaron para lo que nuestra civilización la utilizó: sustituir a trabajadores costosos y rebeldes para mejorar las utilidades y masificar la producción. El problema es que la economía de las ciudades-estado de la antigua Grecia estaba basada en el trabajo esclavo (cosa que nuestra admiración por sus logros intelectuales con frecuencia deja a un lado), de modo que los trabajadores no eran ni caros ni, mucho menos, rebeldes. Por otra parte, el tipo de mercancías que permitían obtener grandes ingresos no eran susceptibles de producción en masa, y la idea de sustituir al hábil artesano (frecuentemente esclavo) por una línea de montaje no tenía mucho sentido. Por tanto, cuando el genial Herón de Alejandría (inventor también del odómetro, estudioso de la neumática y la óptica, y matemático destacado) inventó la eolípila o turbina de vapor primitiva en el siglo I de nuestra era, resultó una diversión interesante, pero no se le dio aplicación industrial y fue olvidada. Algo similar ocurre con dos productos chinos tradicionales. Durante siglos, en China se usaron linternas de papel para crear pequeños globos de aire caliente. Igualmente, los chinos contaban desde más o menos el 400 antes de nuestra era con un juguete infantil llamado "libélula de bambú": un palito con una hélice en el extremo, que salía volando como un helicóptero cuando el niño hacía girar rápidamente el palito entre las manos abiertas.

Algunas civilizaciones tienen logros verdaderamente asombrosos que se ven opacados por la idea popular de su retraso. Por ejemplo, hay culturas fabulosas capaces de hacer trabajos de orfebrería primorosos o imponentes (incas, mesoamericanos, egipcios), fundiendo el oro a 1064 grados centígrados... cuando no utilizaban el bronce, que se obtiene haciendo una aleación de estaño con cobre, y que sólo requiere 20 grados centígrados más que el oro para fundirse.

Y es que, como podemos ver a nuestro alrededor si sabemos hacerlo, en la actualidad no usamos máquinas distintas de las ya conocidas por los babilónicos: palancas, poleas y planos inclinados. Nuestras palancas y poleas pueden expresarse en altísimas grúas de construcción accionadas por electricidad, pero sus principios son los mismos que los empleados para construir Ur, Abu Simbel o el acueducto de Segovia. Hoy sabemos muchas cosas más que nuestros antepasados, pero ello no cancela lo que ellos ya sabían, y nuestra tecnología no es sino la extensión de la que elaboraron a partir de cero otras civilizaciones que merecen nuestro asombro porque hoy, prácticamente nadie podría cazar un bisonte, ya no digamos hacer la punta de piedra de la lanza necesaria para la cacería, lo que pone a sus creadores en posesión de conocimientos muy superiores a los nuestros sobre algo tan sencillo como una piedra.

Tecnología de peluquería


Teñirse el cabello tampoco es asunto de reciente creación. A lo largo de toda la historia, ha habido formas de cambiarse el color del cabello que usaron las más distintas culturas. Quizá la receta para hacer "rubias de farmacia" más antigua que se conoce procede de la Grecia clásica, cuyas mujeres empleaban una pomada de pétalos de flores amarillas, una solución de potasio y polvos de color para obtener una coloración rubia en sus cabellos.