Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

No hay un robot llamado Luisa

De la ficción a la realidad, la evolución de los robots ha recorrido caminos que han sorteado casi por completo todo lo que la literatura imaginó.

Dejando de lado a autómatas míticos como el Golem de Praga o la Galatea de Pigmalión, y a los seres metálicos de los relatos mitológicos como el Talos de bronce de los Argonautas o los sirvientes metálicos de Vulcano, los antecedentes del robot son los autómatas, seres que imitaban la vida, movidos por agua o vapor. En Grecia, en el siglo V a.C., Arquito de Tarento propuso una paloma mecánica accionada por vapor, y Herón de Alejandría construyó varios autómatas en el siglo I de nuestra era. Cierto que podían hacer pocas cosas, pero el aparente carácter voluntario de sus movimientos cautivó a los espectadores.

Fue Leonardo Da Vinci quien diseñó hacia 1495 el primer robot: un caballero cubierto por una armadura medieval germanoitaliana capaz, según el diseño, de sentarse, ponerse de pie, mover los brazos y accionar una quijada anatómicamente correcta. Lo más probable es que Leonardo nunca intentara construirlo, como pasó con las demás ideas que lo asaltaban, apasionado por atacar nuevos desafíos a su intelecto. Fue hasta 1738 cuando el ingeniero francés Jacques de Vaucanson presentó ante la Academia de Ciencias francesa el primer autómata moderno, un personaje que tocaba la flauta y el tambor, y que superaba con mucho a los juguetes mecánicos en boga por entonces. De Vaucanson construiría algunos autómatas más, incluido un pato con 400 partes móviles, capaz de comer grano y defecar, antes de dedicarse a la industria, como uno de los pioneros de la automatización.

El robot moderno nace en 1920 con la obra teatral R.U.R. Rossum's Universal Robots, del dramaturgo checo Karel Capek, estrenada en 1921. En ella, un científico crea a unos trabajadores artificiales que, en la mejor tradición frankeinsteiniana, se rebelan contra el creador, intentan apoderarse del mundo y descubren sus propios sentimientos humanos. La palabra "robot" fue sugerida a Karel por su hermano, el pintor Josef Capek, y proviene del checo "robota", que significa, precisamente, "trabajo aburrido o pesado".

Los robots de Capek no eran metálicos, sino orgánicos, lo que llamaríamos hoy "androides" o, siguiendo a Blade Runner, replicantes. Pero lo esencial es que no eran simples máquinas programadas, eran capaces de decidir con autonomía. Con Capek, el autómata deja de ser una simulación del movimiento para entrar de lleno en la simulación del pensamiento y las emociones. Sin embargo, la ciencia ficción en general optó más bien, en una visión industrial y simplona propia del momento, convirtiendo al robot en un ser electromecánico. A ello contribuyó de manera especial "Elektro", robot humanoide construido a fines de la década de 1930 por la empresa Westinghouse, con objeto de promocionarse.

El surgimiento de los ordenadores a resultas del trabajo de Alan Turing hizo posible la idea de realmente crear aparatos capaces de manipulaciones complejas con cierto nivel de autonomía, verdaderos robots. Nació así la robótica (bautizada por el escritor de ciencia ficción Isaac Asimov). Pero mientras la ciencia y la tecnología avanzaban lentamente en busca de verdaderos robots, en los años 40-50 del siglo pasado el cine de ciencia ficción de serie "B" se llenó de robots, algunos memorables como el Robbie de Planeta prohibido o el Goort de El día que paralizaron la tierra, pero en general lamentables cuando no cómicos, simples actores malos, pero enlatados.

Los robots de la ciencia y la tecnología, sin embargo, no se parecían a los imaginados por el arte. No son humanoides, sino a veces brazos móviles controlados por ordenador capaces de complejos movimientos, que pronto se hicieron presentes en las líneas de montaje, o pequeños vehículos con vulgares ruedas, poco impresionantes incluso cuando van armados con fusiles de asalto para detener delincuentes sin poner en peligro a los policías humanos… carritos muy alejados de Robocop y de Terminator.

Y, sin embargo, los robots de hoy, además de sus devastadores efectos en el empleo en la industria, se han convertido en elementos esenciales en muchas actividades humanas. Desde los pilotos automáticos de los aviones modernos como los Airbus, que, en palabras de un ingeniero aeronáutico asombrado "vuelan solos", moviendo robóticamente todas las piezas de dirección y velocidad de la aeronave, pasando por los robots que recogen y aseguran paquetes sospechosos de contener explosivos, los robots que sueldan los microcircuitos de nuestros ordenadores y los proyectos de robots que eviten a los bomberos acciones de avanzadilla altamente peligrosas en incendios, los robots de aspecto poco o nada humano ya están salvando vidas, que no es mal principio.

De todos modos, hay quienes siguen empeñados en la creación del mítico robot humanoide. Proyectos como los de los robots Asimo y P3 de la empresa japonesa Honda, los robots de la Universidad de Waseda (como Wasubot, capaz incluso de interpretar un concierto) y el más reciente, Choromet, con su aspecto de Transformer, han impulsado además intensos trabajos en áreas sumamente diversas. Para que un robot camine, por ejemplo, es indispensable conocer a fondo los secretos de la locomoción humana, y en ello participan médicos, físicos, anatomistas y neurólogos. A ello se añaden los programadores que convierten esos conocimientos en instrucciones que puedan, efectivamente, permitir a un robot realizar algunas acciones aparentemente humanas.

Así, si pese a todo no se consiguiera nunca tener un robot llamado Luisa, que se parezca a una Luisa humana y actúe como ella, los avances sirven, por ejemplo, para crear prótesis robóticas que liberan a personas que han perdido miembros o movilidad. El sueño de tener robots humanos es, en todo caso, un potente motor para buscar y encontrar nuevos límites a la tecnología y a la ciencia. Lo cual ya es motivo para estar agradecidos con nuestros robots.

Las leyes de la robótica


Atribuidas a Isaac Asimov, quien las utilizó en numerosos cuentos y novelas, las tres leyes de la robótica de la ciencia ficción fueron desarrolladas por él junto con el mítico editor John W. Campbell. Las contradicciones entre esas tres leyes aparentemente sencillas que los robots deben seguir fueron, y siguen siendo, alimento de muchas obras de la ciencia ficción:

1. Un robot no puede dañar a un ser humano, ni permitir por su inacción que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes que le den los seres humanos, salvo cuando tales órdenes entren en conflicto con la primera ley.

3. Un robot debe proteger su propia existencia, siempre y cuando tal protección no entre en conflicto con la primera o segunda ley.

Dormir, tal vez soñar

Pasamos la tercera parte de nuestra vida durmiendo, y sin embargo apenas estamos averiguando lo que ocurre en esas horas de silencio.

El sueño es un estado peculiar: no estamos inconscientes, pero se reduce notablemente nuestra sensibilidad a los estímulos externos; nuestros movimientos voluntarios se cancelan, aumenta el anabolismo (la creación de estructuras celulares) y disminuye el catabolismo (la destrucción de las mismas). Dormir no es, sin embargo, un acto peculiarmente humano. Todos los mamíferos, aves y peces duermen, de distintas maneras. y al menos los mamíferos superiores exhiben comportamientos y ofrecen mediciones que nos hacen suponer que experimentan alguna forma de ensoñación. Quien haya visto a su perro mover las patas como si corriera jadeando mientras duerme, no puede evitar pensar que está soñando en perseguir a una liebre o cosa similar.

Durante gran parte de la historia, el acto de dormir fue un profundo misterio. ¿Por qué en un momento dado nos vemos agobiados por la necesidad de quedar dormidos, indefensos, durante largas horas? ¿Qué es ese estado peculiar que se parece a la muerte? ¿Qué pasa con la personalidad durante ese tiempo? No deja de ser llamativo que el sueño sea una necesidad tan apremiante y tan poderosa que puede uno ver soldados durmiendo en el fragor de una batalla, cuando el cansancio los había vencido con más eficacia que el enemigo. Por otra parte, a los sueños en sí (que los científicos llaman "ensoñaciones" por cuestiones de claridad) se les consideró "revelaciones", "comunicaciones con los dioses o con el mundo de los muertos", "visiones proféticas", "tentaciones del diablo" y muchas cosas más.

Pero, además, la falta de sueño puede ser muy peligrosa. El no dormir lo suficiente de manera continuada, según algunas investigaciones publicadas sólo durante 2006, puede ser responsable de un aumento en el riesgo de ciertos tipos de obesidad, hacer menos confiable la memoria, reducir la confiablidad de los conductores, perjudicar nuestra capacidad de tomar decisiones correctas, reducir la disposición al aprendizaje, aumentar la tendencia a la hipertensión arterial y ocasionarnos muchísimos otros problemas.

El estudio científico y riguroso del sueño y de las ensoñaciones no comenzó sin embargo sino hasta el siglo XX, con herramientas como el electroencefalógrafo, que nos permite ver, así sea mínimamente y de modo más bien confuso, parte del funcionamiento del cerebro humano. Esta y otras formas de observación nos han permitido identificar cinco etapas del sueño. La quinta es la llamada "REM", por las siglas en inglés de "movimiento rápido de los ojos", y que ocurre sobre todo en el último tercio de la noche, ya que la caracteriza el rápido movimiento de los ojos detrás de los párpados, algo que no ocurre en las primeras cuatro, llamadas por ello "no-REM". Las etapas de sueño REM y no-REM se suceden continuamente durante la noche en ciclos de aproximadamente 90 minutos. La primera, la de somnolencia, ocurre cuando estamos quedándonos dormidos, y durante ella ocurren las alucinaciones hipnagógicas, sensaciones que parecen reales (por ejemplo, muchas historias de fantasmas y de secuestros por parte de supuestos extraterrestres son claramente alucinaciones de este tipo, que incluyen sensaciones de parálisis y desamparo). En la segunda etapa desaparece la conciencia del mundo externo y cae el tono muscular; está presente durante más de la mitad del período de sueño. La tercera es considerada una transición hacia la cuarta y no ocupa ni el 10% del tiempo de sueño. La cuarta es el "sueño profundo" porque es muy difícil despertar de él al sujeto, y es la etapa en la que ocurren episodios de terror nocturno, de mojar la cama y de sonambulismo, y ocupa alrededor del 10% del período de sueño.

Anteriormente, se pensaba que las ensoñaciones sólo se presentaban durante el sueño REM, pero ahora se sabe que también las hay durante las otras cuatro etapas, aunque es en la etapa REM donde suele haber más sueños visuales y profundamente estrafalarios, absurdos y al azar, los que más identificamos precisamente con la ensoñación.

El significado mismo de las ensoñaciones aún es materia de debate, en parte por su carácter esencialmente subjetivo. Hay desde hipótesis que indican que las sensaciones que percibimos son sólo un intento del cerebro por darle sentido a una serie de descargas aleatorias y sin significado intrínseco, como tratamos de encontrar caras en formaciones al azar. Esta hipótesis estaría al otro extremo de quienes aún creen que los sueños son una puerta hacia aspectos especiales o relevantes de nuestra personalidad o emociones. Entre ambos extremos, abundan las propuestas, pero aún estamos lejos de tener respuestas sólidas y confiables.

Las alteraciones del sueño "normal", definido como aproximadamente ocho horas diarias de reposo continuo, pueden interferir gravemente con la vida normal. El insomnio, la más frecuente de ellas, produce graves alteraciones físicas y, sobre todo, emocionales. Su extremo contrario es la narcolepsia, que hace que sus víctimas se queden dormidas inevitablemente en cualquier momento, incluso, por poner ejemplos especialmente peligrosos, mientras están cocinando o bajando escaleras. Las pesadillas recurrentes, las alucinaciones hipnagógicas (y su contraparte, las hipnopómpicas, similares a las anteriores, pero que ocurren en la transición que se da al despertarnos), el bruxismo (rechinar los dientes durante el sueño), las sacudidas de las piernas (que resultan en darle patadas al compañero de cama), los ronquidos excesivos, los terrores nocturnos y el temido jet lag o desincronosis, son áreas en las que se sigue investigando pero cuyos efectos desagradables son conocidos por prácticamente todos nosotros.

Si según Calderón la vida es sueño, de lo que cada vez hay menos dudas es de que el sueño, un sueño suficiente y de calidad, es vida. Y sin necesidad de buscarle siquiera significados más allá de lo razonable.

La ciencia de la siesta


En junio de este año, el Dr. Denis Burdakov, de la Facultad de Ciencias de la Vida de la Universidad de Manchester informó de la identificación del mecanismo que nos produce somnolencia después de comer, es decir, lo que invita a la siesta, costumbre extendida entre muchos animales además del ser humano. En líneas generales, el aumento de la glucosa en sangre que se da después de la comida bloquea o inhibe a las neuronas que producen ciertas proteínas, llamadas orexinas, cuya función es regular nuestro estado de conciencia. Es decir, nuestro organismo está diseñado para tener sueño después de comer. Y esto también explica por qué es difícil conciliar el sueño cuando se tiene hambre.

No dormir siesta podría ser, al fin y al cabo, antinatural.

¿Es una nueva especie?

El cada vez más amplio conocimiento que tenemos de la vida en el planeta está, sin embargo, lejos de estar completo, y a veces parece menos preciso que en el pasado.

Se calcula que pueden existir entre 10 millones y 30 millones de especies de insectos en nuestro planeta. Una cifra especialmente asombrosa si tenemos presente que únicamente se conoce y tiene clasificado menos de un millón de especies de insectos. De todas las demás formas animales, actualmente conocemos alrededor de 200 mil especies, y es difícil calcular cuántas pueden existir en realidad. En lo referente a las especies vegetales, nuestro conocimiento es igualmente escaso, pero a guisa de ejemplo conocemos alrededor de cien mil especies de hongos, y se calcula que debe de haber más de un millón y medio de ellas.

Solemos pensar que las "nuevas especies" (es decir, nuevas para la clasificación científica, para nuestro conocimiento, pero evidentemente no de surgimiento reciente) sólo pueden encontrarse en lugares inaccesibles y que están esencialmente aún por explorar: selvas aisladas, las fosas abisales del mar, las más altas cumbres, cañones, gargantas, cuevas, cavernas y demás sitios a los cuales sólo pueden llegar exploradores que sumen espíritu aventurero y habilidades singulares junto con una condición física admirable, algo así como Indiana Jones. Pero el hecho es que la aparición de nuevas especies es un fenómeno constante en todo el mundo. Actualmente se calcula que se clasifican cada año alrededor de 15 mil nuevas especies animales, de las que más del 60% son insectos, y de ellos, 20 son descritos en España.

Calcule usted, simplemente, cuánto tiempo se ha dedicado a observar las aguas poco profundas frente a la costa del Cantábrico, cuánto de ellas ha sido observado cuidadosamente y pregúntese si es razonable suponer que ya conocemos a toda la flora y fauna de la zona.

El problema, pues, no es encontrar "nuevas especies" en general, esto ocurre constantemente, aunque los medios se hacen eco únicamente de algunos descubrimientos, sobre todo de mamíferos de gran tamaño o de parientes del hombre, como sería el caso de los chimpancés gigantes o del hombre de Flores. El hallazgo de cada nuevo escarabajo, lagartija o rana, de cada una de las 15 mil especies mencionadas, no podrían materialmente ocupar espacios en la prensa.

Esto ha llevado a afirmaciones curiosas por parte de los detractores de la ciencia, que suelen hacerse presentes cuando se difunde alguna de estas noticias para sugerir que "los científicos" ya creían conocer a todas las especies y algunos, incluso, "decían" que ya no se iban a encontrar más, demostrando únicamente su propia ignorancia.

El verdadero problema está en el hecho de que la definición misma de "especie" es todavía imprecisa y a veces tremendamente nebulosa.

¿Qué es una especie?

Lo más probable es que usted conozca alguna variante de la definición de "especie" que propuso en 1942 el recientemente fallecido biólogo evolutivo Ernst Mayr: un grupo de seres que pueden reproducirse entre sí, pero están reproductivamente aislados de los demás. De acuerdo a esta definición, por ejemplo, pertenecen a una especie todos los caballos que se pueden reproducir entre sí dando como resultado hijos fértiles. Las hibridaciones como las mulas, producto de la cruza del caballo y el burro, no son fértiles, por lo cual el caballo y el burro son de especies distintas.

Esta definición es útil en muchos casos, pero pronto topó con el problema de que sólo se ocupaba de los seres vivos que se reproducían sexualmente. Es decir, dejaba fuera, por ejemplo, a los entre cinco y diez millones de especies de bacterias que se calcula que existen en nuestro planeta. Por otro lado, algunos híbridos como los "ligres" y "tigones" (resultado de la cruza de tigres y leones) son fértiles, en particular las hembras de ligre, que pueden cruzarse con tigres para procrear "tiligres". Todo lo cual no nos lleva a cerrar los ojos al hecho de que en su conducta, su morfología, su biología y su vida social "normales", tigres y leones no son lo mismo, sino que pertenecen a especies diferenciadas.

Por ello, los científicos añadieron otras definiciones de "especie" destinadas a permitirnos distinguir y clasificar mejor a los seres vivos a nuestro alrededor. En algunos casos, la especie es determinada por sus diferencias morfológicas (un buitre y un halcón tienen una anatomía distinta). En otros casos, la especie se define porque los miembros del grupo se reconocen entre sí como posibles parejas para la reproducción. Se usa también la definición evolutiva: una especie comparte a un ancestro y tiene un linaje que mantiene su integridad respecto de otros linajes a través del tiempo y el espacio (por ejemplo, los seres humanos y los chimpancés compartimos un mismo ancestro, pero nuestros linajes se han mantenido aislados durante millones de años). Finalmente, está la idea de las microespecies, las de los seres que se reproducen por bipartición de modo que cada generación es genéticamente idéntica a la anterior.

El problema, claro, es que los seres vivos no se dividen en "especies" naturalmente. El concepto lo hemos creado nosotros para clasificar y dar orden a lo que nos rodea. Pero, a diferencia de aspectos como los elementos químicos, donde la diferencia entre uno y otro es clara y se puede definir objetivamente, en el caso de los seres vivos en muchas ocasiones las fronteras son borrosas, hay estados intermedios y, por si ello fuera poco, los objetos de estudio, las poblaciones de seres vivos, cambian continuamente, sufren mutaciones o se ven sometidos a presiones selectivas por el medio ambiente o por la intervención del hombre.

Por todo ello, en ocasiones no es sencillo saber, cuando estamos ante un animal o una planta aparentemente nuevos, si realmente son o no "una nueva especie". Al final, el significado real de la idea de "una nueva especie" sólo se encuentra en la medida en la que sea importante para la biodiversidad del planeta, de la que depende el funcionamiento de toda la maquinaria de la vida, y que nos ayude a entender un poco mejor, sólo un poco, a los seres que comparten nuestro mundo.

Especies humanas


Sin importar cuál de las diversas definiciones de "especie" utilicemos, los acontecimientos de las últimas décadas nos han enseñado que los seres humanos no somos tan singulares como gustaría a quienes pretenden que la humanidad sea el centro del universo. De hecho, hoy conocemos al menos 11 especies humanas (pertenecientes al género Homo) además de la nuestra, varias de ellas capaces de usar herramientas, de crear piezas artísticas, de realizar rituales funerarios e incluso, según creen los paleoantropólogos, de utilizar el lenguaje. Nuestra especie es, simplemente, la más afortunada… hasta ahora.

Alrededor del sol

El dios al que no se podía ver de frente sin quedar ciegos es para nosotros hoy la estrella más cercana, responsable de la vida en nuestro planeta y, todavía, una fuente de asombro.

El Sol es quizás la presencia más abrumadora en la existencia en nuestro planeta. Su calor y luz de día, y los drásticos efectos de su ausencia de noche, fueron sin duda asunto clave para los primeros hombres que abandonaron el nomadismo por una vida sedentaria con bases agrícolas. La misma semilla, plantada a la sombra, no germinaba ni se desarrollaba como otra sembrada al Sol, lo que parecía decir que la luz del Sol-padre en el vientre de la tierra-madre se unían para darnos alimento con alguna certeza, cosa nada despreciable para grupos que durante milenios dependieron de encontrar a tiempo los animales y plantas que comían. Unos cuantos días sin cacería y sin recolección bastaban para condenar a muerte a todo un grupo humano o prehumano, mientras que la cosecha era mucho más predecible siempre que se reuniera un conocimiento astronómico suficiente como para conocer las estaciones y sus variaciones a lo largo del año.

No es extraño, por tanto, que desde los inicios del pensamiento el Sol haya ocupado un lugar igualmente central en las preocupaciones humanas. Un extremo de esta pasión solar lo dan sin duda los aztecas o mexicas, pueblo convencido de que su misión era garantizar que el Sol volviera a salir todos los días, y que para conseguirlo lo alimentaban con sacrificios humanos que le daban la fuerza necesaria para volver. Los aztecas estaban seguros de que su desaparición como pueblo significaría el fin del ciclo solar y la muerte de todo ser vivo en la tierra. En esa cosmología, el sacrificio de algunas vidas no parecía un elevado precio a pagar para garantizar la vida de todos los demás seres.

En occidente, fue Anaxágoras el primero que abandonó las explicaciones teísticas para proponer que, en lugar del carruaje de Helios, el Sol era una bola de metal incandescente de enormes dimensiones (o, al menos, más grande que el Peloponeso). Esta idea hizo que Anaxágoras fuera arrestado, enjuiciado y condenado a muerte, sentencia que no se cumplió gracias únicamente a la intervención de Pericles. Estos malos ratos no son infrecuentes en la historia de la observación y el estudio del Sol, como lo atestiguarían después Copérnico y Galileo al defender que los planetas giraban alrededor del Sol y no de nuestro planeta. Sin embargo, los herederos de estos astrónomos continuaron desvelando hechos acerca de nuestra estrella

Los acertijos de la posición y el tamaño del Sol, sin embargo, no eran nada comparados con el que presentaba la energía que emite en forma de luz, calor y, como se fue descubriendo, de radiaciones de otro tipo, como los rayos X y los gamma. La resolución de ese problema hubo de esperar a que la física atómica y nuclear habían emprendido su camino de desarrollo, cuando Hans Bethe, en artículos de 1938 y 1939, calculó las dos principales reacciones nucleares que generan la energía solar y confirmó la idea de que nuestra estrella, el antiguo dios Sol, era un horno de fusión nuclear de dimensiones asombrosas.

Algo más de tiempo hubo de esperar la pregunta de cómo nació nuestro astro. Hoy, los datos acumulados por los astrónomos sugieren que el Sol y todo el sistema solar se formaron hace unos 4.500 millones de años a partir de una masa de gas estelar que debido a la gravedad se fue acumulando en conjuntos o agregaciones: una central, el Sol, la mayor, donde los procesos físicos llevaron al inicio de una reacción de fusión nuclear, convirtiéndola en una estrella, y otras más pequeñas que formaron los planetas, incluido el nuestro. La fusión nuclear que es el origen de toda la energía del Sol es el proceso mediante el cual los átomos de un elemento se combinan para formar átomos de otro elemento más pesado, proceso que desprende una gran cantidad de energía. En el caso del Sol, los átomos de hidrógeno que lo conforman en su mayor parte se fusionan continuamente formando átomos de helio, el siguiente elemento más pesado. El proceso opuesto a la fusión nuclear es la fisión o división nuclear, que es lo que ocurre en las bombas atómicas (de manera brutal) y en los reactores nucleares (de manera controlada), y produce muchísima menos energía.

Sin esa continua fusión nuclear y el calor que nos llega de ella, no existiría vida en la Tierra. Salvo algo de calor del centro del planeta y algunos procesos químicos modestos, toda nuestra energía procede del Sol. Incluso los combustibles fósiles, producto de seres que vivieron hace millones de años, contienen la energía que esos animales y plantas derivaron del Sol, y que quedó almacenada químicamente hasta que el ser humano aprendió a explotarla en su beneficio. Y, precisamente por ello, la principal búsqueda en cuanto a fuentes de energía que eventualmente sustituyan al petróleo se centra en el Sol, y en formas de convertir la energía que recibe el planeta en una forma utilizable por nuestras máquinas, nuestras fábricas, nuestros medios de transporte.

Aún quedan incógnitas alrededor del Sol, algunas de difícil resolución ya que sigue siendo imposible siquiera acercarse a una distancia razonable para estudiar a nuestra estrella con el detenimiento y detalle que quisiéramos. Incluso nuestro observatorio solar más desarrollado, el SOHO, esfuerzo conjunto de la Agencia Espacial Europea y la NASA, se encuentra a 1,5 millones de kilómetros de la Tierra, es decir, a más de 148 millones de kilómetros del Sol.

Sin embargo, las respuestas que sobre el Sol nos puedan dar los astrónomos, astrofísicos y otros profesionales no sólo tienen un interés claramente científico, sino que podrían incidir de modo decisivo en el futuro de nuestro mundo en cuanto a la disponibilidad de energía, en la viabilidad de la supervivencia de la humanidad y en la relación que mantengamos con el resto del sistema de vida que, gracias al Sol, existe en nuestro planeta.

Los números del sol


En promedio, el diámetro del Sol es igual 109 veces el diámetro de la Tierra, y su volumen es de un millón 300 mil veces el de nuestro planeta. La gravedad en su superficie (suponiendo que pudiéramos posarnos en ella sin volatilizarnos) es de casi 30 veces la que hay en nuestro planeta, de modo que una famélica supermodelo de 50 kilos pesaría 1500 kilos allí. La temperatura de su corona es de 10 millones de grados y está compuesto fundamentalmente de hidrógeno (73.46 %) y el helio en el que se convierte el hidrógeno al fusionarse (24.85 %). Al ritmo de actividad nuclear actual, el Sol seguirá estable unos 4 mil millones de años más, después de lo cual ocurrirá, cumpliendo tardíamente las teorías apocalípticas, el fin del mundo.

Microbios para curarnos

La entrada de algunos microbios a nuestro organismo puede ser beneficiosa, no sólo por lo que nos pueden dar, sino por ser ideales para luchar contra otros microbios que nos ocasionan diversas enfermedades.

El descubrimiento de Pasteur que identificó a los microbios como causantes de numerosas enfermedades y fundó la medicina científica, ha tenido tal trascendencia para la salud humana, que con gran frecuencia la palabra misma "microbio" ha adquirido connotaciones negativas, como si todas las formas de vida microscópicas o unicelulares fueran, por definición, nocivas para la salud y la vida humanas. La enorme variedad de afecciones provocadas por bacterias y virus, así como el hecho de que precisamente estas afecciones son las que se transmiten por contagio (a diferencia, digamos, de los desarreglos fisiológicos como la diabetes o los problemas congénitos como el paladar hendido) explican esto con facilidad, pero ciertamente tal percepción deja fuera gran parte de la historia.

Es imposible aislarnos de las formas de vida con las que convivimos, tanto los microbios como otros muchos seres (incluidos los ácaros que, por millones, viven en nuestros sofás, en nuestros colchones, en nuestras moquetas y en nuestras almohadas) a menos que viviéramos como el famoso "niño de la burbuja", cuya total falta de defensas lo obligó a vivir en un aislamiento total hasta su muerte debida, precisamente, a una infección vírica inesperada en la médula ósea que se le había trasplantado de su hermana esperando así ayudar a que desarrollara el sistema inmunológico del que carecía.

El sistema inmunológico de los seres humanos es, precisamente, el que nos permite vivir en un mundo infestado por terribles microbios. Un experimento sencillo con una caja de Petri esterilizada, que abramos durante unos minutos en nuestra casa, nos mostrará en pocos días un panorama aterrador: el crecimiento de numerosas variedades de microorganismos, algunos causantes de graves enfermedades que, sin embargo, no sufrimos porque nuestro cuerpo puede manejarlos en las pequeñas cantidades en las que están presentes a nuestro alrededor. Pero allí están, siempre. De hecho, tenemos más bacterias viviendo dentro de nosotros que células en nuestro propio cuerpo. Nuestro aparato digestivo, especialmente los intestinos y muy particularmente el intestino grueso o colon, alberga a cientos de billones de bacterias pertenecientes a entre 300 y mil especies distintas. Estas bacterias se benefician de nuestros alimentos, ciertamente, pero al mismo tiempo nos ayudan a aprovecharlos mejor (por ejemplo, descomponiendo alimentos que no podemos digerir de otro modo. como algunos polisacáridos o azúcares complejas, y ayudándonos a absorberlos), a estimular el crecimiento celular, a impedir el crecimiento de bacterias que sí son dañinas, a enseñar a nuestro sistema inmunológico a responder sólo a los gérmenes patógenos, a evitar algunas alergias y a defendernos de algunas enfermedades.

Esas bacterias intestinales, o flora intestinal, no son parásitos ni comensales, sino que mantienen una relación mutualista con cada uno de nosotros. Son "buenos microbios" que viven y se multiplican en nuestro interior, y han recibido el nombre de "organismos probióticos" o microbios buenos. La palabra "probióticos" fue definida por la OMS en 2001 como "microorganismos vivos que, al ser administrados en cantidades adecuadas, confieren un beneficio de salud al anfitrión". Es decir, no se limita a las bacterias que ayudan a nuestra flora intestinal, en especial las pertenecientes a la familia de los lactobacilos, muy presentes hoy en la publicidad. En un informe de junio de 2006, la Sociedad Estadounidense de Microbiología publicó un informe en el que considera a los microbios probióticos como una de las mayores promesas de la medicina para llevar a cabo la curación más eficaz o más rápida de numerosas afecciones.

El informe, que lleva el título Microbios probióticos, las bases científicas señala: "Teóricamente, se podrían usar microorganismos benéficos para tratar una gama de afecciones clínicas que se han vinculado a los patógenos, entre ellas problemas gastrointestinales como el síndrome de intestino irritable y las enfermedades intestinales inflamatorias (por ejemplo, la colitis ulcerante y la enfermedad de Crohn), enfermedades orales como la caries y la enfermedad periodontal, y varias otras infecciones, incluidas las vaginales y, posiblemente, las de la piel. Los probióticos también podrían utilizarse para evitar enfermedades o combatir desórdenes autoinmunes".

Aunque algunas de estas posibilidades apenas están siendo estudiadas actualmente en laboratorios de distintos países, el salto que podrían representar para la medicina, especialmente conforme el mal uso de los antibióticos presenta dificultades crecientes para el control de algunas afecciones debido a que los gérmenes que las causan se han vuelto inmunes a cada vez más productos farmacéuticos. Igualmente, en veterinaria podrían reducir la cantidad de medicamentos que se administra a los animales cuyos productos o carne consumimos los seres humanos.

La investigación que se desarrolla hoy en día se basa en ejemplos ya probados, como el uso de bacterias y levaduras para reducir episodios de diarrea producida tanto por el rotavirus como por algunas otras bacterias, lo cual se confirmó apenas en 2005. En ese mismo año, una serie de estudios clínicos validó la idea de que algunas variedades de lactobacilos resultaban efectivos en el tratamiento de infecciones del tracto urinario y vaginales.

Algunos usos potenciales de los microbios benéficos están, por ejemplo, en el uso de bacterias probióticas para desplazar a variedades de bacterias patógenas resistentes a los antibióticos, en el control de las capacidades de degradación de nutrientes de la flora intestinal para conseguir una mejor absorción de los nutrientes adecuados sin provocar aumentos de peso no deseados, la degradación o digestión de sustancias químicas potencialmente dañinas (como los venenos a los que pueden estar expuestos crónicamente algunos obreros), entre otros.

Así, compitiendo (con ventaja) contra los microbios patógenos, los probióticos pueden convertirse en una de las grandes armas de la salud en un futuro no muy lejano.

El miedo al microbio


Identificar a todos los microbios incorrectamente como nocivos puede generar una gran angustia en algunas personas, cuyo caso extremo es la llamada "microbiofobia" o "bacilofobia", un temor irracional a los microbios y a las infecciones. Dos ejemplos famosos de esta afección son el cineasta, aviador y millonario Howard Hughes, quien vivió sus últimos años atenazado por el miedo a los gérmenes patógenos y, aparentemente, el antiguo rey de la música pop, Michael Jackson.

CSI: realidad y fantasía

La criminalística se ha beneficiado enormemente de la ciencia... pero no tanto como quisieran los guionistas de cine y televisión.

Para muchas personas, la moderna criminalística tiene su punto de inflexión en 1866, no con un acontecimiento policiaco, sino con un hecho literario trascendente: la publicación de Estudio en escarlata, de Arthur Conan Doyle, la primera novela que protagonizaría Sherlock Holmes. En el primer capítulo, cuando el doctor Watson es llevado a conocer al detective como posible compañero de piso, lo encuentra gritando "¡Lo he encontrado! ¡Lo he encontrado!", refiriéndose al descubrimiento de una sustancia química que reacciona solamente en contacto con la hemoglobina y con ninguna otra sustancia. En la ficción, Holmes había dado el primer paso para determinar con certeza si una mancha era producto del óxido, de pintura, de salsa de tomate o de sangre, que viene siendo el primer paso para llegar a la actual identificación por ADN.

La investigación criminal se ha apoyado cada vez más en la ciencia para poder reconstruir los hechos y resolver sus casos. Hoy parece inimaginable que se realizaran investigaciones sin estudios sobre el rayado de los cañones de rifles y pistolas, sin análisis químicos de sustancias, sin fotografías, sin identificación de huellas dactilares, sin nada más que las siempre poco confiables afirmaciones de testigos o las suposiciones más o menos vagas que llegaron a lanzar a la hoguera a miles de inocentes acusados de herejías y brujerías diversas. La sola idea del CSI, la investigación de la escena del crimen, ha casi sustituido al policía de gatillo ligero.

El médico escocés Henry Faulds señaló en 1880 que las huellas dactilares eran individuales y no cambiaban a lo largo de la vida, y sugirió que las huellas de grasa dejadas por los dedos podrían usarse para identificar científicamente a los delincuentes. Sin embargo, cuando propuso este método a la policía metropolitana de Londres, no encontró eco. Fue hasta 1892 cuando el policía argentino Juan Vucetich, basado en el trabajo del científico multidisciplinario Francis Galton, utilizó una huella digital para demostrar la culpabilidad de Francisca Rojas en el asesinato de sus dos pequeños hijos. Poco después, los departamentos de policía de todo el mundo ya recopilaban huellas dactilares de delincuentes y perfeccionaban sistemas para recoger, resaltar y conservar las huellas halladas por los investigadores. Hoy incluso es posible obtener impresiones útiles de los dedos de cadáveres en avanzado estado de descomposición o recuperar huellas de superficies como el papel, además de rescatar impresiones digitales de gran antigüedad.

Las pruebas de ADN para uso forense fueron desarrolladas apenas en 1984 por el genetista inglés Alec Jeffreys, de la Universidad de Leicester. Estas pruebas no sólo implicaban la identificación o perfilado de una persona por su ADN, sino la forma de obtener ADN de manchas antiguas y un proceso complejo para la separación del semen y las células vaginales, lo que permitía el uso del sistema en casos de violación. La identificación por ADN se empleó por primera vez en un tribunal para condenar al asesino y violador Colin Pitchfork en el propio Leicester en 1988, y también para exonerar al primer acusado del crimen, Richard Buckland. El impacto de esta nueva herramienta es difícil de valorar, no sólo por la enorme cantidad de delincuentes descubiertos debido a ella, sino principalmente por la gran cantidad de inocentes cuyas afirmaciones de no culpabilidad han sido finalmente reivindicadas, en ocasiones después de purgar largas penas de cárcel. Las pruebas de ADN son tanto o más confiables que las huellas dactilares.

La informática ha representado un importante apoyo al trabajo de la investigación policiaca. Simplemente las enormes bases de datos recopiladas y la facilidad que los ordenadores ofrecen para hacer búsquedas en ellas bastan para plantear una realidad totalmente nueva en el terreno de la investigación de los delitos, una diferencia quizá tan grande como la que marcó la llegada del microscopio a los terrenos policiacos. Igualmente, la informática es un excelente auxiliar en el análisis de sustancias diversas, tendencias estadísticas y, por supuesto, imágenes. Sin embargo, no existe, por desgracia, el ordenador, o el programa de ordenador, que pueda realizar las hazañas de los que nos ofrece la ficción. Una imagen digital tiene un número determinado de píxeles en su superficie, y esos píxeles o puntos de información visual representan la resolución de la imagen. Acercarse a una imagen más allá de su resolución natural la convierte en una colección de puntos que no ofrecen más información al observador. Sin embargo, los ordenadores casi mágicos del cine y la televisión consiguen hacer acercamientos imposibles, reconstruyendo de modo mágico la información que originalmente no estaba allí, para regocijo del público y molestia generalizada de informáticos, fotógrafos, artistas digitales y videógrafos por igual.

¿Y la sustancia ficticia de Sherlock Holmes, el agente químico que reaccionaba en presencia de la hemoglobina? Lo más parecido que tiene la criminalística actual es el luminol, frecuente actor en las series y películas policiacas. Descubierto en 1928 por el químico alemán H.O. Albrecht y cuyas propiedades como detector de sangre fueron señaladas en 1936, es una sustancia que emite una débil luz azul cuando está en contacto con manchas de sangre. Como el reactivo de Holmes, puede detectar una parte de sangre entre un millón de otra sustancia, pero no es tan infalible como el producto literario del siglo XIX, ya que también emite luz al estar en contacto con metales como el cobre, las aleaciones de cobre, algunas formas de lejía... y el rábano picante. Sigue siendo, pues, menos confiable que la sustancia que el detective británico había encontrado en las primeras páginas de su saga.

El renacer de un rostro


Si bien algunos aspectos de la criminalística, como la entomología forense, han dado lugar a famosas películas (como El silencio de los corderos), pocas especialidades son tan inquietantes como la identificación forense. Con base en los conocimientos de la anatomía y fisiología de la cabeza humana, un experto en identificación forense puede tomar un cráneo totalmente descarnado y recrear sobre él el rostro que tuviera su dueño en vida. El grosor de las distintas capas de tejido que sabemos que tenemos permite una reconstrucción con una exactitud absolutamente asombrosa, que ha permitido la identificación de numerosas víctimas y que ha tenido el beneficio adicional de permitirnos ver el rostro que debieron tener personajes de la historia como el propio Tutankamón, sometido hace poco tiempo a una reconstrucción facial forense.

Hombre y perro: extrañas complicidades

Dos especies protagonizan la asociación más peculiar de la naturaleza en la Tierra. El hombre y el perro se han moldeado mutuamente de formas que apenas estamos descubriendo.

"Muchacho con un perro" cuadro de Bartolomé
Murillo. Museo del Hermitage. (Imagen vía
Wikimedia Commons)
El pacto entre el hombre y el perro, según nos dicen estudios de ADN de perros y lobos realizados entre 1997 y 2002, puede haber comenzado hace cien mil años, aunque ya se encuentran poblaciones de lobos asociadas con restos de homínidos hace 400 mil años. En todo caso, hace algo menos de 20 mil años la domesticación ya estaba consolidada. La variación genética del perro, además, parece señalar que la domesticación ocurrió muchas veces, en distintos lugares, con distintas subespecies de lobos que coexistían con grupos humanos con los que, suponemos, competían antes de descubrir los beneficios que comportaba el asociarse y hacer algo tan desusado como compartir. Así el hombre ya tenía perros con los que compartía la vida en África, en Europa y en Asia, y llegó con ellos al continente americano, hace al menos 15 mil años. El aprecio por el perro lo demuestran los entierros ceremoniales de estos animales que ya se encuentran en Dinamarca durante el mesolítico.

El proceso de domesticación del perro tiene, según se desprende de los estudios zoológicos, una extraordinaria similitud con el proceso de "humanización" (por decirlo de algún modo) de nuestros ancestros primates. Fue el etólogo (estudioso del comportamiento natural) Desmond Morris quien difundió, en su libro esencial El mono desnudo el descubrimiento de que nuestra especie había sufrido un proceso llamado neotenia en el cual ciertas características infantiles se prolongan en el tiempo, manteniéndose presentes durante gran parte de la vida del individuo… o incluso para siempre. Ciertamente somos la especie con la infancia más larga, y en muchas formas es desusado que nuestras crías sean tan tremendamente indefensas durante tanto tiempo, tiempo que se necesita, según los zoólogos, para poder aprender lo suficiente.

Un rasgo infantil de prácticamente todos los animales superiores es el juego, la capacidad de divertirse que el ser humano de nuestros días conserva a lo largo de toda su vida. Más allá de casos de amargura notables, incluso los más ancianos se divierten, ríen, disfrutan los deportes o juegan, ya sea a las cartas o con sus nietos, exhibiendo una conducta que no tienen la mayoría de los demás animales. El perro, en su proceso de domesticación, también fue sometido, suponemos que por los propios seres humanos con los que se asoció, a un proceso de neotenia. El perro adulto comparte numerosas características infantiles de las crías de lobo, entre ellas precisamente la capacidad de disfrutar del juego hasta las etapas más avanzadas de su vida.

La asociación del hombre y el perro es sumamente lógica si se analiza únicamente desde el punto de vista de la supervivencia. Para el ser humano, el perro era igual el guardían en la noche que el aliado con velocidad singular en la cacería o el socio capaz de detectar olores que eran imposibles de apreciar para el primate (animal esencialmente visual), mientras que para el perro (o para el lobo que eventualmente se convertiría en perro), el hombre era una certeza de alimentación mayor que la que tenía la manada sola, una mayor protección contra las inclemencias del clima alrededor de la fogata de la tribu o clan y la posibilidad de contar con un socio de vista mucho más aguda que la propia.

Sin embargo, la asociación de una manada de lobos con una tribu o clan humano (o prehumano) sufrió en algún momento una transformación absolutamente radical, dando como resultado una relación individual, de un perro a un ser humano. En este proceso, quizá lo que más llama la atención es la forma en que los miembros de cada una de las especies trata al otro. Para el perro, su "amo" (palabra desafortunada si las hay) es parte de su manada. Más aún, el humano preferido es tratado, en la gran mayoría de las ocasiones, exactamente de la misma manera en que la manada trata al macho o hembra alfa (los jefes de la manada de lobos). Por su parte. El ser humano considera a "su" perro en muchísimas ocasiones como un miembro más de la familia, no sólo en el trato cotidiano sino, sobre todo, en los sentimientos que alberga por el animal que lo acompaña. La expresión de los sentimientos, según algunos zoólogos, ha sido también seleccionada por el ser humano como parte del proceso de domesticación. Así tenemos la llamada "sonrisa del perro", con el hocico entreabierto, los labios relajados (no mostrando los dientes para amenazar), jadeando ligeramente y con la lengua descansando sobre los dientes inferiores. En los perros con orejas rectas, el mantenerlas enhiestas, sin echarlas para adelante buscando una amenaza ni hacia atrás preparando la lucha (se aplanan con objeto de protegerlas de los mordiscos), se considera también la "sonrisa del lobo".

Si bien los clubes caninos hablan de 800 "razas", desde el punto de vista genético no es posible distinguir tales razas de perros (como no se distinguen las supuestas razas humanas). El perro es una simple subespecie del lobo, y es que, más allá de las dificultades mecánicas que puedan presentarse entre tipos de perros muy pequeños y muy grandes, todos los 800 tipos o razas de perros que existen en el mundo pueden cruzarse entre sí, y todos pueden cruzarse con los lobos.

Sí, dentro de ese pequeño caniche, maltés, Yorkshire terrier o chihuahueño hay un lobo, un lobo tan orgulloso, tan libre y tan admirable como el de las novelas de Jack London, aunque tenga el disfraz de un juguetón animalillo. Y basta hacerlo enfadar para ver que en sus ojos brilla el lobo que es en realidad.

¿Ataque o defensa?

Los ataques de perros, con frecuencia atribuidos a "razas peligrosas", pueden ser resultado de un simple problema de comunicación. Algunos comportamientos inocentes que pueden ser mal entendidos por un perro incluyen mirar a un perro fijamente a los ojos puede disparar un ataque ya que se trata de una mirada dominante, propia del macho alfa, y se considera un reto si la usa un miembro inferior de la manada. La mirada fija es más peligrosa si se hace a la altura de los ojos del perro, como pueden hacerlo los niños pequeños. Es especialmente peligrosa una acción en apariencia muy inocente: acercarse a un perro desconocido con la mano extendida palma abajo sobre su cabeza para acariciarlo. Por ello, los expertos recomiendan que al acercarse a un perro desconocido se incline, no lo mire fijamente a los ojos y le ofrezca la mano con la palma hacia arriba, por debajo de la altura del hocico del animal. Así, no percibirá amenaza alguna y, además, su curiosidad natural lo empujará a investigar qué lleva en esa mano tan poco amenazante.

Lo que sabían los antiguos

Cierto culturocentrismo en ocasiones nos hace creer en el mito de los "salvajes primitivos" y suponer que toda cultura antigua era ignorante.

El mecanismo de Antiquitera, uno de los
objetos a los que la ignorancia sobre el
conocimiento de los antiguos le atribuye
orígenes misteriosos.
(Imagen GFDL vía Wikimedia Commons)
Un argumento frecuente utilizado para defender ideas más o menos extravagantes es, simplemente, que los pueblos antiguos "no podían" haber hecho tales o cuales cosas: cortar y trasladar grandes bloques de piedra (para hacer las pirámides de Egipto, por ejemplo), orientar con exactitud astronómica una edificación (como Stonehenge o Abu Simbel), cruzar mares sin modernos métodos de navegación (digamos, para poblar Australia) y un largo etcétera.

Es un hecho que en la enseñanza de la historia, con frecuencia la enumeración de gobernantes, guerras y batallas suele sacrificar en nuestras escuelas el conocimiento de las civilizaciones antiguas. Si se toca algún punto, como la filosofía griega o el conocimiento matemático de los mayas, es de paso, sin profundizar en lo que conformaba el universo del conocimiento en la vida cotidiana de nuestros ancestros.

La astronomía es una de las grandes incomprendidas por muchas personas que hoy en día persisten en hallar "increíble" que muy antiguas culturas conocieran perfectamente su situación geográfica y astronómica sin contar con un modelo viable del universo. Y sin embargo, todas las culturas que dieron el paso del nomadismo al sedentarismo lo hicieron con base en la astronomía. Dicho de otro modo, si no hubieran sabido astronomía, no habrían podido dedicarse a la agricultura. El conocimiento de las estaciones, y por tanto de la orientación norte-sur, así como el recuento del año, son requisitos esenciales para establecer una sociedad agrícola. Y dado que todo el ciclo de las cosechas parece depender de las posiciones de los astros respecto del sol, ¿es acaso extraño que estas culturas pretendieran ajustar sus construcciones rituales a lo que veían ya como un cierto orden universal, por mucho que estuviera teñido de variadísimas creencias teístas?

Para los antiguos egipcios, por ejemplo, el norte era un espacio vacío circundado por dos estrellas, las que hoy llamamos Kochab y Mizar, y cuya alineación marcaba el "norte verdadero"… o al menos lo hizo durante algún tiempo alrededor del 2480 a.C., fecha calculada para la construcción de la pirámide de Keops. Hoy, el norte está marcado por la estrella Polaris, nuestra "estrella del norte", pero esto también cambiará, dado que el eje terrestre se "tambalea" en su viaje por el espacio, y por tanto las estrellas que ayudan a ubicar el norte cambian en un ciclo de unos 26 mil años.

La astronomía se basa en matemáticas y geometría, sin ellos no hay más que cálculos "a ojo" y poca precisión para saber cuándo empezar a plantar, por no hablar de los problemas de agrimensura que no sólo se refieren a la propiedad de la tierra, sino a temas tan delicados como la cantidad de semilla necesaria para garantizar una buena cosecha en una parcela determinada. Un pequeño error de cálculo podía ser la diferencia entre el bienestar general o la muerte por hambruna. Esto evidentemente da a los números una gran importancia y un aspecto místico que llevó a que, en algunas culturas como la maya, los matemáticos y los sacerdotes fueran unos y los mismos.

Uno de los motivos de la incomprensión respecto de las civilizaciones antiguas es la presunción de que sus intereses y visiones debían ser similares a los nuestros. Por ejemplo, en principio suena inviable que los antiguos griegos conocieran la energía del vapor, pero no por considerarlos ignorantes o incapaces, sino porque no la utilizaron para lo que nuestra civilización la utilizó: sustituir a trabajadores costosos y rebeldes para mejorar las utilidades y masificar la producción. El problema es que la economía de las ciudades-estado de la antigua Grecia estaba basada en el trabajo esclavo (cosa que nuestra admiración por sus logros intelectuales con frecuencia deja a un lado), de modo que los trabajadores no eran ni caros ni, mucho menos, rebeldes. Por otra parte, el tipo de mercancías que permitían obtener grandes ingresos no eran susceptibles de producción en masa, y la idea de sustituir al hábil artesano (frecuentemente esclavo) por una línea de montaje no tenía mucho sentido. Por tanto, cuando el genial Herón de Alejandría (inventor también del odómetro, estudioso de la neumática y la óptica, y matemático destacado) inventó la eolípila o turbina de vapor primitiva en el siglo I de nuestra era, resultó una diversión interesante, pero no se le dio aplicación industrial y fue olvidada. Algo similar ocurre con dos productos chinos tradicionales. Durante siglos, en China se usaron linternas de papel para crear pequeños globos de aire caliente. Igualmente, los chinos contaban desde más o menos el 400 antes de nuestra era con un juguete infantil llamado "libélula de bambú": un palito con una hélice en el extremo, que salía volando como un helicóptero cuando el niño hacía girar rápidamente el palito entre las manos abiertas.

Algunas civilizaciones tienen logros verdaderamente asombrosos que se ven opacados por la idea popular de su retraso. Por ejemplo, hay culturas fabulosas capaces de hacer trabajos de orfebrería primorosos o imponentes (incas, mesoamericanos, egipcios), fundiendo el oro a 1064 grados centígrados... cuando no utilizaban el bronce, que se obtiene haciendo una aleación de estaño con cobre, y que sólo requiere 20 grados centígrados más que el oro para fundirse.

Y es que, como podemos ver a nuestro alrededor si sabemos hacerlo, en la actualidad no usamos máquinas distintas de las ya conocidas por los babilónicos: palancas, poleas y planos inclinados. Nuestras palancas y poleas pueden expresarse en altísimas grúas de construcción accionadas por electricidad, pero sus principios son los mismos que los empleados para construir Ur, Abu Simbel o el acueducto de Segovia. Hoy sabemos muchas cosas más que nuestros antepasados, pero ello no cancela lo que ellos ya sabían, y nuestra tecnología no es sino la extensión de la que elaboraron a partir de cero otras civilizaciones que merecen nuestro asombro porque hoy, prácticamente nadie podría cazar un bisonte, ya no digamos hacer la punta de piedra de la lanza necesaria para la cacería, lo que pone a sus creadores en posesión de conocimientos muy superiores a los nuestros sobre algo tan sencillo como una piedra.

Tecnología de peluquería


Teñirse el cabello tampoco es asunto de reciente creación. A lo largo de toda la historia, ha habido formas de cambiarse el color del cabello que usaron las más distintas culturas. Quizá la receta para hacer "rubias de farmacia" más antigua que se conoce procede de la Grecia clásica, cuyas mujeres empleaban una pomada de pétalos de flores amarillas, una solución de potasio y polvos de color para obtener una coloración rubia en sus cabellos.

La memoria informática

La sobrecarga de información impone nuevas demandas sobre las máquinas que nos sirven y, sobre todo, su capacidad de almacenamiento de datos.

Uno de los primeros, enormes discos duros.
(Foto GFDL de Appaloosa, vía Wikimedia Commons)
Un cálculo sencillo en 1988 hacía creer que un disco duro de 20 megabytes bastaría para guardar toda la producción de un novelista en toda su vida, pues más de 20 millones de caracteres o letras (bytes) bastan para guardar unas 20 novelas de tamaño medio. Pero los discos duros de 20 MB duraron poco, y fueron siendo sustituidos de manera acelerada por dispositivos de almacenamiento de más y más capacidad. Así, hoy, un CD ofrece 700 MB de almacenamiento y un DVD 4.600 MB (o 4,6 gigabytes, donde el prefijo "giga" significa "miles de millones"), mientras que los discos duros de 200 o 300 GB son comunes y ya se empieza a habar a nivel doméstico de "terabytes" o billones de bytes (un uno seguido de doce ceros).

Sin embargo, estas cifras son absolutamente triviales comparadas con las necesidades de almacenamiento de grandes empresas, gobiernos y organizaciones internacionales que gestionan enormes bases de datos, para los que no es nada esotérico tratar con petabytes (mil billones) y mucho más. La "digitalización de la realidad" no se limitó, como podía suponerse en 1988, a la información textual, a letras y palabras, sino que abarca todos los espacios imaginables, en complejas disposiciones de bases de datos que requieren de complejos programas para poder encontrar la información deseada rápidamente. En el área de la imagen, por ejemplo, una cámara fotográfica digital profesional común hoy produce archivos que al procesarse para su impresión ocupan más de 20 megabytes cada uno, es decir, una fotografía de resolución normal ocupa el espacio de una novela, y un fotógrafo profesional puede generar algunos miles de fotografías al año. Y sin embargo hay otras actividades en las que se necesita muchísimo más espacio de almacenamiento, como la animación en 3 dimensiones y los efectos para el cine.

Esta "digitalización de la realidad" está además dejando atrás a gran velocidad al gran medio de almacenamiento de datos antiguo: el papel. Cada vez más, sobre todo en el mundo desarrollado, muchos datos, expedientes, informes, proyectos, certificados, registros y documentos varios ya no tienen existencia "física", sino que existen solamente en el mundo virtual informático que, por ello mismo, necesita grandes capacidades de almacenamiento en espacios pequeños, poco costosos y razonablemente seguros por cuanto a que no se perderán y perdurarán en el tiempo al menos tanto como el tremendamente resistente papel al que están sustituyendo.

El almacenamiento digital masivo se realiza actualmente por dos medios: grabando los "1" y "0" del lenguaje binario en un sustrato de óxido magnético (cintas, discos duros y disketes) o bien creando con un láser pequeñas depresiones o "pits" en una superficie reflejante tintada (CD y DVD). Ambos sistemas llegarán en un momento dado a un límite físico en cuanto a su capacidad de almacenar cada vez más datos en cada vez menos espacio de manera fiable y perdurable.

De hecho, el DVD de doble capa representó el límite máximo de capacidad de almacenamiento de datos en un disco reflejante tintado con el sistema de láser rojo existente que empezó a comercializarse en 1982. Simplemente es imposible que ese láser grabe los datos más apretadamente en un disco. Por ello, en estas semanas se ha dado el lanzamiento de la nueva tecnología "Blu-Ray" de discos del tamaño de un CD o DVD pero que son escritos y leídos por un nuevo láser de color azul violeta ("blu-ray" es una forma de decir "rayo azul"). El láser rojo usado actualmente tiene una longitud de onda de 650 nanómetros o milmillonésimas de metro, mientras que el láser azul violeta tiene una longitud de onda de 405 nanómetros, lo que le permite grabar y leer 25 gigabytes en el espacio en el que hoy caben apenas 5 ó 10 (en el DVD de doble capa). Dicho de otro modo, en un solo disco del tamaño de un DVD se podría tener el equivalente a 25 mil libros, una biblioteca sin duda impresionante.

Pero es en la creación de nuevos sistemas de almacenamiento de datos que vayan más allá de los medios magnéticos y ópticos donde abundan las ideas y las posibilidades de las revoluciones de almacenamiento que vienen. Por ejemplo, en las universidades de Drexell, Pensilvania y Harvard se está trabajando actualmente en nanoalambres de una cienmilésima del grosor de un cabello humano suspendidos en agua que pueden contener casi 13 millones de gigabytes (13 petabytes) en un solo centímetro cuadrado por medios ferroeléctricos que no tienen la fragilidad de los magnéticos. Por su parte, IBM, la empresa donde se inventó el disco duro en 1955, se está trabajando con almacenamiento micromecánico utilizando depresiones realizadas en un polímero por medio de una "punta" de microscopía de fuerza atómica. Esta tecnología promete 1 terabyte por pulgada cuadrada.

Pero el reto máximo de la memoria digital se encuentra en la prueba del tiempo. ¿Cuánto pueden permanecer los datos en un disco duro o un DVD antes de que se deterioren irremediablemente? La misma juventud de estos medios hace que toda respuesta sea en el mejor de los casos un cálculo razonable basado en proyecciones matemáticas y pruebas de envejecimiento acelerado en laboratorio, y en el peor una ocurrencia sin más bases que la imaginación de quien la ofrece. Pero quien quiera que haya grabado sus datos en un "viejo" CD y lo haya tratado de abrir sin éxito dos o tres años después sabe que éste es un problema alarmante considerando la mencionada "digitalización de todo". Se necesita que la memoria permanezca.

Porque estamos hablando de datos que conforman, en este siglo XXI, la memoria colectiva humana, que le estamos confiando a medios de almacenamiento mucho más complejos y, a veces, enigmáticos que la simple hoja de papel donde escribimos los 10 mil años anteriores de nuestra historia.

Memoria atómica


Al iniciar la era de la nanotecnología con una conferencia en 1959, Richard Feynman dijo que todas las palabras escritas en la historia humana podrían guardarse en un cubo de una décima de milímetro por lado, siempre que se escribieran con átomos.

Hace dos años, esta visión empezó a hacerse realidad utilizando un microscopio tunelizador de exploración para levantar átomos en una placa de silicio uno por uno, de modo que los átomos levantados signifiquen "1" y los que se dejan en su sitio signifiquen "0". Si un grano de arena tiene alrededor de 10 mil billones de átomos, ese grano de arena, que finalmente es silicio, tiene la capacidad de almacenar un petabyte, o cien mil discos duros de 100 gigabytes como el que podemos tener en nuestro ordenador. Y tenemos datos suficientes para llenar ese grano de arena y muchos más.

Los motivos de la estación espacial

Por fin el hombre tiene una estación espacial. Pero es legítimo preguntar ¿para qué la queremos?

El 20 de noviembre de 1998, el lanzamiento del módulo de control Zarya desde el cosmódromo de Baikonur, en Kazajstán, marcó el inicio de un proyecto por el que pelearon numerosas personas de todo el mundo durante décadas: el establecimiento de una estación espacial internacional permanente en órbita terrestre.

Hoy, la estación espacial internacional (ISS) tiene una longitud de más de 140 metros habitables y 240 metros a lo largo de los conjuntos de celdillas solares que le suministran energía, y un peso de más de 183.000 kilogramos. Pero aún así sigue en construcción, y lo estará al menos hasta 2010, como el objeto más masivo que el ser humano ha colocado fuera del planeta, en una órbita a unos 360 kilómetros de la superficie de la Tierra, a la que circunda aproximadamente cada 92 minutos. Pero desde el año 2000 se ha hecho efectivo el sueño de tener presencia humana permanente en el espacio a través de misiones internacionales destinadas, ante todo, a construir y mantener la estación y, cada vez más, a realizar los trabajos de investigación y descubrimiento que son la razón misma de ser de este proyecto.

Al hablar de exploración fuera de nuestro planeta, el recurso más valioso no es, como se pudiera pensar, los minerales que podríamos explotar en el cinturón de asteroides o en Marte (el coste de su transportación volvería cualquier objeto mucho más caro que el platino), sino el espacio mismo.

Nada por aquí, nada por allá
El espacio es "algo" extremadamente extraño que, incluso, difícilmente se puede definir como "algo" ya que depende precisamente de la ausencia de cosas. Pero no es tampoco precisamente la nada, es la esencia del tejido universal que todavía no entendemos. Fuera de la atmósfera de los planetas, fuera de los cuerpos celestes de diversos tamaños, tenemos regiones relativamente vacías a las que llamamos espacio, y que respecto de nuestro planeta comienzan a unos 100-120 kilómetros de altura. Y decimos "relativamente vacías" porque hoy sabemos que contiene diversas moléculas orgánicas, la radiación remanente del "big bang" que demuestra cuál fue el origen de nuestro universo, rayos cósmicos, algo de gas, plasma y polvo.

Pero eso, que parece mucho, es muy poco comparado con lo que tenemos en la superficie del planeta, donde el aire y el agua se encuentran prácticamente en todas partes. Para los astrónomos, por ejemplo, el aire es su peor enemigo en la observación del universo.

Donde no hay aire, y donde la gravedad no tiene los efectos que observamos en la superficie de la Tierra, los objetos y materiales se comportan de maneras muy distintas que en el ambiente al que estamos habituados. Los fluidos, por poner un caso, pueden formar esferas perfectas. Plantas y animales pueden crecer sin estar guiados por la gravedad que informa dónde están "arriba" y "abajo".

Esto hace que en el espacio, en una estación como la ISS, se puedan realizar investigaciones y experimentos literalmente imposibles en tierra. En tales investigaciones y experimentos se tienen previstos trabajos en las más diversas áreas.

La formación de cristales de proteínas de una pureza singular permitirá a los científicos entender mejor las proteínas, enzimas y virus, lo que permitirá encontrar formas más eficientes de atacar diversas enfermedades. Igualmente se tienen previstos trabajos en cultivo de tejidos que pueden usarse, por ejemplo, para probar tratamientos sin correr el riesgo de dañar a los pacientes. Así como los fluidos se comportan de manera peculiar en el espacio, y los metales fundidos, por ejemplo, pueden mezclarse más profundamente en órbita que en la tierra (lo que representa promesas en el terreno de nuevos materiales para aplicaciones como los microchips informáticos) el fuego mismo se comporta de manera peculiar en el espacio, al grado de que las llamas en el espacio han dado lugar a la nueva ciencia de la combustión, empeñada en entender más a fondo cómo se lleva a cabo el proceso de combustión o quemado.

Aprovechar el espacio no significa tampoco olvidar que el espacio también es un enigma, no sólo en su constitución, sino en la forma en que afecta a los materiales que no están en contacto con él habitualmente. El estudio de la exposición de distintos materiales al espacio permitirá mejorar el diseño de las naves espaciales. La falta de gravedad permitirá además importantes trabajos en el terreno de la física fundamental, estudiando fuerzas que en la tierra no pueden aislarse de la gravedad. Y, por supuesto, desde la órbita de la ISS se puede estudiar también nuestro planeta, sus recursos naturales, los efectos de la contaminación o la deforestación o peculiaridades geológicas y meteorológicas que aún están por descubrirse.

Las investigaciones que hoy mismo se están realizando en la ISS, sin embargo, no están siendo llevadas a la atención del público en general. A últimas fechas, importantes experimentos relacionados con la fisiología del equilibrio humano, las pruebas de cristalización de proteínas que ya se están realizando o la filmación de un gran grupo de desusadas nubes azules de gran altura formadas por cristales de hielo, quedan apenas al alcance de los científicos.

Todo ello sin contar el significado que tiene el hecho de haber podido conjuntar a dieciséis países con intereses diversos y, en algunas ocasiones, contrapuestos, en un proyecto común, esfuerzo que ya en 2001 ya obtuvo el Premio Príncipe de Asturias a la Cooperación Internacional.

Y sin embargo, esa estación espacial que ya podemos ver de noche si buscamos en Internet hacia dónde mirar y a qué hora, vale sin duda los 100 mil millones de euros que habitualmente se citan como su coste general, y sin duda tendrá una poderosa influencia en nuestra vida.

El laboratorio "Columbus"


La mayor contribución de la Agencia Espacial Europea a la ISS es el laboratorio Columbus, un módulo cilíndrico de 4,5 metros de diámetro que se acoplará a la estación a mediados de 2007. Columbus está diseñado como una instalación flexible de investigación que podrá ser usada por científicos desde la Tierra o con ayuda de los tripulantes de la ISS para realizar trabajos en biología, fisiología, otras ciencias de la vida, ciencias de materiales, física de fluidos y otras muchas disciplinas aprovechando la falta de gravedad. Puede contener hasta 10 Anaqueles de Carga Estándar, cada uno del tamaño de una cabina telefónica y que funciona como un laboratorio autónomo e independiente que se comunica directamente con sus investigadores que podrán aprovechar sus capacidades en todos los países europeos.

Estudiando el fútbol

Lo detestemos o lo disfrutemos, el fútbol puede enseñarnos algo sobre el hombre social.

Estado Soccer City de Johannesburgo, Sudáfrica
(Foto CC de 2010 World Cup - Shine 2010,
vía Wikimedia Commons)
En un juego de fútbol, donde unos ven la desmedida ambición del negocio o la celebración de la habilidad personal y el trabajo de equipo, hay otros que ven un escenario donde se resume la esencia tribal que tenemos todavía a nuestras espaldas, que apenas hace unos miles de años era la única forma de ser humano.

Una guerra ritual, donde los héroes de la tribu, los campeones, los "davids" y los "goliats" en la persona de Ronaldinho, David Villa o Zinedine Zidane, representan a todos sus seguidores (del equipo o de la selección nacional), los cuales los siguen con los rituales identificativos de la tribu: colores, escudos, himnos, parafernalia que deja muy claro el espacio de existencia de nosotros y la frontera que marca exactamente dónde comienzan ellos, ésos que son los otros, el adversario, el enemigo, el oponente a vencer.

Las reglas nacen de los acuerdos de un "consejo de ancianos" legislativo. Son las federaciones, las confederaciones y la FIFA misma, que sólo responde ante sí misma de sus decisiones, autoritaria y autónoma. Son ellos, junto con otros "ancianos" o personajes principales, los que presiden los partidos: presidentes de equipos, dignatarios internacionales, representantes de las fuerzas políticas y económicas que subyacen al juego.

Quien representa a la ley y la hace cumplir, el poder judicial, también responde únicamente ante el "consejo de ancianos": es el árbitro, el hombre de la última palabra, apoyado en sus asistentes. En el campo de juego no hay democracia, no hay juicios justos con desahogo de pruebas, no hay segunda ni tercera instancia. Como en el pasado humano, la condena es definitiva y, además, la sentencia se ejecuta de inmediato.

Al interior de los equipos, igualmente, no se encuentran para nada los elementos de una sociedad "moderna", la democracia, la horizontalidad en las decisiones, el consenso y el pluralismo. Los ancianos dueños nombran al entrenador como a un general de ejércitos que manda, no pregunta ni da explicaciones si no quiere. Si todo sale bien, será glorificado como César a la vuelta de las Galias. Si no, será sacrificado. Y sus órdenes llegan a la tropa en el campo de batalla precisamente por medio de un capitán, nombre revelador.

Todo esto es parte de lo que etólogos, sociólogos y antropólogos han leído en el juego del fútbol como expresión de una necesidad tribal social que el ser humano mantiene porque la evolución no ha tenido tiempo (ni necesidad, probablemente) de eliminar de su bagaje conductual innatamente determinado o condicionado. Un juego que emula, repite y satisface las mismas emociones que los enfrentamientos tribales en los que lo que se ganaba no era un valor simbólico como una copa, sino tierras, ganado, riquezas reales.

Tales observaciones serían aplicables a muchos deportes, en mayor o menor medida. Sin embargo, el fútbol se distingue por su atractivo universal (descontando a los Estados Unidos) y porque en él parecen estar presentes todos los elementos tribales, de tropa de primates, que la antropología nos dice que fueron la base de la sociedad humana y prehumana durante millones de años.

El etólogo (estudioso del comportamiento natural) Desmond Morris, autor de libros como El mono desnudo, El zoo humano y, recientemente, La mujer desnuda, escribió en 1981 The Soccer Tribe, traducido al español como El deporte rey y que resume esta visión y estas teorías acerca del significado del fútbol. Este libro comenzaba señalando que si una civilización extraterrestre realmente llegara a la Tierra y la orbitara algunas veces para ver sus poblaciones, no podría dejar de notar que en todas las ciudades, e incluso en muchas poblaciones de no muchos habitantes, existen esos rectángulos de hierba rodeados de gradas, todos con prácticamente las mismas medidas, todos con las mismas líneas pintadas, con las mismas estructuras en los extremos… y que generalmente sólo se usan una o dos veces por semana. Es algo que parece totalmente universal, que trasciende a todas las demás diferencias, y algo que ocurría incluso antes de que el fútbol fuera un negocio a los niveles que podemos apreciar hoy en día.

En un mundo de habitantes diversos, de idiomas diversos, de culturas diversas expresadas en su arquitectura más evidente, seguramente le darían a los campos de fútbol una importancia elevada como explicativo de las constantes de nuestra cultura. Algunos científicos consideran que, en tal caso, tales extraterrestres tendrían razón.

Para Morris, el atractivo principal del fútbol yace en dos elementos clave. Primero que nada, la sencillez de sus reglas, pocas y fáciles de entender (y de adaptar) sin demasiadas complicaciones y que dejan abiertas muchísimas posibilidades para el juego. Y, en segundo lugar, el que no hace falta equipamiento, campos especializados y ni siquiera un balón para jugarlo. En su sencillez y, también, en su economía, podría estar al menos parte de la explicación del atractivo generalizado que produce. A esto habría que añadir el nivel de reconocimiento social que obtienen los grandes jugadores de fútbol en todo el mundo. El futbolista triunfador, el campeón de la tribu del fútbol según Desmond Morris, llega al más alto nivel de heroísmo disponible en nuestra sociedad actual, ya sea en su club, en su país o, en algunos casos, a nivel mundial.

Y ésa es la gloria, finalmente, que comparte quien lleva los colores, el escudo, los símbolos tribales del equipo ganador. No ganan ellos, los jugadores, ganamos nosotros, representados puntualmente por nuestros campeones designados. Gana nuestra tribu, porque aunque el trofeo sea totalmente simbólico, su verdadero valor yace en que los otros también lo anhelaban.

Alrededor del fútbol


La antropología y la sociología estudian activamente los aspectos del fútbol que reflejan o expresan a sus sociedades: la pasión futbolística en Brasil, los hooligans y su violencia asociada, el fútbol como puerta de salida de la pobreza y la marginación, el fútbol como catalizador de odios nacionales (cuya expresión más clara fue la "Guerra del fútbol" entre Honduras y El Salvador, no ocasionada por este deporte, pero en la que contribuyeron las eliminatorias para México 1970) y otros muchos aspectos. El hecho es que el fútbol está tan presente en tantos aspectos de la vida de las sociedades donde se juega que resulta tierra fértil para que las ciencias sociales se ocupen de él intentando resolver un enigma triple: qué dice el fútbol de nosotros como animales sociales, qué le ha inyectado nuestra sociedad a este deporte en particular y por qué, en resumen, tantos miles de millones encuentran pasión, alegría y profundo interés en el discurrir de un balón… excepto en Estados Unidos.

La traición del rostro

Cuando el mentiroso sabe que lo es, tiene su forma de decírselo a los demás, si saben verlo.

En un experimento, se les mostraron a varias personas dos fotografías en apariencia idénticas del rostro de una persona y se les preguntó cuál les resultaba más atractiva. Pese al parecido, la gran mayoría de las personas eligió una de las dos fotos. La poco evidente diferencia entre ambas imágenes es que a la que resultó "favorita" se le habían retocado las pupilas para que se vieran más grandes, más dilatadas, y esto era interpretado favorablemente por el espectador.

La psicología tardó mucho en establecer científicamente lo que ya sabían los mercaderes de varias culturas hace siglos: el diámetro de las pupilas no es sólo función de la luz, sino que también tiene un componente emocional. Cuando algo nos desagrada, las pupilas se contraen, pero si algo nos agrada, se dilatan. Esto ha sido usado por los comerciantes para saber hasta dónde pueden regatear el precio de un artículo. Si las pupilas del cliente se dilatan notablemente, parten de la idea de que estará dispuesto a pagar más por el artículo que si no lo hicieran.

En el caso de las dos fotografías el experimento, el espectador interpretaba que la fotografía de la persona con las pupilas dilatadas era preferible precisamente porque en ella la persona parecía hallar más agradable nuestra presencia que en la fotografía de junto, donde las pupilas estaban contraídas en señal de rechazo.

Esta reacción, como muchos otros gestos humanos, es totalmente innata y no depende de la cultura. Del mismo modo, la sonrisa, el llanto, la expresión de tristeza, la expresión de furia y la de asco o la reacción de saludar a un conocido levantando las cejas son comunes a todos los seres humanos, sin importar su cultura, su idioma o su religión. Como contraparte, otros gestos como el asentimiento (mover la cabeza arriba y abajo, o a los lados) dependen únicamente de la cultura.

Es lógico que la expresión del rostro sea innata porque era la forma esencial de comunicación entre los prehumanos antes de la aparición y desarrollo del lenguaje, ya que un malentendido de expresión facial podía ser desastroso para el individuo y para la manada. Y por eso tampoco es raro que, también, el control de la expresión de nuestras emociones se parte de nuestra educación: no reírse en momentos determinados, no llorar en público, controlar el enojo (o al menos que no se note) son actos considerados útiles para enmascarar lo que realmente sentimos.

Ese ocultamiento es una forma de mentir, y el ser humano siempre ha deseado saber cuándo uno de sus prójimos miente. Para detectar la falsedad se han propuesto herramientas como el polígrafo, mal llamado detector de mentiras, que mide algunas variables (resistencia eléctrica de la piel, pulso, tensión arterial, frecuencia respiratoria) sobre la suposición de que todos esos aspectos se alteran cuando mentimos. Si bien esto es cierto en principio, en realidad esos aspectos también se pueden afectar por muchísimos otros factores emocionales y fisiológicos que nada tienen que ver con la mentira, mientras que un mentiroso frío y controlado puede decir las mayores barbaridades sin que tales aspectos sufran alteraciones.

Ahora parece que la mejor forma de determinar, con algún grado de certeza razonable, si alguien miente es volver a nuestros orígenes genéticos: mirar la expresión de quien habla. Más allá de ciertos lugares comunes o tópicos (como el que quien miente "desvía la mirada"), los psicólogos experimentales han podido dar con indicadores clave mediante los cuales el rostro "traiciona" mediante sus expresiones al mentiroso. Paul Ekman, por ejemplo, uno de los mayores expertos en la mentira y las expresiones faciales, señala que hay movimientos faciales que no son voluntarios en lo más mínimo, como el estrechamiento de los labios que se da en momentos de furia, y que difícilmente se pueden hacer voluntariamente, de modo que quien finge estar enojado no muestra esta característica clara de una emoción genuina.

Estos "signos conductuales" precisos de las emociones que realmente experimenta el sujeto son considerados "fiables" por su complejidad, aunque Ekman no deja de notar que también se pueden falsificar si el mentiroso acude a técnicas como el "método Stanislavski" de la actuación, en el cual el actor evoca en su interior la emoción real en lugar de tratar de imitar sus signos externos. Así, para fingir que estamos "furiosos" contra una persona, podemos evocar nuestra furia contra otras cosas, otra persona, ciertas ideas, etc. Aún así, para 1991, las mediciones de Ekman podían detectar al 85% de los mentirosos (en el caso de mentiras en las que se jugaba algo importante: matrimonios, dinero, cárcel, etc., pues el miedo a ser descubierto también lo revelan las expresiones). Ekman diseño un sistema de numeración de las posiciones de distintos músculos faciales según la emoción a la que corresponden.

El psicólogo social Mark Frank, colaborador de Ekman en varias investigaciones, ha clasificado los micromovimientos involuntarios de los 44 músculos faciales del ser humano, identificando patrones de "microexpresiones" como los de mentira, engaño, tensión o desconfianza, y, utilizando la numeración de Ekman, ha generado en la Universidad de Buffalo un programa informático capaz de leer tales microexpresiones y valorarlas.

Según Science Daily, el propio Frank se apresura a aclarar que una o muchas microexpresiones, por sí mismas, no prueban nada, sólo son indicaciones valiosas y siempre en el contexto de otros signos conductuales. Y más allá de su programa informático, sus experiencias y conocimientos hoy sirven para que profesionales de las fuerzas de seguridad fortalezcan sus capacidades de detectar mentirosos. Porque, en realidad, el mejor detector de mentiras siempre ha sido el ser humano, capaz de evaluar e interpretar las expresiones de sus congéneres con gran velocidad y precisión. Y, ayudados del conocimiento de la psicología social, los más interesados en descubrir mentirosos pueden realizar un trabajo más efectivo determinando cómo nuestro rostro puede traicionar nuestras peores intenciones

¿Qué es la mentira?


El primer desafío para estudiar algo es definirlo, y definir la mentira no es tan sencillo como parece. La mentira que estudian científicos como Ekman y Frank no tiene nada que ver con el autoengaño, ni con las equivocaciones, ni con la confusión, ni con la actuación, sino con el deseo consciente de engañar a otro sumado al hecho de que el otro no debe saber que se le trata de engañar. Como ejemplo, Paul Ekman dice: "Un mago, según este criterio, no es un mentiroso, pero Uri Geller es un mentiroso, porque Geller afirmaba que sus trucos no eran ilusionismo. Un actor no es un mentiroso, pero un impostor sí lo es.