Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Alrededor del sol

El dios al que no se podía ver de frente sin quedar ciegos es para nosotros hoy la estrella más cercana, responsable de la vida en nuestro planeta y, todavía, una fuente de asombro.

El Sol es quizás la presencia más abrumadora en la existencia en nuestro planeta. Su calor y luz de día, y los drásticos efectos de su ausencia de noche, fueron sin duda asunto clave para los primeros hombres que abandonaron el nomadismo por una vida sedentaria con bases agrícolas. La misma semilla, plantada a la sombra, no germinaba ni se desarrollaba como otra sembrada al Sol, lo que parecía decir que la luz del Sol-padre en el vientre de la tierra-madre se unían para darnos alimento con alguna certeza, cosa nada despreciable para grupos que durante milenios dependieron de encontrar a tiempo los animales y plantas que comían. Unos cuantos días sin cacería y sin recolección bastaban para condenar a muerte a todo un grupo humano o prehumano, mientras que la cosecha era mucho más predecible siempre que se reuniera un conocimiento astronómico suficiente como para conocer las estaciones y sus variaciones a lo largo del año.

No es extraño, por tanto, que desde los inicios del pensamiento el Sol haya ocupado un lugar igualmente central en las preocupaciones humanas. Un extremo de esta pasión solar lo dan sin duda los aztecas o mexicas, pueblo convencido de que su misión era garantizar que el Sol volviera a salir todos los días, y que para conseguirlo lo alimentaban con sacrificios humanos que le daban la fuerza necesaria para volver. Los aztecas estaban seguros de que su desaparición como pueblo significaría el fin del ciclo solar y la muerte de todo ser vivo en la tierra. En esa cosmología, el sacrificio de algunas vidas no parecía un elevado precio a pagar para garantizar la vida de todos los demás seres.

En occidente, fue Anaxágoras el primero que abandonó las explicaciones teísticas para proponer que, en lugar del carruaje de Helios, el Sol era una bola de metal incandescente de enormes dimensiones (o, al menos, más grande que el Peloponeso). Esta idea hizo que Anaxágoras fuera arrestado, enjuiciado y condenado a muerte, sentencia que no se cumplió gracias únicamente a la intervención de Pericles. Estos malos ratos no son infrecuentes en la historia de la observación y el estudio del Sol, como lo atestiguarían después Copérnico y Galileo al defender que los planetas giraban alrededor del Sol y no de nuestro planeta. Sin embargo, los herederos de estos astrónomos continuaron desvelando hechos acerca de nuestra estrella

Los acertijos de la posición y el tamaño del Sol, sin embargo, no eran nada comparados con el que presentaba la energía que emite en forma de luz, calor y, como se fue descubriendo, de radiaciones de otro tipo, como los rayos X y los gamma. La resolución de ese problema hubo de esperar a que la física atómica y nuclear habían emprendido su camino de desarrollo, cuando Hans Bethe, en artículos de 1938 y 1939, calculó las dos principales reacciones nucleares que generan la energía solar y confirmó la idea de que nuestra estrella, el antiguo dios Sol, era un horno de fusión nuclear de dimensiones asombrosas.

Algo más de tiempo hubo de esperar la pregunta de cómo nació nuestro astro. Hoy, los datos acumulados por los astrónomos sugieren que el Sol y todo el sistema solar se formaron hace unos 4.500 millones de años a partir de una masa de gas estelar que debido a la gravedad se fue acumulando en conjuntos o agregaciones: una central, el Sol, la mayor, donde los procesos físicos llevaron al inicio de una reacción de fusión nuclear, convirtiéndola en una estrella, y otras más pequeñas que formaron los planetas, incluido el nuestro. La fusión nuclear que es el origen de toda la energía del Sol es el proceso mediante el cual los átomos de un elemento se combinan para formar átomos de otro elemento más pesado, proceso que desprende una gran cantidad de energía. En el caso del Sol, los átomos de hidrógeno que lo conforman en su mayor parte se fusionan continuamente formando átomos de helio, el siguiente elemento más pesado. El proceso opuesto a la fusión nuclear es la fisión o división nuclear, que es lo que ocurre en las bombas atómicas (de manera brutal) y en los reactores nucleares (de manera controlada), y produce muchísima menos energía.

Sin esa continua fusión nuclear y el calor que nos llega de ella, no existiría vida en la Tierra. Salvo algo de calor del centro del planeta y algunos procesos químicos modestos, toda nuestra energía procede del Sol. Incluso los combustibles fósiles, producto de seres que vivieron hace millones de años, contienen la energía que esos animales y plantas derivaron del Sol, y que quedó almacenada químicamente hasta que el ser humano aprendió a explotarla en su beneficio. Y, precisamente por ello, la principal búsqueda en cuanto a fuentes de energía que eventualmente sustituyan al petróleo se centra en el Sol, y en formas de convertir la energía que recibe el planeta en una forma utilizable por nuestras máquinas, nuestras fábricas, nuestros medios de transporte.

Aún quedan incógnitas alrededor del Sol, algunas de difícil resolución ya que sigue siendo imposible siquiera acercarse a una distancia razonable para estudiar a nuestra estrella con el detenimiento y detalle que quisiéramos. Incluso nuestro observatorio solar más desarrollado, el SOHO, esfuerzo conjunto de la Agencia Espacial Europea y la NASA, se encuentra a 1,5 millones de kilómetros de la Tierra, es decir, a más de 148 millones de kilómetros del Sol.

Sin embargo, las respuestas que sobre el Sol nos puedan dar los astrónomos, astrofísicos y otros profesionales no sólo tienen un interés claramente científico, sino que podrían incidir de modo decisivo en el futuro de nuestro mundo en cuanto a la disponibilidad de energía, en la viabilidad de la supervivencia de la humanidad y en la relación que mantengamos con el resto del sistema de vida que, gracias al Sol, existe en nuestro planeta.

Los números del sol


En promedio, el diámetro del Sol es igual 109 veces el diámetro de la Tierra, y su volumen es de un millón 300 mil veces el de nuestro planeta. La gravedad en su superficie (suponiendo que pudiéramos posarnos en ella sin volatilizarnos) es de casi 30 veces la que hay en nuestro planeta, de modo que una famélica supermodelo de 50 kilos pesaría 1500 kilos allí. La temperatura de su corona es de 10 millones de grados y está compuesto fundamentalmente de hidrógeno (73.46 %) y el helio en el que se convierte el hidrógeno al fusionarse (24.85 %). Al ritmo de actividad nuclear actual, el Sol seguirá estable unos 4 mil millones de años más, después de lo cual ocurrirá, cumpliendo tardíamente las teorías apocalípticas, el fin del mundo.

Microbios para curarnos

La entrada de algunos microbios a nuestro organismo puede ser beneficiosa, no sólo por lo que nos pueden dar, sino por ser ideales para luchar contra otros microbios que nos ocasionan diversas enfermedades.

El descubrimiento de Pasteur que identificó a los microbios como causantes de numerosas enfermedades y fundó la medicina científica, ha tenido tal trascendencia para la salud humana, que con gran frecuencia la palabra misma "microbio" ha adquirido connotaciones negativas, como si todas las formas de vida microscópicas o unicelulares fueran, por definición, nocivas para la salud y la vida humanas. La enorme variedad de afecciones provocadas por bacterias y virus, así como el hecho de que precisamente estas afecciones son las que se transmiten por contagio (a diferencia, digamos, de los desarreglos fisiológicos como la diabetes o los problemas congénitos como el paladar hendido) explican esto con facilidad, pero ciertamente tal percepción deja fuera gran parte de la historia.

Es imposible aislarnos de las formas de vida con las que convivimos, tanto los microbios como otros muchos seres (incluidos los ácaros que, por millones, viven en nuestros sofás, en nuestros colchones, en nuestras moquetas y en nuestras almohadas) a menos que viviéramos como el famoso "niño de la burbuja", cuya total falta de defensas lo obligó a vivir en un aislamiento total hasta su muerte debida, precisamente, a una infección vírica inesperada en la médula ósea que se le había trasplantado de su hermana esperando así ayudar a que desarrollara el sistema inmunológico del que carecía.

El sistema inmunológico de los seres humanos es, precisamente, el que nos permite vivir en un mundo infestado por terribles microbios. Un experimento sencillo con una caja de Petri esterilizada, que abramos durante unos minutos en nuestra casa, nos mostrará en pocos días un panorama aterrador: el crecimiento de numerosas variedades de microorganismos, algunos causantes de graves enfermedades que, sin embargo, no sufrimos porque nuestro cuerpo puede manejarlos en las pequeñas cantidades en las que están presentes a nuestro alrededor. Pero allí están, siempre. De hecho, tenemos más bacterias viviendo dentro de nosotros que células en nuestro propio cuerpo. Nuestro aparato digestivo, especialmente los intestinos y muy particularmente el intestino grueso o colon, alberga a cientos de billones de bacterias pertenecientes a entre 300 y mil especies distintas. Estas bacterias se benefician de nuestros alimentos, ciertamente, pero al mismo tiempo nos ayudan a aprovecharlos mejor (por ejemplo, descomponiendo alimentos que no podemos digerir de otro modo. como algunos polisacáridos o azúcares complejas, y ayudándonos a absorberlos), a estimular el crecimiento celular, a impedir el crecimiento de bacterias que sí son dañinas, a enseñar a nuestro sistema inmunológico a responder sólo a los gérmenes patógenos, a evitar algunas alergias y a defendernos de algunas enfermedades.

Esas bacterias intestinales, o flora intestinal, no son parásitos ni comensales, sino que mantienen una relación mutualista con cada uno de nosotros. Son "buenos microbios" que viven y se multiplican en nuestro interior, y han recibido el nombre de "organismos probióticos" o microbios buenos. La palabra "probióticos" fue definida por la OMS en 2001 como "microorganismos vivos que, al ser administrados en cantidades adecuadas, confieren un beneficio de salud al anfitrión". Es decir, no se limita a las bacterias que ayudan a nuestra flora intestinal, en especial las pertenecientes a la familia de los lactobacilos, muy presentes hoy en la publicidad. En un informe de junio de 2006, la Sociedad Estadounidense de Microbiología publicó un informe en el que considera a los microbios probióticos como una de las mayores promesas de la medicina para llevar a cabo la curación más eficaz o más rápida de numerosas afecciones.

El informe, que lleva el título Microbios probióticos, las bases científicas señala: "Teóricamente, se podrían usar microorganismos benéficos para tratar una gama de afecciones clínicas que se han vinculado a los patógenos, entre ellas problemas gastrointestinales como el síndrome de intestino irritable y las enfermedades intestinales inflamatorias (por ejemplo, la colitis ulcerante y la enfermedad de Crohn), enfermedades orales como la caries y la enfermedad periodontal, y varias otras infecciones, incluidas las vaginales y, posiblemente, las de la piel. Los probióticos también podrían utilizarse para evitar enfermedades o combatir desórdenes autoinmunes".

Aunque algunas de estas posibilidades apenas están siendo estudiadas actualmente en laboratorios de distintos países, el salto que podrían representar para la medicina, especialmente conforme el mal uso de los antibióticos presenta dificultades crecientes para el control de algunas afecciones debido a que los gérmenes que las causan se han vuelto inmunes a cada vez más productos farmacéuticos. Igualmente, en veterinaria podrían reducir la cantidad de medicamentos que se administra a los animales cuyos productos o carne consumimos los seres humanos.

La investigación que se desarrolla hoy en día se basa en ejemplos ya probados, como el uso de bacterias y levaduras para reducir episodios de diarrea producida tanto por el rotavirus como por algunas otras bacterias, lo cual se confirmó apenas en 2005. En ese mismo año, una serie de estudios clínicos validó la idea de que algunas variedades de lactobacilos resultaban efectivos en el tratamiento de infecciones del tracto urinario y vaginales.

Algunos usos potenciales de los microbios benéficos están, por ejemplo, en el uso de bacterias probióticas para desplazar a variedades de bacterias patógenas resistentes a los antibióticos, en el control de las capacidades de degradación de nutrientes de la flora intestinal para conseguir una mejor absorción de los nutrientes adecuados sin provocar aumentos de peso no deseados, la degradación o digestión de sustancias químicas potencialmente dañinas (como los venenos a los que pueden estar expuestos crónicamente algunos obreros), entre otros.

Así, compitiendo (con ventaja) contra los microbios patógenos, los probióticos pueden convertirse en una de las grandes armas de la salud en un futuro no muy lejano.

El miedo al microbio


Identificar a todos los microbios incorrectamente como nocivos puede generar una gran angustia en algunas personas, cuyo caso extremo es la llamada "microbiofobia" o "bacilofobia", un temor irracional a los microbios y a las infecciones. Dos ejemplos famosos de esta afección son el cineasta, aviador y millonario Howard Hughes, quien vivió sus últimos años atenazado por el miedo a los gérmenes patógenos y, aparentemente, el antiguo rey de la música pop, Michael Jackson.

CSI: realidad y fantasía

La criminalística se ha beneficiado enormemente de la ciencia... pero no tanto como quisieran los guionistas de cine y televisión.

Para muchas personas, la moderna criminalística tiene su punto de inflexión en 1866, no con un acontecimiento policiaco, sino con un hecho literario trascendente: la publicación de Estudio en escarlata, de Arthur Conan Doyle, la primera novela que protagonizaría Sherlock Holmes. En el primer capítulo, cuando el doctor Watson es llevado a conocer al detective como posible compañero de piso, lo encuentra gritando "¡Lo he encontrado! ¡Lo he encontrado!", refiriéndose al descubrimiento de una sustancia química que reacciona solamente en contacto con la hemoglobina y con ninguna otra sustancia. En la ficción, Holmes había dado el primer paso para determinar con certeza si una mancha era producto del óxido, de pintura, de salsa de tomate o de sangre, que viene siendo el primer paso para llegar a la actual identificación por ADN.

La investigación criminal se ha apoyado cada vez más en la ciencia para poder reconstruir los hechos y resolver sus casos. Hoy parece inimaginable que se realizaran investigaciones sin estudios sobre el rayado de los cañones de rifles y pistolas, sin análisis químicos de sustancias, sin fotografías, sin identificación de huellas dactilares, sin nada más que las siempre poco confiables afirmaciones de testigos o las suposiciones más o menos vagas que llegaron a lanzar a la hoguera a miles de inocentes acusados de herejías y brujerías diversas. La sola idea del CSI, la investigación de la escena del crimen, ha casi sustituido al policía de gatillo ligero.

El médico escocés Henry Faulds señaló en 1880 que las huellas dactilares eran individuales y no cambiaban a lo largo de la vida, y sugirió que las huellas de grasa dejadas por los dedos podrían usarse para identificar científicamente a los delincuentes. Sin embargo, cuando propuso este método a la policía metropolitana de Londres, no encontró eco. Fue hasta 1892 cuando el policía argentino Juan Vucetich, basado en el trabajo del científico multidisciplinario Francis Galton, utilizó una huella digital para demostrar la culpabilidad de Francisca Rojas en el asesinato de sus dos pequeños hijos. Poco después, los departamentos de policía de todo el mundo ya recopilaban huellas dactilares de delincuentes y perfeccionaban sistemas para recoger, resaltar y conservar las huellas halladas por los investigadores. Hoy incluso es posible obtener impresiones útiles de los dedos de cadáveres en avanzado estado de descomposición o recuperar huellas de superficies como el papel, además de rescatar impresiones digitales de gran antigüedad.

Las pruebas de ADN para uso forense fueron desarrolladas apenas en 1984 por el genetista inglés Alec Jeffreys, de la Universidad de Leicester. Estas pruebas no sólo implicaban la identificación o perfilado de una persona por su ADN, sino la forma de obtener ADN de manchas antiguas y un proceso complejo para la separación del semen y las células vaginales, lo que permitía el uso del sistema en casos de violación. La identificación por ADN se empleó por primera vez en un tribunal para condenar al asesino y violador Colin Pitchfork en el propio Leicester en 1988, y también para exonerar al primer acusado del crimen, Richard Buckland. El impacto de esta nueva herramienta es difícil de valorar, no sólo por la enorme cantidad de delincuentes descubiertos debido a ella, sino principalmente por la gran cantidad de inocentes cuyas afirmaciones de no culpabilidad han sido finalmente reivindicadas, en ocasiones después de purgar largas penas de cárcel. Las pruebas de ADN son tanto o más confiables que las huellas dactilares.

La informática ha representado un importante apoyo al trabajo de la investigación policiaca. Simplemente las enormes bases de datos recopiladas y la facilidad que los ordenadores ofrecen para hacer búsquedas en ellas bastan para plantear una realidad totalmente nueva en el terreno de la investigación de los delitos, una diferencia quizá tan grande como la que marcó la llegada del microscopio a los terrenos policiacos. Igualmente, la informática es un excelente auxiliar en el análisis de sustancias diversas, tendencias estadísticas y, por supuesto, imágenes. Sin embargo, no existe, por desgracia, el ordenador, o el programa de ordenador, que pueda realizar las hazañas de los que nos ofrece la ficción. Una imagen digital tiene un número determinado de píxeles en su superficie, y esos píxeles o puntos de información visual representan la resolución de la imagen. Acercarse a una imagen más allá de su resolución natural la convierte en una colección de puntos que no ofrecen más información al observador. Sin embargo, los ordenadores casi mágicos del cine y la televisión consiguen hacer acercamientos imposibles, reconstruyendo de modo mágico la información que originalmente no estaba allí, para regocijo del público y molestia generalizada de informáticos, fotógrafos, artistas digitales y videógrafos por igual.

¿Y la sustancia ficticia de Sherlock Holmes, el agente químico que reaccionaba en presencia de la hemoglobina? Lo más parecido que tiene la criminalística actual es el luminol, frecuente actor en las series y películas policiacas. Descubierto en 1928 por el químico alemán H.O. Albrecht y cuyas propiedades como detector de sangre fueron señaladas en 1936, es una sustancia que emite una débil luz azul cuando está en contacto con manchas de sangre. Como el reactivo de Holmes, puede detectar una parte de sangre entre un millón de otra sustancia, pero no es tan infalible como el producto literario del siglo XIX, ya que también emite luz al estar en contacto con metales como el cobre, las aleaciones de cobre, algunas formas de lejía... y el rábano picante. Sigue siendo, pues, menos confiable que la sustancia que el detective británico había encontrado en las primeras páginas de su saga.

El renacer de un rostro


Si bien algunos aspectos de la criminalística, como la entomología forense, han dado lugar a famosas películas (como El silencio de los corderos), pocas especialidades son tan inquietantes como la identificación forense. Con base en los conocimientos de la anatomía y fisiología de la cabeza humana, un experto en identificación forense puede tomar un cráneo totalmente descarnado y recrear sobre él el rostro que tuviera su dueño en vida. El grosor de las distintas capas de tejido que sabemos que tenemos permite una reconstrucción con una exactitud absolutamente asombrosa, que ha permitido la identificación de numerosas víctimas y que ha tenido el beneficio adicional de permitirnos ver el rostro que debieron tener personajes de la historia como el propio Tutankamón, sometido hace poco tiempo a una reconstrucción facial forense.

Hombre y perro: extrañas complicidades

Dos especies protagonizan la asociación más peculiar de la naturaleza en la Tierra. El hombre y el perro se han moldeado mutuamente de formas que apenas estamos descubriendo.

"Muchacho con un perro" cuadro de Bartolomé
Murillo. Museo del Hermitage. (Imagen vía
Wikimedia Commons)
El pacto entre el hombre y el perro, según nos dicen estudios de ADN de perros y lobos realizados entre 1997 y 2002, puede haber comenzado hace cien mil años, aunque ya se encuentran poblaciones de lobos asociadas con restos de homínidos hace 400 mil años. En todo caso, hace algo menos de 20 mil años la domesticación ya estaba consolidada. La variación genética del perro, además, parece señalar que la domesticación ocurrió muchas veces, en distintos lugares, con distintas subespecies de lobos que coexistían con grupos humanos con los que, suponemos, competían antes de descubrir los beneficios que comportaba el asociarse y hacer algo tan desusado como compartir. Así el hombre ya tenía perros con los que compartía la vida en África, en Europa y en Asia, y llegó con ellos al continente americano, hace al menos 15 mil años. El aprecio por el perro lo demuestran los entierros ceremoniales de estos animales que ya se encuentran en Dinamarca durante el mesolítico.

El proceso de domesticación del perro tiene, según se desprende de los estudios zoológicos, una extraordinaria similitud con el proceso de "humanización" (por decirlo de algún modo) de nuestros ancestros primates. Fue el etólogo (estudioso del comportamiento natural) Desmond Morris quien difundió, en su libro esencial El mono desnudo el descubrimiento de que nuestra especie había sufrido un proceso llamado neotenia en el cual ciertas características infantiles se prolongan en el tiempo, manteniéndose presentes durante gran parte de la vida del individuo… o incluso para siempre. Ciertamente somos la especie con la infancia más larga, y en muchas formas es desusado que nuestras crías sean tan tremendamente indefensas durante tanto tiempo, tiempo que se necesita, según los zoólogos, para poder aprender lo suficiente.

Un rasgo infantil de prácticamente todos los animales superiores es el juego, la capacidad de divertirse que el ser humano de nuestros días conserva a lo largo de toda su vida. Más allá de casos de amargura notables, incluso los más ancianos se divierten, ríen, disfrutan los deportes o juegan, ya sea a las cartas o con sus nietos, exhibiendo una conducta que no tienen la mayoría de los demás animales. El perro, en su proceso de domesticación, también fue sometido, suponemos que por los propios seres humanos con los que se asoció, a un proceso de neotenia. El perro adulto comparte numerosas características infantiles de las crías de lobo, entre ellas precisamente la capacidad de disfrutar del juego hasta las etapas más avanzadas de su vida.

La asociación del hombre y el perro es sumamente lógica si se analiza únicamente desde el punto de vista de la supervivencia. Para el ser humano, el perro era igual el guardían en la noche que el aliado con velocidad singular en la cacería o el socio capaz de detectar olores que eran imposibles de apreciar para el primate (animal esencialmente visual), mientras que para el perro (o para el lobo que eventualmente se convertiría en perro), el hombre era una certeza de alimentación mayor que la que tenía la manada sola, una mayor protección contra las inclemencias del clima alrededor de la fogata de la tribu o clan y la posibilidad de contar con un socio de vista mucho más aguda que la propia.

Sin embargo, la asociación de una manada de lobos con una tribu o clan humano (o prehumano) sufrió en algún momento una transformación absolutamente radical, dando como resultado una relación individual, de un perro a un ser humano. En este proceso, quizá lo que más llama la atención es la forma en que los miembros de cada una de las especies trata al otro. Para el perro, su "amo" (palabra desafortunada si las hay) es parte de su manada. Más aún, el humano preferido es tratado, en la gran mayoría de las ocasiones, exactamente de la misma manera en que la manada trata al macho o hembra alfa (los jefes de la manada de lobos). Por su parte. El ser humano considera a "su" perro en muchísimas ocasiones como un miembro más de la familia, no sólo en el trato cotidiano sino, sobre todo, en los sentimientos que alberga por el animal que lo acompaña. La expresión de los sentimientos, según algunos zoólogos, ha sido también seleccionada por el ser humano como parte del proceso de domesticación. Así tenemos la llamada "sonrisa del perro", con el hocico entreabierto, los labios relajados (no mostrando los dientes para amenazar), jadeando ligeramente y con la lengua descansando sobre los dientes inferiores. En los perros con orejas rectas, el mantenerlas enhiestas, sin echarlas para adelante buscando una amenaza ni hacia atrás preparando la lucha (se aplanan con objeto de protegerlas de los mordiscos), se considera también la "sonrisa del lobo".

Si bien los clubes caninos hablan de 800 "razas", desde el punto de vista genético no es posible distinguir tales razas de perros (como no se distinguen las supuestas razas humanas). El perro es una simple subespecie del lobo, y es que, más allá de las dificultades mecánicas que puedan presentarse entre tipos de perros muy pequeños y muy grandes, todos los 800 tipos o razas de perros que existen en el mundo pueden cruzarse entre sí, y todos pueden cruzarse con los lobos.

Sí, dentro de ese pequeño caniche, maltés, Yorkshire terrier o chihuahueño hay un lobo, un lobo tan orgulloso, tan libre y tan admirable como el de las novelas de Jack London, aunque tenga el disfraz de un juguetón animalillo. Y basta hacerlo enfadar para ver que en sus ojos brilla el lobo que es en realidad.

¿Ataque o defensa?

Los ataques de perros, con frecuencia atribuidos a "razas peligrosas", pueden ser resultado de un simple problema de comunicación. Algunos comportamientos inocentes que pueden ser mal entendidos por un perro incluyen mirar a un perro fijamente a los ojos puede disparar un ataque ya que se trata de una mirada dominante, propia del macho alfa, y se considera un reto si la usa un miembro inferior de la manada. La mirada fija es más peligrosa si se hace a la altura de los ojos del perro, como pueden hacerlo los niños pequeños. Es especialmente peligrosa una acción en apariencia muy inocente: acercarse a un perro desconocido con la mano extendida palma abajo sobre su cabeza para acariciarlo. Por ello, los expertos recomiendan que al acercarse a un perro desconocido se incline, no lo mire fijamente a los ojos y le ofrezca la mano con la palma hacia arriba, por debajo de la altura del hocico del animal. Así, no percibirá amenaza alguna y, además, su curiosidad natural lo empujará a investigar qué lleva en esa mano tan poco amenazante.

Lo que sabían los antiguos

Cierto culturocentrismo en ocasiones nos hace creer en el mito de los "salvajes primitivos" y suponer que toda cultura antigua era ignorante.

El mecanismo de Antiquitera, uno de los
objetos a los que la ignorancia sobre el
conocimiento de los antiguos le atribuye
orígenes misteriosos.
(Imagen GFDL vía Wikimedia Commons)
Un argumento frecuente utilizado para defender ideas más o menos extravagantes es, simplemente, que los pueblos antiguos "no podían" haber hecho tales o cuales cosas: cortar y trasladar grandes bloques de piedra (para hacer las pirámides de Egipto, por ejemplo), orientar con exactitud astronómica una edificación (como Stonehenge o Abu Simbel), cruzar mares sin modernos métodos de navegación (digamos, para poblar Australia) y un largo etcétera.

Es un hecho que en la enseñanza de la historia, con frecuencia la enumeración de gobernantes, guerras y batallas suele sacrificar en nuestras escuelas el conocimiento de las civilizaciones antiguas. Si se toca algún punto, como la filosofía griega o el conocimiento matemático de los mayas, es de paso, sin profundizar en lo que conformaba el universo del conocimiento en la vida cotidiana de nuestros ancestros.

La astronomía es una de las grandes incomprendidas por muchas personas que hoy en día persisten en hallar "increíble" que muy antiguas culturas conocieran perfectamente su situación geográfica y astronómica sin contar con un modelo viable del universo. Y sin embargo, todas las culturas que dieron el paso del nomadismo al sedentarismo lo hicieron con base en la astronomía. Dicho de otro modo, si no hubieran sabido astronomía, no habrían podido dedicarse a la agricultura. El conocimiento de las estaciones, y por tanto de la orientación norte-sur, así como el recuento del año, son requisitos esenciales para establecer una sociedad agrícola. Y dado que todo el ciclo de las cosechas parece depender de las posiciones de los astros respecto del sol, ¿es acaso extraño que estas culturas pretendieran ajustar sus construcciones rituales a lo que veían ya como un cierto orden universal, por mucho que estuviera teñido de variadísimas creencias teístas?

Para los antiguos egipcios, por ejemplo, el norte era un espacio vacío circundado por dos estrellas, las que hoy llamamos Kochab y Mizar, y cuya alineación marcaba el "norte verdadero"… o al menos lo hizo durante algún tiempo alrededor del 2480 a.C., fecha calculada para la construcción de la pirámide de Keops. Hoy, el norte está marcado por la estrella Polaris, nuestra "estrella del norte", pero esto también cambiará, dado que el eje terrestre se "tambalea" en su viaje por el espacio, y por tanto las estrellas que ayudan a ubicar el norte cambian en un ciclo de unos 26 mil años.

La astronomía se basa en matemáticas y geometría, sin ellos no hay más que cálculos "a ojo" y poca precisión para saber cuándo empezar a plantar, por no hablar de los problemas de agrimensura que no sólo se refieren a la propiedad de la tierra, sino a temas tan delicados como la cantidad de semilla necesaria para garantizar una buena cosecha en una parcela determinada. Un pequeño error de cálculo podía ser la diferencia entre el bienestar general o la muerte por hambruna. Esto evidentemente da a los números una gran importancia y un aspecto místico que llevó a que, en algunas culturas como la maya, los matemáticos y los sacerdotes fueran unos y los mismos.

Uno de los motivos de la incomprensión respecto de las civilizaciones antiguas es la presunción de que sus intereses y visiones debían ser similares a los nuestros. Por ejemplo, en principio suena inviable que los antiguos griegos conocieran la energía del vapor, pero no por considerarlos ignorantes o incapaces, sino porque no la utilizaron para lo que nuestra civilización la utilizó: sustituir a trabajadores costosos y rebeldes para mejorar las utilidades y masificar la producción. El problema es que la economía de las ciudades-estado de la antigua Grecia estaba basada en el trabajo esclavo (cosa que nuestra admiración por sus logros intelectuales con frecuencia deja a un lado), de modo que los trabajadores no eran ni caros ni, mucho menos, rebeldes. Por otra parte, el tipo de mercancías que permitían obtener grandes ingresos no eran susceptibles de producción en masa, y la idea de sustituir al hábil artesano (frecuentemente esclavo) por una línea de montaje no tenía mucho sentido. Por tanto, cuando el genial Herón de Alejandría (inventor también del odómetro, estudioso de la neumática y la óptica, y matemático destacado) inventó la eolípila o turbina de vapor primitiva en el siglo I de nuestra era, resultó una diversión interesante, pero no se le dio aplicación industrial y fue olvidada. Algo similar ocurre con dos productos chinos tradicionales. Durante siglos, en China se usaron linternas de papel para crear pequeños globos de aire caliente. Igualmente, los chinos contaban desde más o menos el 400 antes de nuestra era con un juguete infantil llamado "libélula de bambú": un palito con una hélice en el extremo, que salía volando como un helicóptero cuando el niño hacía girar rápidamente el palito entre las manos abiertas.

Algunas civilizaciones tienen logros verdaderamente asombrosos que se ven opacados por la idea popular de su retraso. Por ejemplo, hay culturas fabulosas capaces de hacer trabajos de orfebrería primorosos o imponentes (incas, mesoamericanos, egipcios), fundiendo el oro a 1064 grados centígrados... cuando no utilizaban el bronce, que se obtiene haciendo una aleación de estaño con cobre, y que sólo requiere 20 grados centígrados más que el oro para fundirse.

Y es que, como podemos ver a nuestro alrededor si sabemos hacerlo, en la actualidad no usamos máquinas distintas de las ya conocidas por los babilónicos: palancas, poleas y planos inclinados. Nuestras palancas y poleas pueden expresarse en altísimas grúas de construcción accionadas por electricidad, pero sus principios son los mismos que los empleados para construir Ur, Abu Simbel o el acueducto de Segovia. Hoy sabemos muchas cosas más que nuestros antepasados, pero ello no cancela lo que ellos ya sabían, y nuestra tecnología no es sino la extensión de la que elaboraron a partir de cero otras civilizaciones que merecen nuestro asombro porque hoy, prácticamente nadie podría cazar un bisonte, ya no digamos hacer la punta de piedra de la lanza necesaria para la cacería, lo que pone a sus creadores en posesión de conocimientos muy superiores a los nuestros sobre algo tan sencillo como una piedra.

Tecnología de peluquería


Teñirse el cabello tampoco es asunto de reciente creación. A lo largo de toda la historia, ha habido formas de cambiarse el color del cabello que usaron las más distintas culturas. Quizá la receta para hacer "rubias de farmacia" más antigua que se conoce procede de la Grecia clásica, cuyas mujeres empleaban una pomada de pétalos de flores amarillas, una solución de potasio y polvos de color para obtener una coloración rubia en sus cabellos.

La memoria informática

La sobrecarga de información impone nuevas demandas sobre las máquinas que nos sirven y, sobre todo, su capacidad de almacenamiento de datos.

Uno de los primeros, enormes discos duros.
(Foto GFDL de Appaloosa, vía Wikimedia Commons)
Un cálculo sencillo en 1988 hacía creer que un disco duro de 20 megabytes bastaría para guardar toda la producción de un novelista en toda su vida, pues más de 20 millones de caracteres o letras (bytes) bastan para guardar unas 20 novelas de tamaño medio. Pero los discos duros de 20 MB duraron poco, y fueron siendo sustituidos de manera acelerada por dispositivos de almacenamiento de más y más capacidad. Así, hoy, un CD ofrece 700 MB de almacenamiento y un DVD 4.600 MB (o 4,6 gigabytes, donde el prefijo "giga" significa "miles de millones"), mientras que los discos duros de 200 o 300 GB son comunes y ya se empieza a habar a nivel doméstico de "terabytes" o billones de bytes (un uno seguido de doce ceros).

Sin embargo, estas cifras son absolutamente triviales comparadas con las necesidades de almacenamiento de grandes empresas, gobiernos y organizaciones internacionales que gestionan enormes bases de datos, para los que no es nada esotérico tratar con petabytes (mil billones) y mucho más. La "digitalización de la realidad" no se limitó, como podía suponerse en 1988, a la información textual, a letras y palabras, sino que abarca todos los espacios imaginables, en complejas disposiciones de bases de datos que requieren de complejos programas para poder encontrar la información deseada rápidamente. En el área de la imagen, por ejemplo, una cámara fotográfica digital profesional común hoy produce archivos que al procesarse para su impresión ocupan más de 20 megabytes cada uno, es decir, una fotografía de resolución normal ocupa el espacio de una novela, y un fotógrafo profesional puede generar algunos miles de fotografías al año. Y sin embargo hay otras actividades en las que se necesita muchísimo más espacio de almacenamiento, como la animación en 3 dimensiones y los efectos para el cine.

Esta "digitalización de la realidad" está además dejando atrás a gran velocidad al gran medio de almacenamiento de datos antiguo: el papel. Cada vez más, sobre todo en el mundo desarrollado, muchos datos, expedientes, informes, proyectos, certificados, registros y documentos varios ya no tienen existencia "física", sino que existen solamente en el mundo virtual informático que, por ello mismo, necesita grandes capacidades de almacenamiento en espacios pequeños, poco costosos y razonablemente seguros por cuanto a que no se perderán y perdurarán en el tiempo al menos tanto como el tremendamente resistente papel al que están sustituyendo.

El almacenamiento digital masivo se realiza actualmente por dos medios: grabando los "1" y "0" del lenguaje binario en un sustrato de óxido magnético (cintas, discos duros y disketes) o bien creando con un láser pequeñas depresiones o "pits" en una superficie reflejante tintada (CD y DVD). Ambos sistemas llegarán en un momento dado a un límite físico en cuanto a su capacidad de almacenar cada vez más datos en cada vez menos espacio de manera fiable y perdurable.

De hecho, el DVD de doble capa representó el límite máximo de capacidad de almacenamiento de datos en un disco reflejante tintado con el sistema de láser rojo existente que empezó a comercializarse en 1982. Simplemente es imposible que ese láser grabe los datos más apretadamente en un disco. Por ello, en estas semanas se ha dado el lanzamiento de la nueva tecnología "Blu-Ray" de discos del tamaño de un CD o DVD pero que son escritos y leídos por un nuevo láser de color azul violeta ("blu-ray" es una forma de decir "rayo azul"). El láser rojo usado actualmente tiene una longitud de onda de 650 nanómetros o milmillonésimas de metro, mientras que el láser azul violeta tiene una longitud de onda de 405 nanómetros, lo que le permite grabar y leer 25 gigabytes en el espacio en el que hoy caben apenas 5 ó 10 (en el DVD de doble capa). Dicho de otro modo, en un solo disco del tamaño de un DVD se podría tener el equivalente a 25 mil libros, una biblioteca sin duda impresionante.

Pero es en la creación de nuevos sistemas de almacenamiento de datos que vayan más allá de los medios magnéticos y ópticos donde abundan las ideas y las posibilidades de las revoluciones de almacenamiento que vienen. Por ejemplo, en las universidades de Drexell, Pensilvania y Harvard se está trabajando actualmente en nanoalambres de una cienmilésima del grosor de un cabello humano suspendidos en agua que pueden contener casi 13 millones de gigabytes (13 petabytes) en un solo centímetro cuadrado por medios ferroeléctricos que no tienen la fragilidad de los magnéticos. Por su parte, IBM, la empresa donde se inventó el disco duro en 1955, se está trabajando con almacenamiento micromecánico utilizando depresiones realizadas en un polímero por medio de una "punta" de microscopía de fuerza atómica. Esta tecnología promete 1 terabyte por pulgada cuadrada.

Pero el reto máximo de la memoria digital se encuentra en la prueba del tiempo. ¿Cuánto pueden permanecer los datos en un disco duro o un DVD antes de que se deterioren irremediablemente? La misma juventud de estos medios hace que toda respuesta sea en el mejor de los casos un cálculo razonable basado en proyecciones matemáticas y pruebas de envejecimiento acelerado en laboratorio, y en el peor una ocurrencia sin más bases que la imaginación de quien la ofrece. Pero quien quiera que haya grabado sus datos en un "viejo" CD y lo haya tratado de abrir sin éxito dos o tres años después sabe que éste es un problema alarmante considerando la mencionada "digitalización de todo". Se necesita que la memoria permanezca.

Porque estamos hablando de datos que conforman, en este siglo XXI, la memoria colectiva humana, que le estamos confiando a medios de almacenamiento mucho más complejos y, a veces, enigmáticos que la simple hoja de papel donde escribimos los 10 mil años anteriores de nuestra historia.

Memoria atómica


Al iniciar la era de la nanotecnología con una conferencia en 1959, Richard Feynman dijo que todas las palabras escritas en la historia humana podrían guardarse en un cubo de una décima de milímetro por lado, siempre que se escribieran con átomos.

Hace dos años, esta visión empezó a hacerse realidad utilizando un microscopio tunelizador de exploración para levantar átomos en una placa de silicio uno por uno, de modo que los átomos levantados signifiquen "1" y los que se dejan en su sitio signifiquen "0". Si un grano de arena tiene alrededor de 10 mil billones de átomos, ese grano de arena, que finalmente es silicio, tiene la capacidad de almacenar un petabyte, o cien mil discos duros de 100 gigabytes como el que podemos tener en nuestro ordenador. Y tenemos datos suficientes para llenar ese grano de arena y muchos más.

Los motivos de la estación espacial

Por fin el hombre tiene una estación espacial. Pero es legítimo preguntar ¿para qué la queremos?

El 20 de noviembre de 1998, el lanzamiento del módulo de control Zarya desde el cosmódromo de Baikonur, en Kazajstán, marcó el inicio de un proyecto por el que pelearon numerosas personas de todo el mundo durante décadas: el establecimiento de una estación espacial internacional permanente en órbita terrestre.

Hoy, la estación espacial internacional (ISS) tiene una longitud de más de 140 metros habitables y 240 metros a lo largo de los conjuntos de celdillas solares que le suministran energía, y un peso de más de 183.000 kilogramos. Pero aún así sigue en construcción, y lo estará al menos hasta 2010, como el objeto más masivo que el ser humano ha colocado fuera del planeta, en una órbita a unos 360 kilómetros de la superficie de la Tierra, a la que circunda aproximadamente cada 92 minutos. Pero desde el año 2000 se ha hecho efectivo el sueño de tener presencia humana permanente en el espacio a través de misiones internacionales destinadas, ante todo, a construir y mantener la estación y, cada vez más, a realizar los trabajos de investigación y descubrimiento que son la razón misma de ser de este proyecto.

Al hablar de exploración fuera de nuestro planeta, el recurso más valioso no es, como se pudiera pensar, los minerales que podríamos explotar en el cinturón de asteroides o en Marte (el coste de su transportación volvería cualquier objeto mucho más caro que el platino), sino el espacio mismo.

Nada por aquí, nada por allá
El espacio es "algo" extremadamente extraño que, incluso, difícilmente se puede definir como "algo" ya que depende precisamente de la ausencia de cosas. Pero no es tampoco precisamente la nada, es la esencia del tejido universal que todavía no entendemos. Fuera de la atmósfera de los planetas, fuera de los cuerpos celestes de diversos tamaños, tenemos regiones relativamente vacías a las que llamamos espacio, y que respecto de nuestro planeta comienzan a unos 100-120 kilómetros de altura. Y decimos "relativamente vacías" porque hoy sabemos que contiene diversas moléculas orgánicas, la radiación remanente del "big bang" que demuestra cuál fue el origen de nuestro universo, rayos cósmicos, algo de gas, plasma y polvo.

Pero eso, que parece mucho, es muy poco comparado con lo que tenemos en la superficie del planeta, donde el aire y el agua se encuentran prácticamente en todas partes. Para los astrónomos, por ejemplo, el aire es su peor enemigo en la observación del universo.

Donde no hay aire, y donde la gravedad no tiene los efectos que observamos en la superficie de la Tierra, los objetos y materiales se comportan de maneras muy distintas que en el ambiente al que estamos habituados. Los fluidos, por poner un caso, pueden formar esferas perfectas. Plantas y animales pueden crecer sin estar guiados por la gravedad que informa dónde están "arriba" y "abajo".

Esto hace que en el espacio, en una estación como la ISS, se puedan realizar investigaciones y experimentos literalmente imposibles en tierra. En tales investigaciones y experimentos se tienen previstos trabajos en las más diversas áreas.

La formación de cristales de proteínas de una pureza singular permitirá a los científicos entender mejor las proteínas, enzimas y virus, lo que permitirá encontrar formas más eficientes de atacar diversas enfermedades. Igualmente se tienen previstos trabajos en cultivo de tejidos que pueden usarse, por ejemplo, para probar tratamientos sin correr el riesgo de dañar a los pacientes. Así como los fluidos se comportan de manera peculiar en el espacio, y los metales fundidos, por ejemplo, pueden mezclarse más profundamente en órbita que en la tierra (lo que representa promesas en el terreno de nuevos materiales para aplicaciones como los microchips informáticos) el fuego mismo se comporta de manera peculiar en el espacio, al grado de que las llamas en el espacio han dado lugar a la nueva ciencia de la combustión, empeñada en entender más a fondo cómo se lleva a cabo el proceso de combustión o quemado.

Aprovechar el espacio no significa tampoco olvidar que el espacio también es un enigma, no sólo en su constitución, sino en la forma en que afecta a los materiales que no están en contacto con él habitualmente. El estudio de la exposición de distintos materiales al espacio permitirá mejorar el diseño de las naves espaciales. La falta de gravedad permitirá además importantes trabajos en el terreno de la física fundamental, estudiando fuerzas que en la tierra no pueden aislarse de la gravedad. Y, por supuesto, desde la órbita de la ISS se puede estudiar también nuestro planeta, sus recursos naturales, los efectos de la contaminación o la deforestación o peculiaridades geológicas y meteorológicas que aún están por descubrirse.

Las investigaciones que hoy mismo se están realizando en la ISS, sin embargo, no están siendo llevadas a la atención del público en general. A últimas fechas, importantes experimentos relacionados con la fisiología del equilibrio humano, las pruebas de cristalización de proteínas que ya se están realizando o la filmación de un gran grupo de desusadas nubes azules de gran altura formadas por cristales de hielo, quedan apenas al alcance de los científicos.

Todo ello sin contar el significado que tiene el hecho de haber podido conjuntar a dieciséis países con intereses diversos y, en algunas ocasiones, contrapuestos, en un proyecto común, esfuerzo que ya en 2001 ya obtuvo el Premio Príncipe de Asturias a la Cooperación Internacional.

Y sin embargo, esa estación espacial que ya podemos ver de noche si buscamos en Internet hacia dónde mirar y a qué hora, vale sin duda los 100 mil millones de euros que habitualmente se citan como su coste general, y sin duda tendrá una poderosa influencia en nuestra vida.

El laboratorio "Columbus"


La mayor contribución de la Agencia Espacial Europea a la ISS es el laboratorio Columbus, un módulo cilíndrico de 4,5 metros de diámetro que se acoplará a la estación a mediados de 2007. Columbus está diseñado como una instalación flexible de investigación que podrá ser usada por científicos desde la Tierra o con ayuda de los tripulantes de la ISS para realizar trabajos en biología, fisiología, otras ciencias de la vida, ciencias de materiales, física de fluidos y otras muchas disciplinas aprovechando la falta de gravedad. Puede contener hasta 10 Anaqueles de Carga Estándar, cada uno del tamaño de una cabina telefónica y que funciona como un laboratorio autónomo e independiente que se comunica directamente con sus investigadores que podrán aprovechar sus capacidades en todos los países europeos.

Estudiando el fútbol

Lo detestemos o lo disfrutemos, el fútbol puede enseñarnos algo sobre el hombre social.

Estado Soccer City de Johannesburgo, Sudáfrica
(Foto CC de 2010 World Cup - Shine 2010,
vía Wikimedia Commons)
En un juego de fútbol, donde unos ven la desmedida ambición del negocio o la celebración de la habilidad personal y el trabajo de equipo, hay otros que ven un escenario donde se resume la esencia tribal que tenemos todavía a nuestras espaldas, que apenas hace unos miles de años era la única forma de ser humano.

Una guerra ritual, donde los héroes de la tribu, los campeones, los "davids" y los "goliats" en la persona de Ronaldinho, David Villa o Zinedine Zidane, representan a todos sus seguidores (del equipo o de la selección nacional), los cuales los siguen con los rituales identificativos de la tribu: colores, escudos, himnos, parafernalia que deja muy claro el espacio de existencia de nosotros y la frontera que marca exactamente dónde comienzan ellos, ésos que son los otros, el adversario, el enemigo, el oponente a vencer.

Las reglas nacen de los acuerdos de un "consejo de ancianos" legislativo. Son las federaciones, las confederaciones y la FIFA misma, que sólo responde ante sí misma de sus decisiones, autoritaria y autónoma. Son ellos, junto con otros "ancianos" o personajes principales, los que presiden los partidos: presidentes de equipos, dignatarios internacionales, representantes de las fuerzas políticas y económicas que subyacen al juego.

Quien representa a la ley y la hace cumplir, el poder judicial, también responde únicamente ante el "consejo de ancianos": es el árbitro, el hombre de la última palabra, apoyado en sus asistentes. En el campo de juego no hay democracia, no hay juicios justos con desahogo de pruebas, no hay segunda ni tercera instancia. Como en el pasado humano, la condena es definitiva y, además, la sentencia se ejecuta de inmediato.

Al interior de los equipos, igualmente, no se encuentran para nada los elementos de una sociedad "moderna", la democracia, la horizontalidad en las decisiones, el consenso y el pluralismo. Los ancianos dueños nombran al entrenador como a un general de ejércitos que manda, no pregunta ni da explicaciones si no quiere. Si todo sale bien, será glorificado como César a la vuelta de las Galias. Si no, será sacrificado. Y sus órdenes llegan a la tropa en el campo de batalla precisamente por medio de un capitán, nombre revelador.

Todo esto es parte de lo que etólogos, sociólogos y antropólogos han leído en el juego del fútbol como expresión de una necesidad tribal social que el ser humano mantiene porque la evolución no ha tenido tiempo (ni necesidad, probablemente) de eliminar de su bagaje conductual innatamente determinado o condicionado. Un juego que emula, repite y satisface las mismas emociones que los enfrentamientos tribales en los que lo que se ganaba no era un valor simbólico como una copa, sino tierras, ganado, riquezas reales.

Tales observaciones serían aplicables a muchos deportes, en mayor o menor medida. Sin embargo, el fútbol se distingue por su atractivo universal (descontando a los Estados Unidos) y porque en él parecen estar presentes todos los elementos tribales, de tropa de primates, que la antropología nos dice que fueron la base de la sociedad humana y prehumana durante millones de años.

El etólogo (estudioso del comportamiento natural) Desmond Morris, autor de libros como El mono desnudo, El zoo humano y, recientemente, La mujer desnuda, escribió en 1981 The Soccer Tribe, traducido al español como El deporte rey y que resume esta visión y estas teorías acerca del significado del fútbol. Este libro comenzaba señalando que si una civilización extraterrestre realmente llegara a la Tierra y la orbitara algunas veces para ver sus poblaciones, no podría dejar de notar que en todas las ciudades, e incluso en muchas poblaciones de no muchos habitantes, existen esos rectángulos de hierba rodeados de gradas, todos con prácticamente las mismas medidas, todos con las mismas líneas pintadas, con las mismas estructuras en los extremos… y que generalmente sólo se usan una o dos veces por semana. Es algo que parece totalmente universal, que trasciende a todas las demás diferencias, y algo que ocurría incluso antes de que el fútbol fuera un negocio a los niveles que podemos apreciar hoy en día.

En un mundo de habitantes diversos, de idiomas diversos, de culturas diversas expresadas en su arquitectura más evidente, seguramente le darían a los campos de fútbol una importancia elevada como explicativo de las constantes de nuestra cultura. Algunos científicos consideran que, en tal caso, tales extraterrestres tendrían razón.

Para Morris, el atractivo principal del fútbol yace en dos elementos clave. Primero que nada, la sencillez de sus reglas, pocas y fáciles de entender (y de adaptar) sin demasiadas complicaciones y que dejan abiertas muchísimas posibilidades para el juego. Y, en segundo lugar, el que no hace falta equipamiento, campos especializados y ni siquiera un balón para jugarlo. En su sencillez y, también, en su economía, podría estar al menos parte de la explicación del atractivo generalizado que produce. A esto habría que añadir el nivel de reconocimiento social que obtienen los grandes jugadores de fútbol en todo el mundo. El futbolista triunfador, el campeón de la tribu del fútbol según Desmond Morris, llega al más alto nivel de heroísmo disponible en nuestra sociedad actual, ya sea en su club, en su país o, en algunos casos, a nivel mundial.

Y ésa es la gloria, finalmente, que comparte quien lleva los colores, el escudo, los símbolos tribales del equipo ganador. No ganan ellos, los jugadores, ganamos nosotros, representados puntualmente por nuestros campeones designados. Gana nuestra tribu, porque aunque el trofeo sea totalmente simbólico, su verdadero valor yace en que los otros también lo anhelaban.

Alrededor del fútbol


La antropología y la sociología estudian activamente los aspectos del fútbol que reflejan o expresan a sus sociedades: la pasión futbolística en Brasil, los hooligans y su violencia asociada, el fútbol como puerta de salida de la pobreza y la marginación, el fútbol como catalizador de odios nacionales (cuya expresión más clara fue la "Guerra del fútbol" entre Honduras y El Salvador, no ocasionada por este deporte, pero en la que contribuyeron las eliminatorias para México 1970) y otros muchos aspectos. El hecho es que el fútbol está tan presente en tantos aspectos de la vida de las sociedades donde se juega que resulta tierra fértil para que las ciencias sociales se ocupen de él intentando resolver un enigma triple: qué dice el fútbol de nosotros como animales sociales, qué le ha inyectado nuestra sociedad a este deporte en particular y por qué, en resumen, tantos miles de millones encuentran pasión, alegría y profundo interés en el discurrir de un balón… excepto en Estados Unidos.

La traición del rostro

Cuando el mentiroso sabe que lo es, tiene su forma de decírselo a los demás, si saben verlo.

En un experimento, se les mostraron a varias personas dos fotografías en apariencia idénticas del rostro de una persona y se les preguntó cuál les resultaba más atractiva. Pese al parecido, la gran mayoría de las personas eligió una de las dos fotos. La poco evidente diferencia entre ambas imágenes es que a la que resultó "favorita" se le habían retocado las pupilas para que se vieran más grandes, más dilatadas, y esto era interpretado favorablemente por el espectador.

La psicología tardó mucho en establecer científicamente lo que ya sabían los mercaderes de varias culturas hace siglos: el diámetro de las pupilas no es sólo función de la luz, sino que también tiene un componente emocional. Cuando algo nos desagrada, las pupilas se contraen, pero si algo nos agrada, se dilatan. Esto ha sido usado por los comerciantes para saber hasta dónde pueden regatear el precio de un artículo. Si las pupilas del cliente se dilatan notablemente, parten de la idea de que estará dispuesto a pagar más por el artículo que si no lo hicieran.

En el caso de las dos fotografías el experimento, el espectador interpretaba que la fotografía de la persona con las pupilas dilatadas era preferible precisamente porque en ella la persona parecía hallar más agradable nuestra presencia que en la fotografía de junto, donde las pupilas estaban contraídas en señal de rechazo.

Esta reacción, como muchos otros gestos humanos, es totalmente innata y no depende de la cultura. Del mismo modo, la sonrisa, el llanto, la expresión de tristeza, la expresión de furia y la de asco o la reacción de saludar a un conocido levantando las cejas son comunes a todos los seres humanos, sin importar su cultura, su idioma o su religión. Como contraparte, otros gestos como el asentimiento (mover la cabeza arriba y abajo, o a los lados) dependen únicamente de la cultura.

Es lógico que la expresión del rostro sea innata porque era la forma esencial de comunicación entre los prehumanos antes de la aparición y desarrollo del lenguaje, ya que un malentendido de expresión facial podía ser desastroso para el individuo y para la manada. Y por eso tampoco es raro que, también, el control de la expresión de nuestras emociones se parte de nuestra educación: no reírse en momentos determinados, no llorar en público, controlar el enojo (o al menos que no se note) son actos considerados útiles para enmascarar lo que realmente sentimos.

Ese ocultamiento es una forma de mentir, y el ser humano siempre ha deseado saber cuándo uno de sus prójimos miente. Para detectar la falsedad se han propuesto herramientas como el polígrafo, mal llamado detector de mentiras, que mide algunas variables (resistencia eléctrica de la piel, pulso, tensión arterial, frecuencia respiratoria) sobre la suposición de que todos esos aspectos se alteran cuando mentimos. Si bien esto es cierto en principio, en realidad esos aspectos también se pueden afectar por muchísimos otros factores emocionales y fisiológicos que nada tienen que ver con la mentira, mientras que un mentiroso frío y controlado puede decir las mayores barbaridades sin que tales aspectos sufran alteraciones.

Ahora parece que la mejor forma de determinar, con algún grado de certeza razonable, si alguien miente es volver a nuestros orígenes genéticos: mirar la expresión de quien habla. Más allá de ciertos lugares comunes o tópicos (como el que quien miente "desvía la mirada"), los psicólogos experimentales han podido dar con indicadores clave mediante los cuales el rostro "traiciona" mediante sus expresiones al mentiroso. Paul Ekman, por ejemplo, uno de los mayores expertos en la mentira y las expresiones faciales, señala que hay movimientos faciales que no son voluntarios en lo más mínimo, como el estrechamiento de los labios que se da en momentos de furia, y que difícilmente se pueden hacer voluntariamente, de modo que quien finge estar enojado no muestra esta característica clara de una emoción genuina.

Estos "signos conductuales" precisos de las emociones que realmente experimenta el sujeto son considerados "fiables" por su complejidad, aunque Ekman no deja de notar que también se pueden falsificar si el mentiroso acude a técnicas como el "método Stanislavski" de la actuación, en el cual el actor evoca en su interior la emoción real en lugar de tratar de imitar sus signos externos. Así, para fingir que estamos "furiosos" contra una persona, podemos evocar nuestra furia contra otras cosas, otra persona, ciertas ideas, etc. Aún así, para 1991, las mediciones de Ekman podían detectar al 85% de los mentirosos (en el caso de mentiras en las que se jugaba algo importante: matrimonios, dinero, cárcel, etc., pues el miedo a ser descubierto también lo revelan las expresiones). Ekman diseño un sistema de numeración de las posiciones de distintos músculos faciales según la emoción a la que corresponden.

El psicólogo social Mark Frank, colaborador de Ekman en varias investigaciones, ha clasificado los micromovimientos involuntarios de los 44 músculos faciales del ser humano, identificando patrones de "microexpresiones" como los de mentira, engaño, tensión o desconfianza, y, utilizando la numeración de Ekman, ha generado en la Universidad de Buffalo un programa informático capaz de leer tales microexpresiones y valorarlas.

Según Science Daily, el propio Frank se apresura a aclarar que una o muchas microexpresiones, por sí mismas, no prueban nada, sólo son indicaciones valiosas y siempre en el contexto de otros signos conductuales. Y más allá de su programa informático, sus experiencias y conocimientos hoy sirven para que profesionales de las fuerzas de seguridad fortalezcan sus capacidades de detectar mentirosos. Porque, en realidad, el mejor detector de mentiras siempre ha sido el ser humano, capaz de evaluar e interpretar las expresiones de sus congéneres con gran velocidad y precisión. Y, ayudados del conocimiento de la psicología social, los más interesados en descubrir mentirosos pueden realizar un trabajo más efectivo determinando cómo nuestro rostro puede traicionar nuestras peores intenciones

¿Qué es la mentira?


El primer desafío para estudiar algo es definirlo, y definir la mentira no es tan sencillo como parece. La mentira que estudian científicos como Ekman y Frank no tiene nada que ver con el autoengaño, ni con las equivocaciones, ni con la confusión, ni con la actuación, sino con el deseo consciente de engañar a otro sumado al hecho de que el otro no debe saber que se le trata de engañar. Como ejemplo, Paul Ekman dice: "Un mago, según este criterio, no es un mentiroso, pero Uri Geller es un mentiroso, porque Geller afirmaba que sus trucos no eran ilusionismo. Un actor no es un mentiroso, pero un impostor sí lo es.

La grandeza de lo extremadamente pequeño

En la nanotecnología, en este momento, hay más potencial que realidad. Pero tanto sus promesas como sus realidades ya existentes merecen una atención proporcionalmente grande.

La comprensión de que hay cosas tan pequeñas que no podemos verlas no siempre fue tan evidente como nos resulta en la actualidad. Las lentes, conocidas desde antigüedad griega, se usaban para ver mejor lo que se veía a simple vista, o para concentrar la luz del sol y hacer fuego, pero no fue sino hasta Galileo, inventor del microscopio y no del telescopio como suele creerse, que el uso de dos lentes en un microscopio compuesto permitió ver cosas que no distinguía el ojo.

Pero una cosa es ver lo que nuestro ojo no atina a percibir y otra muy distinta es manipular a los habitantes del mundo microscópico descubierto en los últimos 400 años. Y lo que busca ahora la tecnología es controlar la materia a la escala de una milmillonésima de metro, lo que en el Sistema Internacional de Unidades se llama "nanómetro". Para darnos una idea de lo que esto significa, un nanómetro es la medida de 10 moléculas de hidrógeno en línea. O, mejor aún, un nanómetro es a un metro lo que 4 milímetros (la tercera parte de lo que mide el lateral de una tecla en un teclado de ordenador común) son en comparación de todo el planeta Tierra.

A nivel de nanómetros, hablamos de moléculas individuales y la posibilidad de crear materiales, dispositivos y sistemas de entre 1 y 100 nanómetros de tamaño.

La percepción popular (ayudada por la ciencia ficción, que nunca se debe olvidar que es ante todo ficción) es de máquinas diminutas que puedan, por ejemplo, entrar al cuerpo humano y modificarlo mecánicamente, por ejemplo destruyendo coágulos o células cancerosas, o robots minúsculos -nanobots- capaces de realizar hazañas que, en realidad, no pueden conseguir hoy en día ni siquiera nuestros todavía muy limitados robots macroscópicos.

Pero esa visión está oscureciendo las muchas promesas que sí tiene la nanotecnología. Por supuesto, esta tecnología puede realizar auténticos milagros médicos, pero para ello no necesita crear nanosubmarinos como el que quedó fijado en la conciencia popular con la película Viaje Fantástico basada en la novela homónima de Isaac Asimov.

El trabajar a escala nanométrica no es sólo reproducir los objetos macroscópicos a niveles pequeñísimos, aunque esto se hace para efectos de demostración, como una guitarra funcional de pocos nanómetros pero con poco futuro en el mundo del espectáculo. A esa escala, las propiedades de los electrones como ondas, según los describe la mecánica cuántica, permiten jugar con las propiedades fundamentales de los materiales sin cambiar su composición química. Se puede así alterar la temperatura de fusión de un metal, la magnetización de un objeto normalmente no magnético o la capacidad de carga de una sustancia determinada. Y se pueden construir, en el ejemplo más claro, procesadores informáticos mucho más complejos y eficientes, rompiendo la barrera que ha representado el hecho de que a la escala actual, los procesadores han llegado a representar un grave problema de calentamiento, al grado de que el costo de enfriar un procesador puede ser mucho mayor que el costo de alimentarlo de energía. Igualmente, la nanotecnología ofrece la posibilidad de almacenar más información de manera más eficiente y segura escribiendo los 1 y 0 del lenguaje binario en espacios mucho más pequeños que los que ofrecen los discos ópticos de la actualidad.

En el terreno de la salud, este verano la nanotecnología hará mucho por nosotros, aunque no se sepa comúnmente, ya que la cantidad de nanopartículas introducidas en las cremas solares son las responsables de absorber la radiación UVA. Dependiendo de la cantidad de tales nanopartículas, una crema solar atrapa una mayor o menor cantidad de radiación, dando como resultado la clasificación en factores de protección, un fenómeno relativamente nuevo. Pero la medicina espera también la capacidad de realizar análisis mucho más precisos sobre el estado de salud de un paciente, mediante nanomateriales que puedan detectar ciertas afecciones e informar al médico de su situación exacta y su gravedad, mejorando el diagnóstico certero y oportuno que marca, en muchos casos, la diferencia entre la vida y la muerte. La administración de nanopartículas especializadas (como esferas preparadas para ser atraídas por tumores cancerosos, que luego puedan ser destruidas junto con las células malignas) y la reparación de tejidos como huesos y dientes con materiales novedosos es sólo una más de las muchísimas posibilidades de esta tecnología.

Pero la máxima promesa de la nanotecnología no es la producción de nanomáquinas por sí mismas, sino de nanomáquinas capaces de producir otras cosas. Cosas a nivel macroscópico. De hecho, ésa fue la idea inicial del premio Nobel Richard Feynman, que en un discurso de 1959 dio inicio a la carrera nanotecnológica.

La idea es poner de cabeza el paradigma de utilizar materiales grandes, como rocas o madera, para crear otros más pequeños, como puntas y astas de flecha. Imagine, por el contrario, una máquina capaz de ir tomando moléculas, e incluso átomos, para ir formando de abajo hacia arriba cualquier objeto, con una eficiencia asombrosa en cuanto al uso de materiales y energía, con mucho menos desperdicio y contaminación. Es posible así imaginar una máquina que, así como un ordenador copia la información con precisión, pueda copiar en nuestra mesa de trabajo, a partir de moléculas o átomos, un CD, un lápiz o un pañuelo de algodón. O que pueda ocuparse industrialmente de producir microprocesadores, cable de cobre finísimo o las sustancias que puedan desear sintetizar los químicos o bioquímicos de modo casi instantáneo de manera más eficiente y limpia.

Esto representaría una revolución industrial de proporciones mucho mayores que la ocasionada por la máquina de vapor o los ordenadores, con todas las implicaciones sociales que deben tenerse en cuenta, sin duda alguna, desde ahora, antes de que todas estas promesas y muchas más se hagan realidad, cosa que ocurrirá sin duda entre 10 y 30 años en el futuro.

Un metacampo


La electricidad no es una industria, es una metaindustria que afectó prácticamente todos los aspectos de la vida humana. De modo similar, la nanotecnología no es un campo en sí, sino una forma de conseguir resultados en numerosos campos: mejores materiales para la electrónica, fibras textiles artificiales que nos mantengan cálidos en invierno y frescos en verano, membranas de separación de sustancias con precisión total, sensores más eficaces, materiales que no se ensucian, adhesivos con propiedades diversas para todo uso… no hay ningún aspecto de la vida actual que no tenga el potencial de verse tocado por la nanotecnología.

Materia oscura

Observar nuestro universo es sin duda algo asombroso. Sin embargo, la física actual nos dice que el universo que observamos es apenas una fracción de la realidad, formada principalmente por materia que no podemos ver.

La novela de Fred Brown pubicada en español como Por sendas estrelladas lleva como título original The lights in the sky are stars, las luces en el cielo son estrellas.

Este afortunado título original evoca claramente la fascinación que el cielo y sus luces ejercen desde siempre sobre el ser humano, y que lo llevaron finalmente a descubrir qué era eso que brillaba allá arriba. Estrellas, sí, y galaxias enteras de diversas formas, ninguna caprichosa, todas sujetas a las leyes fundamentales de la física, y planetas, de los que podemos ver a simple vista al menos a algunos de los más cercanos como Venus, Mercurio, Marte y Júpiter.

La comprensión de lo que es ese universo que podemos ver, y que nos permitieron ver mejor sucesivas generaciones de instrumentos, desde el telescopio de Galileo hasta el James Webb, que sustituirá al Hubble en 2012, implicó entender el origen del universo, el movimiento de los incomprensiblemente grandes cuerpos galácticos formados por cientos de miles de millones de estrellas y cuerpos y el comportamiento físico de cuanto nos rodea. Y fue precisamente ese proceso de comprensión el que llevó a que el astrofísico Fritz Zwicky descubriera en 1933 que el universo visible no estaba completo.

Zwicky estudiaba el movimiento de las galaxias en los bordes del conjunto de galaxias Coma para calcular la masa de dicho conjunto. Su estimación de la masa que provocaría, según las leyes físicas, esos movimientos, resultó ser mayor que el cálculo de la masa del conjunto Coma basado en el número de galaxias que lo componen y su brillo total. De hecho, resultó mucho mayor. La masa necesaria para dar sentido a las ecuaciones gravitacionales era 400 veces mayor que la masa que podemos ver en ese conjunto. Este "problema de la masa faltante" llevó a postular que debería haber una gran cantidad de materia no visible u oscura en el universo.

Estudios posteriores relacionados con los movimientos de otras galaxias e incluso con la radiación de fondo que es la evidencia innegable del Big Bang que dio origen a nuestro universo confirmaron que "faltaba masa" en nuestra percepción visual del universo. Debía haber algo más en los cielos que esas luces que habíamos identificado como estrellas, y a tal masa faltante se le dio el nombre de "materia oscura".

Esto no significa, por supuesto, que sepamos qué es la materia oscura, ni que tengamos una idea clara de cómo se comporta. Y ciertamente no es la "masa oscura" a la que ocasionalmente hacen referencia algunas obras de ficción o de esoterismo imaginativo. Se trata únicamente de un nombre que hemos dado a la incógnita de una ecuación. Podría ser masa no visible, simplemente, pero también podría ser algo distinto, incluso desconocido, pero en todo caso forma el 96% de la masa total del universo, mientras que la masa radiante, la que puede verse en forma de luz o de radiación infrarroja, de ondas de radio, o de rayos X captados por nuestros diversos tipos de telescopios, es sólo el 4% del universo. Cuando mejor creíamos conocer nuestra realidad acabamos descubriendo que ni siquiera sabíamos de la existencia de la mayor parte de esta realidad.

El tema de la materia oscura es considerado actualmente uno de los problemas por resolver más apasionantes e importantes de la física. Otros estudios han conseguido identificar algunas características que debe tener la materia oscura. Por ejemplo, se ha determinado que alrededor del 90% de la masa del universo no interactúa con dos de las fuerzas elementales, la electromagnética y la fuerza nuclear fuerte, mientras que sí interactúa con la gravedad y con la fuerza nuclear débil, por lo que se sugiere que esta masa debe estar formada por partículas como los neutrinos, sumamente difíciles de detectar y que se mueven a velocidades "relativistas", es decir, cercanas a la velocidad de la luz, con lo cual están regidas por las leyes de la relatividad. Otra posibilidad que explora la física es que la masa oscura no esté formada por partículas libres, sino por grandes objetos como agujeros negros. estrellas de neutrones, estrellas poco visibles y planetas. Y buena parte de esa "masa oscura" podría ser "energía oscura", dado que gracias a Einstein sabemos que la energía y la masa son equivalentes, y ayudaría a explicar también las recientes observaciones que indican que la expansión de nuestro universo está acelerándose sin motivo aparente según nuestro marco teórico actual.

La posibilidad más enigmática que plantean las evidencias es que ni siquiera exista la materia oscura y que todo el enfoque sea incorrecto. Es decir, que la discrepancia entre la masa que vemos y la masa que los efectos gravitacionales nos dice que hay se debería a que las herramientas teóricas de las que disponemos actualmente para analizar el universo (la física newtoniana y la física einsteiniana) están aún sumamente incompletas y hay probablemente otro conjunto de fenómenos y leyes que amplíen nuestros conocimientos actuales y, una vez entendidos, podrían explicar los movimientos, estructura e historia del universo sin materia oscura. Quizá al poder unir en un solo cuerpo explicativo la mecánica cuántica y la gravitación la teoría nos ofrezca refinamientos suficientes para que nuestra imagen del universo sea coherente, o al menos eso esperan quienes trabajan en los complejos espacios matemáticos de la física teórica del siglo XXI.

Y, por supuesto, la explicación podría ser otra muy distinta, que incluso nadie haya podido imaginar hasta ahora.

La distribución galáctica


Las galaxias, pensaríamos, deberían estar distribuidas al azar en el espacio, pero no lo están, y las causas de este hecho extraño son uno de los misterios que buscan develar los astrofísicos.

A fines de abril de este año, un grupo de científicos de la Universidad de Cornell informaron que sus estudios sobre los datos aportados por el telescopio espacial Spitzer señalan que la materia oscura puede haber sido un factor de gran importancia en la formación y evolución de las galaxias visible, que sólo podrían haber nacido dentro de aglomeraciones de materia oscura de cierto tamaño en las etapas iniciales del universo.

Según Duncan Farrah y sus colegas de Cornell, la observación de la luz de los cuerpos conocidos como Galaxias Luminosas Infrarrojas indica que en la historia del universo era necesaria la existencia de una cantidad mínima determinada de masa oscura para que se formaran las galaxias y se unieran en conjuntos. Eso que no vemos sería, así, en definitiva, uno de los elementos más importantes que han colaborado a darle forma a nuestro universo.

La Eva africana

Gracias a los avances en el estudio de la genética, la idea de que "todos somos iguales" ha abandonado el reino de la filosofía para convertirse en una certeza científica.

Esquema que muestra cómo se reprodujo la más
antigua hembra ancestral común de toda la
humanidad.
(Gráfico GFDL de Sundar, vía Wikimedia Commons) 
La sucesión de hallazgos relacionados con la genealogía humana ha seguido dos caminos que sólo a últimas fechas han convergido en una imagen que, por primera vez, es lo bastante nítida para conformar un primer retrato razonablemente confiable del devenir de nuestra especie: el de la paleoantropología y el de la genética.

A fines del siglo XIX, la irrupción de la teoría de la evolución le dio sentido aparente por primera vez a los descubrimientos de fósiles de seres ancestrales parecidos a los hombres, estableciendo la idea de que había un ancestro evolutivo que nos conectaba con antropoides como el gorila y el chimpancé. Con esta base teórica, se incrementaron las excavaciones y evolucionaron los métodos para identificar los restos, el estudio de las estructuras óseas y los métodos de datación de los restos que se iban encontrando.

La primera idea, un tanto ingenua vista ahora, desde nuestra perspectiva, era que todos los fósiles humanoides encontrados debían ser parte de una sola cadena evolutiva que iría desde un antropoide similar al chimpancé o al gorila hasta un ser humano moderno. De allí que parte del esfuerzo de la naciente paleoantropología fuera el hallazgo del mítico "eslabón perdido", es decir, el ser "mitad hombre y mitad mono" que marcara limpiamente la frontera entre el pasado animal y el presente humano.

El tiempo, sin embargo, se encargó de demostrar que no todos los fósiles encontrados eran parte de esa sucesión precisa y directa. El árbol genealógico del ser humano se encontraba lleno de ramas que se separaron, sobrevivieron y desaparecieron, como todos los fósiles que pertenecen a los genus Paranthropus, como el Paranthropus boisei (antes llamado Zinjanthropus y, hasta hace poco Australopithecus boisei), que siendo parientes de nuestra estirpe no son nuestros ancestros, sino primos lejanos. Más alarmante para algunos fue que algunos miembros de este árbol, que parecía hacerse más complejo a cada descubrimiento, hubieran sido otra especia humana, con lenguaje, con artesanía, con ritos funerarios, pero también emparentada con nosotros de manera más bien lejana, como es el caso del hombre de Neandertal y sus antecesores, como el Homo antecessor descubierto en Atapuerca por Carbonell, Arsuaga y Bermúdez de Castro.

Pero la complejidad pronto dio paso a una imagen más clara que nos permitió identificar nuestro linaje entre el entramado de especies y subespecies descubiertas hasta la fecha, aún sabiendo que seguramente queda muchísimo por descubrir de la aventura de esos monos que dejaron África para ocupar el planeta. Y se ha podido establecer que nuestra especie, Homo sapiens sapiens apareció en África hace entre 100 mil y 200 mil años.

En menos tiempo, pero de forma más acelerada, el estudio de la genética añadió el descubrimiento, en 1999, de que el ADN de las mitocondrias (los organelos encargados de convertir los alimentos en energía) de nuestras células procede únicamente de la madre, ya que el ADN mitocondrial procedente del padre es destruido en el embrión. Así, a diferencia del ADN del núcleo, que procede en un 50% del padre y en un 50% de la madre, el mitocondrial es el mismo que el de la madre, y sólo cambia por mutaciones al paso del tiempo.

La tasa de mutaciones, que se puede calcular en general, y la deriva genética, la variación natural de los alelos neutrales que ocurre en las poblaciones, permitieron a los genetistas calcular que el origen de todo el ADN mitocondrial de los seres humanos actuales se encuentra en el de una sola hembra humana que vivió hace unos 150.000 años en África Occidental, alrededor de lo que hoy es Tanzania.

Los científicos, en un rapto poético, llamaron a esta hembra la "Eva africana" o, más exactamente, la "Eva mitocondrial", lo cual no significa que fuera la única hembra viviente en ese momento, sino que ella fue la única que ha tenido una línea continua de hijas, mientras que todas las demás hembras vivientes en ese momento sólo tuvieron hijos, o no tuvieron descendencia, o sus descendientes hembras murieron sin reproducirse. No se trata del más reciente ancestro común (MRAC) de todos los seres humanos, sino de un ancestro aún más antiguo, ya que el MRAC masculino human, llamado, también sin implicaciones religiosas, el Adán cromosómico Y (dado que el cromosoma Y sólo se hereda del padre) se ubica hace entre 60.000 y 90.000 años.

Finalmente, la evidencia genética nos dice que esa especie originada hace un cuarto de millón de años en África salió de ese continente para ocupar el resto del planeta hace apenas entre 75 mil y 85 mil años, en una o, cuando mucho, dos migraciones, según la mayoría de los expertos. Como resultado de esta evolución, tremendamente reciente en términos geológicos, un asombroso descubrimiento ha sido que la variación genética entre todos los miembros de la especie humana es menor que la presente en otras especies.

Las implicaciones de estos descubrimientos científicos en el terreno filosófico no puede pasarse por alto. Cualquier ser humano se parece más, genéticamente, a un ser humano de aspecto externo distinto y situado al otro lado del planeta, de lo que se pueden parecer un lobo de la estepa rusa y un lobo de Europa occidental.

"Somos distintos, somos iguales" no es, entonces, un simple lema con connotaciones políticas o ideológicas, es una certeza científica. Tenemos un ancestro materno y un ancestro paterno comunes, surgimos juntos en África, y las diferencias superficiales que nos distinguen son, desde el punto de vista de nuestra constitución esencial, genética, fundamentalmente irrelevantes.

El hombre de Pekín y los hombres de Pekín


El llamado "hombre de Pekín", cuyos primeros fósiles fueron descubiertos en la década de 1920 en Shokoudian, cerca de Beijing, es un ejemplo de la especie Homo erectus, especie que vivió en Asia a partir de la mitad del Pleistoceno y que en el pasado se creyó que era ancestro directo de la especie humana, aunque los estudios más recientes sugieren que fue una de las líneas laterales que no dieron origen directamente a la humanidad.

Sin embargo, en un intento como tantos de manipular los hechos por políticamente, las autoridades chinas han persistido en enseñar que la población china actual es descendiente directa del "hombre de Pekín" y, por tanto, está claramente diferenciada del resto de la humanidad.

Los datos, sin embargo, dicen que la población humana llegó a Asia por Arabia Saudita, la India y el Sudeste Asiático para luego poblar, entre otras regiones, lo que hoy son China y Japón. Los hombres de Pekín no provienen del hombre de Pekín... pero no se les permite saberlo.