Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Stonehenge, más allá del mito

Stonehenge es fuente de valiosos datos sobre el devenir humano, y ahora contamos con nueva información sobre lo más importante: las personas que los construyeron.

Es uno de los más famosos monumentos prehistóricos: una serie de piedras verticales con otras piedras horizontales en forma de dinteles, formando un círculo en cuyo interior había varios monumentos más. Situado cerca de Salisbury, en Inglaterra, Stonehenge ha animado la imaginación durante literalmente miles de años, evocando todo tipo de leyendas en distintos momentos.

Los monumentos de grandes piedras, llamadas megalitos, son una constante de ciertas etapas históricas humanas, en particular el neolítico. En el continente eurasiático africano, se considera que el neolítico comienza alrededor del 8.500 antes de nuestra era y se caracteriza por la aparición de la agricultura y la domesticación de las primeras especies de valor económico, el ganado. Hasta ese momento, los seres humanos debían procurarse el alimento cazando y recolectando productos que crecían de forma silvestre, lo que condicionaba que sus culturas fueran nómadas, siguiendo a las manadas de presas o cambiando su lugar de residencia según la disponibilidad de frutos de la tierra.

La agricultura permitió que los humanos se asentaran en poblados estables, promoviendo la construcción de casas y templos, la creación de caminos, y la invención de nuevas herramientas de piedra para labrar la tierra, cuidar los cultivos y procesar las cosechas. Los pueblos neolíticos eran, aunque la cultura popular a veces sugiera otra cosa, altamente desarrollados. Sus herramientas de piedra eran eficaces, su tecnología bastante desarrollada y en constante evolución, y sus conocimientos astronómicos sumamente sólidos. Parte de esa evolución fue la creación de grandes monumentos de piedra, como los menhires, los dólmenes (piedras verticales que sostienen una losa horizontal, de carácter en general funerario) y los círculos de piedras, siempre con una orientación astronómicamente significativa, como corresponde a una cultura cuya vida depende de las estaciones y la cuidadosa observación de los cielos para saber cuándo plantar, cuándo cosechar y cuándo prepararse para el frío. Stonehenge es sólo uno de los 900 círculos de piedra que se conocen sólo en las islas británicas.

Stonehenge no fue un proyecto de una sola etapa, sino que se fue formando a lo largo de más de mil años, y los estudiosos identifican tres grandes etapas constructivas. Primero, hacia el año 3.100 a.n.e., se construyó un recinto circular de tierra de unos 110 metros de diámetro rodeado de un foso y un banco elevado, que contenía un círculo de 56 agujeros casi con certeza empleados para colocar troncos erguidos en un recinto ceremonial. En una segunda etapa, hacia el 3.000 a.n.e., se construyó otro círculo más amplio de agujeros para postes, cada uno de ellos más pequeño que los de la etapa anterior, y empieza a haber cremaciones llevadas a cabo en el foso que rodeaba la elevación circular, lo que sugiere que se trataba de un cementerio de cremaciones al menos como una de sus funciones.

La tercera etapa de construcción se divide en varios momentos entre el 2.600 y el 1.930 a.n.e., donde la piedra sustituyó a la madera en los elementos verticales, primero con 80 piedras (llamadas piedras azules) formando un semicírculo, y después, entre el 2.450 y el 2.100 a.n.e. se creó lentamente el monumento que ya conocemos, al ser sustituidas las piedras azules por las gigantescas piedras sarsens para formar un círculo con dinteles, 5 trilitos (monumentos de tres piedras en forma de puerta) en su interior, además de las piedras azules formando un dibujo de herradura. Los constructores dieron forma a estas piedras y tallaron en ellas empalmes de lengüeta y de espiga y mortaja que han permitido que al menos algunas permanezcan erguidas. Seguirían algunos cambios menores, entre ellos las inscripciones de algunas piedras realizadas en la edad del bronce.

La construcción de Stonehenge es una hazaña notable aunque no imposible con la tecnología de la época, como lo demuestran los numerosísimos megalitos que existen en todo el mundo. Pero hasta ahora sabíamos muy poco acerca de quiénes los construyeron. Recientes excavaciones en Durrington Walls, a menos de 3 kilómetros de Stonehenge, han revelado un gigantesco asentamiento humano de cientos de personas que data de entre el 2.600 y el 2.500 a.n.e, es decir, la época de la construcción definitiva de Stonehenge. El arqueólogo Mike Parker Pearson de la universidad de Sheffield, Inglaterra, anunció que el descubrimiento de docenas de fogones mediante magnetometría llevó a las excavaciones de las casas que contuvieron tales fogones. Se trata, según se anunció el pasado mes de enero, del poblado neolítico más grande hallado hasta hoy en Gran Bretaña y que podría ser "la otra mitad de Stonehenge".

El complejo de Durrington Walls es, asimismo, un henge, es decir, un espacio cerrado con un banco a su alrededor y un foso dentro de éste, en un círculo de unos 425 metros de diámetro. A fines de 2006 las excavaciones de Durrington Walls mostraron los restos de casas neolíticas de unos 24 metros cuadrados con piso de barro y un fogón central, restos de cerámica y huesos de animales con señales de haber sido cocinados y consumidos. Las casas, salvo tres que están aisladas y podrían tener una función ceremonial, están apiñadas alrededor de un círculo de postes de madera similar al de las primeras etapas constructivas de Stonehenge, del que parte una avenida empedrada de unos 28 metros de ancho y 170 metros de largo, que lleva al río Avon y a la que los arqueólogos le suponen una función ritual.

Como en el caso del descubrimiento realizado por Zahi Hawass de las casas de los constructores de la Gran Pirámide de Keops, al recobrar su dimensión humana estos grandes monumentos nos recuerdan que son, ante todo, testigos de la grandeza, la capacidad, la tenacidad y la inteligencia de otros seres humanos, que junto con esas grandes edificaciones fueron parte de la creación de nuestra cultura y nuestra historia, y sin los cuales no seríamos quienes somos.

De la leyenda a los hechos


Desde que Geoffrey de Monmouth afirmó en siglo XII que Merlín trajo las piedras sarsen de Irlanda a Salisbury (mismas piedras que previamente habrían sido llevadas desde África por gigantes), Stonehenge animó la imaginación (y la oportunidad política) de muchos. Así, el monumento se ha atribuido a los romanos, a los daneses, a los sajones y a los druidas celtas, hasta que el conocimiento científico demostró que era más antiguo que todos ellos. Ello no ha impedido que algunas personas le atribuyan al sitio propiedades mágicas y místicas de todo tipo que nunca han podido demostrar.

Retomando

Por mil causas, el blog no se actualizó durante meses pese a que sigo escribiendo la página semanalmente en El Correo. A partir de hoy, estoy subiendo todos los artículos ya publicados, cada uno con la fecha en la que se publicó en el diario para mantener el orden cronológico.

El órgano invisible

Nos preocupan sus arrugas, sus manchas, sus imperfecciones, sus granos, su color, su textura. Es la principal parte que ven los demás de nosotros, y sin embargo sigue guardando misterios.

Esquema de la piel humana. (Imagen D.P. del Gobierno
de los EE.UU., vía Wikimedia Commons)
Un reciente estudio publicado en febrero por investigadores de la Escuela de Medicina de la Universidad de Nueva York revela que nuestra piel, esa parte de nosotros que es la más visible, la más evidente, aún es, en gran medida, terreno inexplorado, especialmente en cuanto al número y tipo de habitantes que tiene. Porque la piel no es sólo nuestra envoltura exterior, sino que es también el hogar de millones de microorganismos, especialmente bacterias, algunas beneficiosas, otras que no tienen efectos positivos ni negativos e incluso algunas que bajo ciertas condiciones pueden ocasionar enfermedades, pero no en individuos sanos. El estudio identificó a 182 especies de bacterias, de las cuales 15 eran desconocidas hasta ahora, que en un momento dado podrían ser evaluadas en la piel de las personas para obtener datos sobre su salud, pues la población de bacterias en nuestro cuerpo varía al paso del tiempo, de acuerdo a los cambios en nuestra salud, nuestra dieta, las condiciones del clima, el uso de cosméticos y otras variables.

En palabras del jefe del equipo investigador, el doctor Martin J. Blaser, "Mantener estables las poblaciones de bacterias en nuestro cuerpo puede ser parte de la conservación de la salud", algo especialmente importante pues se observó que algunas de las especies de bacterias no están permanentemente allí, sino que cambian con el tiempo.

Aproximadamente el 15% de nuestro peso es de piel, de modo que un adulto de 70 Kg. tiene más de 10 Kg sólo de piel, de un espesor promedio 2 a 3 milímetros y con una superficie de entre 1,5 y 2 metros cuadrados. La piel es así el órgano más grande del cuerpo humano en términos de peso, pero solemos olvidar que se trata de un único órgano que nos cubre y nos defiende, además de darnos nuestro aspecto singular. Esto puede deberse a que la piel asume formas muy distintas según la zona del cuerpo que cubra: más tersa o más rugosa, más gruesa o más suave, más o menos porosa.

Más allá del valor que se le da por cuanto a su belleza y lozanía, o de la importancia que socialmente ha tenido su color en distintos tiempos y lugares, la verdadera importancia de este órgano se encuentra en sus múltiples funciones. Se trata, en primer lugar, de nuestra protección inicial contra las infecciones. No solamente por ser una barrera física que impide la entrada de gérmenes patógenos a nuestro cuerpo, sino que también cuenta con células inmunes especializadas, las células de Langerhans, (no confundir con los "islotes de Langerhans" del páncreas, descubiertos por el mismo científico alemán), que se activan cuando se presenta una infección en la piel y la atacan.

La piel, igualmente, es el principal regulador de la temperatura interna de nuestro cuerpo. La piel contiene mucha más sangre de la que necesita para nutrirse, y la utiliza para enfriarnos cuando hace calor y evitar la pérdida de calor en momentos de mucho frío. Al experimentar calor, se dilatan los vasos de las dermis, la capa inferior de la piel para que más sangre corra cerca de la atmósfera, enfriándose. En este proceso, el sudor juega un papel importante, al irradiar más calor, aunque en general la piel funciona como una barrera para impedir que se evaporen nuestros valiosos fluidos corporales. De allí que la imagen habitual de la persona acalorada incluye piel enrojecida y sudorosa. Por el contrario, cuando hace frío se contraen los vasos sanguíneos de la dermis para impedir que la sangre tenga contacto con el exterior y pierda valioso calor, dándonos, en casos extremos, un color grisáceo azulado. Los pequeños músculos de la piel también se contraen, provocando el aspecto de "piel de gallina", en algo llamado "reflejo pilomotor".

Otras funciones especialmente relevantes de la piel son el almacenamiento de lípidos (grasas) y agua y la síntesis de las vitaminas D y B con ayuda de los rayos ultravioleta del sol, de allí que tomar el sol (en cantidades seguras) de manera regular sea importante más allá de la valoración estética que en nuestros tiempos se da a la piel bronceada. Siempre es útil recordar que, en muchas sociedades del pasado y muy ciertamente en las europeas, sólo de bronceaban quienes trabajaban en el campo, de modo que lo que se apreciaba era una piel blanca y pálida que anunciaba que su propietario era una persona de posibles, que no necesitaba deslomarse al sol para vivir bien.

Aunque se dice con frecuencia que la capa superior de nuestra piel, la epidermis, consta de células muertas, esto no es exacto. Es sólo la capa superior de la epidermis, el stratum corneum o capa córnea, que está formado principalmente por células muertas, pero se trata de una capa de apenas 500 micras (cinco centésimas de milímetro), con una profundidad de 20 o 30 células, que es esencial para impedir que se evapore el agua de nuestro cuerpo y entren bacterias dañinas en él, como barrera natural contra las infecciones. Esta piel muerta se renueva constantemente, tanto que es la principal causa del polvo en nuestras casas. Pero debajo de ella se encuentran otras estructuras de la epidermis, como los melanocitos, las células responsables que producen la melanina o colorante natural del ser humano, y que son las responsables del tono de nuestra piel, y las células de Langerhans.

La preocupación por el cáncer de piel ha sido uno de los elementos que están animando los nuevos estudios sobre nuestra envoltura viviente, pero lo que queda claro es que aún queda mucho por saber sobre ella, y para ello se están empleando los más recientes métodos de la ciencia biológica. El estudio de Blaser y su equipo implicó la toma de muestras superficiales de la piel de seis personas (tres hombres y tres mujeres) con varios meses de diferencia, el cultivo de las colonias bacterianas y el uso de los más originales sistemas de identificación genética para determinar qué especies estan presentes en nuestra piel.

Los microbios de nuestro cuerpo


En nuestro cuerpo, dentro y fuera, habitan numerosísimas especies de microbios como los detectados por el equipo de Martin J. Blaser en la piel, y no tienen por qué ser motivo de preocupación. Después de todo, tenemos más microbios que células nuestras en el cuerpo. ¿Cuántos? Según los expertos, en nuestro cuerpo hay 10 veces más microbios unicelulares que células nuestras. Así, si un cuerpo humano tiene, se calcula, cien billones de células (un 100 seguido de doce ceros, o cien millones de millones), alberga mil billones de bacterias pertenecientes a entre 5.000 y 10.000 especies distintas, la mayoría indispensables para nuestra vida.

Los videojuegos y los videojugadores

¿Y si en lugar de prepararse para la lucha, el joven que juega en el ordenador está mejorando sus habilidades, optimizando su agudeza visual y liberando su angustia?

A principios de febrero, un equipo de investigadores de la Universidad de Rochester anunció que un grupo de personas que jugaron un videojuego de acción durante algunas horas al día en el plazo de un mes mostraron una mejora de alrededor del 20% en su agudeza visual, mejorando su capacidad de identificar letras presentadas en amontonamientos, una prueba similar a algunas de las que se realizan en las clínicas oftalmológicas.

Este descubrimiento viene a sumarse a los muchos estudios que han demostrado una y otra vez que la práctica de los videojuegos tiene efectos positivos, como por ejemplo la mejora la coordinación visomotora, es decir, la concordancia entre el ojo y los movimientos de los músculos, una habilidad esencial para realizar correctamente numerosas actividades como la operación de maquinaria pesada, todos los trabajos manuales de operarios y artesanos y numerosos deportes, incluida la conducción de automóviles de Fórmula Uno, motivo por el cual hoy en día se usan videojuegos (más o menos enmascarados bajo el nombre de "simuladores") para ayudar en el entrenamiento de campeones como Fernando Alonso.

Apenas el 20 de febrero se informó de otro estudio en el que cirujanos especializados en laparoscopía del Centro Médico Beth Israel de Nueva York fueron estudiados por investigadores de la Universidad Estatal de Iowa. El resultado del estudio indica que los cirujanos que jugaban videojuegos al menos tres horas a la semana cometían 37% menos errores, trabajaban 27% más rápido y tenían notas 42% mejores que sus colegas en pruebas de habilidades quirúrgicas.

Así, ante las muchas afirmaciones, no siempre sin sustento, de que los videojuegos violentos pueden aumentar la violencia del "mundo real" de algunos de sus practicantes, algo que se ha vuelto parte de la cultura popular, hay también otros aspectos positivos que deben ser tenidos en cuenta ante esta forma de jugar, que aunque nueva en su forma no deja de ser sino la expresión de un aspecto esencial de nuestro comportamiento como especie.

Los estudiosos de la conducta animal y humana, como los psicólogos, los etólogos y los biólogos, han señalado con frecuencia que el juego parece ser una forma de preparación del animal para su vida adulta. Así, por ejemplo, los pequeños felinos juguetean con cosas empleando pautas conductuales muy similares a las que utilizarán para cazar, mientras que las crías de las presas, como los antílopes, juegan a correr y cambiar de dirección súbitamente, como lo harán el día de mañana para evitar ser víctimas de un depredador.

El caso del hombre no es distinto, aunque el proceso de neotenia nos ha dado características peculiares. La neotenia es la prolongación de la infancia (la humana es la más larga de todo el reino animal en proporción con la duración de su vida) y el mantenimiento de algunos rasgos infantiles en la vida adulta, como es la capacidad de jugar. Por ejemplo, el más cercano aliado del hombre, el perro, como parte de su domesticación ha sufrido también un proceso de neotenia que le permite seguir disfrutando el juego durante toda su vida, cuando el lobo abandona las conductas lúdicas al llegar a la edad adulta. Como ser capaz de jugar durante toda la vida, el hombre juguetón u homo ludens, busca continuamente formas distintas de divertirse, con juegos que ponen a prueba la memoria, la habilidad física (los deportes), la habilidad mental, la coordinación y muchas otras de nuestras características. Casi todo lo que hemos inventado lo hemos usado para jugar. Así, por ejemplo, las carreras de autos aparecieron muy poco después de la invención del automóvil, y, por supuesto, los juegos de ordenador surgieron casi al mismo tiempo en que los ordenadores se hicieron comunes, empezando en la década de 1970 con un ya casi olvidado tenis o ping-pong de vídeo en el que dos rayas hacían el papel de raquetas, un cuadrado actuaba como bola, y lo único que podía hacer el jugador era mover su raqueta hacia arriba y hacia abajo. Esa sencillísima disposición, sin embargo, bastó para crear el imperio de Atari, la primera empresa de videojuegos, que llenó el mundo de salas con juegos electrónicos.

Por supuesto, los videojuegos violentos tienen el defecto de ser, precisamente, violentos, pero ello no es forzosamente negativo. Noah j. Stupak, del Instituto de Tecnología de Rochester, señala que incluso algunos videojuegos de contenido violento "pueden actuar como una liberación de la agresión y frustración acumuladas". Por su parte, Daphne Bavelier, jefa del equipo investigador que hizo el estudio que ha demostrado mejoras en la agudeza visual entre quienes juegan videojuegos de acción dicen que "cuando las personas practican videojuegos están cambiando la ruta cerebral responsable del procesamiento visual". Sin embargo, es cauta: "Estos juegos llevan al sistema visual humano a sus límites, y el cerebro se adapta a ello. Ese aprendizaje se traslada a otras actividades y, posiblemente, a la vida cotidiana". Pero los efectos de este estudio pueden ir más allá, indicando la posibilidad, aún por explorarse científicamente, de que personas con déficits visuales como la ambliopía podrían mejorar su agudeza visual utilizando software de rehabilitación especial que reproduzca la necesidad que ofrecen los videojuegos de acción de identificar objetos con gran rapidez.

Lo que queda más claro es que aún hay mucho qué estudiar de los distintos aspectos de los videojuegos, desde sus historias, violentas o no, hasta sus características sociales, como si implican o no interacción de equipo, además de los aspectos que ponen a prueba en el jugador. Para ello, el equipo de Daphne Bevalier utilizará un laboratorio informatizado de realidad virtual de 360 grados, lo que Science Today llama "el sueño de un jugador de videojuegos", que está terminando de construirse actualmente en la Universidad de Rochester.

Aprender jugando, en la era del ordenador


No todos los videojuegos son violentos, como lo demuestra el éxito de muchos juegos benévolos y amables, pero existe también la visión de algunos de crear videojuegos de acción que sirvan para educar, sin que se note demasiado. La Federación de Científicos Estadounidenses acaba de lanzar el juego Immune Attack (Ataque inmune) cuyo objetivo es sumergir al jugador en los difíciles y complejos conceptos de la inmunología jugando en tejidos humanos contra infecciones virales y bacterianas, y atacándolas resolviendo problemas reales de la inmunología mientras disfrutan de acción útil e informativa. Podría ser el primero de muchos.

El principio de todo

En el principio hubo una gran explosión, después vinieron los físicos a tratar de entenderla, explicarla y preguntarse a dónde va.

Cronograma del universo y la sonda WMAP.
(Imagen D.P. de la Nasa, traducción de Luis Fernández
García, via Wikimedia Commons)
El origen de cuanto nos rodea es una de las preguntas esenciales de la humanidad. Todos los mitos comienzan con una visión de la creación del mundo o el universo. La filosofía y la ciencia también han enfrentado el problema que presenta la sola existencia de "algo". Hoy en día, la ciencia cuenta con una teoría desarrollada y fundamentada en las observaciones que hemos realizado, y que propone una explicación al origen del universo, la llamada "Teoría del Big Bang" o "Teoría de la Gran Explosión", que postula que hubo un momento preciso en el que se dio una gigantesca explosión en la cual se creó todo nuestro universo: la materia, el espacio y el tiempo. Esta idea se ha difundido desde los años 50, y la frase "big bang" es ya parte del habla común. Sin embargo, es oportuno señalar cómo se llegó a esta teoría y cómo se ha comprobado hasta permitirnos decir que es la mejor forma que tenemos para explicar el origen del universo.

Cuando no se sabía que las "nebulosas espirales" eran galaxias, se observó que dichas nebulosas se estaban alejando de la Tierra. Con base en esto y en los desarrollos de las ecuaciones de Einstein de la relatividad general de matemáticos como el ruso Alexander Friedmann en 1922, el sacerdote católico belga Georges Lemaître propuso en 1927 que el universo había comenzado como un "átomo primordial". Por entonces, el astrónomo estadounidense Edwin Hubble, que da su nombre al famoso telescopio orbital, había anunciado que las nebulosas eran galaxias muy lejanas, y en 1929 dio a conocer que el universo estaba en expansión, algo que era coherente con las ecuaciones de Einstein, pero también era una observación que confirmaba la teoría del "Big Bang". Si todo el universo estaba en expansión hacia todas partes a la vez, es lógico pensar que en un momento dado estuvo todo en el mismo sitio. Si pasáramos la película del desarrollo del universo hacia atrás, el universo se contraería hasta que, en un momento dado, que se ha calculado que ocurrió hace unos 13.700 millones de años, todo estaría concentrado en un mismo punto.

Había otras teorías de la física que pretendían explicar el universo, por supuesto, entendiendo "teoría" no como una suposición, especulación o conjetura, que se como utilizamos la palabra en el habla cotidiana, sino como la plantea la ciencia: un modelo de la forma de interacción de un conjunto de fenómenos naturales capaz de predecir acontecimientos y observaciones, y que está planteado de tal forma que pueda demostrarse que es falso en caso de que lo sea. De hecho, las ecuaciones de Friedmann eran compatibles con dos teorías, la del "estado estable" de Fred Hoyle y la del "átomo primordial". Para saber cuál describía mejor al universo, había que esperar nuevos datos.

La teoría del Big Bang implicaba que el universo, en sus primeras etapas, era un plasma muy caliente de fotones, electrones y bariones (familia de partículas subatómicas que incluye a los protones y neutrones). Al expandirse y enfriarse el universo, siempre según esta teoría, los fotones de aquel plasma se disociarían de la materia y se enfriarían, y por tanto debería existir una radiación cósmica de microondas de fondo en todo el universo observable, formada por dichos fotones, con características muy precisas. En 1965, los astrofísicos Arno Penzias y Robert Woodrow Wilson realizaron observaciones de radioastronomía que mostraban un exceso de temperatura en la radiación que, se demostró pronto, no era sino la observación directa de la radiación cósmica de fondo, una radiación que era exactamente como la había predicho la teoría del Big Bang. Este descubrimiento le valió el Nobel de Física a Penzias y Wilson en 1978. En los años 70, mediciones más finas de la radiación cósmica de fondo establecieron que era, efectivamente, el "eco" o los restos observables de la gran explosión, y sus características eran tales que ninguna otra de las teorías desarrolladas hasta el momento podían explicar. Desde entonces, los avances tecnológicos han permitido hacer observaciones adicionales que confirman la teoría del Big Bang y amplían lo que sabemos. Al mismo tiempo, como suele ocurrir en la ciencia, abren una enorme cantidad de nuevas interrogantes que antes ni siquiera sabíamos que existían, como la existencia de la "energía oscura".

La parte más extraña de la teoría del Big Bang es, sin duda, lo que había al momento de la gran explosión. Si el tiempo y el espacio se iniciaron precisamente al ocurrir la explosión, la pregunta "¿qué había antes allí?" carece de sentido, porque no había un "antes" al no existir el tiempo. Queda por saber qué hizo explosión para dar origen a nuestro universo. La teoría de la relatividad general dice que se trataría de lo que los físicos llaman uns "singularidad", un punto donde las cantidades que se usan para medir el campo gravitacional (la curvatura del tiempo o la densidad de la materia) se vuelven infinitas. Los agujeros negros son pequeñas singularidades, de modo que se puede decir que el universo comenzó con un enorme agujero negro en el que estaban compactados la materia, el tiempo y el espacio. Por qué hizo explosión tal singularidad es una pregunta que, sin embargo, aún estamos muy lejos de poder intentar responder con alguna certeza.

Lo mismo pasa con lo que le ocurrirá después al universo, aunque la solución es, en principio, más sencilla, pues depende de la cantidad de materia que contiene y de su velocidad de expansión, y hay dos especulaciones principales. Si tiene suficiente masa y una velocidad correspondientemente "lenta", la expansión del universo se detendrá en algún momento y empezará el "gran aplastamiento", con el universo contrayéndose hasta convertirse nuevamente en una singularidad. Pero si la velocidad es demasiado alta y la masa insuficiente, el universo se expandirá eternamente, desordenándose cada vez más de acuerdo con las leyes de la termodinámica y enfriándose cada vez más, acercándose al cero absoluto, posibilida que se llama, como corresponde el "gran congelamiento". O podría pasar otra cosa que hoy ni siquiera nos podemos imaginar.

El nombre era una broma


En 1949, Fred Hoyle se refirió burlonamente a la teoría del "átomo primordial" de Lemaitre como "this big bang idea" ("esta idea de una gran explosión"). A Hoyle le pareció que su chiste era bueno para denigrar la teoría opositora y lo repitió en 1950. Al poco tiempo, no sólo se demostraba que la teoría de Lemaitre era la más precisa, sino que el nombre "big bang" era adoptado por los físicos como una descripción sencilla, corta y clara de lo que ocurrió en ese primer instante.

Nuestros primos los neandertales

Poco antes de la publicación de El origen de las especies, un profesor y un anatomista alemanes anunciaban el hallazgo de unos restos que cambiarían la visión que tenemos de nuestra historia como especie.

Tenían rituales de enterramiento, lo que revela que estaban conscientes de la muerte; tenían capacidad para comunicarse mediante el habla, aunque su lenguaje es un enigma; cuidaban de sus enfermos y alimentaban a los ancianos, demostrando una clara solidaridad; eran capaces de algunas expresiones artísticas, como la creación de adornos corporales; poseían la tecnología del fuego, de la construcción de albergues y del trabajo de la piedra con la que fabricaban armas para la cacería, en especial lanzas; eran, en resumen, lo que llamaríamos humanos... pero no éramos nosotros, no eran nuestros antepasados, eran los miembros de la especie Homo neanderthalensis o neandertales, primos cercanos de nuestra estirpe que desaparecieron hace alrededor de 24 mil años y que demuestran que las características humanas esenciales no son privativas de nosotros, del Homo sapiens, pese al gusto que tenemos por sentirnos especiales dentro del mundo natural.

Por nuestra parte, cierta arrogancia antopocentrista nos ha llevado a identificar al neandertal no con un humano primitivo, sensible, comunicativo y que lloraba a sus muertos, sino con un bruto de caricatura, insensible, idiota, retorcido y sucio, quizá por temor a vernos en el espejo que nos ofrece como una criatura que compartió el planeta con nosotros y de cuya desaparición quizá tiene algo de responsabilidad esta humanidad.

Los malentendidos sobre el neandertal se empezaron a dar desde el descubrimiento de los primeros restos de esta especie que se estudiaron (aunque hoy sabemos que se habían encontrado antes otros a los que no se les dió importancia): un casquete craneal, dos fémures, tres huesos del brazo derecho, dos del izquierdo, parte del íleon, fragmentos de la clavícula y algunas costillas que encontraron unos trabajadores de una cantera en el valle Neander cerca de Düsseldorf en 1856. Entregaron el material al profesor y naturalista aficionado Johann Karl Fuhlrott, que los identificó primero como restos de un oso y los entregó al anatomista Hermann Schaffhausen para su estudio. Un año después, ambos hombres anunciaron el descubrimiento. Primero se les identificó como pertenecientes a un jinete cosaco, pero poco a poco surgió la idea de que eran europeos antiguos, aunque no fue sino hasta principios del siglo XX cuando se propuso que no eran ancestros de los humanos actuales, sino una especie separada.

Quienes ofrecieron esta idea se basaron en el especimen de La Chapelle-aux-Saints, el cual, lo sabemos hoy, al momento de morir era un anciano con artritis crónica en todo el cuerpo, afección que deformó sus huesos. Los científicos se basaron en esos huesos y en los prejuicios antropocentristas antes mencionados para asegurar no sólo que tenía una inteligencia similar a la de los simios, sino que caminaba igual que éstos. Los simios no son bípedos, sino que se trasladan sobre sus cuatro extremidades, y al asumir una postura erguida lo hacen con dificultad, exactamente como en los medios se caricaturiza a cualquier hombre primitivo: encorvado, con las piernas combadas, los brazos colgando hacia adelante... todo ello rechazado por el conocimiento que tenemos de esta especie y del los homínidos en general. Nuestra estirpe camina erguida sobre sus dos piernas desde hace unos cuatro millones de años. Los australopitecos de entonces, los neandertales y todos nuestros antepasados durante estos millones de años caminaban y corrían de manera nada distinta a la de las supermodelos, sin curvaturas, retorcimientos ni piernas zambas.

Pero el neandertal venía a ocupar el lugar del mítico "hombre salvaje", del "humano degenerado", a ojos de algunos, que asumía una actitud animalesca y brutal, y tal caracterización se ha sostenido pese a los avances del conocimiento. Y pese a que hoy sabemos que un neandertal bien podría pasearse entre nosotros como un personaje bajo de estatura, de nariz tremendamente ancha, sin barbilla, con el cráneo más bien aplanado y un pronunciado arco supraorbital, pero nada que no asumiéramos como esencialmente humano, no simiesco.

Los neandertales están presentes en Europa al menos desde hace 150 mil años, lo que significa que vivieron las duras épocas glaciales (y sobrevivieron a ellas). La llegada de los cromañones (es decir, de nuestra especie) a sus territorios hace 45 mil años marcó el principio del declive neandertal, que llegó a su fin hace alrededor de 24 mil años al desaparecer las últimas poblaciones de regiones como Croacia, Crimea y la Península Ibérica. Esto, sin emabrgo, no demuestra que el cromañón haya sido la causa de la desaparición de los neandertales, pues ésta sigue siendo sujeto de profundos debates. Varias veces, la más reciente a cargo del doctor Erik Trinkaus de la universidad de Washington, a fines de 2006, se vuelve a sugerir que los neandertales fueron asimilados a los cromañones y que, en alguna pequeña medida, su composición genética es parte de la nuestra, aunque la secuenciación del genoma neandertal parece haber excluido definitivamente esa posibilidad.

Sin embargo, mientras se realizan nuevos descubrimientos (como los que se espera conseguir en uno de los yacimientos de Atapuerca) y nos acercamos más al conocimiento de las causas que hicieron que desaparecieran los neandertales, hay elementos para la reflexión. La existencia de un ser humano que sin embargo no pertenece a nuestra especie tiene un significado profundo en cuanto a la comprensión de lo que significa ser producto de la evolución, y es un golpe quizás muy necesario a nuestro orgullo como, según creen algunos, "cumbre de la evolución". Los neandertales y nosotros nos separamos de un ancestro común hace poco más de medio millón de años, y cuando nos volvimos a encontrar en las llanuras europeas teníamos más o menos el mismo nivel de avance tecnológico y más o menos la misma organización social. Y sin embargo, una de las dos especies desapareció mientras la otra sufrió nuevos cambios que la llevaron en unos miles de años a la creación de las primeras civilizaciones, cuando las cosas podrían haber ocurrido exactamente al revés. El neandertal no es sólo un primo y un espejo, es el ser que podría ser nosotros.

¿El neandertal se extinguió en Carihuela?


Un estudio publicado a fines de enero de este año por Santiago Fernández y sus colegas, basado en los estudios de la cueva de Carihuela, sugiere que allí vivieron neandertales hace entre 28.440 y 21.430 años. De ser así, éste sería casi con certeza uno de los últimos enclaves neandertales, el umbral de la extinción de nuestros primos más cercanos.

Los niños salvajes y el lenguaje

La tragedia de los niños criados en aislamiento social nos permite profundizar en algunos de los aspectos del origen del lenguaje entre los humanos.

La loba amamantando a Rómulo y Remo, míticos niños
ferales fundadores de Roma. Altar de mármol de fines del
reinado de Trajano.
(Foto D.P. Marie Lan-Nguyen vía Wikimedia Commons)
Una cuestión esencial para la ciencia respecto de nuestra vida como especie es en qué medida el lenguaje y las capacidades intelectivas asociadas a él dependen de la genética y en qué medida del entorno social. Los experimentos que se podrían plantear para solventar esta cuestión implicarían el aislamiento de niños de su entorno social para analizar su desarrollo, algo éticamente inadmisible, aunque las leyendas de varias culturas aseguran que distintos monarcas lo han intentado con algunos de sus infortunados súbditos.

Algo similar a tal experimento ocurre con los niños que se crían con un mínimo de contacto humano o sin él, ya sea por desarrollarse solos, ser criados por diversos animales o ser víctimas de atroces prácticas como las que sufrió la niña "Genie" en Estados Unidos en los años 70, que vivió sus primeros trece años ignorada y atada a una silla y a una cama. La literatura popular ha idealizado a los niños criados en aislamiento, los llamados "niños ferales", en particular los que han sido adoptados por animales. Desde el mito fundacional de Roma, con Rómulo y Remo, amamantados por una loba, pasando por Tarzán y el Mowgli de El libro de la selva, al niño feral se le ha identificado con un estado idílico de estrecha asociación con la naturaleza, fina sensiblidad y agudo intelecto. Nada de eso, sin embargo, ocurre con los más de cien niños ferales conocidos, incluida la camboyana Rochom P'ngieng, perdida aparentemente a los 8 años y recientemente encontrada después de 19.

El lenguaje es uno de los grandes misterios de nuestra evolución. Considerado como una característica esencialmente humana, fue necesario que los paleoantropólogos descubrieran un hueso hioides de un neandertal para que se aceptara que esos primos nuestros también podían hablar. El hueso hioides o lingual es un hueso del cuello humano no articulado con ningún otro hueso que soporta la lengua y que es fundamental para el lenguaje humano complejo. El aparato fonador que produce nuestro lenguaje es una peculiaridad de la naturaleza, pero más lo son las estructuras neurológicas que lo sustentan. Nuestra capacidad de producir un lenguaje se concentra en la llamada "área de Broca", por el médico francés Jean Pierre Broca que la identificó. Se encuentra en un solo lado del cerebro (comúnmente el izquierdo) en el pliegue del lóbulo frontal, aproximadamente encima y delante de nuestros oídos. En esa zona se procesa la producción del habla y parte de la comprensión, aunque la mayor parte de la capacidad de comprensión parece hallarse en el "área de Wernicke", una estructura ubicada donde se encuentral el lóbulo temporal y el parietal, en el mismo hemisferio cerebral donde se encuentra la de Broca. Siendo parte de la corteza cerebral, estas dos áreas son estructuras "modernas" en términos evolutivos.

Los niños totalmente aislados desde la más tierna infancia y recuperados después de la pubertad no consiguen desarrollar plenamente lo que llamamos lenguaje. Así lo parecen demostrar casos famosos, como el de Víctor de Aveyron, encontrado en el sur de Francia en 1800, a una edad de aproximadamente doce años, quien pese a vivir 28 años más, aprendió a obedecer algunas órdenes habladas pero nunca dio señales de comprender el lenguaje como una estructura gramatical y, ciertamente, nunca consiguió hablar, aunque producía algunos sonidos distintivos. Kamala, hallada a los ocho años en la India junto con su hermana Amala de 18 meses (que murió poco después), logró apenas reunir un vocabulario de unas 40 palabras antes de su muerte a los 16 años de edad.

Una de las peculiaridades de la evolución humana es la indefensión que tienen los recién nacidos, así como nuestra prolongada infancia, un proceso conocido como "neotenia" que, se ha teorizado, se produjo entre los humanos dándonos, como individuos, un precioso tiempo necesario para aprender y formarnos en la cultura y sutilezas sociales peculiares de nuestra especie. Pero lo que parecen habernos enseñado los niños ferales es que sin el entorno social, esa preparación genética es inútil. Esto explicaría el fracaso de Joseph Singh, quien encontró a Kamala y Amala y que pretendía "liberar" a las niñas de las cualidades lupinas que, según él, impedían que surgieran sus cualidades humanas. Existe, por el contrario, un llamado "período crítico" o "período sensible" para el desarrollo del lenguaje, limitado a los años anteriores a la pubertad, y después de esta los cambios en el cerebro hacen que resulte extremadamente difícil adquirir la capacidad de comunicarnos mediante un lenguaje.

Lo que sabemos a partir de los niños ferales es, sin embargo, poco concluyente y suele sustentarse en otro tipo de experimentos y estudios para validarse. Primero, porque sólo hay algo más de cien casos reportados en la historia, y cada uno tiene peculiaridades difíciles de generalizar. Segundo, porque en muchos casos existe la duda de si los problemas de desarrollo reportados en niños ferales del pasado fueron producto de su crianza en aislamiento o bien los niños fueron abandonados o aislados precisamente por dar señales tempranas de algún problema de comportamiento, como podría ser el autismo (que se ha argumentado en el caso de Víctor de Aveyron) o retrasos mentales graves que no diagnosticaban correctamente en el pasado. Y también, como se ha podido demostrar en algunos casos, porque algunos casos son bulos o fraudes, como el de la "Ninfa de Nullarbor", una supuesta "niña canguro" que no era sino una joven modelo contratada por un hotel para hacerse publicidad y embromar a los turistas.

El cerebro humano necesita de estímulos para desarrollarse, y las neurociencias actuales han demostrado de manera sumamente gráfica cómo las conexiones neuronales se multiplican en cerebros sometidos a estímulos interesantes, atractivos y cercanos, mientras que la falta de estímulos ocasiona que el cerebro sea más pequeño y con malformaciones. En el debate entre la genética y el entorno, entre lo innato y lo aprendido, finalmente parece estar claro que ambos elementos son esenciales para hacernos lo que somos.

La afasia de Broca

La afasia de Broca puede presentarse como consecuencia de una lesión en el área de Broca. Se caracteriza por la incapacidad del paciente de crear oraciones gramaticalmente complejas. Los que sufren de esta afección hablan de modo "telegráfico" y utilizan pocas conjunciones, preposiciones o adverbios. Los pacientes saben que no se están comunicando correctamente, pues su comprensión del lenguaje generalmente es normal salvo en el caso de algunos tipos de oraciones de sintaxis muy compleja.

Cuando tener comida es un problema

El hombre ha vivido temiendo la escasez de alimentos. Pero las sociedades de la abundancia albergan hoy condiciones paradójicas, como la bulimia y la anorexia.

Los recientes fallecimientos de cinco jóvenes brasileñas con el anhelo de recorrer las pasarelas como modelos y las restricciones sobre el índice de masa corporal impuestas a las modelos en las pasarelas españolas e italianas han subrayado nuevamente el problema que en algunas sociedades están presentando los desórdenes alimenticios con origen psicológico.

La historia humana, salvo en algunas sociedades, ha sido una de ciclos de escasez y abundancia que marcaron los acontecimientos. Por ejemplo, se considera que la gran hambruna en Egipto provocada por la reducción en las inundaciones del Nilo a mediados del siglo 22 antes de nuestra era fue una de las causas principales del colapso del antiguo reino. El hambre puede haber también jugado un papel esencial en la caída de muchas civilizaciones en todo el planeta, incluida la de los antiguos mayas, y juega un importante papel en el imaginario colectivo incluso en Europa, cuando la última hambruna grave ocurrió durante la Segunda Guerra Mundial. Hambrunas recientes como la de 1958-1961 en China con más de 30 millones de muertes, las de las décadas de 1970 y 1980 en África o la de Corea del Norte a mediados la década de 1990 son una clara muestra de que la abundancia que generan el conocimiento, la tecnología y los avances de la ciencia sigue estando lejos del alcance de la mayoría de los seres humanos.

En tiempos ya sea de abundancia o de escasez, siempre ha habido casos de personas que voluntariamente se someten al hambre. Las religiones que consideran que el dolor, el sacrificio, la humillación y la automutilación son agradables a sus deidades o un buen camino para la superación espiritual suelen incluir el ayuno voluntario como forma de adoración o ejercicio espiritual, y esta idea en ocasiones es llevada al extremo por seguidores especialmente fervientes. En algunos países asiátcos, se sabe de monjes budistas que se han suicidado mediante la privación de alimentos, y es conocida la historia de la monja católica supuestamente estigmatizada Catherine Emmerich, que afirmaba alimentarse únicamente de una hostia consagrada al día. Igualmente, y en un tono más humano, durante las más graves hambrunas no es infrecuente que algunas personas opten por entregar sus alimentos a las personas que aman, especialmente a sus hijos.

Pero la supresión de la alimentación por motivos psicológicos, voluntarios y no sujetos a creencias religiosas o a escasez ha sido históricamente menos frecuente. Según algunos expertos, lo que hoy conocemos como anorexia nerviosa es una afección descrita por primera vez en Londres en 1689 por Richard Morton, que hablaba de una "consunción nerviosa" ocasionada por "tristeza y preocupaciones de ansiedad", pero no hay forma de saber si el origen de los desarreglos observados por Morton es el mismo que hoy es causa de alarma principalmente en las sociedades occidentales. Ciertamente, los síntomas que describió Charles Lasègue en Francia en 1873 sí parecen los mismos que hoy afectan a muchas chicas, aunque no es sino hasta la década de 1930 cuando los investigadores encuentran las raíces emocionales de la anorexia que hoy caracterizan a esta disfunción.

La anorexia nerviosa se caracteriza porque el paciente (generalmente mujer, pero no de manera exclusiva) se percibe a sí mismo como alguien con exceso de peso y, a la búsqueda de un aspecto "ideal" se priva de alimentos, en ocasiones dejándose llevar por un exceso de comida consumida descontroladamente en una hora o dos, que suele ser seguido por la lucha por eliminar esa comida, ya sea mediante purgantes o eméticos para provocar el vómito. Aunque también hay referencias históricas al vómito autoinducido, como en el caso de los antiguos griegos y romanos, esta antigua práctica no contenía el elemento de "lucha" contra el alimento, sino que era solamente una forma de vaciar el estómago para poder seguir comiendo en orgías y bacanales, y por tanto se trata de cosas sin relación entre sí. Cuando comer descontroladamente y purgarse es un hábito recurrente, incluso en personas que no sufren de anorexia, se conoce como "bulimia nerviosa", y ambas afecciones con frecuencia se sobreponen en las mismas víctimas. A esto se añaden prácticas supersticiosas surgidas de ideas como la de que el cuerpo "acumula toxinas" y que para "limpiarlo" hace falta un ayuno periódico, afirmación muy común entre ciertas creencias relacionadas con el new age pero que no tiene ninguna base en el funcionamiento real del cuerpo, sin contar con que los proponentes de estas ideas nunca han podido identificar química o biológicamente a ninguna de las "toxinas" de las que hablan.

Esto muestra que la anorexia y la bulimia tienen un componente social muy importante. Así como las mujeres victorianas experimentaban anorexia por temor a que su apetito por la comida se confundiera con un "excesivo" apetito sexual además de existir el mito que comer en abundancia provocaba "fealdad", las víctimas de la anorexia y la bulimia hoy consideran que deben responder a un ideal de belleza que se decide más en los ateliers de diseño de moda y en las compañías publicitarias que en la interacción cotidiana. Estos ideales, unidos a una baja autoestima, se encuentran en la raíz de gran parte de los casos, como lo demuestra el hecho de que la anorexia y la bulimia se concentran en los países de la abundancia y en los sectores de las clases medias y altas de los países más pobres, que se identifican cultural y socialmente con las grandes metrópolis económicas.

El índice de masa corporal


Lo que hoy llamamo "índice de masa corporal" (IMC) es una medición estadística desarrollada a mediados del siglo XIX por el erudito belga Adolphe Quetelet (por lo que también se le conoce como "índice Quetelet", y es básicamente el peso de una persona en kilogramos dividido entre el cuadrado de su estatura en metros o sea kg/m2. En 1996, la Organización Mundial de la Salud decidió emplear esta medición para determinar los niveles de desnutrición de las poblaciones. En el caso de personas adultas con una complexión media, se considera que un valor de menos de 15 indica inanición, hasta 17,5 revela anorexia, hasta 18,5 falta de peso, de 18,5 a 25 un peso normal, hasta 30 hay sobrepeso, hasta 40 hay obesidad y en más de 40 hay obesidad mórbida. En el caso de personas de huesos muy anchos o delgados, o con gran musculatura (como los fisiculturistas), puede haber variaciones mayores que no revelen anormalidad. El límite de las pasarelas, fijado en 18, es, de todas formas, el correspondiente a una ligera falta de peso.

Clima y cambio climático

La meteorología ha avanzado a grandes pasos, y sin embargo, aún falta mucho por andar para saber si lloverá mañana... y quizá no podamos llegar a saberlo nunca.

En abril de 2006 se lanzó un innovador sistema de seis microsatélites destinados a la observación meteorológica, de la ionosfera y del clima, COSMIC, por sus siglas en inglés. Considerados como el más preciso y estable termómetro para medir el cambio climático, estos microsatélites pueden "ver" a través de la capa de nubes y obtener datos precisos sobre la temperatura y la presencia de vapor de agua en más de mil puntos del planeta cada día, con expectativas de alcanzar los 2.500 diarios en 2007. Los científicos esperan que este sistema de satélites mejore sensiblemente la capacidad humana para prever el comportamiento de huracanes y tifones, así como mejorar las predicciones del tiempo a largo plazo y monitorizar con una exactitud sin precedentes el cambio climático de nuestro planeta.

El conocimiento previo de las condiciones climáticas del futuro, y de ser posible su control, son viejos sueños humanos. Ante los hechos clarísimos de los cambios que traen las estaciones, la temporada de calor, la temporada de lluvias, la temporada de frío, nació el deseo por conocer con más precisión el tiempo que haría en lugares delimitados en momentos concretos, una tarea bastante más difícil que prever que en agosto hará calor en el hemisferio norte (y frío en el sur). La forma de las nubes, el color del sol o del cielo, el vuelo de las aves, los dolores reumáticos y otros elementos a cual más diverso fueron utilizados para intentar conocer detalladamente el clima por venir y prepararse para él. Y cuando fallaban las expectativas normales y las lluvias se retrasaban, por ejemplo, se acudía a un mago o brujo que afirmaba poder provocar la lluvia, aunque generalmente lo único que hacía era tiempo hasta que finalmente llovía, apuntándose el tanto.

Pero no fue sino hasta 1904 cuando el científico noruego Vilhelm Bjerknes propuso que el clima podría pronosticarse a partir de cálculos basados en las variables observables, muchas de ellas no conocidas en la antigüedad, como las variaciones de la presión atmosférica. La presión, la composición atmosférica, las mareas, el calor del sol, el calor del núcleo terrestre, la cantidad de vapor de agua presente en una zona u otra, son algunos de los elementos que influyen en el clima en general, más otros muchos aspectos que determinan el microclima, es decir, el clima en un lugar muy específico. En una ciudad mediana, por ejemplo, puede llover en un barrio mientras que otro, a un par de kilómetros, goza de sol pleno durante todo el día. De este modo, la predicción del clima para Donosti, para Asturias o para Málaga es en realidad una gran generalización que no es aplicable a todos los puntos de tales comunidades, ya no digamos cuando se pregunta qué clima hace en Francia o en Argentina.

Los meteorólogos, siguiendo la propuesta de Bjerknes, se han ocupado sin embargo de tratar de recopilar la mayor cantidad de datos posibles de la atmósfera para conseguir niveles de predicción que comparados con los que eran posibles hace cien años sólo pueden calificarse de asombrosos. Los satélites meteorológicos no sólo nos señalan la dirección y fuerza de los vientos, que trasladan nubes y provocan cambios en la presión atmosférica, sino que además nos permiten conocer la temperatura de distintos lugares tanto en la superficie terrestre como en la parte superior de las nubes, y los satélites que utilizan el radar pueden saber la ubicación e intensidad de las precipitaciones en distintos lugares, para calcular su comportamiento posterior.

Entre las variaciones del clima difíciles de predecir, y de consecuencias aún en proceso de estudio, una de las más notables es la conocida como "El Niño" y "La Niña", un notable aumento o disminución, respectivamente, de la temperatura de las aguas superficiales en la zona tropical del Océano Pacífico oriental, con un ciclo irregular de 2 a 7 años y que afecta la cantidad de lluvia que cae en gran parte del hemisferio Sur y en toda la costa Pacífica del continente americano, además de que después de un episodio de El Niño, se ha observado que hay veranos especialmente cálidos en el hemisferio occidental. Cuando se presenta el fenómeno continuadamente durante dos años, puede reducir seriamente las lluvias monzónicas, lo que a su vez ha sido causa de hambrunas en el subcontinente indio. Actualmente, hay un episodio moderado de El Niño en curso, y se espera que continúe hasta bien entrado 2007.

Existe la idea de que, en última instancia, la predicción exacta del clima es imposible dado que depende de las sutiles interrelaciones de muchísimas variables, que interactúan de modo complejísimo, de modo que es posible que cambios muy pequeños en un sitio se multipliquen ocasionando grandes alteraciones del clima al otro lado del mundo, ejemplo que suele darse para explicar los planteamientos de la "Teoría del caos" de las matemáticas y la física, el "efecto mariposa" según el cual podría ser que el aleteo de una mariposa en Brasil podría ocasionar un tornado en Tejas, como lo planteó el matemático y meteorólogo Edward Lorenz en los años 70. La teoría del caos explica, sin embargo, por qué en ocasiones el clima no se comporta según lo predico, pero no puede explicar cómo predecirlo efectivamente.

Entretanto, la recopilación e interpretación de los datos sobre nuestro planeta nos permite sin duda ser un poco más precisos cada vez. Para ello, el diseño, lanzamiento y operación de satélites meteorológicos sigue siendo una actividad que puede impactar la economía, la vida, la alimentación y las expectativas de millones de seres humanos, por lo que avances como el sistema COSMIC son asunto de importancia para todos, aunque no lo sepamos.

¿De quién es culpa el calor?


El "calentamiento global", un fenómeno cuyas causas aún está a debate en el mundo académico, aunque al parecer es al menos en parte responsabilidad de la actividad humana que genera grandes cantidades de bióxido de carbono, es un aumento en la temperatura promedio de todo el planeta, más notable en la tierra que en los mares, de aproximadamente 0,25 grados centígrados cada década. Los posibles efectos de este calentamiento gradual pueden ser muy serios para la vida humana y para las relaciones ecológicas del planeta, pero ciertamente ese "calentamiento global" o "cambio climático" no es el causante de las temperaturas singulares que estamos experimentando y que han representado promedios de dos y tres grados por encima de la media. Y nada asegura que se trate de una tendencia y no una variación normal en ciclos climáticos más largos que los registros de los que disponemos desde hace apenas trescientos o cuatrocientos años.

La ciencia en 2006

Algunos de los avances y logros del conocimiento que hicieron historia en el año que acaba de terminar.

El esfuerzo por obtener conocimiento sigue acelerándose en el mundo, aunque los bajos presupuestos dedicados a la investigación en muchos países nos dicen que aún se podría avanzar mucho más rápidamente. De hecho, la velocidad del conocimiento es tal que, diariamente, un sitio web como Science Daily informa de más de 50 noticias altamente relevantes en distintos campos de la ciencia y la tecnología. Dado que es imposible hacer un resumen de los miles de logros científicos en 2006, seleccionamos los momentos relevantes de algunas disciplinas.

Medicina: el cáncer El mal que más temor causa entre grandes grupos humanos recibió un devastador golpe en 2006 al empezar a aplicarse la vacuna contra ciertas formas del virus del papiloma humano, VPH o papilovirus, responsables del 70% de los casos de cáncer cervicouterino, que a su vez es una de las principales causas de muerte por cáncer entre las mujeres. El éxito de esta vacuna ha servido además como impulso para el apoyo a otras vacunas que pretenden combartir otras formas de cáncer.

Evolución: del mar a la tierra En abril se informó que un grupo de paleontólogos descubrió en el ártico canadiense los restos fósiles de un pez, denominado Tiktaalik roseae, que muestra algunas de las carácterísticas de los animales terrestres cuadrúpedos, los terápodos, como la presencia de un cuello y un cráneo aplanado similar al de un cocodrilo, al tiempo que posee las escamas y aletas de un pez, aunque su aleta pectoral ya tiene la estructura del brazo de un terápodo, lo que lo convierte en un animal llamado "transicional" que viene a completar el registro fósil que va de los peces a los primeros animales terrestres, hace entre 365 y 385 millones de años.

Astronomía: envíos de la Cassini La nave Cassini, llamada así en honor al astrónomo Giovanni Cassini del siglo XVII, aportó imágenes asombrosas de Saturno tomadas con radar, no sólo con luz visible, y además nos está enviando hoy mismo, imágenes asombrosas de Titán, la mayor luna de Saturno, con dunas como las de la Tierra y sugiriendo, según se anunció a principios de 2007, que esa luna tiene lagos de metano líquido.

Paleoantropología: el primo Neandertal En mayo, Svante Paabo, del Instituto Max Planck de Antropología Evolutiva de Leipzig, Alemania, anunción que había conseguido secuenciar muestras de ADN de un individuo neandertal, y en noviembre se dieron los primeros resultados, indicando que la secuencia de ADN indica que el neandertal y nuestros antepasados se separaron hace medio millón de años, confirmando de manera clara que el neandertal es una especie humana distinta de la nuestra.

Biología: biodiversidad Aunque cada año se encuentran y describen cientos de nuevas especies, durante 2006 destacó, por cuestiones de números, que más de 50 nuevas especies animales y vegetales se describieran únicamente en Borneo, 52 nuevas especies en los mares de Nueva Guinea y 12 especies de peces en Venezuela. Por calidad, un descubrimiento singular fue el de las "ratas de la roca" de Laos, denominado Laonastes aenigmamus, porque representa a una familia que se creía extinta desde hace 11 millones de años, los Diatomydae.

Planetología: agua en Marte A fines de diciembre, los científicos que estudian Marte con ayuda de diversas sondas espaciales anunciaron que habían descubierto que en los últimos siete años se habían formado depósitos en hondonadas marcianas, comparando fotografías de 1999 y de ahora. Anunciaron así que su conclusión era que la causa más probable de esos depósitos era el flujo de agua, reavivando así el interés por la posibilidad de que haya alguna forma de vida, así fuera muy primitiva, en el planeta rojo.

Cosmología: la materia oscura existe Dado que según nuestros conocimientos el universo, para ser como es, debe contener mucha más materia de la que podemos observar, se propuso que gran parte del universo debería estar hecho de "materia oscura" o no visible. En 2006, se comprobó la hipótesis al observar el choque de dos grupos de galaxias. Un equipo de astrónomos de la Universidad de Arizona pudieron observar que el fenómeno de "lente gravitacional" (desviación de la luz por un intenso campo gravitacional) era muy superior al que provocaría sólo la materia de ambos grupos de galaxias. Ahora queda la enorme tarea de determinar cuál es la composición de esa materia oscura, que no vemos, pero que forma el 90% de nuestro universo.

Informática y neurociencias: mando a distancia En julio, se anunció que un equipo de neurólogos y diseñadores de microprocesadores habían conseguido implantar exitosamente en un paciente cuadrapléjico un chip sensor que le permite controlar a distancia el ratón de un ordenador y realizar todas acciones como abrir el correo electrónico o jugar un videojuego sencillo. El chip, con 100 diminutos electrodos, está implantado en la corteza motora del paciente, e interpreta los disparos de las neuronas cercanas para enviar impulsos al ordenador. No es exactamente telekinesis, pero funciona.

Física atómica: teleportación En octubre se informó que Eugene Polzik y sus colegas del Instituto Niels Bohr de Copenhague habían logrado teleportar la información almacenada en un rayo de luz (el estado cuántico de una serie de átomos de cesio) hacia una nube de átomos, una utilización práctica de un efecto cuántico (que sólo ocurre a niveles atómicos y subatómicos) que, sin ser tampoco una verdadera teleportación, podría tener importantes aplicaciones futuras en la informática, y amplía los anteriores experimentos de teleportación de luz.

La nociencia en 2006


Los medios de comunicación con frecuencia informan de ciertos hechos presentados a guisa de ciencia, que malinterpretan los datos que se tienen o, por contraparte, dejan de informar de asuntos clave. Quizá el más difundido hecho seudocientífico de 2006 son las llamadas "pirámides de Bosnia", que promueve el economista y politólogo Semir Osmanagic, y que ha incluso intentado convencer a la UNESCO de declarar patrimonio de la humanidad las formaciones que él considera que son pirámides hechas por seres humanos, pese a que los geólogos y los hechos indican que se trata simplemente de formaciones naturales sin ningún misterio a desvelar.

Agujeros negros por todas partes

Una entidad contradictoria, el agujero negro, parece ser una característica esencial de la conformación de nuestro universo... aunque aún no se ha demostrado totalmente su existencia.

La frase "agujero negro" se ha convertido en parte del lenguaje cotidiano, indicando algo que se traga todo lo que hay a su alrededor. En esta ocasión, el lenguaje popular es preciso, porque tal sería la definición más sencilla de un agujero negro: un objeto tan masivo y tan concentrado que su fuerza gravitatoria atrae todo lo que se acerca demasiado, incluso la luz.

La idea de un objeto con una gravedad así de intensa no es tan novedosa. Fue el geólogo inglés Jonh Michell quien en 1784 sugirió, usando sólo la teoría clásica de Newton, que un objeto con la misma densidad del sol, pero que midiera 500 veces el radio de nuestra estrella, tendría tal atracción gravitacional que para escapar de ella se necesitaría una velocidad superior a la de la luz, 300.000 kilómetros por segundo, y que por tanto dicho objeto sería invisible. Pero fue la teoría gravitacional de Einstein, la relatividad general, la que estableció que efectivamente podría existir un objeto así. Diversos matemáticos y físicos fueron calculando la masa y radio que debería tener un objeto para llegar a "colapsarse" en forma de agujero negro, pues algunos objetos no tienen masa suficiente para convertirse en agujeros negros, y se colapsan en forma de estrellas de neutrones o enanas blancas.

La idea del "colapso" es esencial para comprender los agujeros negros. Todos los objetos tienen masa, de modo que no sólo ejercen atracción gravitacional sobre lo que hay a su alrededor, sino que su centro también atrae a su propia superficie. Como la gravedad es una fuerza tan débil, valga la paradoja, esta atracción no es relevante salvo en cuerpos muy grandes, ya que la contrarrestan las fuerzas de la propia materia de la que están formados los cuerpos. El centro de la tierra atrae así a sus propias capas superiores, pero éstas no caen por estar bien sostenidas por las que están bajo ellas. Pero un objeto con una gran masa puede llegar a ejercer una atracción gravitacional sobre su superficie que haga que ésta "caiga" hacia el centro (o que el objeto como tal se comprima, que es lo que veríamos). Como la gravedad es una fuerza que depende de la masa y de la distancia, al llegar a un tamaño determinado, el objeto se comprimiría tanto que su gravedad llegaría a atraer la luz, y por tanto nada podría salir de él. Sería un agujero negro.

El problema más serio para los físicos es que dentro de un "agujero negro" (nombre que fue creado por el físico teórico John Wheeler en 1967) ocurren cosas que contradicen todo lo que sabemos de física hasta hoy, porque su gravedad alteraría toda la estructura del espacio-tiempo a su alrededor y en su interior. Así, por ejemplo, las ecuaciones que tenemos actualmente predicen que en el interior de un agujero negro el tiempo se detendría por completo y la curvatura del espaciotiempo se convertiría en infinita, así como su gravedad. Estos conceptos son hoy interpretados por la física como indicación de que nuestro conocimiento del universo sigue siendo incompleto. En 1970, Stephen Hawking y Roger Penrose demostraron que los agujeros negros no sólo eran una posibilidad, sino que eran una característica esencial de la teoría de la relatividad.

Dado que no se puede observar directamente un agujero negro, y que las características que podemos observar indirectamente son indistinguibles de las de otros objetos estelares masivos como las estrellas de neutrones, es imposible decir que hoy se haya demostrado que tales objetos existen fuera de las ecuaciones de los cosmólogos. Sin embargo, las observaciones astronómicas han reunido a una gran cantidad de "candidatos" a agujeros negros, con masas que van desde tres o cuatro veces la del sol hasta decenas de miles de millones de veces, los llamados "agujeros negros supermasivos". De hecho, sabiendo que no hay prueba determinante aún, los astrónomos hablan abiertamente de agujeros negros encontrados en el universo mediante observación indirecta, algunos a unos pocos miles de años luz de la Tierra y otros en los confines del universo.

La observación indirecta de los agujeros negros incluye la búsqueda de una distorsión que la gravedad de un agujero negro provoca en la luz de las estrellas que hay detrás de él, el efecto de "lente gravitacional" que predijo Einstein y cuya observación es prueba de que la relatividad es una descripción adecuada del universo. Igualmente, se pueden ver emisiones de "chorros galácticos" que el propio Stephen Hawking demostró que podían realizar los agujeros negros (con lo cual, paradójicamente de nuevo, sí puede salir materia de estos monstruos estelares). Pero la más asombrosa, y la que ha sido recreada por el cine una y otra vez, la absorción de la masa de otra estrella cercana, creando un remolino por el cual desaparece la segunda. Esta absorción fue observada por primera vez por científicos del Instituto Tecnológico de California, utilizando las capacidades de observación ultravioleta del observatorio orbital Galaxy Evolution Explorer (Galex), menos conocido que el Hubble pero esencial para la exploración de nuestro universo.

Aún no se ha demostrado la existencia de los agujeros negros más allá de toda duda, y ciertamente existen hipótesis alternas según las cuales se pueden formar estrellas supermasivas con gravedad irresistible pero que no incluyen las contradicciones que parecen ofrecernos los agujeros negros de la teoría relativista. Pero hasta hoy, ninguna explicación alterna es tan completa como la que se desarrolla a partir de los descubrimientos de Einstein y, si nos atenemos a lo que descubren continuamente los astrónomos, los agujeros negros no sólo son una posibilidad bastante clara, sino que parecen estar por todas partes, a donde quiera que observemos nuestro universo.

Agujeros negros y Big Bang


El punto donde que la atracción gravitatoria es tal que la luz no puede escapar de él se llama "horizonte de eventos". Pero más allá del horizonte de eventos, sólo hay espaciotiempo distorsionado, hasta que en el centro mismo del agujero se encuentra ese ente que los físicos llaman "singularidad", ya que es donde las cantidades que usamos para medir el campo gravitatorio se vuelven infinitas. Lo que vuelve trascendente y esencial el estudio de las singularidades en los agujeros negros es que la teoría del Big Bang parte de considerar que todo nuestro universo surgió al estallar una singularidad, un punto en el tiempo de tamaño cero y masa infinita, y que al estallar creó la masa, el tiempo y el espacio al mismo tiempo. Quizá dentro de los agujeros negros está así el secreto del origen del universo, de la vida y de todo cuanto existe.

Las distorsiones de la percepción

La imagen parece moverse ondulando cuando, en realidad, no tiene ningún movimiento.
(Imagen de Dominio Público creada por Paul Nasca, vía Wikimedia Commons)
La percepción no es tan confiable como quisiéramos, y quizá sea bueno desconfiar un poco de lo que percibimos, sobre todo cuando tiene características demasiado singulares.

Todos conocemos las ilusiones ópticas: cubos que parecen invertirse por sí mismos, líneas rectas que parecen curvadas, colores que se ven más oscuros o más claros según su entorno, etc.

El estudio de la percepción ha sido parte al mismo tiempo de la ciencia y de la filosofía, en especial cuando ésta se pregunta sobre la precisión y confiabilidad con la que apreciamos el universo. El resultado ha sido bastante desalentador para el ser humano: las capacidades de nuestros sentidos son bastante mediocres comparadas con los grandes campeones perceptivos de la naturaleza. El ojo de un buitre es mucho más agudo que el humano, con un millón de receptores de luz por milímetro cuadrado, y puede ver a un pequeño roedor desde una altura de 5 mil metros. Las abejas ven la luz ultravioleta. Los delfines pueden escuchar frecuencias de hasta 100.000 hertzios (Hz) mientras que nosotros apenas escuchamos de 20 a 20.000 (y menos al ir envejeciendo). En toda la naturaleza hay sistemas de percepción evolucionados para enfrentar desafíos concretos, superan con mucho la percepción humana o están diseñados para estímulos que no significan nada para nosotros.

Además de las limitaciones físicas de nuestros sentidos, lo que percibimos está filtrado a través de nuestras emociones y expectativas. Así, en un conocido experimento se le da a un grupo de voluntarios la misión de contar cuántas veces bota la pelota en la filmación de un partido de baloncesto, durante la cual pasa varias veces entre los jugadores un personaje con traje de gorila. Los resultados han demostrado que, concentrados en los botes del balón, la mayoría de los sujetos no notan la aparición del gorila, aunque lo aparentemente lógico sería que tan desusado acontecimiento llamaría su atención. Un caso extremo donde las emociones alteran nuestra percepción lo tenemos en las personas que sufren de trastornos alimenticios, y que se ven a sí mismos como obesos cuando están en un alarmante estado de desnutrición. Otra fuente de distorsiones son diversos medicamentos, sustancias (como los alucinógenos o psicodislépticos), ciertas enfermedades, tanto físicas como mentales, la experiencia previa y numerosos factores adicionales. Un ejemplo especialmente interesante son las personas que sufren determinadas afecciones como la agnosia visual, que puede ser causada por muy diversas causas. Se trata de una incapacidad del cerebro de interpretar o entender estímulos visuales normales, por ejemplo, no poder reconocer caras aunque el paciente pueda describir su forma, color y características.

Quizá el ejemplo más asombroso de las alteraciones de la percepción sea la sinestesia, una afección definida como la mezcla de impresiones de sentidos diferentes. Drogas como el LSD o la mescalina pueden provocar sinestesia, de modo que la persona bajo su influencia reporta que puede "ver los colores" u "oler los sonidos". La sinestesia no es tan infrecuente, pues la posee en mayor o menor medida el 10% de la humanidad, generalmente en formas leves, como el hecho de asociar colores a letras, números o días de la semana, pero resulta especialmente valiosa para el estudio de la neurología (y sumamente interesante para un lego) cuando alcanza niveles extremo, como el de un hombre que experimenta distintos sabores según la textura de lo que está tocando (al hacer albóndigas para hamburguesas, experimenta un sabor amargo) o una mujer, muy estudiada, que ve colores según la nota que se toque en el piano.

Todos nuestros sentidos son producto de las mismas células, las neuronas, evolucionadas para activarse ante distintos estímulos: las del oído se activan con los movimientos en los que nuestro oído interno convierte al sonido, mientras que las de la retina se activan con la luz. Pero además de esta especialización, el cerebro interpreta los impulsos provenientes de tales células solamente como sonidos o luz. Cuando activamos las células de un sentido con otro tipo de estímulo, el cerebro y el órgano lo interpretan siempre igual. Una forma sencilla de constatar esto es tallarnos los ojos vigorosamente, como lo hacemos cuando tenemos sueño. La presión que provocamos en el ojo es interpretada por la retina en forma de luz, como estrellitas y destellos diversos, un pequeño espectáculo de fuegos artificiales dentro de nuestros ojos provocado por la presión que activa las células de la retina, pero que éstas sólo pueden transmitir como luz.

Los estudios sobre la percepción y sus distorsiones no tienen sólo una utilidad médica. De manera cada vez más clara, las fuerzas policiales están comprendiendo que deben ser más cautas con lo que dicen los testigos, no por temor a que mientan, sino porque sus percepciones no son del todo confiables, especialmente si han estado bajo una gran tensión. En un experimento clásico, un grupo de personas inesperadamente es testigo de un asalto por parte de un delincuente alto, forzudo y malencarado, que amenaza a una víctima indefensa y le roba la cartera. La gran mayoría de los testigos informa después que el delincuente portaba una pistola, cuando en realidad llevaba solamente un plátano, con su característico color amarillo.

Nuestros sentidos son útiles, pues, pero no infalibles. Confiar ciegamente en ellos y en los datos limitados y con frecuencia distorsionados que nos ofrecen puede no ser una buena idea, como no lo sería, a menos que tengamos alguna afección claramente diagnosticada, dudar totalmente de toda la información que nos dan acerca del universo que nos rodea.

Seamos sinestésicos

El doctor Vilayanur S. Ramachandran, uno de los principales estudiosos de la sinestesia, empezó diseñando experimentos destinados a determinar si se trataba de un efecto de percepción real o de la "imaginación" de los sujetos, y una vez habiendo demostrado que era real, ha emprendido un esfuerzo profundo por estudiar la neurofisiología de la sinestesia, determinando, entre otras cosas, que es producto de un "cruce neural", donde ciertos desequilibrios químicos producen que los impulsos destinados a un sentido como la vista se desvíen de modo medible hacia otros sentidos, demostrándolo en experimentos de imágenes del cerebro con distintos escáneres. La hipótesis más interesante que ha emitido Ramachandran, que sigue trabajando en el tema, es que la sinestesia no sólo es normal, sino que puede estar en la base de muchos procesos creativos, como la creación de metáforas en la literatura o, incluso, ser parte clave de la capacidad de leer, con la que enseñaríamos a nuestro cerebro a interpretar las palabras que leemos como sonidos.