Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Arqueología: CSI de la historia

Una excavación arqueológica es hoy un esfuerzo científico multidisciplinar que echa mano de todo tipo de conocimientos para desentrañar los secretos del pasado.

Excavación arqueológica en Bekonscot, Reino Unido.
(Foto CC-BY-SA-2.5 de MichaelMaggs,
vía Wikimedia Commons)
La imagen del arqueólogo con cierta "inspiración" más o menos vaga que insiste hasta encontrar lo que buscaba, o incluso del aventurero devenido héroe cinematográfico perpetuado por los filmes de Indiana Jones, son visiones románticas de unos pocos aspectos de la arqueología que tienen todo el atractivo que implica la mezcla de viajes a lugares más o menos exóticos, la exploración de misterios y la posibilidad de descubrimientos tan asombrosos como la tumba del rey Pakal, el ejército de guerreros de terracota de Shiang, la ciudad de Machu Picchu o los restos de Troya.

Sin embargo, aunque este elemento romántico sigue existiendo, la realidad de la arqueología moderna tiene mucho más que ver con distintas disciplinas científicas que se han ido sumando para conseguir cada vez mejor el objetivo esencial de la arqueología: estudiar los restos materiales dejados por el hombre en el pasado para obtener datos sobre su historia, cultura, desarrollo y vida cotidiana. Una excavación arqueológica debe obtener la mayor cantidad de información sobre lo que va hallando antes de moverlo siquiera, porque una vez alterado el hallazgo es irrecuperable: la localización y orientación de un objeto en una tumba, por ejemplo, puede ser una clave esencial. Como solía decir un maestro de arqueología: una pieza de cerámica en su contexto es una fuente de información valiosísima, sin su contexto, es un cacharro viejo.

La excavación arqueológica moderna comienza con la determinación de que es altamente probable que en un lugar determinado se encuentren restos importantes. Esto anteriormente se hacía únicamente mediante la consulta e interpretación de las fuentes históricas, y entrevistando a las personas que viven en los alrededores del lugar sugerido por la información histórica, para determinar si conocían alguna cueva con restos peculiares, si habían recuperado algún resto, si en sus construcciones o al roturar la tierra habían dado con indicios de restos antiguos. Actualmente, la prospección arqueológica incluye el uso de sistemas de datos geográficos (GIS), geoposicionamiento por satélite (GPS), estudios geológicos, distintos tipos de detección remota (magnetometría, radiometría, radar, ultrasonido, fotometría, medición de variaciones gravitacionales, sonar, sismogramas), además de fotografía aérea o desde satélites. Todo esto permite al arqueólogo obtener una gran cantidad de información sobre lo que hay bajo tierra antes de iniciar cualquier excavación.

En muchos casos, una gran fuente de prospección son excavaciones arqueológicas antiguas, realizadas sin metodología científica, muchas veces destinadas únicamente a la recuperación de restos comercializables (cerámica fina, joyas, estatuas). Los arqueólogos tipo "Indiana Jones" de la primera mitad del siglo XX solían ser atrozmente destructivos en sus trabajos, pero aún así dejaron atrás muchísimos datos que los arqueólogos de hoy saben rescatar, valorar e interpretar adecuadamente. En otros casos, una labor de construcción de gran relevancia, como la perforación de túneles carreteros o de metro, o la excavación para cimentaciones, pone al descubierto yacimientos arqueológicos en ocasiones insospechados, y que deben ser documentados, estudiados y rescatados en lo posible en plazos de tiempo muy breves, impuestos por los intereses sociales, políticos y económicos relacionados con el trabajo de construcción interrumpido por el hallazgo.

La excavación arqueológica actual requiere, primero que nada, que se registre y documente de la manera más precisa la ubicación exacta de cada objeto que se encuentre, incluida su orientación y la profundidad a la que se halló, para lo cual se realizan planos del sitio y fotografías de todos y cada uno de los objetos, así como la relación que mantienen tales objetos entre sí. Dado que los objetos más modernos están en las capas superiores y los más antiguos en las inferiores, conocer la posición de todos nos permite saber cuáles corresponden o no a la misma época, y nos dan un contexto del todo que en un pasado fue el origen de cada pieza o resto individual. Al mismo tiempo que trabajan los profesionales más conocidos, los que con paciencia e instrumentos muy delicados exponen cada objeto, suelen estar implicados otros muchos profesionales: expertos lingüistas o paleógrafos que interpretan allí mismo inscripciones que puedan encontrarse, expertos en vida animal y vegetal antigua que pueden identificar los restos orgánicos.

Pero donde la investigación arqueológica se convierte en algo muy parecido a la verdadera investigación de una escena del crimen, o CSI, es en la etapa conocida como "postexcavación", mucho más compleja y lenta que las excavaciones en general, y ciertamente menos cinematográfica. Así, la moderna ciencia arqueológica incluye a expertos en datación física y química, expertos en tecnologías antiguas, botánicos, zoólogos, expertos en materiales y sistemas de construcción, patólogos, nutriólogos, expertos en la conservación de restos para evitar que se deterioren, expertos en tafonomía (la disciplina que estudia cómo se descomponen distintos objetos al paso del tiempo), astrónomos, expertos en aspectos como la religión o las guerras del pasado, según el caso, expertos en la extracción y secuenciación de ADN y otros muchos especialistas que pueden intervenir en distintos casos, sin excluir nunca a los matemáticos e informáticos que dan orden, sistema y sentido a la colosal cantidad de datos físicos, químicos, biológicos y culturales que puede ofrecernos un solo metro cuadrado de una excavación arqueológica moderna... lejos, muy lejos, del látigo de Indiana Jones.

La arqueología experimental

Solía decirse que la arqueología, como la astronomía, es una de las ciencias en las que no es posible realizar experimentos. Esto ha dejado de ser cierto conforme distintos estudiosos han decidido someter a prueba algunas hipótesis, o reproducir el manejo de ciertas tecnologías del pasado. Los expertos que hoy en día crean herramientas de piedra idénticas a las que nos legó el paleolítico o el neolítico, por ejemplo, nos permiten conocer las técnicas utilizadas e interpretar, por ejemplo, los yacimientos de restos de piedra que puedan haber quedado en los talleres de los antiguos tallistas. Los experimentos de traslado de grandes piedras (como las de Stonehenge o las de las pirámides egipcias) o los que han mostrado cómo se puede poner de pie una escultura "moai" de la isla de Pascua sin poleas son formas de arqueología experimental que nos permiten acercarnos más a las culturas que nos precedieron.

Listo 2006

Hoy he terminado de publicar en el blog todos los artículos de 2006, y en las próximas 2 semanas espero haber publicado la totalidad de los artículos publicados en 2007 en el diario, de modo que podamos entrar a una lógica adecuada: el artículo sale en el periódico el miércoles y el jueves o viernes estará en este blog.

Cuando se acabe el petróleo

La realidad socioeconómica que conocemos depende de una energía que nos permita producir y transportar los bienes que necesitamos. Necesitamos garantizar que tendremos esa energía en el futuro.

El petróleo produce electricidad, nos calienta en invierno, nos refresca en verano, permite transportar bienes y personas, mover la maquinaria con la que producimos todo tipo de bienes y servicios en la fábrica y en el campo, conseguir muchísimos bienes de consumo a precios accesibles para muchas personas y, en general, conseguir muchísimas cosas que no podríamos obtener si dependiéramos, como lo hicieron durante millones de años nuestros antepasados, únicamente de la energía de nuestros músculos.

Extraer energía de elementos distintos de nuestros músculos ha sido una de las principales preocupaciones del hombre, y uno de los motores esenciales del desarrollo de lo que llamamos nuestras culturas. El fuego obtenido a partir de madera, extrayendo la energía concentrada en la madera y usándolo para nuestro beneficio, permitió a los seres humanos importantes logros: defenderse en la noche, soportar el frío de latitudes no habituales para nuestra constitución física, habitar en lugares oscuros como las cavernas y cocinar los alimentos, accediendo así a fuentes nutritivas que no podemos aprovechar plenamente en forma cruda.

A la madera pronto se unió el carbón, que contiene una mayor cantidad de energía almacenada que la madera, y otros materiales que podían quemarse, como el estiércol seco de herbívoros, o aceites minerales, animales y vegetales. Se emplearon también otras fuentes de calor, como las aguas termales procedentes de las profundidades de la tierra.

El petróleo era conocido ya en la antigüedad, cuando el asfalto que surgía naturalmente de la tierra se empleaba en la construcción. Herodoto y Diódoro relatan que así se hizo en los muros y torres de Babilonia, mientras que en la china del siglo IV en petróleo ya se obtenía mediante perforaciones para quemarlo y evaporar la salmuera para obtener sal. Pero el boom petrolero que conocemos hoy comenzó en 1846, cuando el físico y geólogo canadiense Abraham Pineo Gesner descubrió el proceso de refinación para obtener queroseno a partir del carbón, lo que disparó una serie de investigaciones sobre la refinación que en pocos años permitieron obtener queroseno a partir del petróleo, y poco a poco a obtener una creciente variedad de sustancias y productos a partir de la destilación del petróleo. Así, del petróleo se obtienen combustibles como el etanol, el combustible diesel, los aceites combustibles, la gasolina, el combustible de aviones, el queroseno y el gas de petróleo líquido (LP). Adicionalmente, del petróleo se extraen los alquenos que se convierten en todos los plásticos que conocemos, lubricantes, ácido sulfúrico, alquitrán, asfalto, coque de petróleo, cera parafina y sustancias petroquímicas aromáticas.

Pese a su valor como origen de otros productos, el 84% de todo el petróleo que se extrae en el mundo se convierte en combustibles que quemamos. Y eso representa el 40% de las fuentes de energía del mundo, mientras que el carbón sigue siendo responsable del 23,3% de nuestra energía y el gas natural del 22,5%. Las fuentes de energía no fósiles siguen siendo minoritarias; en 2004, sólo el 7% de la energía era de origen hidroeléctrico, 6,5% procedía de la energía nuclear y todas las demás opciones, principalmente la biomasa, apenas formaron el 0,7% de nuestro consumo.

Sin embargo, el petróleo es un recurso no renovable, lo que significa que, en algún momento, empezará a escasear, lo que significará que poco a poco se volverá demasiado caro o precioso para quemarlo, llevándonos inevitablemente al uso de otras formas de energía, muchas de las cuales están en pleno desarrollo en estos momentos. Ninguna de ellas, en este momento, es lo bastante atractiva como para sustituir al petróleo, porque ninguna tiene las características esenciales de esta sustancia: abundancia, fácil transportación, alto contenido energético y diversidad. También es un hecho que podemos ahorrar mucho petróleo, simplemente disminuyendo el desperdicio (como el que implica el uso excesivo del automóvil en lugar del transporte público). Sin embargo, la propia abundancia y bajo costo del petróleo impiden que individuos y sociedades realicen esfuerzos adecuados para su conservación.

La pregunta, sin embargo, no es si podremos vivir sin petróleo, es que deberemos hacerlo en un futuro indeterminado, pero sin duda no demasiado lejano. La mejor promesa para sustituirlo se encuentra en las fuentes de energía renovables, es decir, las que no pueden agotarse como lo hará el petróleo: la hidroelectricidad, la energía solar, la eólica, la geotérmica, la de las olas y mareas y, cada vez más, la bioenergía, es decir, la energía obtenida de la quema de materiales biológicos o su conversión en combustibles de origen biológico. En todo caso, para sustituir al petróleo seleccionaremos fuentes de energía que nos ofrezcan la mayor eficiencia a cambio de nuestra inversión en tiempo, trabajo y dinero.

En este sentido, en las últimas semanas un grupo de ingenieros químicos de la Universidad de Purdue han propuesto un nuevo proceso ecológicamente aceptable para producir combustibles líquidos a partir de materia vegetal o biomasa. El nuevo procedimiento añade a las aproximaciones ya conocidas hidrógeno obtenido a partir de una fuente de energía libre de carbono, lo que suprime la formación de bióxido de carbono durante el proceso y aumenta su eficiencia, permitiendo obtener el triple de biocombustible a partir de la misma biomasa.

Las investigaciones del futuro, que recibirán un gran impulso en cuanto empiece realmente a haber signos de agotamiento del petróleo, seguramente obtendrán resultados aún más eficientes y asombrosos. No obstante, si hoy hay en los Estados Unidos 1.400 millones de toneladas de biomasa disponibles como subproductos de los procesos agrícolas, el doctor Rakesh Agrawal, director del grupo de investigación de Purdue, afirma que es posible satisfacer todas las necesidades de combustible para transportación en Estados Unidos "sin usar tierra adicional" para su producción.

Mi auto bebe alcohol


En 1978, Brasil se convirtió en líder de la energía alternativa al introducir los automóviles alimentados con alcohol obtenido de la fermentación de caña de azúcar y remolacha. A partir de 2004, el proyecto se renovó con la aparición del motor híbrido o flexible, que puede usar gasolina o alcohol indistintamente y en cualquier mezcla, y está presente en vehículos fabricados en Brasil por varias de las principales marcas. Y con buena razón: entre 2006 y 2007 se espera que más del 75% de los autos nuevos vendidos sean de motor híbrido.

La utilidad del dolor

El dolor es bueno, pero no tanto como se creía en el pasado, y es malo, pero no tan malo como a veces lo proclama la cultura popular. Pero sobre todo, es necesario.

No resulta fácil ver al dolor como un elemento útil, de hecho indispensable, de nuestra evolución como especie y de nuestra vida como individuos. Pero quizá la mejor forma de hacerlo es imaginarnos que el dolor simplemente no existiera. Así, por ejemplo, podríamos clavarnos un vidrio en un pie y seguir caminando sin sentir ninguna incomodidad, destruyendo aún más tejido del que se dañó en el primer momento. Podríamos quemarnos sin darnos cuenta, sufrir una grave infección, envenenarnos o rompernos un hueso y seguir usando la extremidad afectada con riesgo de causarle un desperfecto aún mayor o, incluso, irreparable.

Por desagradable, molesto y odioso que resulte, el dolor es un sistema sin el cual no podríamos sobrevivir fácilmente. El dolor nos informa que algo anda mal, y que debemos prestarle atención a alguna parte de nuestro cuerpo, o bien que no debemos utilizarla por estar dañada y en proceso de curación o cicatrización. Los encargados de este sistema de alarma por todo nuestro cuerpo son los nociceptores, neuronas especializadas en la recepción y transmisión de los estímulos dolorosos. Hay distintos tipos de nociceptores que reaccionan ante temperaturas muy altas o muy bajas, presión fuerte como la que se produce por golpes o cortes, y que actúan con frecuencia para provocar reflejos de protección (como retirar la zona dolorida de la causa del dolor), estimulación química o por la presencia de inflamación a su alrededor. Incluso algunos nociceptores no provocan la sensación que llamamos dolor, por ejemplo, al ser estimulados, los nociceptores situados en los pulmones provocan tos.

Los estímulos dolorosos se disparan por la presencia de una serie de sustancias químicas, la llamada "sopa inflamatoria", una mezcla ácida formada por prostaglandinas y potasio, que liberan las células dañadas, serotonina liberada por las plaquetas sanguíneas que entran en acción para coagular la sangre en las heridas, bradiquinina liberada por el plasma sanguíneo e histamina, liberada por los mastocitos, células implicadas en la cicatrización y defensa contra patógenos. Los impulsos nerviosos enviados por los nociceptores se transmiten por distintas vías a través de la médula espinal hacia el encéfalo, especialmente hacia el tálamo, que a su vez lanza impulsos hacia las zonas del cerebro encargadas del estado de alerta y las emociones, todo lo cual lleva a ese estado llamado dolor.

Una vez que sabemos que algo nos está dañando y hemos dado los pasos necesarios para evitar daños posteriores y curar los daños ya causados, el dolor no desaparece automáticamente, y se puede convertir en un problema por sí mismo. Algunos tipos de dolor parecen poco útiles (como el dolor de muelas o el que se puede producir en las uñas), o especialmente intensos sin que se pueda hacer nada para evitar su causa (como ocurre en el cáncer) y existe además el "dolor crónico", una afección en la que la sensación de dolor en una persona es duradera, intensa e incómoda, sin un origen preciso. Todo ello ha llevado al hombre a luchar contra el dolor utilizando los medios a su alcance, principalmente de carácter químico.

Al menos desde la época neolítica ya encontramos indicios del uso de la amapola opiáciea o Papaver somniferum en Europa, y la planta está presente en todas las civilizaciones antiguas, desde la sumeria hasta la griega, junto con la mandrágora, la belladona y la mariguana. Sin embargo, durante siglos la lucha contra el dolor convivió con la idea de que el dolor es "bueno", ya sea porque agrada a alguna deidad o bien porque demuestra la "potencia" o "eficacia" de alguna actividad curativa. En todo caso, no es sino hasta el siglo XVIII cuando comienza la búsqueda real del conocimiento acerca del dolor y de su control, con un primer logro en 1803 cuando Friedrich Willhelm Sertürner aisló a partir del opio los cristales de lo que llamó "morfina", uno de los más potentes analgésicos conocidos. Más o menos al mismo tiempo se exploraban las capacidades anestésicas del óxido nitroso y el éter, llevando a que en 1840 William Thomas Green Morton hiciera la primera demostración pública de una cirugía con anestesia a partir de éter. Poco después, James Young Simpson sustituiría el éter por cloroformo después de experimentar con diversos compuestos, y para 1880 la anestesia se había convertido en parte de la cirugía, lo que sirve para recordar que, hasta entonces, todas las intervenciones quirúrgicas, incluidas las amputaciones, las incisiones cesáreas y otras se realizaban sin anestesia y apenas con algún apoyo analgésico como el que podían ofrecer grandes ingestas de alcohol.

Fue hacia fines del siglo XIX cuando comenzó a estudiarse seriamente la fisiología del dolor y se empezaron a proponer diversos modelos médicos a partir del creciente conocimiento acerca del sistema nervioso. El concepto mismo de "nocicepción" o percepción de los estímulos dañinos fue propuesto apenas en 1898 por el fisiólogo británico Charles Scott Sherrington. Los conocimientos fueron demostrando que el dolor es el sistema de alarma del cuerpo, no un mecanismo de castigo, de curación ni de expiación ennoblecedora, permitiendo la aparición de diversas sustancias analgésicas, desde la aspirina hasta modernos compuestos como el paracetamol, el ibuprofeno y los analgésicos no esteroideos. Los avances en las neurociencias han determinado que la efectividad del opio y sus derivados se debe a que nuestro sistema nervioso reacciona a ese tipo de moléculas por su parecido con las propias sustancias contra el dolor y la depresión que produce nuestro propio cuerpo, las endorfinas llamadas también "opiáceos". Hoy, continúa la búsqueda por tener mejores analgésicos con menos problemas secundarios de los que tienen sustancias como la morfina. Como en muchas otras áreas del cerebro, estamos apenas empezando a conocer lo que ocurre en el órgano que nos hace ser nosotros.

El miembro fantasma


Entre el 50% y el 80% de las víctimas de amputaciones reportan sensaciones en el miembro amputado, o miembro fantasma, y muchos de ellos incluyen entre tales sensaciones la de dolor, en ocasiones de enorme intensidad. El tratamiento, a la fecha, implica el uso de antidepresivos, la destrucción de las neuronas nociceptoras que ya no van "a ninguna parte" al no existir el miembro que inervaban y la estimulación eléctrica de la médula espinal. Y cada vez más se utiliza la realidad virtual, a raíz de los descubrimientos del neurocientífico Vilayanur Ramachandran, que ha explorado el papel de la percepción psicológica en los miembros fantasmas, para que los amputados "muevan" el miembro dañado a posiciones cómodas e indoloras.

Las herramientas en el mundo animal

La fabricación de lanzas por parte de un grupo de chimpancés pone nuevamente de relieve que quizá no estamos tan lejos del resto del mundo animal como quizá algunos desearían.

A principios de la década de 1960 la entonces joven etóloga Jane Goodall publicó que los chimpancés que estudiaba en la reserva de Gombe, en Tanzania, exhibían de modo regular un comportamiento único: limpiaban y preparaban una ramita que luego introducían en un termitero y esperaban a que las termitas subieran a la ramita, para luego extraerla y comer las termitas, que para el chimpancé son todo un manjar.

El descubrimiento de la científica británica traía de nuevo a la mesa de discusión habilidades de los animales que algunas visiones considerarían específicamente humanas. En el caso de los chimpancés de Gombe, no se trataba únicamente de que los animales utilizaran una herramienta encontrada en el entorno, sino de la preparación y creación de dicha herramienta, la alteración de un elemento natural para adecuarlo a una necesidad determinada: la pesca de deliciosas termitas. Observaciones adicionales de los chimpancés fueron demostrando que este comportamiento no era una excepción, ni mucho menos. Al paso del tiempo, los investigadores pudieron observar a distintos grupos de chimpancés empleando ramitas especialmente modificadas para extraer miel de una colmena y para desenterrar raíces comestibles. Igualmente se vio que pueden utilizar hojas como herramientas para reunir agua y para limpiarse de barro, sangre y restos de alimentos. Y por lo que se refiere a la "pesca de termitas", al paso de los años se ha podido determinar que no sólo usan una herramienta, sino un juego de herramientas que puede incluir palos perforadores destinados a abrir agujeros hasta las galerías de los termiteros, además de las distintas herramientas que utilizan después para hacerse de su alimento.

El uso anteriormente documentado de herramientas en el mundo animal ya era de por sí inquietante para muchos. Por ejemplo, los buitres egipcios gustan de alimentarse de huevos de avestruz, cuya cáscara resulta tremendamente dura y difícil de romper, y el pico del buitre no sirve para ello. Cuando encuentra un huevo del que puede alimentarse, el ave busca en sus alrededores una herramienta adecuada, una piedra con la forma y el peso correctos para llevarla en el pico y usarla para golpear el huevo de avestruz, romperlo y acceder a su interior. Otra ave que utiliza herramientas con notable habilidad es el pinzón carpintero de las Galápagos, una de las aves de cuya observación derivó Charles Darwin la idea de la variación natural como motor de la evolución. Los pájaros carpinteros perforan la superficie de los árboles para acceder a las larvas que viven bajo la corteza. Capturan a dichas larvas con una larga lengua de tipo arpón para llevarlas a la boca. Sin embargo, el pinzón carpintero carece de esta lengua. A cambio de ello, el pinzón busca ramas o espinas de cactos, las cuales recortan y afinan para darles la longitud y forma adecuadas, y luego las utilizan para extraer la larva y poder comerla. Un tercer caso de uso herramientas en el mundo de las aves nos lo ofrecen ocasionalmente algunos ejemplares de garza verde, que dejan caer pequeños objetos en la superficie del agua y, cuando los peces se acercan al objeto considerando que podría ser una presa, la garza caza rápidamente a los peces. En términos exactos, la garza está pescando con carnada, una herramienta sin duda muy desarrollada.

Por supuesto, las habilidades de los animales han sido llevadas al laboratorio para explorarlas en condiciones más controladas. De hecho, la primera observación de uso de herramientas por parte de chimpancés se dio en la década de 1920, cuando el psicólogo Wolfgang Kohler observó a cuatro ejemplares usar varas largas para alcanzar objetos que se encuentran a una altura tal que les resultaban inalcanzables sin la herramienta. En otros experimentos se observó, no sin asombro, que los chimpancés podían unir dos varas cortas para crear una herramienta lo bastante larga como para alcanzar lugares elevados, o bien apilar cajas para conseguir el mismo objetivo. Y más recientemente, en experimentos de uso de varas para alcanzar objetos en sitios elevados, se ha visto cómo algunos chimpancés aprendían a usar tales varas como escalas para huir del recinto donde estaban confinados, sin duda para sorpresa de los científicos.

La pregunta principal es si el uso de herramientas por parte de los animales es una conducta instintiva (es decir, seleccionada y determinada genéticamente como parte de su evolución) o una conducta aprendida e "inteligente", aunque esta última palabra parece cada vez menos útil por cuanto a que su definición no es tan clara hoy como en el pasado. Ciertamente, el uso de espinas de cactos por parte de los pinzones carpinteros parece ser una conducta genéticamente determinada, que aparece en su totalidad sin necesidad de haber sido observada anteriormente ni imitada de otro animal. Además, es un comportamiento común a todos los pinzones carpinteros. No ocurre lo mismo, por ejemplo, con la pesca mediante carnada de las garzas verdes, ni mucho menos con las herramientas empleadas por los chimpancés, ya que distintos grupos utilizan distintas herramientas de distintas formas. Así, por ejemplo, la pesca de termitas en Gombe, Tanzania, y en el Congo, es distinta. Y, en todos los casos, se trata de conductas aprendidas, es decir, que no aparecen comúnmente en el repertorio conductual de los animales si no es por medio de la imitación y la enseñanza, o por un descubrimiento individual claramente observable.

¿Acaso hay un proceso de razonamiento, de abstracción de un problema y de su solución a nivel interno antes de experimentarlo? No lo sabemos. Para el etólogo Konrad Lorenz, existía la llamada "experiencia ajá", el momento del descubrimiento mental de una solución por parte de un chimpancé. Pero en realidad estamos todavía muy lejos de poder determinar con certeza que, efectivamente, hay procesos cognitivos y de abstracción en los animales, esos seres que, en una época, estuvimos seguros de que eran totalmente distintos a nosotros y que, sin embargo, quizá tienen algo que podríamos llamar una cultura propia.

¿Armas animales?


Recientemente, dos investigadores de la conducta, Jill Pruetz de la Universidad Estatal de Iowa y Paco Bertolani de la Universidad de Cambridge en Inglaterra reportaron en la revista Current Biology haber observado a un grupo de chimpancés haciendo lanzas de madera con procesos bastante complejos, para cazar a otros animales en Senegal. En 22 casos observados entre 2005 y 2006, los chimpancés se ayudaron de herramientas para cazar gálagos mientras éstos dormían en huecos de árboles.

Asteroides y meteoritos: ¿el cielo se está cayendo?

Tienen el secreto de los orígenes del sistema solar, pero son sobre todo objeto de atención por un temor no muy bien fundado sobre el peligro que representan.

Entre Marte y Júpiter se encuentra un cinturón de pequeños cuerpos astronómicos que son, al parecer, los restos de la formación de nuestro sistema solar: los asteroides. Estas rocas, de las que hay entre uno y dos millones según los últimos cálculos de los astrónomos, y de tamaños que van desde el microscópico hasta los mil kilómetros de diámetro de Ceres, el mayor de ellos, podrían ser, según los astrónomos, material que no llegó a formarse como planeta cuando lo hicieron los demás debido a la fuerza gravitacional de Júpiter. El primero de los asteroides, precisamente Ceres, fue descubierto apenas en 1801 por Giuseppe Piazzi, en Palermo, Sicilia, y en los años siguientes el número de descubrimientos de asteroides se multiplicó, intensificándose a partir de la introducción de la astrofotografía a fines del siglo XIX. Actualmente, se descubren y describen aproximadamente 5 mil nuevos asteroides cada mes.

Los asteroides han capturado la imaginación de los seres humanos desde que se conoció su existencia. Algunas primeras teorías suponían que el cinturón de asteroides eran los restos de un planeta que existió en el pasado entre Marte y Júpiter dieron como resultado interesantes ejercicios especulativos en la ciencia ficción. En la cinematografía, el cinturón de asteroides es un favorito de los guionistas que desean escenificar persecuciones en el espacio al estilo de las de las series policíacas, para lo cual plantean paisajes en los que los asteroides están muy cerca unos de otros, algo que en la realidad no ocurre. El cinturón de asteroides, en la ciencia ficción, es además frecuente escenario de operaciones mineras que proporcionan materias primas a un planeta Tierra que ha agotado sus recursos. Después de que el físico Luis Álvarez propusiera la explicación de que la extinción de los dinosaurios en el cretácico podría estar en el choque de un trozo de asteroide con nuestro planeta, probablemente el causante del cráter de Chicxulub en la Península de Yucatán, los asteroides han sido protagonistas de todo tipo de relatos apocalípticos, tanto ficticios como pretendidamente reales, especialmente la película Armagedón, efectiva en lo dramático aunque, según los científicos, con tremendas carencias en cuanto a su rigor en el manejo de los datos.

El valor científico de los asteroides es enorme, ya que pueden relatarnos la historia de nuestro sistema solar y ayudarnos a entender mejor todo el universo, pero hay un grupo de asteroides que llaman la atención de los medios, especialmente a últimas fechas: los asteroides cercanos a la tierra. En este contexto, sin embargo, "cercano" es un concepto astronómico, es decir, se mide en unidades astronómicas, siendo "unidad astronómica" la distancia del eje menor de la órbita terrestre alrededor del sol, aproximadamente 150 millones de kilómetros. Así, "objeto cercano a la Tierra" es todo objeto que pase a menos de 1,3 unidades astronómicas, o 200 millones de kilómetros de nuestro planeta y que debe observarse en prevención de algún poco probable riesgo de colisión. Ciertamente, año con año caen a nuestro planeta numerosos meteoritos, pero la mayoría de ellos son diminutos y se destruyen en la atmósfera, y sólo unos pocos, con tamaños desde un granizo hasta una pelota de baloncesto, llegan a la superficie.

Aunque la probabilidad de una colisión es muy baja, tanto los gobiernos como las organizaciones científicas dedican esfuerzos a catalogar los objetos cercanos a la tierra y evaluar los riesgos que plantean. Para ello se han creado algunas herramientas como la "escala de Torino" de riesgos, aceptada por los científicos especializados en objetos cercanos a la Tierra. Esta escala combina la probabilidad estadística de que un objeto impacte en nuestro planeta con el potencial daño que puede causar el objeto debido a su energía cinética (masa y velocidad), y va desde el riesgo 0, que indica una probabilidad despreciable o un objeto demasiado pequeño como para causar daño, hasta el riesgo 10, que es la absoluta certeza de una colisión en el caso de un objeto lo bastante grande como para ocasionar un desastre global del tipo atribuido a la extinción de los dinosaurios. La valoración del riesgo en la escala de Torino cambia conforme se obtienen nuevos datos de observaciones astronómicas adicionales.

Este cambio, por ejemplo, explica que el asteroide Apofis, que pasará "cerca" de la Tierra el 13 de abril de 2029, se llegara a ubicar en el nivel 4 de la escala de Torino, pero que en la actualidad esté ubicado en el nivel cero, igual que su segundo paso por nuestro planeta en 2036, contrario a informes que pretenden señalar que hay un riesgo de colisión. En este momento, hasta donde sabemos, el único objeto cercano a la Tierra con una clasificación de Torino superior a cero es el llamado "1950 DA", que tiene un nivel de 1 asignado para su paso por la Tierra el 16 de marzo de 2880.

Pero si bien la ciencia no parece sustentar en este momento las predicciones de desastres en las próximas décadas, tanto la Unión Europea como los Estados Unidos han establecido grupos para el rastreo de objetos cercanos a la Tierra aprovechando las observaciones astronómicas cotidianas en todo el mundo, y han emprendido el análisis de diversas estrategias posibles para desviar un posible asteroide peligroso. Las propuestas más cinematográficas, como la pulverización de un asteroide con armas termonucleares, son sin embargo poco viables en la realidad, no sólo por la enorme masa que realmente tienen los cuerpos que representan un peligro, sino porque si se pudiera destruirlos, el problema podría multiplicarse: todos los fragmentos de más de 35 m de longitud se convertirían en otros peligros mucho menos predecibles, y podrían ser miles. Las otras opciones son el choque directo con una nave espacial (el proyecto Don Quijote que la Agencia Espacial Europea terminó de diseñar en julio de 2005) o la colocación de impulsores en el asteroide para desviarlo con suavidad y de modo controlado, entre otras muchas posibilidades.

La visita a un asteroide


El 12 de febrero de 2001, la nave NEAR Shoemaker de la NASA descendió suavemente en la superficie de Eros, el segundo asteroide más grande de los cercanos a la Tierra, después de orbitarlo 230 veces y fotografiar detalladamente su superficie, ofreciendo abundantes datos sobre la historia y desarrollo de este asteroide mediante observaciones con su espectrómetro de rayos X antes de quedar en silencio definitivamente el 28 de febrero de 2001. El estudio de los datos que aportó, sin embargo, aún continúa.

Y los savants nos ayudan a comprendernos

El cerebro humano es, en muchos sentidos, la última frontera de la ciencia. Unas pocas personas asombrosas puede tener una clave para entender el órgano con el que entendemos las cosas.

El famoso savant Kim Peek,
sobre el que se modeló "Rain man".
(foto ©  Copyright Dr. Darold
A. Treffert, y la Wisconsin
Medical Society,
vía Wikimedia Commons)
Ver Roma una vez y dibujarla con exactitud. Memorizar 12 mil libros. Aprender islandés en una semana. Estas hazañas asombrosas son lo normal para alrededor de 100 personas en todo el mundo identificadas como víctimas (si tal es la palabra) del síndrome savant, capaces de notables hazañas artísticas, matemáticas o de memorización pero que suelen sufrir además problemas de conducta y desarrollo mental y emocional, como el autismo.

El ejemplo popularmente más conocido del savant es Raymond Babbit, el personaje de la película Rain Man cuya interpretacíón dio un Oscar a Dustin Hoffman. Babbit está basado en un famoso savant estadounidense real, Kim Peek, quien ha leído y recuerda más de 12 mil libros, además de poder realizar cálculos matemáticos formidables y tener una asombrosa memoria musical, aunque no es autista como el personaje Babbit. Kim nació con macrocefalia, daños en el cerebelo y ausencia del cuerpo calloso, el haz de fibras nerviosas que conecta los hemisferios derecho e izquierdo del cerebro, lo que le permite hazañas como leer dos páginas de un libro al mismo tiempo, una con cada ojo, sin que un lado del cerebro interfiera con el otro compartiendo información con él. Kim camina con cierta dificultad, tiene habilidades motoras limitadas y no le es fácil comprender los aspectos metafóricos del lenguaje. Pero está sin duda consciente de que es singular, tanto que, al conocer al savant autista británico Daniel Tammet, Peek le dijo "algún día serás tan grande como yo". Tammet, por su parte, es el prodigio que aprendió islandés en una semana y memorizó más de 22.514 cifras de pi, además de ser un notable calculista, hablar al menos otros nueve idiomas y crear su propio idioma, el mänti.

Lo que puede hacer un savant nos parece extremadamente difícil, pero buena parte del acertijo que nos presentan los savants es, precisamente, que realizan sus hazañas sin dificultad, naturalmente. Para ello pagan el precio de una obsesión por sus temas de especialización que consume casi la totalidad de su vida. Poco les importa más allá de memorizar datos, números o estadísticas, hacer cálculos matemáticos o tocar instrumentos musicales sin cesar. Esto, al menos en principio, los diferencia de los genios "comunes" como Mozart, Einstein, Newton o Darwin, que pese a ser capaces de concentrarse intensamente en su trabajo, no perdían el contexto de su existencia y ciertamente no tenían las dificultades simbólicas y emotivas que con frecuencia sufren los savants.

Fuera de los casos de claras anormalidades anatómicas como el de Kim Peek, el hecho más asombroso, al menos a primera vista, es que los savants tienen cerebros en apariencia perfectamente normales. Es más, algunas personas han adquirido el síndrome savant después de sufrir un accidente, en particular un golpe en la cabeza. Tal es el caso de Orlando Serrell, un chico normal que fue golpeado por una dura pelota de béisbol mientras jugaba a los 10 años de edad, al parecer sin consecuencias más allá de un dolor de cabeza. Pero a partir de ese momento, Orlando recuerda exactamente dónde estaba, qué hacía y cómo vestía, así como las condiciones del clima, cada uno de los días de su vida a partir de ese día, y obtuvo igualmente la capacidad de realizar asombrosos cálculos calendáricos. Las capacidades que suelen exhibir quienes tienen el síndrome savant tanto congénito como adquirido son generalmente concretas y no simbólicas, dominio principalmente del hemisferio derecho del cerebro, mientras que el izquierdo es, se piensa actualmente, responsable de actividades más secuenciales, lógicas y simbólicas.

Un estudio que quizá contenga algunas claves sobre el tema se presentó en 1998 y señaló que numerosos pacientes con demencia frontotemporal progresiva y que antes no tenían deficiencia alguna ni, en la mayoría de los casos, ningún interés artístico, desarrollan hablidades artísticas inéditas en ellos conforme avanza su enfermedad, pero no habilidades abstractas o simbólicas. Su arte es una meticulosa representación de la realidad como las que han hecho famoso a Stephen Wiltshire, el aclamado pintor savant que asombró al mundo recorriendo Roma en helicóptero durante 45 minutos y luego haciendo, en tres días, un detalladísimo dibujo de 5 metros con una vista aérea de la capital italiana, con una precisión sobrehumana. Los científicos procedieron entonces a realizar escáneres cerebrales de un savant de 9 años, determinando que, probablemente, la base del síndrome savant implique una pérdida de funcioens del lóbulo temporal izquierdo con una función aumentada del córtex posterior. Otros estudios señalan que cierta región del cromosima 15 (conocida como 15q11-q13) puede estar vinculada a la presencia o ausencia de habilidades de savant. Finalmente, al realizar cálculos matemáticos parece que los savants echan mano de zonas del cerebro dedicadas ordinariamente a la memoria episódica para "reclutarlas" en el procesamiento matemático.

Todo esto podría indicar que quizá todos tenemos la semilla del savant en nuestros cerebros, pero ésta no se desarrolla, probablemente porque empleamos nuestros recursos neuronales en otras muchas actividades menos especializadas y obsesivas que las del savant. Desde el punto de vista de la evolución y la adaptación, quizás no sería muy deseable que todos pudiéramos calcular el día de la semana en que cayó cualquier fecha de la historia o aprendernos de memoria el directorio telefónico, pero no pudiéramos desarrollar otras capacidades intelectuales y emocionales.

Lo que hoy sabemos acerca de los savants es, sin duda, mucho más de lo que sabían quienes les dieron nombre, pero aún es muy poco. El dr. Darond Treffert, considerado el máximo experto mundial en savants y que se dedica a su estudio desde hace 45 años, ha afirmado: "He llegado a la conclusión de que hasta que podamos explicar al savant, no podremos explicarnos a nosotros mismos".

Asunto de swing

Matt Savage, nacido en 1992, es un pianista y compositor de jazz con su propio grupo (de adultos), premios, siete discos publicados a la fecha y una apretada agenda de conciertos. Es también un chico autista, obsesivo, caprichoso y con varios problemas de comportamiento y comprensión (especialmente de los aspectos simbólicos del idioma) que han sido enfrentados pacientemente por sus padres. Matt tiene la ventaja de ser extremadamente inteligente, como Daniel Tammet. Con el apoyo médico y de su familia, quizá con el tiempo nos pueda decir lo que ningún escáner cerebral puede relatarnos: cómo es la vida dentro de la cabeza de un savant.

Stonehenge, más allá del mito

Stonehenge es fuente de valiosos datos sobre el devenir humano, y ahora contamos con nueva información sobre lo más importante: las personas que los construyeron.

Es uno de los más famosos monumentos prehistóricos: una serie de piedras verticales con otras piedras horizontales en forma de dinteles, formando un círculo en cuyo interior había varios monumentos más. Situado cerca de Salisbury, en Inglaterra, Stonehenge ha animado la imaginación durante literalmente miles de años, evocando todo tipo de leyendas en distintos momentos.

Los monumentos de grandes piedras, llamadas megalitos, son una constante de ciertas etapas históricas humanas, en particular el neolítico. En el continente eurasiático africano, se considera que el neolítico comienza alrededor del 8.500 antes de nuestra era y se caracteriza por la aparición de la agricultura y la domesticación de las primeras especies de valor económico, el ganado. Hasta ese momento, los seres humanos debían procurarse el alimento cazando y recolectando productos que crecían de forma silvestre, lo que condicionaba que sus culturas fueran nómadas, siguiendo a las manadas de presas o cambiando su lugar de residencia según la disponibilidad de frutos de la tierra.

La agricultura permitió que los humanos se asentaran en poblados estables, promoviendo la construcción de casas y templos, la creación de caminos, y la invención de nuevas herramientas de piedra para labrar la tierra, cuidar los cultivos y procesar las cosechas. Los pueblos neolíticos eran, aunque la cultura popular a veces sugiera otra cosa, altamente desarrollados. Sus herramientas de piedra eran eficaces, su tecnología bastante desarrollada y en constante evolución, y sus conocimientos astronómicos sumamente sólidos. Parte de esa evolución fue la creación de grandes monumentos de piedra, como los menhires, los dólmenes (piedras verticales que sostienen una losa horizontal, de carácter en general funerario) y los círculos de piedras, siempre con una orientación astronómicamente significativa, como corresponde a una cultura cuya vida depende de las estaciones y la cuidadosa observación de los cielos para saber cuándo plantar, cuándo cosechar y cuándo prepararse para el frío. Stonehenge es sólo uno de los 900 círculos de piedra que se conocen sólo en las islas británicas.

Stonehenge no fue un proyecto de una sola etapa, sino que se fue formando a lo largo de más de mil años, y los estudiosos identifican tres grandes etapas constructivas. Primero, hacia el año 3.100 a.n.e., se construyó un recinto circular de tierra de unos 110 metros de diámetro rodeado de un foso y un banco elevado, que contenía un círculo de 56 agujeros casi con certeza empleados para colocar troncos erguidos en un recinto ceremonial. En una segunda etapa, hacia el 3.000 a.n.e., se construyó otro círculo más amplio de agujeros para postes, cada uno de ellos más pequeño que los de la etapa anterior, y empieza a haber cremaciones llevadas a cabo en el foso que rodeaba la elevación circular, lo que sugiere que se trataba de un cementerio de cremaciones al menos como una de sus funciones.

La tercera etapa de construcción se divide en varios momentos entre el 2.600 y el 1.930 a.n.e., donde la piedra sustituyó a la madera en los elementos verticales, primero con 80 piedras (llamadas piedras azules) formando un semicírculo, y después, entre el 2.450 y el 2.100 a.n.e. se creó lentamente el monumento que ya conocemos, al ser sustituidas las piedras azules por las gigantescas piedras sarsens para formar un círculo con dinteles, 5 trilitos (monumentos de tres piedras en forma de puerta) en su interior, además de las piedras azules formando un dibujo de herradura. Los constructores dieron forma a estas piedras y tallaron en ellas empalmes de lengüeta y de espiga y mortaja que han permitido que al menos algunas permanezcan erguidas. Seguirían algunos cambios menores, entre ellos las inscripciones de algunas piedras realizadas en la edad del bronce.

La construcción de Stonehenge es una hazaña notable aunque no imposible con la tecnología de la época, como lo demuestran los numerosísimos megalitos que existen en todo el mundo. Pero hasta ahora sabíamos muy poco acerca de quiénes los construyeron. Recientes excavaciones en Durrington Walls, a menos de 3 kilómetros de Stonehenge, han revelado un gigantesco asentamiento humano de cientos de personas que data de entre el 2.600 y el 2.500 a.n.e, es decir, la época de la construcción definitiva de Stonehenge. El arqueólogo Mike Parker Pearson de la universidad de Sheffield, Inglaterra, anunció que el descubrimiento de docenas de fogones mediante magnetometría llevó a las excavaciones de las casas que contuvieron tales fogones. Se trata, según se anunció el pasado mes de enero, del poblado neolítico más grande hallado hasta hoy en Gran Bretaña y que podría ser "la otra mitad de Stonehenge".

El complejo de Durrington Walls es, asimismo, un henge, es decir, un espacio cerrado con un banco a su alrededor y un foso dentro de éste, en un círculo de unos 425 metros de diámetro. A fines de 2006 las excavaciones de Durrington Walls mostraron los restos de casas neolíticas de unos 24 metros cuadrados con piso de barro y un fogón central, restos de cerámica y huesos de animales con señales de haber sido cocinados y consumidos. Las casas, salvo tres que están aisladas y podrían tener una función ceremonial, están apiñadas alrededor de un círculo de postes de madera similar al de las primeras etapas constructivas de Stonehenge, del que parte una avenida empedrada de unos 28 metros de ancho y 170 metros de largo, que lleva al río Avon y a la que los arqueólogos le suponen una función ritual.

Como en el caso del descubrimiento realizado por Zahi Hawass de las casas de los constructores de la Gran Pirámide de Keops, al recobrar su dimensión humana estos grandes monumentos nos recuerdan que son, ante todo, testigos de la grandeza, la capacidad, la tenacidad y la inteligencia de otros seres humanos, que junto con esas grandes edificaciones fueron parte de la creación de nuestra cultura y nuestra historia, y sin los cuales no seríamos quienes somos.

De la leyenda a los hechos


Desde que Geoffrey de Monmouth afirmó en siglo XII que Merlín trajo las piedras sarsen de Irlanda a Salisbury (mismas piedras que previamente habrían sido llevadas desde África por gigantes), Stonehenge animó la imaginación (y la oportunidad política) de muchos. Así, el monumento se ha atribuido a los romanos, a los daneses, a los sajones y a los druidas celtas, hasta que el conocimiento científico demostró que era más antiguo que todos ellos. Ello no ha impedido que algunas personas le atribuyan al sitio propiedades mágicas y místicas de todo tipo que nunca han podido demostrar.

Retomando

Por mil causas, el blog no se actualizó durante meses pese a que sigo escribiendo la página semanalmente en El Correo. A partir de hoy, estoy subiendo todos los artículos ya publicados, cada uno con la fecha en la que se publicó en el diario para mantener el orden cronológico.

El órgano invisible

Nos preocupan sus arrugas, sus manchas, sus imperfecciones, sus granos, su color, su textura. Es la principal parte que ven los demás de nosotros, y sin embargo sigue guardando misterios.

Esquema de la piel humana. (Imagen D.P. del Gobierno
de los EE.UU., vía Wikimedia Commons)
Un reciente estudio publicado en febrero por investigadores de la Escuela de Medicina de la Universidad de Nueva York revela que nuestra piel, esa parte de nosotros que es la más visible, la más evidente, aún es, en gran medida, terreno inexplorado, especialmente en cuanto al número y tipo de habitantes que tiene. Porque la piel no es sólo nuestra envoltura exterior, sino que es también el hogar de millones de microorganismos, especialmente bacterias, algunas beneficiosas, otras que no tienen efectos positivos ni negativos e incluso algunas que bajo ciertas condiciones pueden ocasionar enfermedades, pero no en individuos sanos. El estudio identificó a 182 especies de bacterias, de las cuales 15 eran desconocidas hasta ahora, que en un momento dado podrían ser evaluadas en la piel de las personas para obtener datos sobre su salud, pues la población de bacterias en nuestro cuerpo varía al paso del tiempo, de acuerdo a los cambios en nuestra salud, nuestra dieta, las condiciones del clima, el uso de cosméticos y otras variables.

En palabras del jefe del equipo investigador, el doctor Martin J. Blaser, "Mantener estables las poblaciones de bacterias en nuestro cuerpo puede ser parte de la conservación de la salud", algo especialmente importante pues se observó que algunas de las especies de bacterias no están permanentemente allí, sino que cambian con el tiempo.

Aproximadamente el 15% de nuestro peso es de piel, de modo que un adulto de 70 Kg. tiene más de 10 Kg sólo de piel, de un espesor promedio 2 a 3 milímetros y con una superficie de entre 1,5 y 2 metros cuadrados. La piel es así el órgano más grande del cuerpo humano en términos de peso, pero solemos olvidar que se trata de un único órgano que nos cubre y nos defiende, además de darnos nuestro aspecto singular. Esto puede deberse a que la piel asume formas muy distintas según la zona del cuerpo que cubra: más tersa o más rugosa, más gruesa o más suave, más o menos porosa.

Más allá del valor que se le da por cuanto a su belleza y lozanía, o de la importancia que socialmente ha tenido su color en distintos tiempos y lugares, la verdadera importancia de este órgano se encuentra en sus múltiples funciones. Se trata, en primer lugar, de nuestra protección inicial contra las infecciones. No solamente por ser una barrera física que impide la entrada de gérmenes patógenos a nuestro cuerpo, sino que también cuenta con células inmunes especializadas, las células de Langerhans, (no confundir con los "islotes de Langerhans" del páncreas, descubiertos por el mismo científico alemán), que se activan cuando se presenta una infección en la piel y la atacan.

La piel, igualmente, es el principal regulador de la temperatura interna de nuestro cuerpo. La piel contiene mucha más sangre de la que necesita para nutrirse, y la utiliza para enfriarnos cuando hace calor y evitar la pérdida de calor en momentos de mucho frío. Al experimentar calor, se dilatan los vasos de las dermis, la capa inferior de la piel para que más sangre corra cerca de la atmósfera, enfriándose. En este proceso, el sudor juega un papel importante, al irradiar más calor, aunque en general la piel funciona como una barrera para impedir que se evaporen nuestros valiosos fluidos corporales. De allí que la imagen habitual de la persona acalorada incluye piel enrojecida y sudorosa. Por el contrario, cuando hace frío se contraen los vasos sanguíneos de la dermis para impedir que la sangre tenga contacto con el exterior y pierda valioso calor, dándonos, en casos extremos, un color grisáceo azulado. Los pequeños músculos de la piel también se contraen, provocando el aspecto de "piel de gallina", en algo llamado "reflejo pilomotor".

Otras funciones especialmente relevantes de la piel son el almacenamiento de lípidos (grasas) y agua y la síntesis de las vitaminas D y B con ayuda de los rayos ultravioleta del sol, de allí que tomar el sol (en cantidades seguras) de manera regular sea importante más allá de la valoración estética que en nuestros tiempos se da a la piel bronceada. Siempre es útil recordar que, en muchas sociedades del pasado y muy ciertamente en las europeas, sólo de bronceaban quienes trabajaban en el campo, de modo que lo que se apreciaba era una piel blanca y pálida que anunciaba que su propietario era una persona de posibles, que no necesitaba deslomarse al sol para vivir bien.

Aunque se dice con frecuencia que la capa superior de nuestra piel, la epidermis, consta de células muertas, esto no es exacto. Es sólo la capa superior de la epidermis, el stratum corneum o capa córnea, que está formado principalmente por células muertas, pero se trata de una capa de apenas 500 micras (cinco centésimas de milímetro), con una profundidad de 20 o 30 células, que es esencial para impedir que se evapore el agua de nuestro cuerpo y entren bacterias dañinas en él, como barrera natural contra las infecciones. Esta piel muerta se renueva constantemente, tanto que es la principal causa del polvo en nuestras casas. Pero debajo de ella se encuentran otras estructuras de la epidermis, como los melanocitos, las células responsables que producen la melanina o colorante natural del ser humano, y que son las responsables del tono de nuestra piel, y las células de Langerhans.

La preocupación por el cáncer de piel ha sido uno de los elementos que están animando los nuevos estudios sobre nuestra envoltura viviente, pero lo que queda claro es que aún queda mucho por saber sobre ella, y para ello se están empleando los más recientes métodos de la ciencia biológica. El estudio de Blaser y su equipo implicó la toma de muestras superficiales de la piel de seis personas (tres hombres y tres mujeres) con varios meses de diferencia, el cultivo de las colonias bacterianas y el uso de los más originales sistemas de identificación genética para determinar qué especies estan presentes en nuestra piel.

Los microbios de nuestro cuerpo


En nuestro cuerpo, dentro y fuera, habitan numerosísimas especies de microbios como los detectados por el equipo de Martin J. Blaser en la piel, y no tienen por qué ser motivo de preocupación. Después de todo, tenemos más microbios que células nuestras en el cuerpo. ¿Cuántos? Según los expertos, en nuestro cuerpo hay 10 veces más microbios unicelulares que células nuestras. Así, si un cuerpo humano tiene, se calcula, cien billones de células (un 100 seguido de doce ceros, o cien millones de millones), alberga mil billones de bacterias pertenecientes a entre 5.000 y 10.000 especies distintas, la mayoría indispensables para nuestra vida.

Los videojuegos y los videojugadores

¿Y si en lugar de prepararse para la lucha, el joven que juega en el ordenador está mejorando sus habilidades, optimizando su agudeza visual y liberando su angustia?

A principios de febrero, un equipo de investigadores de la Universidad de Rochester anunció que un grupo de personas que jugaron un videojuego de acción durante algunas horas al día en el plazo de un mes mostraron una mejora de alrededor del 20% en su agudeza visual, mejorando su capacidad de identificar letras presentadas en amontonamientos, una prueba similar a algunas de las que se realizan en las clínicas oftalmológicas.

Este descubrimiento viene a sumarse a los muchos estudios que han demostrado una y otra vez que la práctica de los videojuegos tiene efectos positivos, como por ejemplo la mejora la coordinación visomotora, es decir, la concordancia entre el ojo y los movimientos de los músculos, una habilidad esencial para realizar correctamente numerosas actividades como la operación de maquinaria pesada, todos los trabajos manuales de operarios y artesanos y numerosos deportes, incluida la conducción de automóviles de Fórmula Uno, motivo por el cual hoy en día se usan videojuegos (más o menos enmascarados bajo el nombre de "simuladores") para ayudar en el entrenamiento de campeones como Fernando Alonso.

Apenas el 20 de febrero se informó de otro estudio en el que cirujanos especializados en laparoscopía del Centro Médico Beth Israel de Nueva York fueron estudiados por investigadores de la Universidad Estatal de Iowa. El resultado del estudio indica que los cirujanos que jugaban videojuegos al menos tres horas a la semana cometían 37% menos errores, trabajaban 27% más rápido y tenían notas 42% mejores que sus colegas en pruebas de habilidades quirúrgicas.

Así, ante las muchas afirmaciones, no siempre sin sustento, de que los videojuegos violentos pueden aumentar la violencia del "mundo real" de algunos de sus practicantes, algo que se ha vuelto parte de la cultura popular, hay también otros aspectos positivos que deben ser tenidos en cuenta ante esta forma de jugar, que aunque nueva en su forma no deja de ser sino la expresión de un aspecto esencial de nuestro comportamiento como especie.

Los estudiosos de la conducta animal y humana, como los psicólogos, los etólogos y los biólogos, han señalado con frecuencia que el juego parece ser una forma de preparación del animal para su vida adulta. Así, por ejemplo, los pequeños felinos juguetean con cosas empleando pautas conductuales muy similares a las que utilizarán para cazar, mientras que las crías de las presas, como los antílopes, juegan a correr y cambiar de dirección súbitamente, como lo harán el día de mañana para evitar ser víctimas de un depredador.

El caso del hombre no es distinto, aunque el proceso de neotenia nos ha dado características peculiares. La neotenia es la prolongación de la infancia (la humana es la más larga de todo el reino animal en proporción con la duración de su vida) y el mantenimiento de algunos rasgos infantiles en la vida adulta, como es la capacidad de jugar. Por ejemplo, el más cercano aliado del hombre, el perro, como parte de su domesticación ha sufrido también un proceso de neotenia que le permite seguir disfrutando el juego durante toda su vida, cuando el lobo abandona las conductas lúdicas al llegar a la edad adulta. Como ser capaz de jugar durante toda la vida, el hombre juguetón u homo ludens, busca continuamente formas distintas de divertirse, con juegos que ponen a prueba la memoria, la habilidad física (los deportes), la habilidad mental, la coordinación y muchas otras de nuestras características. Casi todo lo que hemos inventado lo hemos usado para jugar. Así, por ejemplo, las carreras de autos aparecieron muy poco después de la invención del automóvil, y, por supuesto, los juegos de ordenador surgieron casi al mismo tiempo en que los ordenadores se hicieron comunes, empezando en la década de 1970 con un ya casi olvidado tenis o ping-pong de vídeo en el que dos rayas hacían el papel de raquetas, un cuadrado actuaba como bola, y lo único que podía hacer el jugador era mover su raqueta hacia arriba y hacia abajo. Esa sencillísima disposición, sin embargo, bastó para crear el imperio de Atari, la primera empresa de videojuegos, que llenó el mundo de salas con juegos electrónicos.

Por supuesto, los videojuegos violentos tienen el defecto de ser, precisamente, violentos, pero ello no es forzosamente negativo. Noah j. Stupak, del Instituto de Tecnología de Rochester, señala que incluso algunos videojuegos de contenido violento "pueden actuar como una liberación de la agresión y frustración acumuladas". Por su parte, Daphne Bavelier, jefa del equipo investigador que hizo el estudio que ha demostrado mejoras en la agudeza visual entre quienes juegan videojuegos de acción dicen que "cuando las personas practican videojuegos están cambiando la ruta cerebral responsable del procesamiento visual". Sin embargo, es cauta: "Estos juegos llevan al sistema visual humano a sus límites, y el cerebro se adapta a ello. Ese aprendizaje se traslada a otras actividades y, posiblemente, a la vida cotidiana". Pero los efectos de este estudio pueden ir más allá, indicando la posibilidad, aún por explorarse científicamente, de que personas con déficits visuales como la ambliopía podrían mejorar su agudeza visual utilizando software de rehabilitación especial que reproduzca la necesidad que ofrecen los videojuegos de acción de identificar objetos con gran rapidez.

Lo que queda más claro es que aún hay mucho qué estudiar de los distintos aspectos de los videojuegos, desde sus historias, violentas o no, hasta sus características sociales, como si implican o no interacción de equipo, además de los aspectos que ponen a prueba en el jugador. Para ello, el equipo de Daphne Bevalier utilizará un laboratorio informatizado de realidad virtual de 360 grados, lo que Science Today llama "el sueño de un jugador de videojuegos", que está terminando de construirse actualmente en la Universidad de Rochester.

Aprender jugando, en la era del ordenador


No todos los videojuegos son violentos, como lo demuestra el éxito de muchos juegos benévolos y amables, pero existe también la visión de algunos de crear videojuegos de acción que sirvan para educar, sin que se note demasiado. La Federación de Científicos Estadounidenses acaba de lanzar el juego Immune Attack (Ataque inmune) cuyo objetivo es sumergir al jugador en los difíciles y complejos conceptos de la inmunología jugando en tejidos humanos contra infecciones virales y bacterianas, y atacándolas resolviendo problemas reales de la inmunología mientras disfrutan de acción útil e informativa. Podría ser el primero de muchos.

El principio de todo

En el principio hubo una gran explosión, después vinieron los físicos a tratar de entenderla, explicarla y preguntarse a dónde va.

Cronograma del universo y la sonda WMAP.
(Imagen D.P. de la Nasa, traducción de Luis Fernández
García, via Wikimedia Commons)
El origen de cuanto nos rodea es una de las preguntas esenciales de la humanidad. Todos los mitos comienzan con una visión de la creación del mundo o el universo. La filosofía y la ciencia también han enfrentado el problema que presenta la sola existencia de "algo". Hoy en día, la ciencia cuenta con una teoría desarrollada y fundamentada en las observaciones que hemos realizado, y que propone una explicación al origen del universo, la llamada "Teoría del Big Bang" o "Teoría de la Gran Explosión", que postula que hubo un momento preciso en el que se dio una gigantesca explosión en la cual se creó todo nuestro universo: la materia, el espacio y el tiempo. Esta idea se ha difundido desde los años 50, y la frase "big bang" es ya parte del habla común. Sin embargo, es oportuno señalar cómo se llegó a esta teoría y cómo se ha comprobado hasta permitirnos decir que es la mejor forma que tenemos para explicar el origen del universo.

Cuando no se sabía que las "nebulosas espirales" eran galaxias, se observó que dichas nebulosas se estaban alejando de la Tierra. Con base en esto y en los desarrollos de las ecuaciones de Einstein de la relatividad general de matemáticos como el ruso Alexander Friedmann en 1922, el sacerdote católico belga Georges Lemaître propuso en 1927 que el universo había comenzado como un "átomo primordial". Por entonces, el astrónomo estadounidense Edwin Hubble, que da su nombre al famoso telescopio orbital, había anunciado que las nebulosas eran galaxias muy lejanas, y en 1929 dio a conocer que el universo estaba en expansión, algo que era coherente con las ecuaciones de Einstein, pero también era una observación que confirmaba la teoría del "Big Bang". Si todo el universo estaba en expansión hacia todas partes a la vez, es lógico pensar que en un momento dado estuvo todo en el mismo sitio. Si pasáramos la película del desarrollo del universo hacia atrás, el universo se contraería hasta que, en un momento dado, que se ha calculado que ocurrió hace unos 13.700 millones de años, todo estaría concentrado en un mismo punto.

Había otras teorías de la física que pretendían explicar el universo, por supuesto, entendiendo "teoría" no como una suposición, especulación o conjetura, que se como utilizamos la palabra en el habla cotidiana, sino como la plantea la ciencia: un modelo de la forma de interacción de un conjunto de fenómenos naturales capaz de predecir acontecimientos y observaciones, y que está planteado de tal forma que pueda demostrarse que es falso en caso de que lo sea. De hecho, las ecuaciones de Friedmann eran compatibles con dos teorías, la del "estado estable" de Fred Hoyle y la del "átomo primordial". Para saber cuál describía mejor al universo, había que esperar nuevos datos.

La teoría del Big Bang implicaba que el universo, en sus primeras etapas, era un plasma muy caliente de fotones, electrones y bariones (familia de partículas subatómicas que incluye a los protones y neutrones). Al expandirse y enfriarse el universo, siempre según esta teoría, los fotones de aquel plasma se disociarían de la materia y se enfriarían, y por tanto debería existir una radiación cósmica de microondas de fondo en todo el universo observable, formada por dichos fotones, con características muy precisas. En 1965, los astrofísicos Arno Penzias y Robert Woodrow Wilson realizaron observaciones de radioastronomía que mostraban un exceso de temperatura en la radiación que, se demostró pronto, no era sino la observación directa de la radiación cósmica de fondo, una radiación que era exactamente como la había predicho la teoría del Big Bang. Este descubrimiento le valió el Nobel de Física a Penzias y Wilson en 1978. En los años 70, mediciones más finas de la radiación cósmica de fondo establecieron que era, efectivamente, el "eco" o los restos observables de la gran explosión, y sus características eran tales que ninguna otra de las teorías desarrolladas hasta el momento podían explicar. Desde entonces, los avances tecnológicos han permitido hacer observaciones adicionales que confirman la teoría del Big Bang y amplían lo que sabemos. Al mismo tiempo, como suele ocurrir en la ciencia, abren una enorme cantidad de nuevas interrogantes que antes ni siquiera sabíamos que existían, como la existencia de la "energía oscura".

La parte más extraña de la teoría del Big Bang es, sin duda, lo que había al momento de la gran explosión. Si el tiempo y el espacio se iniciaron precisamente al ocurrir la explosión, la pregunta "¿qué había antes allí?" carece de sentido, porque no había un "antes" al no existir el tiempo. Queda por saber qué hizo explosión para dar origen a nuestro universo. La teoría de la relatividad general dice que se trataría de lo que los físicos llaman uns "singularidad", un punto donde las cantidades que se usan para medir el campo gravitacional (la curvatura del tiempo o la densidad de la materia) se vuelven infinitas. Los agujeros negros son pequeñas singularidades, de modo que se puede decir que el universo comenzó con un enorme agujero negro en el que estaban compactados la materia, el tiempo y el espacio. Por qué hizo explosión tal singularidad es una pregunta que, sin embargo, aún estamos muy lejos de poder intentar responder con alguna certeza.

Lo mismo pasa con lo que le ocurrirá después al universo, aunque la solución es, en principio, más sencilla, pues depende de la cantidad de materia que contiene y de su velocidad de expansión, y hay dos especulaciones principales. Si tiene suficiente masa y una velocidad correspondientemente "lenta", la expansión del universo se detendrá en algún momento y empezará el "gran aplastamiento", con el universo contrayéndose hasta convertirse nuevamente en una singularidad. Pero si la velocidad es demasiado alta y la masa insuficiente, el universo se expandirá eternamente, desordenándose cada vez más de acuerdo con las leyes de la termodinámica y enfriándose cada vez más, acercándose al cero absoluto, posibilida que se llama, como corresponde el "gran congelamiento". O podría pasar otra cosa que hoy ni siquiera nos podemos imaginar.

El nombre era una broma


En 1949, Fred Hoyle se refirió burlonamente a la teoría del "átomo primordial" de Lemaitre como "this big bang idea" ("esta idea de una gran explosión"). A Hoyle le pareció que su chiste era bueno para denigrar la teoría opositora y lo repitió en 1950. Al poco tiempo, no sólo se demostraba que la teoría de Lemaitre era la más precisa, sino que el nombre "big bang" era adoptado por los físicos como una descripción sencilla, corta y clara de lo que ocurrió en ese primer instante.