Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Nace una estrella... y millones de ellas

La idea de los cielos inmutables ha dado paso a un concepto de un universo dinámico y en permanente transformación.

En 1592, el filósofo, sacerdote y cosmólogo Giordano Bruno fue llevado ante la inquisición (primero la veneciana, después la romana) por ocho acusaciones, una de las cuales era la creencia en la "pluralidad de los mundos", concepto éste que partía de su idea de que las estrellas no eran luces inmutables en los cielos perfectos de la enseñanza eclesiástica, sino que eran soles alrededor de los cuales podría haber mundos como la Tierra, lo cual, a ojos de la ortodoxia del siglo XVI, equivalía a negar que este mundo era singular, y que el dios bíblico había colocado aquí, de modo privilegiado, a las criaturas que eran a su imagen y semejanza. El 17 de febrero de 1600, Bruno fue quemado vivo en el Campo de Fiori, en Roma.

Pese al horror que nos pueda causar esta historia, no es difícil entender que durante milenios, salvo por las conjeturas o fantasías de algunos personajes excepcionales, la idea prevaleciente fuera que las estrellas y los cielos eran inmutables, las zonas de habitación de las deidades, y por tanto la idea de que las estrellas podían cambiar era casi inimaginable. De hecho, pese a las observaciones aisladas sobre nuevas estrellas realizadas en el pasado, fue Edmond Halley, el astrónomo que dio su nombre al famoso cometa, quien demostró por primera vez en el siglo XVII que dos estrellas habían cambiado su posición relativa a la Tierra desde que las describiera Hiparco en el siglo II antes de nuestra era. El uso de la espectroscopía y el conocimiento de las leyes de la gravitación, dos logros de Isaac Newton llevaron por fin a la demostración de que el universo era, en efecto, un sistema dinámico, y que las estrellas nacían, se desarrollaban y morían, como en la actualidad lo podemos constatar con las asombrosas fotografías de las "incubadoras de estrellas" en los límites del universo que nos han podido traer telescopios de última generación como el Hubble.

Las estrellas son soles, el sol es una estrella, pero... ¿qué es una estrella?

La definición más simple es que una estrella es un cuerpo de plasma en el cual un proceso de fusión nuclear hace que produzca luz y calor. El "plasma" es una fase de la materia, distinta de la sólida, la gaseosa o la líquida, en la cual la materia tiene una forma similar a un gas, pero ionizado, con una gran capacidad de conducir electricidad y una sensibilidad especial a los campos electromagnéticos. Cuando hay una cantidad o masa suficiente de plasma reunida en un punto, puede comenzar un proceso de fusión nuclear. En dicho proceso, los átomos de la materia que conforman el plasma empiezan a unirse para crear átomos de un núcleo más pesado, liberando en el proceso una gran cantidad de energía. En las estrellas como nuestro sol, el hidrógeno está fusionándose continuamente para formar átomos de helio, generando la luz y el calor que permiten la vida en la Tierra.

Las estrellas se forman dentro de las llamadas nubes moleculares gigantes, regiones de gran densidad de hidrógeno en el espacio interestelar. Cuando una nube molecular se ver perturbada por algún fenómeno cercano, como las ondas de choque de una supernova o la colisión de dos galaxias, se pude crear una inestabilidad, llamada Inestabilidad de Jeans, que provoque que en un punto haya tal densidad de materia que su propia gravedad empiece a provocar que se contraiga la nube molecular, el llamado "colapso gravitacional". Durante este largo colapso, la nube se fragmenta en regiones cada vez más pequeñas, hasta que en el centro de la nube llega a formarse lo que se conoce como una protoestrella, alrededor de la cual los demás fragmentos forman discos de materia que pueden condensarse formando planetas o, incluso, otras estrellas. En las protoestrellas, el calor es producto de la gravedad pero aún sin iniciar una reacción de fusión nuclear

Cuando la densidad de la protoestrella permite que el calor en su interior llegue a los 10 millones de grados Kelvin, el hidrógeno que la forma comienza el proceso de fusión nuclear, la estrella "nace" y comienza a brillar, cosa que pueden hacer, en función de su masa, entre unos pocos millones de años y 13 mil millones de años, evolucionando lentamente en cuanto a su luminosidad y a la cantidad de calor que emiten. Igualmente, su masa determinará su destino, si una estrella al final de su vida estallará como una brillante supernova o se se convertirá en una gigante roja, y si finalmente se convertirá en una densa enana blanca (como le ocurrirá a nuestro sol), en una estrella de neutrones o en un denso y misterioso agujero negro. Como en la vida humana, en la existencia de las estrellas infancia es destino en gran medida.

El desarrollo de cada estrella dependerá principalmente de la masa con la que ha nacido, que a su vez determina la temperatura superficial que tiene y su clasificación. Los cosmólogos clasifican a las estrellas según sus características espectrales con las letras O, B, A, F, G, K y M, siendo las más calientes las de clase O (con 33.000 grados Kelvin o más) y las más frías las de clase M (con entre 2.600 y 3.850 grados Kelvin). Nuestro sol es una estrella de clase G, con una temperatura superficial de entre 5.500 y 6.000 grados Kelvin.

Las estrellas se forman continuamente en nuestro universo, de forma más frecuente de lo que se creía no hace muchos años. Las observaciones con el telescopio Hubble recientemente han demostrado, por ejemplo, que en un solo racimo globular de estrellas de nuestra propia galaxia, el NGC 2808, han surgido estrellas en tres momentos distintos, tres "generaciones" que contradicen la idea de que en un racimo todas las estrellas se formaban a la vez. Una pluralidad de pluralidades que sin duda habría complacido a Giordano Bruno.

Estrellas gemelas y más


Las estrellas pueden existir en sistemas múltiples, y se conoce al menos un sistema séxtuple, el de la estrella Castor. Los más comunes son los binarios, con dos estrellas producto de la misma nube molecular que giran una alrededor de un centro de masa o baricentro común. Se calcula que al menos una cuarta parte de todas las estrellas están en sistemas binarios, y el más conocido por nosotros es Sirio, cuya estrella componente Sirio A, es la más brillante de la noche, mientras que su compañera, Sirio B, es una enana blanca. Según los astrónomos, nosotros estuvimos a punto de vivir en un sistema solar con dos estrellas: si Júpiter hubiera tenido unas pocas veces más su masa, se habría convertido cuando menos en una estrella de las llamadas "enanas marrón", pues el gigante de gas se habría colapsado iniciando fusión nuclear en su interior. Júpiter es, así, la estrella que no pudo ser.

El camino de un medicamento

Desde la idea hasta que un medicamento llega al recetario, el proceso es largo y complejo, y la mayoría de las veces fracasa sin que lo sepamos.

Junto a las historias de éxitos médicos asombrosos como el de la penicilina, la anestesia, las vacunas o procedimientos quirúrgicos asombrosos como los trasplantes de órganos, están algunos relatos de medicamentos que, sin ser probados a fondo, han sido utilizados con resultados sumamente indeseables. De hecho, problemas como el que ocasionó la talidomida entre 1957 y 1961, que provocó el nacimiento de miles de niños con problemas congénitos porque nunca se había probado en mujeres embarazadas han servido para afinar cada vez más las exigencias legales y los requisitos científicos necesarios para que una sustancia llegue a usarse para tratar alguna afección humana.

El camino de un medicamento comienza con la observación de que una sustancia (o un producto vegetal, que además debe estudiarse para determinar cuál o cuáles sustancias activas contiene) produce ciertos efectos en las personas, o que exhibe cierto comportamiento al entrar en contacto con ciertos tejidos, o que tiene ciertas características químicas similares a las de otras sustancias con valor medicinal, o bien los bioquímicos analizan cómo una enfermedad actúa a nivel molecular y fisiológico y buscan sustancias específicas que la contrarresten.

El hallazgo o identificación de una sustancia o compuesto prometedores es, sin embargo, apenas el primer paso de un largo camino. Cuando se tiene una sustancia que es candidata a ser un medicamento, los químicos médicos intentan mejorar sus características deseables y disminuir sus efectos no deseados. La nueva sustancia deberá tener, entonces, una actividad benéfica contra un cierto objetivo biológico, pero entonces será necesario determinar sus niveles de toxicidad, sus posibles efectos secundarios, la forma en que se absorbe, distribuye, metaboliza y excreta del cuerpo y muchos elementos adicionales que se conocen mediante estudios con células aisladas en tubos de ensayo o, cuando es indispensble, en animales de laboratorio para determinar si realmente puede usarse sin riesgos excesivos y cuáles serían las recomendaciones respecto a las dosis, el tipo de administración (inyectable, en cápsulas, en comprimidos, en gotas, etc.) y la frecuencia (posología) para obtener los mejores resultados posibles. Cuando hay una certeza razonable de todos estos elementos, se realizan unas primeras pruebas clínicas con pequeños grupos de voluntarios, y del éxito de éstas depende la decisión de realizar pruebas con grandes grupos de voluntarios que permitan un análisis estadístico válido de los resultados, utilizando el medicamento a prueba y una sustancia inocua o "placebo" en dos grupos de personas, para comparar los efectos que experimentan ambos grupos, tanto positivos como negativos.

Uno de los problemas más serios que enfrenta la prueba de medicamentos en personas es que la situación emocional y las expectativas de los pacientes influyen en los efectos que se reportan de los medicamentos, y aún no sabemos cuál es el mecanismo, cómo actúa o con qué intensidad. Hablamos de "efecto placebo" para designar este misterioso mecanismo aún por explorarse. Pero aún más, si el médico espera que un medicamento funcione, puede influir en el paciente, aumentar sus expectativas de buenos resultados y potenciar el efecto placebo, o, por el contrario, con su actitud disminuir la confianza del paciente y bajar la efectividad de una sustancia. Para aumentar nuestra certeza de que los efectos que se pueden observar en las pruebas clínicas con pacientes se deben a los medicamentos que se están probando y no a ningún otro elemento, se ha diseñado el llamado sistema de "doble ciego", utilizado para controlar el efecto placebo y los sesgos conscientes o inconscientes de los investigadores. Con este sistema, utilizado apenas en los últimos cincuenta años, ni los pacientes ni los médicos que administran la prueba saben si el paciente está recibiendo el medicamento activo o un placebo. Sólo al cabo de todo el estudio clínico, los investigadores saben cuáles pacientes recibieron el medicamento a estudio y cuáles recibieron una sustancia inocua. Si las diferencias entre ambos grupos son lo bastante relevantes, si los efectos positivos son notables y los negativos son pequeños, se pueden hacer más pruebas y plantearse la eventual solicitud de aprobación del medicamento, para la cual los expertos de las dependencias gubernamentales deberán revisar todos los experimentos realizados desde el principio y determinar que el medicamento es efectivo contra la afección para la que se indica y que cumple con los criterios de seguridad establecidos. Estas pruebas pueden durar incluso años, y para ellas se requiere que todos los voluntarios estén plenamente informados del esquema experimental, de sus posibles riesgos y beneficios y de un equipo de apoyo sólido en caso de que algo salga mal. A lo largo de todo este proceso, son literalmente miles las ocasiones en que los resultados pueden ser tales que requieran que la sustancia sea desechada, bien por ineficaz, o bien porque sus efectos colaterales son inaceptables.

Todos estos procedimientos no pueden garantizar que un medicamento no resulte dañino bajo ciertas condiciones, o que no haya errores humanos, pero sin duda es una forma de darle cada vez más certeza a los pacientes de que los medicamentos a los que tienen acceso son efectivos y seguros. El que tal cosa sea cierta no es, sin embargo, tan difícil de probar, basta ver el aumento en la expectativa de cantidad y calidad de vida en los países con buenos sistemas de sanidad pública para determinar que, pese a sus problemas, la medicina sigue avanzando y aún guarda muchas promesas en la búsqueda de sustancias curativas.

Tiempo y dinero, el problema


Muchas organizaciones, en especial ONG, luchan por conseguir que participen más recursos públicos en la investigación y desarrollo de medicamentos, para atender urgentes necesidades médicas, sobre todo del tercer mundo, que no resultan económicamente atractivas para los laboratorios. Y es que el desarrollo de un medicamento toma mucho tiempo y dinero. Se calcula que el desarrollo de un medicamento tiene un costo de entre 500 millones y dos mil millones de dólares, y puede durar hasta 15 años. Más aún, sólo una de cada cinco mil sustancias que empieza a estudiarse en los laboratorios llega a convertirse en un medicamento en nuestras farmacias. Visto así, el problema no es del método científico y experimental utilizado para conseguir nuevos medicamentos, sino simplemente un asunto de economía y de política cuyas soluciones no son abandonar la investigación científica, sino ayudar a darle un giro más humano y menos comercial.

Los seres que viven en nosotros

Somos habitados, literalmente, por miles de millones de organismos para los cuales nuestro cuerpo es, simplemente, su casa. Y apenas estamos conociéndolos.

Staphylococcus epidermidis, bacteria comúnmente
presente en nuestra piel.
(foto CC Janice Carr, Centers for Disease Control and
Prevention, via Wikimedia Commons)
Hace unos 140 años, Louis Pasteur demostró más allá de toda duda que ciertas enfermedades son provocadas por la acción de seres vivos, agentes infecciosos. Hasta ese momento, nuestra conciencia de nuestra relación con los animales era bastante más sencilla: existían los seres que explotábamos (cultivos, ganado, abejas, gallinas, presas de caza, etc.), los que nos dañaban atacándonos a nosotros o a nuestros bienes (lobos, felinos y otros depredadores, mala hierba, moho) y los que no representaban ningún valor económico para bien ni para mal. Con Louis Pasteur llegó para siempre la idea de que estamos estrechamente relacionados con muchísimos otros seres vivos que no podemos ver, pero que igual ayudan a fermentar muchos de nuestros alimentos, nos ocasionan enfermedades o nos ayudan en tareas esenciales como la digestión.

Y al hablar de muchísimos seres vivos, estamos hablando de más seres que la suma de nuestras propias células. El cuerpo humano tiene una media de 10 billones de células (10^13, o un 1 seguido de 13 ceros), pero alberga, solamente en el intestino, alrededor de 100 billones de microorganismos (10^14 o un 1 seguido de 14 ceros), sin contar a otros muchos que habitan en otras partes del tracto digestivo, la piel, el tracto respiratorio y los nódulos linfáticos.

Los microbios que más nos preocupan son, por supuesto, los seres vivos que pueden perjudicarnos. Hay más de 100 tipos de parásitos distintos: gusanos, hongos, bacterias, protozoarios y artrópodos diversos, entre otros. Luego están los literalmente cientos de agentes infecciosos: virus, bacterias y hongos. Pero hay muchísimos seres vivos más que no son ni lo uno ni lo otro, que nos colonizan creciendo dentro de nuestros cuerpos pero sin causar que responda nuestro sistema inmune, al menos de forma evidente. Estos últimos son, sin embargo, particularmente interesantes, ya que su éxito como colonizadores del cuerpo humano depende de su capacidad para inhibir la respuesta inmune y controlar en cierta medida las células del cuerpo en el que habitan. Conocer los mecanismos que utilizan estos organismos para desactivar las respuestas de nuestro cuerpo es una de las claves para entender cómo funciona nuestro sistema inmunológico y cómo podemos fortalecerlo.

Un ejemplo muy sencillo de esta vida sobre nosotros son las bacterias de las especies Corynebacterium tenuis y Corynebacterium xerosis, que viven especialmente en nuestras axilas o sobacos. Estas bacterias se multiplican en grandes números cuando hay sudor a su alrededor, y sus procesos vitales ocasionan un olor sumamente agudo y molesto. De este modo, el olor al que nosotros llamamos "a sudor" no es tal, ya que el sudor prácticamente carece de aroma. Y aunque difícilmente se podría decir que las bacterias de estas especies son una amenaza para la humanidad, o un tema de máxima prioridad, no podemos pasar por alto que los desodorantes representan un mercado sumamente valioso, de más de 120 millones de euros anuales sólo en España.

Más importante, sin duda, es la flora intestinal formada por microorganismos de diversas especies, calculadas entre 300 y 1.000, y que ayudan a actividades tales como la fermentación y absorción de carbohidratos, en especial algunos polisacáridos que nosotros no podemos aprovechar, pero que son descompuestos por las enzimas de nuestra flora intestinal. La flora intestinal, además, estimula el crecimiento de las células epiteliales del intestino, ayuda a impedir el crecimiento de microbios patógenos, ayudan al sistema inmune a reconocer a organismos dañinos y responder sólo a ellos, e incluso ayuda a prevenir algunas enfermedades, como alergias o procesos inflamatorios en el tracto intestinal. Y hay otras relaciones que aún no entendemos, como las que muestran recientes estudios indicando que un grupo de microorganismos de la flora intestinal, los bacteroidetes, disminuyen en relación con otro grupo, los firmicutes, en las personas que padecen obesidad, indicando nuevas avenidas para la investigación. Otros estudios indican que, así como resulta beneficiosa y útil para la vida, bajo ciertas condiciones la flora intestinal puede ser responsable de diversas afecciones, causando simples colitis o colaborando en el desencadenamiento de ciertas formas de cáncer.

Un estudio de principios de 2007 determinó que la diversidad bacteriana entre distintas personas es enorme, con sólo unas cuantas especies presentes en todos los sujetos del estudio (entre ellas, claro, las Corynebacterium responsables del mal olor corporal). El estudio observó además al menos tres especies de bacterias que estaban presentes sólo en los hombres. Igualmente, se determinó que algunas de estas bacterias están presentes en nuestro cuerpo todo el tiempo, mientras que otros aparecen y desaparecen, transmitiéndose o migrando de una persona a otra. Estos mecanismos de transmisión son objeto de intensos estudios ya que nos indican la evolución de distintas infecciones y, especialmente, de las epidemias. De hecho, según algunos expertos, prácticamente todas las medidas de control de salud pública tienen como principal objetivo el cortar los sistemas de transmisión de microorganismos entre la población, ya sea mediante medidas sanitarias que cortan las rutas de transmisión, tratamientos que reducen la duración de las infecciones y la posibilidad de contagio a otras personas, las vacunas que fortalecen la inmunidad y las cuarentenas o aislamiento de personas infectadas. La forma en que viven y se transmiten los colonos más inocentes de nuestro cuerpo puede dar también claves sobre cómo se comportan los microorganismos infecciosos, mejorando nuestra comprensión de cómo se difunden ciertas enfermedades y ayudándonos a encontrar mejores formas de controlarlas y luchar contra ellas.

La fobia a los gérmenes

Howard Hughes, millonario empresario de la aviación, y productor de cine, murió en 1976 aterrorizado por los microbios, negándose a darle la mano a la gente para saludarla y siempre munido de toallas de papel para coger cualquier cosa. Desde los años 50 sufría misofobia o miedo patológico a los gérmenes. Esta afección también parece tener entre sus víctimas al ex rey del pop, Michael Jackson, quien suele dejarse ver con una mascarilla quirúrgica y evita igualmente el contacto físico con otras personas. La misofobia es una de las fobias más comunes, y lleva a muchas personas a lavarse las manos o limpiar su casa compulsivamente, así como a emprender diversas acciones para evitar verse expuestos a los gérmenes, algo que es no sólo absolutamente imposible sino, por lo que sabemos hoy, muy poco deseable.

El cómplice oculto: las abejas

Una epidemia en Estados Unidos muestra cuán unida está nuestra suerte a la de estos insectos, no por su miel, sino por menos conocida su labor de polinización.

La compleja vida social de las abejas ha sido siempre objeto de estudio y fascinación, y este insecto aparece en la mitología helénica, cuando diosas como la minoica Potnia, Démeter y Artemisa se identificaban con las abejas, igual que sus sacerdotisas. Ya los minoicos habían domesticado a las abejas para obtener su miel, y de ella una bebida alcohólica fermentada.

De las muchas especies de abejas existentes, sociales o solitarias, con o sin aguijón, de apenas 2 milímetros de largo o de hasta 39 milímetros, la más conocida es la abeja europea o abeja de la miel, cuyo nombre científico es Apis mellifera, de la cual existen al menos 28 subespecies, incluida la Apis mellifera iberiensis, la abeja específicamente española, identificada apenas en 1999. Esta especie de abeja es la que más evidentemente juega un papel económico por la importancia de la miel en la economía mundial, y porque es la que más intensamente se ha estudiado. Como ejemplo de la atención que le ha prestado la ciencia, el trabajo del zoólogo Karl Von Frisch que identificó los mecanismos de comunicación de las abejas y consiguió descifrar el significado de la "danza de las abejas", la forma en que los movimientos de las abejas exploradoras indican la distancia y dirección de macizos de flores donde se puede alimentar la colmena. Estos estudios le valieron el Premio Nobel de Medicina y Fisiología en 1973 junto con otros dos estudiosos de la conducta animal, Konrad Lorenz y Niko Tinbergen.

La capacidad de las abejas y otros insectos de producir miel procede de sus hábitos alimenticios, es decir, de que se alimentan del néctar y polen de las flores, el primero para obtener energía y el segundo como fuente de proteínas. Pero el néctar es, sobre todo, un sistema empleado por las plantas precisamente para atraer a insectos y otros animales de modo que lleven su polen a plantas lejanas y les traigan a su vez polen de tales plantas. Se calcula que más de un tercio de todos los cultivos del mundo dependen de la polinización por parte de distintos animales, y las abejas son responsables de gran parte de este porcentaje.

Existen estudios que demuestran que las plantas polinizadas mediante estos polinizadores animales producen frutos más grandes, más sabrosos y de mejor calidad que los frutos que son resultado de la autopolinización o la polinización realizada únicamente por medio del viento. Así, la ausencia de un número adecuado de colonias de abejas, domésticas o salvajes, en una zona determinada, puede convertirse en un enorme desastre agrícola. Esto es precisamente lo que ha disparado las alarmas en los Estados Unidos.

La disminución de las colonias de abejas a lo largo del último siglo es un hecho bien conocido, producto, entre otras cosas, de la urbanización, el uso de pesticidas, algunos parásitos de las abejas y otras causas, con algunas agudizaciones ocasionales que nunca han sido satisfactoriamente explicadas, como la registrada en Estados Unidos en el invierno de 2004-2005. Actualmente, se está difundiendo una alarma indicando que la desaparición de colonias de abejas se había acentuado desde mediados de 2006 hasta hoy, a lo que se le ha llamado "Desorden de Colapso de Colonias", reportado primero en Estados Unidos y, recientemente, añadido con informes no confirmados en Polonia, Grecia, Italia, Portugal, España, Suiza y Alemania.

Aunque según algunos estudiosos el fenómeno no es real, sino que obedece a variaciones naturales o normales, otros afirman que ciertos síntomas (como la ausencia total de abejas adultas en la colonia sin acumulación de abejas muertas en los alrededores de la colmena) muestran que se trata de un problema real y distinto de otras formas de colapso de las colonias, como los causados por ácaros o virus ya conocidos, y se han ocupado de buscar sus causas. Finalmente, los afectos a anunciar el apocalipsis, los agoreros del desastre que ayudan poco a identificar el problema, aislar sus causas y corregirlo, no sólo han encontrado entretenido culpar a sus demonios particulares (como los teléfonos móviles, los cultivos genéticamente modificados o la industrialización), sino que han difundido una cita falsamente atribuida a Einstein, indicando que de desaparecer las abejas, la humanidad seguiría en un plazo de cuatro años. Si bien tal "predicción" no tiene ninguna base, la falta de abejas sí podría representar graves problemas económicos, especialmente para algunos cultivos como el de almendras en California, cuya polinización es realizada mayormente por las abejas.

A fines de abril de 2007, un grupo de investigadores del Centro Químico Biológico Edgewood y de la Universidad de California en San Francisco, habían identificado tanto un virus como un parásito que podrían estar detrás de la desaparición de colonias de abejas. Igualmente, investigadores como Diana Cox-Foster, del departamento de entomología de la Universidad Estatal de Pennsylvania, han hablado de la presencia de ciertas infecciones con hongos y, sobre todo, han enfatizado la necesidad de criar abejas de la miel que sean más resistentes a las enfermedades y a los parásitos. El desarrollo de nuevas variedades de abejas es una labor que realizan diversos investigadores, apoyados en el genoma de la abeja que terminó de descifrarse a fines de 2006, con objeto de impedir que los apicultores y los agricultores resulten afectados por éstos y otros cambios súbitos que son, al menos eso es claro, resultado de un ambiente dinámico, cambiante y no siempre ideal.

La abeja africanizada


Un caso ejemplar en cuanto al manejo de las abejas ha sido la difusión por América de la "abeja africanizada", mal llamada "abeja asesina" por los profesionales del miedo. En los años 50, el biólogo brasileño Warwick E. Kerr trabajaba cerca de San Paulo cruzando abejas italianas (Apis mellifera ligustica) con otras procedentes de Tanzania (Apis mellifera scutellata) para crear una variedad mejor adaptada a las condiciones tropicales. En 1957, 26 abejas reinas africanas se liberaron accidentalmente, se cruzaron con zánganos locales y produjeron las colonias de abejas africanizadas que empezaron a invadir América hacia el norte, desplazando en gran medida a las abejas europeas por su mayor defensividad (en cuanto a número de abejas dedicadas a la defensa y tácticas), tendencia a la migración y otras características. Actualmente, se encuentra abeja africanizada hasta la mitad sur de los Estados Unidos, aunque su entrecruzamiento continuado con la abeja europea ha ido diluyendo su agresividad y creando, especialmente en México, una variedad mezclada fácilmente manejable.

El cerebro del doctor Ramachandran

En un mundo en el que todo parece explorado, un brillante investigador de la India nos enseña mucho sobre un área aún desconocida: nuestro propio cerebro.

Vilayanur S. Ramachandran
(fotografía CC de David Shankbone,
vía Wikimedia Commons)
Un hombre reporta un intenso dolor en un brazo amputado porque tiene la mano férreamente apretada, clavándose las uñas en las palmas, pero no puede controlar la mano para abrirla. El dolor se convierte en un obstáculo para llevar una vida normal. Este caso, uno más de "miembro fantasma", frecuente entre personas que han sufrido una amputación, sugirió una solución cuando menos extraña al doctor Vilayanur S. Ramachandran, quien propuso que el cerebro recibía información sensorial por medio de la vista y la propiocepción indicando que el miembro no se podía mover, y podía engañarlo, para lo cual creó una caja en la que el paciente podía meter los brazos, con espejos de modo tal que en el lugar del brazo amputado se veía el reflejo del brazo sano del paciente. Su idea era que al "decirle" al cerebro visualmente que el miembro se ha movido se conseguiría eliminar algunas de las sensaciones negativas del miembro fantasma. Esta hipótesis se demostró en la práctica y desde 1998 la "caja de espejos" del doctor Ramachandran se ha convertido en una herramienta esencial para combatir las sensaciones desagradables de los miembros fantasmas.

En los inicios de su carrera, Ramachandran se ocupó de la percepción visual por medio de la psicofísica, estudiando, los mecanismos neurológicos que permiten que se combine la información de los dos ojos humanos para formar una imagen con profundidad, el movimiento aparente, la forma en que nuestra percepción deduce formas y estructuras a partir del sombreado o el movimiento y las interacciones entre el color y el movimiento. Estos estudios implicaron la creación de las llamadas "ilusiones ramachandran", empleadas precisamente para estos estudios. Pero a fines de los años 80 Ramachandran volvió su atención a temas neurológicos como los miembros fantasma. Pero su labor más reciente y mundialmente reconocida se ha desarrollado en el terreno de la sinestesia, una condición en la que dos o más sentidos corporales están acoplados o interconectados (por decirlo de algún modo, aunque no hay pruebas de una "conexión" real). La forma más común de sinestesia es aquélla en la que las personas "ven" colores relacionados con letras, números, palabras u otros conceptos, como los días de la semana o los meses.

La primera aportación de Ramachandran al estudio de la sinestesia fue, sin duda alguna, la dmeostración de que era una condición fisiológica real y no una ilusión o alucinación puramente psicológica. Lo que hizo Ramachandran fue desarrollar una prueba similar a la empleada para detectar la ceguera al color o daltonismo, en la cual una persona común no encontraría ciertos patrones que se harían rápidamente evidentes para alguien que tuviera realmente sinestesia. En una de estas pruebas, se presenta un cuadro en el que hay una serie de números "5" de rasgos cuadrados dispuestos al azar en un espacio en blanco. Entre ellos, algo que para un "no-sinesteta" es muy difícil de ver, hay una serie de números "2" igualmente cuadrados, imágenes en espejo de los "5", pero que forman un triángulo. Un verdadero sinesteta que ve colores en los números identifica de un solo vistazo un triángulo de símbolos de cierto color en un espacio formado por símbolos de otro color. Con esta y otras pruebas, Ramachandran demostró de una vez por todas que había un sustrato física y neurológicamente real en los reportes de sinestesia, abriendo la puerta al estudio serio de esta condición y lo mucho que puede enseñarnos respecto del cerebro "común" (por no llamarle "normal"). A partir de esta demostración, Ramachandran ha continuado, llevando en los años más recientes el estudio de la sinestesia a estudios de neuroimágenes funcionales para aprender las diferencias en la activación cerebral que tienen los sinestetas y los no-sinestetas al verse expuestos a los mismos estímulos.

A partir de sus estudios, el doctor Ramachandran ha sugerido que muchas de nuestras metáforas verbales son, en cierto modo, "sinestésicas". Así, un "color chillante" en realidad no chilla, pero evoca en nosotros la misma sensación que un agudo alarido, mientras que un "frío cortante" en realidad no corta, o la envidia puede ser un "sentimiento agrio". Ramachandran considera que todos tenemos algún nivel de sinestesia y que probablemente la sinestesia es un componente fundamental de muchas formas artísticas, y que muchos artistas son, sépanlo o no, sinestetas. Más aún, señala "Nuestros estudios de las bases neurobiológicas de la sinestesia sugieren que la capacidad de realizar metáforas, de ver vínculos profundos entre cosas superficialmente distintas y sin relación entre sí, proporcionan una semilla clave para la aparición del idioma".

Un área peculiar de estudio de Ramachandran es el síndrome de Capgras o "ilusión de los dobles", afección en la que el paciente cree que sus familiares o personas queridas han sido sustituidos por dobles. Según Ramachandran, en al menos un caso se produjo por una desconexión entre la corteza temporal (donde se lleva a cabo el reconocimiento de los rostros) y el sistema límbico, implicado en las emociones. Como el paciente no experimenta emociones al ver a sus seres queridos, cree que esto indica que la persona ante él, es un sosías o doble.

En el otoño de 2007 se publicará Mirrors in the mind o "Espejos en la mente, la ciencia de lo que nos hace humanos y creativos", nuevo libro de Ramachandran sobre el los mundos del cerebro.

El viajero del cerebro humano

Vilayanur S. Ramachandran nació en 1951 en Tamil Nadu, en la India, y se graduó como médico en el colejo médico Stanley de Madrás, de donde salió para obtener su doctorado en el Colegio Trinity de la Universidad de Cambridge en las áreas de psicofísica y neurofisiología, además de realizar estudios de postdoctorado en Cal Tech. Actualmente es director del Centro para el Cerebro y la Cognición de la Universidad de California en San Diego, director del Laboratorio del Cerebro y el Proceso Perceptual y profesor del departamento de psicología y del programa de neurociencias en dicha universidad.

Ha recibido una larga cadena de honores y reconocimientos por sus más de 120 artículos científicos publicados, 20 de ellos en la prestigiosa revista Nature, además de ser autor de libros de divulgación, como Fantasmas en el Cerebro. Los misterios de la mente al descubierto (Editorial Debate, Madrid, 1999), escrito conjuntamente con Sandra Blakeslee, es el editor en jefe de la Enciclopedia del Cerebro Humano y de la Enciclopedia del Comportamiento Humano y aparece con frecuencia en documentales relacionados con el cerebro, la mente y la percepción.

Arqueología: CSI de la historia

Una excavación arqueológica es hoy un esfuerzo científico multidisciplinar que echa mano de todo tipo de conocimientos para desentrañar los secretos del pasado.

Excavación arqueológica en Bekonscot, Reino Unido.
(Foto CC-BY-SA-2.5 de MichaelMaggs,
vía Wikimedia Commons)
La imagen del arqueólogo con cierta "inspiración" más o menos vaga que insiste hasta encontrar lo que buscaba, o incluso del aventurero devenido héroe cinematográfico perpetuado por los filmes de Indiana Jones, son visiones románticas de unos pocos aspectos de la arqueología que tienen todo el atractivo que implica la mezcla de viajes a lugares más o menos exóticos, la exploración de misterios y la posibilidad de descubrimientos tan asombrosos como la tumba del rey Pakal, el ejército de guerreros de terracota de Shiang, la ciudad de Machu Picchu o los restos de Troya.

Sin embargo, aunque este elemento romántico sigue existiendo, la realidad de la arqueología moderna tiene mucho más que ver con distintas disciplinas científicas que se han ido sumando para conseguir cada vez mejor el objetivo esencial de la arqueología: estudiar los restos materiales dejados por el hombre en el pasado para obtener datos sobre su historia, cultura, desarrollo y vida cotidiana. Una excavación arqueológica debe obtener la mayor cantidad de información sobre lo que va hallando antes de moverlo siquiera, porque una vez alterado el hallazgo es irrecuperable: la localización y orientación de un objeto en una tumba, por ejemplo, puede ser una clave esencial. Como solía decir un maestro de arqueología: una pieza de cerámica en su contexto es una fuente de información valiosísima, sin su contexto, es un cacharro viejo.

La excavación arqueológica moderna comienza con la determinación de que es altamente probable que en un lugar determinado se encuentren restos importantes. Esto anteriormente se hacía únicamente mediante la consulta e interpretación de las fuentes históricas, y entrevistando a las personas que viven en los alrededores del lugar sugerido por la información histórica, para determinar si conocían alguna cueva con restos peculiares, si habían recuperado algún resto, si en sus construcciones o al roturar la tierra habían dado con indicios de restos antiguos. Actualmente, la prospección arqueológica incluye el uso de sistemas de datos geográficos (GIS), geoposicionamiento por satélite (GPS), estudios geológicos, distintos tipos de detección remota (magnetometría, radiometría, radar, ultrasonido, fotometría, medición de variaciones gravitacionales, sonar, sismogramas), además de fotografía aérea o desde satélites. Todo esto permite al arqueólogo obtener una gran cantidad de información sobre lo que hay bajo tierra antes de iniciar cualquier excavación.

En muchos casos, una gran fuente de prospección son excavaciones arqueológicas antiguas, realizadas sin metodología científica, muchas veces destinadas únicamente a la recuperación de restos comercializables (cerámica fina, joyas, estatuas). Los arqueólogos tipo "Indiana Jones" de la primera mitad del siglo XX solían ser atrozmente destructivos en sus trabajos, pero aún así dejaron atrás muchísimos datos que los arqueólogos de hoy saben rescatar, valorar e interpretar adecuadamente. En otros casos, una labor de construcción de gran relevancia, como la perforación de túneles carreteros o de metro, o la excavación para cimentaciones, pone al descubierto yacimientos arqueológicos en ocasiones insospechados, y que deben ser documentados, estudiados y rescatados en lo posible en plazos de tiempo muy breves, impuestos por los intereses sociales, políticos y económicos relacionados con el trabajo de construcción interrumpido por el hallazgo.

La excavación arqueológica actual requiere, primero que nada, que se registre y documente de la manera más precisa la ubicación exacta de cada objeto que se encuentre, incluida su orientación y la profundidad a la que se halló, para lo cual se realizan planos del sitio y fotografías de todos y cada uno de los objetos, así como la relación que mantienen tales objetos entre sí. Dado que los objetos más modernos están en las capas superiores y los más antiguos en las inferiores, conocer la posición de todos nos permite saber cuáles corresponden o no a la misma época, y nos dan un contexto del todo que en un pasado fue el origen de cada pieza o resto individual. Al mismo tiempo que trabajan los profesionales más conocidos, los que con paciencia e instrumentos muy delicados exponen cada objeto, suelen estar implicados otros muchos profesionales: expertos lingüistas o paleógrafos que interpretan allí mismo inscripciones que puedan encontrarse, expertos en vida animal y vegetal antigua que pueden identificar los restos orgánicos.

Pero donde la investigación arqueológica se convierte en algo muy parecido a la verdadera investigación de una escena del crimen, o CSI, es en la etapa conocida como "postexcavación", mucho más compleja y lenta que las excavaciones en general, y ciertamente menos cinematográfica. Así, la moderna ciencia arqueológica incluye a expertos en datación física y química, expertos en tecnologías antiguas, botánicos, zoólogos, expertos en materiales y sistemas de construcción, patólogos, nutriólogos, expertos en la conservación de restos para evitar que se deterioren, expertos en tafonomía (la disciplina que estudia cómo se descomponen distintos objetos al paso del tiempo), astrónomos, expertos en aspectos como la religión o las guerras del pasado, según el caso, expertos en la extracción y secuenciación de ADN y otros muchos especialistas que pueden intervenir en distintos casos, sin excluir nunca a los matemáticos e informáticos que dan orden, sistema y sentido a la colosal cantidad de datos físicos, químicos, biológicos y culturales que puede ofrecernos un solo metro cuadrado de una excavación arqueológica moderna... lejos, muy lejos, del látigo de Indiana Jones.

La arqueología experimental

Solía decirse que la arqueología, como la astronomía, es una de las ciencias en las que no es posible realizar experimentos. Esto ha dejado de ser cierto conforme distintos estudiosos han decidido someter a prueba algunas hipótesis, o reproducir el manejo de ciertas tecnologías del pasado. Los expertos que hoy en día crean herramientas de piedra idénticas a las que nos legó el paleolítico o el neolítico, por ejemplo, nos permiten conocer las técnicas utilizadas e interpretar, por ejemplo, los yacimientos de restos de piedra que puedan haber quedado en los talleres de los antiguos tallistas. Los experimentos de traslado de grandes piedras (como las de Stonehenge o las de las pirámides egipcias) o los que han mostrado cómo se puede poner de pie una escultura "moai" de la isla de Pascua sin poleas son formas de arqueología experimental que nos permiten acercarnos más a las culturas que nos precedieron.

Listo 2006

Hoy he terminado de publicar en el blog todos los artículos de 2006, y en las próximas 2 semanas espero haber publicado la totalidad de los artículos publicados en 2007 en el diario, de modo que podamos entrar a una lógica adecuada: el artículo sale en el periódico el miércoles y el jueves o viernes estará en este blog.

Cuando se acabe el petróleo

La realidad socioeconómica que conocemos depende de una energía que nos permita producir y transportar los bienes que necesitamos. Necesitamos garantizar que tendremos esa energía en el futuro.

El petróleo produce electricidad, nos calienta en invierno, nos refresca en verano, permite transportar bienes y personas, mover la maquinaria con la que producimos todo tipo de bienes y servicios en la fábrica y en el campo, conseguir muchísimos bienes de consumo a precios accesibles para muchas personas y, en general, conseguir muchísimas cosas que no podríamos obtener si dependiéramos, como lo hicieron durante millones de años nuestros antepasados, únicamente de la energía de nuestros músculos.

Extraer energía de elementos distintos de nuestros músculos ha sido una de las principales preocupaciones del hombre, y uno de los motores esenciales del desarrollo de lo que llamamos nuestras culturas. El fuego obtenido a partir de madera, extrayendo la energía concentrada en la madera y usándolo para nuestro beneficio, permitió a los seres humanos importantes logros: defenderse en la noche, soportar el frío de latitudes no habituales para nuestra constitución física, habitar en lugares oscuros como las cavernas y cocinar los alimentos, accediendo así a fuentes nutritivas que no podemos aprovechar plenamente en forma cruda.

A la madera pronto se unió el carbón, que contiene una mayor cantidad de energía almacenada que la madera, y otros materiales que podían quemarse, como el estiércol seco de herbívoros, o aceites minerales, animales y vegetales. Se emplearon también otras fuentes de calor, como las aguas termales procedentes de las profundidades de la tierra.

El petróleo era conocido ya en la antigüedad, cuando el asfalto que surgía naturalmente de la tierra se empleaba en la construcción. Herodoto y Diódoro relatan que así se hizo en los muros y torres de Babilonia, mientras que en la china del siglo IV en petróleo ya se obtenía mediante perforaciones para quemarlo y evaporar la salmuera para obtener sal. Pero el boom petrolero que conocemos hoy comenzó en 1846, cuando el físico y geólogo canadiense Abraham Pineo Gesner descubrió el proceso de refinación para obtener queroseno a partir del carbón, lo que disparó una serie de investigaciones sobre la refinación que en pocos años permitieron obtener queroseno a partir del petróleo, y poco a poco a obtener una creciente variedad de sustancias y productos a partir de la destilación del petróleo. Así, del petróleo se obtienen combustibles como el etanol, el combustible diesel, los aceites combustibles, la gasolina, el combustible de aviones, el queroseno y el gas de petróleo líquido (LP). Adicionalmente, del petróleo se extraen los alquenos que se convierten en todos los plásticos que conocemos, lubricantes, ácido sulfúrico, alquitrán, asfalto, coque de petróleo, cera parafina y sustancias petroquímicas aromáticas.

Pese a su valor como origen de otros productos, el 84% de todo el petróleo que se extrae en el mundo se convierte en combustibles que quemamos. Y eso representa el 40% de las fuentes de energía del mundo, mientras que el carbón sigue siendo responsable del 23,3% de nuestra energía y el gas natural del 22,5%. Las fuentes de energía no fósiles siguen siendo minoritarias; en 2004, sólo el 7% de la energía era de origen hidroeléctrico, 6,5% procedía de la energía nuclear y todas las demás opciones, principalmente la biomasa, apenas formaron el 0,7% de nuestro consumo.

Sin embargo, el petróleo es un recurso no renovable, lo que significa que, en algún momento, empezará a escasear, lo que significará que poco a poco se volverá demasiado caro o precioso para quemarlo, llevándonos inevitablemente al uso de otras formas de energía, muchas de las cuales están en pleno desarrollo en estos momentos. Ninguna de ellas, en este momento, es lo bastante atractiva como para sustituir al petróleo, porque ninguna tiene las características esenciales de esta sustancia: abundancia, fácil transportación, alto contenido energético y diversidad. También es un hecho que podemos ahorrar mucho petróleo, simplemente disminuyendo el desperdicio (como el que implica el uso excesivo del automóvil en lugar del transporte público). Sin embargo, la propia abundancia y bajo costo del petróleo impiden que individuos y sociedades realicen esfuerzos adecuados para su conservación.

La pregunta, sin embargo, no es si podremos vivir sin petróleo, es que deberemos hacerlo en un futuro indeterminado, pero sin duda no demasiado lejano. La mejor promesa para sustituirlo se encuentra en las fuentes de energía renovables, es decir, las que no pueden agotarse como lo hará el petróleo: la hidroelectricidad, la energía solar, la eólica, la geotérmica, la de las olas y mareas y, cada vez más, la bioenergía, es decir, la energía obtenida de la quema de materiales biológicos o su conversión en combustibles de origen biológico. En todo caso, para sustituir al petróleo seleccionaremos fuentes de energía que nos ofrezcan la mayor eficiencia a cambio de nuestra inversión en tiempo, trabajo y dinero.

En este sentido, en las últimas semanas un grupo de ingenieros químicos de la Universidad de Purdue han propuesto un nuevo proceso ecológicamente aceptable para producir combustibles líquidos a partir de materia vegetal o biomasa. El nuevo procedimiento añade a las aproximaciones ya conocidas hidrógeno obtenido a partir de una fuente de energía libre de carbono, lo que suprime la formación de bióxido de carbono durante el proceso y aumenta su eficiencia, permitiendo obtener el triple de biocombustible a partir de la misma biomasa.

Las investigaciones del futuro, que recibirán un gran impulso en cuanto empiece realmente a haber signos de agotamiento del petróleo, seguramente obtendrán resultados aún más eficientes y asombrosos. No obstante, si hoy hay en los Estados Unidos 1.400 millones de toneladas de biomasa disponibles como subproductos de los procesos agrícolas, el doctor Rakesh Agrawal, director del grupo de investigación de Purdue, afirma que es posible satisfacer todas las necesidades de combustible para transportación en Estados Unidos "sin usar tierra adicional" para su producción.

Mi auto bebe alcohol


En 1978, Brasil se convirtió en líder de la energía alternativa al introducir los automóviles alimentados con alcohol obtenido de la fermentación de caña de azúcar y remolacha. A partir de 2004, el proyecto se renovó con la aparición del motor híbrido o flexible, que puede usar gasolina o alcohol indistintamente y en cualquier mezcla, y está presente en vehículos fabricados en Brasil por varias de las principales marcas. Y con buena razón: entre 2006 y 2007 se espera que más del 75% de los autos nuevos vendidos sean de motor híbrido.

La utilidad del dolor

El dolor es bueno, pero no tanto como se creía en el pasado, y es malo, pero no tan malo como a veces lo proclama la cultura popular. Pero sobre todo, es necesario.

No resulta fácil ver al dolor como un elemento útil, de hecho indispensable, de nuestra evolución como especie y de nuestra vida como individuos. Pero quizá la mejor forma de hacerlo es imaginarnos que el dolor simplemente no existiera. Así, por ejemplo, podríamos clavarnos un vidrio en un pie y seguir caminando sin sentir ninguna incomodidad, destruyendo aún más tejido del que se dañó en el primer momento. Podríamos quemarnos sin darnos cuenta, sufrir una grave infección, envenenarnos o rompernos un hueso y seguir usando la extremidad afectada con riesgo de causarle un desperfecto aún mayor o, incluso, irreparable.

Por desagradable, molesto y odioso que resulte, el dolor es un sistema sin el cual no podríamos sobrevivir fácilmente. El dolor nos informa que algo anda mal, y que debemos prestarle atención a alguna parte de nuestro cuerpo, o bien que no debemos utilizarla por estar dañada y en proceso de curación o cicatrización. Los encargados de este sistema de alarma por todo nuestro cuerpo son los nociceptores, neuronas especializadas en la recepción y transmisión de los estímulos dolorosos. Hay distintos tipos de nociceptores que reaccionan ante temperaturas muy altas o muy bajas, presión fuerte como la que se produce por golpes o cortes, y que actúan con frecuencia para provocar reflejos de protección (como retirar la zona dolorida de la causa del dolor), estimulación química o por la presencia de inflamación a su alrededor. Incluso algunos nociceptores no provocan la sensación que llamamos dolor, por ejemplo, al ser estimulados, los nociceptores situados en los pulmones provocan tos.

Los estímulos dolorosos se disparan por la presencia de una serie de sustancias químicas, la llamada "sopa inflamatoria", una mezcla ácida formada por prostaglandinas y potasio, que liberan las células dañadas, serotonina liberada por las plaquetas sanguíneas que entran en acción para coagular la sangre en las heridas, bradiquinina liberada por el plasma sanguíneo e histamina, liberada por los mastocitos, células implicadas en la cicatrización y defensa contra patógenos. Los impulsos nerviosos enviados por los nociceptores se transmiten por distintas vías a través de la médula espinal hacia el encéfalo, especialmente hacia el tálamo, que a su vez lanza impulsos hacia las zonas del cerebro encargadas del estado de alerta y las emociones, todo lo cual lleva a ese estado llamado dolor.

Una vez que sabemos que algo nos está dañando y hemos dado los pasos necesarios para evitar daños posteriores y curar los daños ya causados, el dolor no desaparece automáticamente, y se puede convertir en un problema por sí mismo. Algunos tipos de dolor parecen poco útiles (como el dolor de muelas o el que se puede producir en las uñas), o especialmente intensos sin que se pueda hacer nada para evitar su causa (como ocurre en el cáncer) y existe además el "dolor crónico", una afección en la que la sensación de dolor en una persona es duradera, intensa e incómoda, sin un origen preciso. Todo ello ha llevado al hombre a luchar contra el dolor utilizando los medios a su alcance, principalmente de carácter químico.

Al menos desde la época neolítica ya encontramos indicios del uso de la amapola opiáciea o Papaver somniferum en Europa, y la planta está presente en todas las civilizaciones antiguas, desde la sumeria hasta la griega, junto con la mandrágora, la belladona y la mariguana. Sin embargo, durante siglos la lucha contra el dolor convivió con la idea de que el dolor es "bueno", ya sea porque agrada a alguna deidad o bien porque demuestra la "potencia" o "eficacia" de alguna actividad curativa. En todo caso, no es sino hasta el siglo XVIII cuando comienza la búsqueda real del conocimiento acerca del dolor y de su control, con un primer logro en 1803 cuando Friedrich Willhelm Sertürner aisló a partir del opio los cristales de lo que llamó "morfina", uno de los más potentes analgésicos conocidos. Más o menos al mismo tiempo se exploraban las capacidades anestésicas del óxido nitroso y el éter, llevando a que en 1840 William Thomas Green Morton hiciera la primera demostración pública de una cirugía con anestesia a partir de éter. Poco después, James Young Simpson sustituiría el éter por cloroformo después de experimentar con diversos compuestos, y para 1880 la anestesia se había convertido en parte de la cirugía, lo que sirve para recordar que, hasta entonces, todas las intervenciones quirúrgicas, incluidas las amputaciones, las incisiones cesáreas y otras se realizaban sin anestesia y apenas con algún apoyo analgésico como el que podían ofrecer grandes ingestas de alcohol.

Fue hacia fines del siglo XIX cuando comenzó a estudiarse seriamente la fisiología del dolor y se empezaron a proponer diversos modelos médicos a partir del creciente conocimiento acerca del sistema nervioso. El concepto mismo de "nocicepción" o percepción de los estímulos dañinos fue propuesto apenas en 1898 por el fisiólogo británico Charles Scott Sherrington. Los conocimientos fueron demostrando que el dolor es el sistema de alarma del cuerpo, no un mecanismo de castigo, de curación ni de expiación ennoblecedora, permitiendo la aparición de diversas sustancias analgésicas, desde la aspirina hasta modernos compuestos como el paracetamol, el ibuprofeno y los analgésicos no esteroideos. Los avances en las neurociencias han determinado que la efectividad del opio y sus derivados se debe a que nuestro sistema nervioso reacciona a ese tipo de moléculas por su parecido con las propias sustancias contra el dolor y la depresión que produce nuestro propio cuerpo, las endorfinas llamadas también "opiáceos". Hoy, continúa la búsqueda por tener mejores analgésicos con menos problemas secundarios de los que tienen sustancias como la morfina. Como en muchas otras áreas del cerebro, estamos apenas empezando a conocer lo que ocurre en el órgano que nos hace ser nosotros.

El miembro fantasma


Entre el 50% y el 80% de las víctimas de amputaciones reportan sensaciones en el miembro amputado, o miembro fantasma, y muchos de ellos incluyen entre tales sensaciones la de dolor, en ocasiones de enorme intensidad. El tratamiento, a la fecha, implica el uso de antidepresivos, la destrucción de las neuronas nociceptoras que ya no van "a ninguna parte" al no existir el miembro que inervaban y la estimulación eléctrica de la médula espinal. Y cada vez más se utiliza la realidad virtual, a raíz de los descubrimientos del neurocientífico Vilayanur Ramachandran, que ha explorado el papel de la percepción psicológica en los miembros fantasmas, para que los amputados "muevan" el miembro dañado a posiciones cómodas e indoloras.

Las herramientas en el mundo animal

La fabricación de lanzas por parte de un grupo de chimpancés pone nuevamente de relieve que quizá no estamos tan lejos del resto del mundo animal como quizá algunos desearían.

A principios de la década de 1960 la entonces joven etóloga Jane Goodall publicó que los chimpancés que estudiaba en la reserva de Gombe, en Tanzania, exhibían de modo regular un comportamiento único: limpiaban y preparaban una ramita que luego introducían en un termitero y esperaban a que las termitas subieran a la ramita, para luego extraerla y comer las termitas, que para el chimpancé son todo un manjar.

El descubrimiento de la científica británica traía de nuevo a la mesa de discusión habilidades de los animales que algunas visiones considerarían específicamente humanas. En el caso de los chimpancés de Gombe, no se trataba únicamente de que los animales utilizaran una herramienta encontrada en el entorno, sino de la preparación y creación de dicha herramienta, la alteración de un elemento natural para adecuarlo a una necesidad determinada: la pesca de deliciosas termitas. Observaciones adicionales de los chimpancés fueron demostrando que este comportamiento no era una excepción, ni mucho menos. Al paso del tiempo, los investigadores pudieron observar a distintos grupos de chimpancés empleando ramitas especialmente modificadas para extraer miel de una colmena y para desenterrar raíces comestibles. Igualmente se vio que pueden utilizar hojas como herramientas para reunir agua y para limpiarse de barro, sangre y restos de alimentos. Y por lo que se refiere a la "pesca de termitas", al paso de los años se ha podido determinar que no sólo usan una herramienta, sino un juego de herramientas que puede incluir palos perforadores destinados a abrir agujeros hasta las galerías de los termiteros, además de las distintas herramientas que utilizan después para hacerse de su alimento.

El uso anteriormente documentado de herramientas en el mundo animal ya era de por sí inquietante para muchos. Por ejemplo, los buitres egipcios gustan de alimentarse de huevos de avestruz, cuya cáscara resulta tremendamente dura y difícil de romper, y el pico del buitre no sirve para ello. Cuando encuentra un huevo del que puede alimentarse, el ave busca en sus alrededores una herramienta adecuada, una piedra con la forma y el peso correctos para llevarla en el pico y usarla para golpear el huevo de avestruz, romperlo y acceder a su interior. Otra ave que utiliza herramientas con notable habilidad es el pinzón carpintero de las Galápagos, una de las aves de cuya observación derivó Charles Darwin la idea de la variación natural como motor de la evolución. Los pájaros carpinteros perforan la superficie de los árboles para acceder a las larvas que viven bajo la corteza. Capturan a dichas larvas con una larga lengua de tipo arpón para llevarlas a la boca. Sin embargo, el pinzón carpintero carece de esta lengua. A cambio de ello, el pinzón busca ramas o espinas de cactos, las cuales recortan y afinan para darles la longitud y forma adecuadas, y luego las utilizan para extraer la larva y poder comerla. Un tercer caso de uso herramientas en el mundo de las aves nos lo ofrecen ocasionalmente algunos ejemplares de garza verde, que dejan caer pequeños objetos en la superficie del agua y, cuando los peces se acercan al objeto considerando que podría ser una presa, la garza caza rápidamente a los peces. En términos exactos, la garza está pescando con carnada, una herramienta sin duda muy desarrollada.

Por supuesto, las habilidades de los animales han sido llevadas al laboratorio para explorarlas en condiciones más controladas. De hecho, la primera observación de uso de herramientas por parte de chimpancés se dio en la década de 1920, cuando el psicólogo Wolfgang Kohler observó a cuatro ejemplares usar varas largas para alcanzar objetos que se encuentran a una altura tal que les resultaban inalcanzables sin la herramienta. En otros experimentos se observó, no sin asombro, que los chimpancés podían unir dos varas cortas para crear una herramienta lo bastante larga como para alcanzar lugares elevados, o bien apilar cajas para conseguir el mismo objetivo. Y más recientemente, en experimentos de uso de varas para alcanzar objetos en sitios elevados, se ha visto cómo algunos chimpancés aprendían a usar tales varas como escalas para huir del recinto donde estaban confinados, sin duda para sorpresa de los científicos.

La pregunta principal es si el uso de herramientas por parte de los animales es una conducta instintiva (es decir, seleccionada y determinada genéticamente como parte de su evolución) o una conducta aprendida e "inteligente", aunque esta última palabra parece cada vez menos útil por cuanto a que su definición no es tan clara hoy como en el pasado. Ciertamente, el uso de espinas de cactos por parte de los pinzones carpinteros parece ser una conducta genéticamente determinada, que aparece en su totalidad sin necesidad de haber sido observada anteriormente ni imitada de otro animal. Además, es un comportamiento común a todos los pinzones carpinteros. No ocurre lo mismo, por ejemplo, con la pesca mediante carnada de las garzas verdes, ni mucho menos con las herramientas empleadas por los chimpancés, ya que distintos grupos utilizan distintas herramientas de distintas formas. Así, por ejemplo, la pesca de termitas en Gombe, Tanzania, y en el Congo, es distinta. Y, en todos los casos, se trata de conductas aprendidas, es decir, que no aparecen comúnmente en el repertorio conductual de los animales si no es por medio de la imitación y la enseñanza, o por un descubrimiento individual claramente observable.

¿Acaso hay un proceso de razonamiento, de abstracción de un problema y de su solución a nivel interno antes de experimentarlo? No lo sabemos. Para el etólogo Konrad Lorenz, existía la llamada "experiencia ajá", el momento del descubrimiento mental de una solución por parte de un chimpancé. Pero en realidad estamos todavía muy lejos de poder determinar con certeza que, efectivamente, hay procesos cognitivos y de abstracción en los animales, esos seres que, en una época, estuvimos seguros de que eran totalmente distintos a nosotros y que, sin embargo, quizá tienen algo que podríamos llamar una cultura propia.

¿Armas animales?


Recientemente, dos investigadores de la conducta, Jill Pruetz de la Universidad Estatal de Iowa y Paco Bertolani de la Universidad de Cambridge en Inglaterra reportaron en la revista Current Biology haber observado a un grupo de chimpancés haciendo lanzas de madera con procesos bastante complejos, para cazar a otros animales en Senegal. En 22 casos observados entre 2005 y 2006, los chimpancés se ayudaron de herramientas para cazar gálagos mientras éstos dormían en huecos de árboles.

Asteroides y meteoritos: ¿el cielo se está cayendo?

Tienen el secreto de los orígenes del sistema solar, pero son sobre todo objeto de atención por un temor no muy bien fundado sobre el peligro que representan.

Entre Marte y Júpiter se encuentra un cinturón de pequeños cuerpos astronómicos que son, al parecer, los restos de la formación de nuestro sistema solar: los asteroides. Estas rocas, de las que hay entre uno y dos millones según los últimos cálculos de los astrónomos, y de tamaños que van desde el microscópico hasta los mil kilómetros de diámetro de Ceres, el mayor de ellos, podrían ser, según los astrónomos, material que no llegó a formarse como planeta cuando lo hicieron los demás debido a la fuerza gravitacional de Júpiter. El primero de los asteroides, precisamente Ceres, fue descubierto apenas en 1801 por Giuseppe Piazzi, en Palermo, Sicilia, y en los años siguientes el número de descubrimientos de asteroides se multiplicó, intensificándose a partir de la introducción de la astrofotografía a fines del siglo XIX. Actualmente, se descubren y describen aproximadamente 5 mil nuevos asteroides cada mes.

Los asteroides han capturado la imaginación de los seres humanos desde que se conoció su existencia. Algunas primeras teorías suponían que el cinturón de asteroides eran los restos de un planeta que existió en el pasado entre Marte y Júpiter dieron como resultado interesantes ejercicios especulativos en la ciencia ficción. En la cinematografía, el cinturón de asteroides es un favorito de los guionistas que desean escenificar persecuciones en el espacio al estilo de las de las series policíacas, para lo cual plantean paisajes en los que los asteroides están muy cerca unos de otros, algo que en la realidad no ocurre. El cinturón de asteroides, en la ciencia ficción, es además frecuente escenario de operaciones mineras que proporcionan materias primas a un planeta Tierra que ha agotado sus recursos. Después de que el físico Luis Álvarez propusiera la explicación de que la extinción de los dinosaurios en el cretácico podría estar en el choque de un trozo de asteroide con nuestro planeta, probablemente el causante del cráter de Chicxulub en la Península de Yucatán, los asteroides han sido protagonistas de todo tipo de relatos apocalípticos, tanto ficticios como pretendidamente reales, especialmente la película Armagedón, efectiva en lo dramático aunque, según los científicos, con tremendas carencias en cuanto a su rigor en el manejo de los datos.

El valor científico de los asteroides es enorme, ya que pueden relatarnos la historia de nuestro sistema solar y ayudarnos a entender mejor todo el universo, pero hay un grupo de asteroides que llaman la atención de los medios, especialmente a últimas fechas: los asteroides cercanos a la tierra. En este contexto, sin embargo, "cercano" es un concepto astronómico, es decir, se mide en unidades astronómicas, siendo "unidad astronómica" la distancia del eje menor de la órbita terrestre alrededor del sol, aproximadamente 150 millones de kilómetros. Así, "objeto cercano a la Tierra" es todo objeto que pase a menos de 1,3 unidades astronómicas, o 200 millones de kilómetros de nuestro planeta y que debe observarse en prevención de algún poco probable riesgo de colisión. Ciertamente, año con año caen a nuestro planeta numerosos meteoritos, pero la mayoría de ellos son diminutos y se destruyen en la atmósfera, y sólo unos pocos, con tamaños desde un granizo hasta una pelota de baloncesto, llegan a la superficie.

Aunque la probabilidad de una colisión es muy baja, tanto los gobiernos como las organizaciones científicas dedican esfuerzos a catalogar los objetos cercanos a la tierra y evaluar los riesgos que plantean. Para ello se han creado algunas herramientas como la "escala de Torino" de riesgos, aceptada por los científicos especializados en objetos cercanos a la Tierra. Esta escala combina la probabilidad estadística de que un objeto impacte en nuestro planeta con el potencial daño que puede causar el objeto debido a su energía cinética (masa y velocidad), y va desde el riesgo 0, que indica una probabilidad despreciable o un objeto demasiado pequeño como para causar daño, hasta el riesgo 10, que es la absoluta certeza de una colisión en el caso de un objeto lo bastante grande como para ocasionar un desastre global del tipo atribuido a la extinción de los dinosaurios. La valoración del riesgo en la escala de Torino cambia conforme se obtienen nuevos datos de observaciones astronómicas adicionales.

Este cambio, por ejemplo, explica que el asteroide Apofis, que pasará "cerca" de la Tierra el 13 de abril de 2029, se llegara a ubicar en el nivel 4 de la escala de Torino, pero que en la actualidad esté ubicado en el nivel cero, igual que su segundo paso por nuestro planeta en 2036, contrario a informes que pretenden señalar que hay un riesgo de colisión. En este momento, hasta donde sabemos, el único objeto cercano a la Tierra con una clasificación de Torino superior a cero es el llamado "1950 DA", que tiene un nivel de 1 asignado para su paso por la Tierra el 16 de marzo de 2880.

Pero si bien la ciencia no parece sustentar en este momento las predicciones de desastres en las próximas décadas, tanto la Unión Europea como los Estados Unidos han establecido grupos para el rastreo de objetos cercanos a la Tierra aprovechando las observaciones astronómicas cotidianas en todo el mundo, y han emprendido el análisis de diversas estrategias posibles para desviar un posible asteroide peligroso. Las propuestas más cinematográficas, como la pulverización de un asteroide con armas termonucleares, son sin embargo poco viables en la realidad, no sólo por la enorme masa que realmente tienen los cuerpos que representan un peligro, sino porque si se pudiera destruirlos, el problema podría multiplicarse: todos los fragmentos de más de 35 m de longitud se convertirían en otros peligros mucho menos predecibles, y podrían ser miles. Las otras opciones son el choque directo con una nave espacial (el proyecto Don Quijote que la Agencia Espacial Europea terminó de diseñar en julio de 2005) o la colocación de impulsores en el asteroide para desviarlo con suavidad y de modo controlado, entre otras muchas posibilidades.

La visita a un asteroide


El 12 de febrero de 2001, la nave NEAR Shoemaker de la NASA descendió suavemente en la superficie de Eros, el segundo asteroide más grande de los cercanos a la Tierra, después de orbitarlo 230 veces y fotografiar detalladamente su superficie, ofreciendo abundantes datos sobre la historia y desarrollo de este asteroide mediante observaciones con su espectrómetro de rayos X antes de quedar en silencio definitivamente el 28 de febrero de 2001. El estudio de los datos que aportó, sin embargo, aún continúa.

Y los savants nos ayudan a comprendernos

El cerebro humano es, en muchos sentidos, la última frontera de la ciencia. Unas pocas personas asombrosas puede tener una clave para entender el órgano con el que entendemos las cosas.

El famoso savant Kim Peek,
sobre el que se modeló "Rain man".
(foto ©  Copyright Dr. Darold
A. Treffert, y la Wisconsin
Medical Society,
vía Wikimedia Commons)
Ver Roma una vez y dibujarla con exactitud. Memorizar 12 mil libros. Aprender islandés en una semana. Estas hazañas asombrosas son lo normal para alrededor de 100 personas en todo el mundo identificadas como víctimas (si tal es la palabra) del síndrome savant, capaces de notables hazañas artísticas, matemáticas o de memorización pero que suelen sufrir además problemas de conducta y desarrollo mental y emocional, como el autismo.

El ejemplo popularmente más conocido del savant es Raymond Babbit, el personaje de la película Rain Man cuya interpretacíón dio un Oscar a Dustin Hoffman. Babbit está basado en un famoso savant estadounidense real, Kim Peek, quien ha leído y recuerda más de 12 mil libros, además de poder realizar cálculos matemáticos formidables y tener una asombrosa memoria musical, aunque no es autista como el personaje Babbit. Kim nació con macrocefalia, daños en el cerebelo y ausencia del cuerpo calloso, el haz de fibras nerviosas que conecta los hemisferios derecho e izquierdo del cerebro, lo que le permite hazañas como leer dos páginas de un libro al mismo tiempo, una con cada ojo, sin que un lado del cerebro interfiera con el otro compartiendo información con él. Kim camina con cierta dificultad, tiene habilidades motoras limitadas y no le es fácil comprender los aspectos metafóricos del lenguaje. Pero está sin duda consciente de que es singular, tanto que, al conocer al savant autista británico Daniel Tammet, Peek le dijo "algún día serás tan grande como yo". Tammet, por su parte, es el prodigio que aprendió islandés en una semana y memorizó más de 22.514 cifras de pi, además de ser un notable calculista, hablar al menos otros nueve idiomas y crear su propio idioma, el mänti.

Lo que puede hacer un savant nos parece extremadamente difícil, pero buena parte del acertijo que nos presentan los savants es, precisamente, que realizan sus hazañas sin dificultad, naturalmente. Para ello pagan el precio de una obsesión por sus temas de especialización que consume casi la totalidad de su vida. Poco les importa más allá de memorizar datos, números o estadísticas, hacer cálculos matemáticos o tocar instrumentos musicales sin cesar. Esto, al menos en principio, los diferencia de los genios "comunes" como Mozart, Einstein, Newton o Darwin, que pese a ser capaces de concentrarse intensamente en su trabajo, no perdían el contexto de su existencia y ciertamente no tenían las dificultades simbólicas y emotivas que con frecuencia sufren los savants.

Fuera de los casos de claras anormalidades anatómicas como el de Kim Peek, el hecho más asombroso, al menos a primera vista, es que los savants tienen cerebros en apariencia perfectamente normales. Es más, algunas personas han adquirido el síndrome savant después de sufrir un accidente, en particular un golpe en la cabeza. Tal es el caso de Orlando Serrell, un chico normal que fue golpeado por una dura pelota de béisbol mientras jugaba a los 10 años de edad, al parecer sin consecuencias más allá de un dolor de cabeza. Pero a partir de ese momento, Orlando recuerda exactamente dónde estaba, qué hacía y cómo vestía, así como las condiciones del clima, cada uno de los días de su vida a partir de ese día, y obtuvo igualmente la capacidad de realizar asombrosos cálculos calendáricos. Las capacidades que suelen exhibir quienes tienen el síndrome savant tanto congénito como adquirido son generalmente concretas y no simbólicas, dominio principalmente del hemisferio derecho del cerebro, mientras que el izquierdo es, se piensa actualmente, responsable de actividades más secuenciales, lógicas y simbólicas.

Un estudio que quizá contenga algunas claves sobre el tema se presentó en 1998 y señaló que numerosos pacientes con demencia frontotemporal progresiva y que antes no tenían deficiencia alguna ni, en la mayoría de los casos, ningún interés artístico, desarrollan hablidades artísticas inéditas en ellos conforme avanza su enfermedad, pero no habilidades abstractas o simbólicas. Su arte es una meticulosa representación de la realidad como las que han hecho famoso a Stephen Wiltshire, el aclamado pintor savant que asombró al mundo recorriendo Roma en helicóptero durante 45 minutos y luego haciendo, en tres días, un detalladísimo dibujo de 5 metros con una vista aérea de la capital italiana, con una precisión sobrehumana. Los científicos procedieron entonces a realizar escáneres cerebrales de un savant de 9 años, determinando que, probablemente, la base del síndrome savant implique una pérdida de funcioens del lóbulo temporal izquierdo con una función aumentada del córtex posterior. Otros estudios señalan que cierta región del cromosima 15 (conocida como 15q11-q13) puede estar vinculada a la presencia o ausencia de habilidades de savant. Finalmente, al realizar cálculos matemáticos parece que los savants echan mano de zonas del cerebro dedicadas ordinariamente a la memoria episódica para "reclutarlas" en el procesamiento matemático.

Todo esto podría indicar que quizá todos tenemos la semilla del savant en nuestros cerebros, pero ésta no se desarrolla, probablemente porque empleamos nuestros recursos neuronales en otras muchas actividades menos especializadas y obsesivas que las del savant. Desde el punto de vista de la evolución y la adaptación, quizás no sería muy deseable que todos pudiéramos calcular el día de la semana en que cayó cualquier fecha de la historia o aprendernos de memoria el directorio telefónico, pero no pudiéramos desarrollar otras capacidades intelectuales y emocionales.

Lo que hoy sabemos acerca de los savants es, sin duda, mucho más de lo que sabían quienes les dieron nombre, pero aún es muy poco. El dr. Darond Treffert, considerado el máximo experto mundial en savants y que se dedica a su estudio desde hace 45 años, ha afirmado: "He llegado a la conclusión de que hasta que podamos explicar al savant, no podremos explicarnos a nosotros mismos".

Asunto de swing

Matt Savage, nacido en 1992, es un pianista y compositor de jazz con su propio grupo (de adultos), premios, siete discos publicados a la fecha y una apretada agenda de conciertos. Es también un chico autista, obsesivo, caprichoso y con varios problemas de comportamiento y comprensión (especialmente de los aspectos simbólicos del idioma) que han sido enfrentados pacientemente por sus padres. Matt tiene la ventaja de ser extremadamente inteligente, como Daniel Tammet. Con el apoyo médico y de su familia, quizá con el tiempo nos pueda decir lo que ningún escáner cerebral puede relatarnos: cómo es la vida dentro de la cabeza de un savant.