Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

noviembre 29, 2013

Kennedy y la carrera espacial

Ir al espacio era una idea natural. Ir a la Luna fue una decisión política de John F. Kennedy que marcó el rumbo de gran parte de la investigación científica durante décadas.

Icónica imagen de la Tierra sobre el horizonte de la Luna
tomada el 20 de julio de 1969 por la tripulación del
Apolo XI (Foto D.P. Nasa, vía Wikimedia Commons)
El 20 de julio de 1969, el mundo vio, en una borrosa transmisión televisual de baja resolución, cómo Neil Armstrong bajaba del módulo de descenso lunar Eagle y se convertía en el primer hombre que pisaba otro cuerpo celeste.

Era el legado del presidente John F. Kennedy, que ocho años atrás le había fijado esa meta a su país para vencer en la competencia con o que era la Unión de Repúblicas Soviéticas Socialistas (URSS) conocida como “la carrera espacial”.

El desarrollo científico y tecnológico apuntaba claramente a principios del siglo XX a los viajes espaciales. En palabras del visionario ruso Konstantin Tsiolkovsky: “Un planeta es la cuna de la mente, pero el hombre no puede vivir en la cuna eternamente”. Tsiolkovsky, a su vez, inspiró al alemán Hermann Oberth, creador del motor de cohetes de combustible líquido, y al estadounidense Robert H. Goddard, que hizo numerosos lanzamientos de pequeños cohetes.

Sin embargo, el esfuerzo por alcanzar el espacio requería de recursos tan abundantes que sólo era viable como emprendimiento nacional, no como esfuerzo personal. Y las potencias económicas y militares lo empezaron a ver viable al descubrir determinaron que podía tener valor estratégico y militar.

El disparador final para la exploración espacial fue la “guerra fría” entre la URSS y los Estados Unidos, una confrontación por el dominio político, militar y económico que se desarrolló inmediatamente después de la Segunda Guerra Mundial y duró hasta 1989. Esta confrontación convirtió a las hazañas espaciales, además, en fuente de orgullo nacional y en una herramienta de propaganda en la guerra ideológica entre comunismo y capitalismo.

En 1955, ambas superpotencias habían anunciado su decisión de emprender ambiciosos programas espaciales, pero fue la URSS la que obtuvo los primeros triunfos al poner en órbita el primer satélite artificial, el Sputnik I en 1957 y al primer ser humano, Yuri Gagarin, en 1961.

El primer acontecimiento se había dado en la segunda presidencia de Dwight D. Eisenhower, héroe de la segunda guerra y comandante en jefe de los ejércitos aliados en la invasión de Europa. El resultado inmediato fue que el presidente Eisenhower aceptara la creación de una agencia espacial civil, el Consejo Nacional de Aeronáutica y del Espacio, propuesto por el líder de la mayoría del senado, Lyndon B. Johnson. Sin embargo, Eisenhower no dio demasiada importancia al consejo, considerando que el espacio no era tan importante.

El segundo había ocurrido en el cuarto mes del mandato de Kennedy, el demócrata que había derrotado en las urnas a Richard Nixon, el delfín elegido personalmente por Eisenhower. Sólo cinco días después del vuelo de Gagarin, un grupo de contrarrevolucionarios anticastristas lanzaron, con apoyo de Estados Unidos una desastrosa invasión en Bahía de Cochinos o Playa Girón, en la costa Sur de Cuba, derrotada en sólo tres días.

El inicio de la administración del joven presidente no podía haber sido peor. Como parte de la reacción inmediata de su gobierno, y con la asesoría de su vicepresidente, el mismo Lyndon B. Johnson, al que Kennedy había nombrado presidente del consejo, presentó una propuesta al senado el 25 de mayo de 1961. Informó que habían evaluado las fortalezas y debilidades del programa espacial estadounidense y que, estando conscientes de la ventaja que llevaba la URSS con sus cohetes, debían fijarse una serie de metas, entre las que estaba la de llevar a un hombre a la Luna antes del fin de la década.

Cada meta propuesta por Kennedy exigía que el senado aprobara presupuestos sin precedentes. Para el desarrollo de mejores cohetes, incluyendo un proyecto que utilizaba energía nuclear, 23 millones de dólares. Para acelerar el uso de satélites de comunicaciones a nivel mundial, 50 millones de dólares, para crear un sistema de satélites meteorológicos a nivel mundial, 75 millones de dólares más.

La factura total era estremecedora para la época: 531 millones de dólares (3 mil millones de euros a valor de hoy) para el ejercicio de 1962 y entre 7 y 9 mil millones de dólares (entre 40 y 52 mil millones de euros) durante los siguientes cinco años. Y las cifras reales a lo largo de los siguientes años demostrarían ser muchísimo más elevadas.

La petición de Kennedy cerraba con una afirmación contundente. “Si sólo vamos a la mitad del camino, o reducimos nuestras miras frente a las dificultades, según mi criterio sería mejor ni siquiera intentarlo”.

El senado aprobó las solicitudes de Kennedy, y los primeros frutos se vieron el 20 de febrero de 1962, cuando se consiguió poner al primer astronauta estadounidense en órbita, John Glenn.

Fue con la certeza de que el programa espacial estaba en buen camino y que había posibilidades de superar a la URSS en la carrera espacial si los Estados Unidos fijaban la meta en vez de dejar que cada logro en la competencia fuera una sorpresa independiente, que Kennedy ofreció uno de los principales discursos de su breve presidencia el 12 de septiembre de 1962 en el estadio de la Universidad de Rice en Houston, Texas, el estado donde sería asesinado trece meses después.

En ese discurso, Kennedy hizo un resumen del avance científico humano en los últimos 50 mil años, desde la domesticación de los animales hasta los logros de Newton, la penicilina y las misiones espaciales en curso en esos mismos días, utilizando como comparación un período de 50 años, quizá un antecedente del famoso reloj cósmico de Carl Sagan.

“Elegimos ir a la Luna en esta década y hacer las otras cosas no porque sean fáciles, sino porque son difíciles”, tal es la frase más conocida de ese discurso, la que de alguna forma convenció al estadounidense medio que el esfuerzo espacial valía la pena... ese mismo estadounidense que años después aplaudiría las sucesivas reducciones del presupuesto espacial hasta dejar a los Estados Unidos sin un vehículo capaz de poner seres humanos en órbita, dependiendo de las Soyuz creadas por la URSS.

El asesinato de Kennedy convirtió en presidente a Lyndon B. Johnson, el entusiasta del espacio, pero, paradójicamente, quien celebraría la llegada a la Luna sería Richard Nixon, que había vuelto de su derrota ante Kennedy para obtener la presidencia en ese mismo 1969, recogiendo los frutos del árbol de su viejo oponente.

La promoción de la ciencia

Kennedy nombró por primera vez a un científico para un puesto gubernamental, Glenn Seaborg, el descubridor del plutonio y Premio Nobel de 1951, como presidente de la Comisión para la Energía Atómica, además de ser miembro del Comité de Asesoría Científica del presidente.

El Hubble en tu teléfono

Los avances de la tecnología en las últimas décadas nos permiten conocer mejor el universo, y también fotografiar nuestros momentos personales más relevantes o más tontos.

La imagen del campo ultraprofundo tomada por el Hubble
en 2009. Haga clic en ella para verla a más resolución.
Cada punto de luz es una galaxia que contiene miles de
millones de estrellas. (Foto D.P. NASA, vía Wikimedia Commons).  
Convertir lo que vemos en una imagen perdurable no ha sido nada fácil. La pintura lo intentó desde los inicios mismos de la humanidad, probablemente a cargo de una especie antecesora de la nuestra, el Homo habilis.

Pero no fue sino hasta la aparición de la fotografía que empezamos a conseguir una reproducción fiel, y también cada vez más económica, de la realidad. Como arte, como registro de la vida familiar y como auxiliar en numerosas ciencias y técnicas (desde la microscopía hasta la fotocomposición y reproducción de obras de arte), la fotografía fue una de las grandes revoluciones del siglo XIX y XX.

Así, por ejemplo, las asombrosas fotografías tomadas en la Luna por Neil Armstrong y Bzz Aldrin en la misión Apolo XI todavía utilizaron metros y metros de película que fue necesario llevar a nuestro satélite, exponer, traer de vuelta y revelar (proceso siempre temible, aunque probablemente los jóvenes ya nunca lo sabrán, y lleno de riesgos por contaminación de las diversas sustancias utilizadas para hacer visible especialmente la fotografía a color) para que la gente de nuestro planeta pudiera ver no sólo las tomas de la Luna, sino, por supuesto, la grandiosa toma de nuestro planeta colgando sobre el horizonte de nuestro satélite.

Precisamente con la idea de facilitar y miniaturizar la captura de imágenes en el espacio, considerando el altísimo coste de cada gramo que debe llevarse más allá de nuestra atmósfera, dos físicos, el estadounidense George E. Smith y el canadiense Willard Sterling Boyle, que trabajaban en la empresa AT&T Bell Labs, inventaron en 1969 un sistema llamado “dispositivo de carga acoplada” (charge-coupled device) mejor conocido como CCD. Según recordó George E. Smith, “Después de hacer el primer par de dispositivos de captura de imágenes, supimos con certeza que la fotografía química había muerto”.

Y, ciertamente, si bien sobrevivió una larga época, mientras los sensores CCD se hacían más sensibles, de mayor resolución y más fieles a la realidad, el declive de la fotografía química, que utilizaba sales de plata que se oscurecían donde había luz y no donde había oscuridad, comenzó en ese momento.

Y, de paso, el CCD también decretó la muerte de las cámaras de vídeo que utilizaban tubos de rayos catódicos para convertir las imágenes en señales eléctricas.

Smith y Boyle recibieron en 2009 el Premio Nobel de Física “por la invención de un circuito semiconductor capaz de capturar imágenes”. Este circuito semiconductor o CCD es, esencialmente, un grupo de diminutos capacitores que al ser alcanzados por la luz (es decir, por fotones), emiten electrones, es decir, adquieren una carga eléctrica que puede ser leída por un procesador e interpretada para recrear la imagen original. Usando distintos filtros, un sensor CCD puede detectar literalmente millones de colores con gran precisión.

El CCD no sólo cambió la historia de la fotografía y el vídeo (y, eventualmente, el cine), sino también la astronomía que usaba fotografías para capturar más luz de la que puede detectar el ojo humano.

El ejemplo más conocido de los CCD en astronomía es el del Hubble, un telescopio óptico con un espejo de 2,4 metros de diámetro y que cuenta con cámaras de CCD, espectrógrafos y filtros que le permiten “ver” en distintas frecuencias del espectro electromagnético. Su sistema para detectar luz visible es el ACS, con tres cámaras, una de las cuales realizó muchas de las más asombrosas imágenes que nos ha revelado el Hubble, de galaxias, nebulosas, viveros de estrellas y, muy especialmente, las tomas que nos han llevado cada vez más hacia los bordes de nuestro universo.

En 1995, los responsables del telescopio orbital decidieron seleccionar un pequeño segmento del cielo en apariencia totalmente vacío, en la constelación de Formax, y fotografiarlo en una larga, muy larga exposición, a ver qué había realmente allí. Entre el 18 y el 28 de diciembre, el Hubble miró fijamente ese punto, recolectando la luz que podía provenir de allá, débiles fotones que habían salido de su punto de origen miles de millones de años atrás.

Cuando el Hubble terminó, las imágenes que capturó se fusionaron en una fotografía en la que aparecían más de 3.000 objetos luminosos, casi todos ellos galaxias hasta entonces desconocidas, que se encuentran en las zonas más alejadas de nuestro universo.

En los años siguientes, el Hubble conseguiría varias imágenes más de campo ultraprofundo y profundo extremo, en pequeños fragmentos del campo profundo que han revelado miles y miles de galaxias más en los bordes mismos de nuestro universo. La luz de algunas de ellas salió hace 13.200 millones de años, apenas unos 450 millones de años después del nacimiento de nuestro universo en el Big Bang. En ellas vemos, efectivamente, cómo era el universo en sus inicios

Otra cámara más especializada “ve” en las frecuencias cercanas al ultravioleta y al infrarrojo es la llamada WFC3 (cámara de campo amplio 3) instalada en 2009, de gran sensibilidad, diseñada para minimizar el “ruido” que todos conocemos que muestran los sensores cuando hay poca luz… y con una definición de apenas 16 megapíxeles, una resolución común en las cámaras compactas para aficionados y que muy pronto alcanzarán los teléfonos inteligentes.

Y es que las cámaras para consumidores comunes y corrientes utilizan exactamente el mismo principio de capacitores capaces de convertir la luz en descargas eléctricas para capturar imágenes. La mayoría de las cámaras tienen un sistema llamado CMOS (siglas en inglés de “semiconductor de óxido metálico complementario) que resulta más fácil y barato de fabricar, que puede ser mucho más pequeño, aunque ha tardado en tener la calidad de imagen que ofrece un CCD.

En lo fundamental, el uso de un principio de la física cuántica para capturar imágenes, la cámara con la que suelen venir dotados nuestros teléfonos es simplemente una pariente pequeña, menos precisa y mucho menos costosa que las cámaras con las que dispositivos como el Hubble y los nuevos telescopios que lo sustituirán nos muestran los objetos luminosos más alejados del universo.

En el principio estuvo Einstein

Todos los sensores de luz se basan en el efecto fotoeléctrico, un fenómeno descubierto por Albert Einstein en el cual una superficie, al recibir luz, emite electrones. El efecto fotoeléctrico fue la base de la idea de que la luz se comporta en ciertos casos como si fuera una onda y en otros como si fuera un flujo de partículas, la llamada “dualidad” que es la base de la moderna mecánica cuántica. El efecto fotoeléctrico fue el motivo por el que Einstein recibió el Nobel en 1921.

noviembre 19, 2013

¿Qué es el autismo? Realidades, mitos y definiciones

Un trastorno del comportamiento que es a la vez temido y desconocido, y que permanece rodeado de mitos.

Comparativa de activación de la corteza cerebral
durante una actividad visomotora. El azul corresponde
al grupo de control, el amarillo al grupo autista y
el verde al traslape entre ambos. (Imagen CC Ralph
Axe-Müller vía Wikimedia Commons) 
En distintos medios de comunicación, y muy especialmente en las redes sociales de Internet, se repite constantemente que existe una epidemia de autismo, pues el número de diagnósticos de esta afección es mucho más alto hoy que en el pasado.

Pero las cosas siempre son más complicadas de lo que parecen a primera vista.

El autismo que se diagnostica hoy es muy distinto de lo que se llamaba “autismo” cuando esta palabra se empezó a utilizar, y esas cambiantes definiciones, así como el temor que provoca la sola palabra son en gran medida responsables de ese aumento de diagnósticos.

En el origen

La palabra “autismo”, fue utilizada por primera vez en 1911 por el psiquiatra suizo Eugen Bleuler, para describir algunos síntomas de la esquizofrenia.

Fue en 1943 cuando la palabra se empezó a utilizar más o menos en el sentido actual, en los estudios del psiquiatra infantil Leo Kanner, que llamó autismo a un trastorno en el cual los niños tenían dificultad o incapacidad total de comunicarse con otros, problemas de comunicación verbal y no verbal y un comportamiento restringido y repetitivo. Lo llamó “autismo infantil temprano”

El estudio del autismo, sus causas y tratamiento, se intensificó en 1960-1970, cuando el concepto llegó a la cultura popular. En el proceso, se propusieron y desecharon múltiples hipótesis tanto del origen del trastorno como de su tratamiento.

Prácticamente al mismo tiempo que Kanner, el vienés Hans Asperger describió a niños con patrones de comportamiento similares, que incluían poca capacidad de establecer lazos de amistad, tendencia a acaparar las conversaciones y a concentrarse en algún tema en concreto (por ello los llamaba “pequeños profesores”, pues eran capaces de hablar largamente sobre los asuntos que los apasionaban), lo que en la década de 1980 se llamaría “Síndrome de Asperger”, cuando los psiquiatras infantiles reevaluaron el autismo.

La presencia de ciertos síntomas, aunque no tuvieran la gravedad de los primeros casos descritos por Kanner, hizo que la definición de “autismo” evolucionara aceleradamente hasta lo que hoy se conoce como Trastorno del Espectro Autista, concepto más amplio y que incluye diversos trastornos que antes se consideraban independientes, según lo define el Manual de diagnóstico y estadística de trastornos mentales de 2013 publicado por la asociación psiquiátrica estadounidense.

El problema de los expertos que hacen este manual y, en general, de quienes trabajan en problemas de conducta que no tienen como trasfondo un trastorno biológico objetivamente observable, es que deben decidir, con base en su experiencia clínica y las opiniones de muchos profesionales, dónde está la línea entre lo normal, lo desusado y lo patológico. Línea que cambia con el tiempo. Baste recordar que hasta 1974 ese mismo manual incluía a la homosexualidad como una enfermedad.

Así que el aparente incremento en el número de niños diagnosticados con alguno de los trastornos del espectro autista, principalmente en los Estados Unidos, donde la cifra llega a uno de cada 88 niños, no significa forzosamente que haya más casos, sino una definición más amplia y mejores métodos de detección de diversos síntomas o signos.

Los síntomas

Los signos del trastorno se dividen en tres amplios grupos.

Los relacionados con la interacción social y las relaciones van desde problemas graves para desarrollar habilidades de comunicación no verbal hasta incapacidad de establecer amistades, falta de interés en interactuar con otras personas, falta de empatía o comprensión de los sentimientos de otras personas.

Los relacionados con la comunicación pueden incluir un retraso grave para aprender a hablar o no hacerlo nunca, problemas para iniciar o seguir conversaciones, uso estereotipado o repetitivo del lenguaje, dificultar para entender la perspectiva de la persona con quien habla (problemas para entender el humor o el sarcasmo) con tendencia a tomar literalmente las palabras y no “leer entre líneas”.

Finalmente, los que tienen que ver con los intereses y comportamiento de los afectados, como la concentración en ciertas piezas de las cosas más que en el conjunto, obsesión con ciertos temas, una necesidad de mantener rutinas y actividades repetitivas, y algunos comportamientos estereotipados.

Pero esto no significa que todas las personas que exhiban algunas de estas características tengan un problema de autismo. El diagnóstico se hace teniendo en cuenta el conjunto de síntomas y su gravedad, así como los problemas que le causa a los afectados para desenvolverse en sociedad.

Y, finalmente, el autismo puede presentarse en un abanico que va desde formas leves y sin importancia, como los de Asperger, hasta los casos graves que describió en su momento el Dr. Kanner.

Porque no todos los autistas pueden ser considerados enfermos, sino simplemente diferentes. Y esto nos lo ha enseñado un creciente número de personas diagnosticadas con autismo hablando de su vida, sus sentimientos y su percepción del mundo.

Uno de los ejemplos más conocidos es la Dra. Temple Grandin, especialista en ciencias animales, profesora de la Universidad Estatal de Colorado y autora de varios exitosos libros. Su experiencia personal le ha permitido no sólo trabajar en el tratamiento de personas autistas, sino diseñar espacios para animales de granja, incluidos mataderos, que disminuyen el estrés que experimentan.

De acuerdo a los criterios actuales, se diagnosticaría como pacientes autistas en diversos grados a gente tan distinta como la actriz Daryl Hannah, Albert Einstein, Wolfgang Amadeus Mozart, Charles Darwin, Isaac Newton o la poetisa Emily Dickinson. Lo cual vuelve al problema esencial de delimitar dónde termina la forma de ser y comienza la enfermedad.

Por ello, también, la última edición del manual de diagnóstico de los psiquiatras estadounidenses, DSM-V, publicado este mismo 2013, ha reevaluado el trastorno del espectro autista de modo tal que muchas personas antes consideradas víctimas de este trastorno, dejarían de estarlo. Lo cual es una expresión clara de lo mucho que aún falta por saber sobre el autismo.

El mito de las vacunas

En uno de los escándalos científicos más sonoros de los últimos años, el hoy ex-médico inglés Andrew Wakefield publicó en 1998 un estudio que vinculaba a la vacuna triple vírica (MMR) con el autismo y otros problemas. Como ningún investigador consiguió los mismos resultados, se revisó el estudio descubriendo que los datos eran totalmente falsos, urdidos por Wakefield para comercializar su propia vacuna. Pese a que el artículo se retiró y Wakefield fue despojado de su licencia profesional, ayudó a disparar un peligroso movimiento antivacunas.

noviembre 16, 2013

El filón inagotable de Atapuerca

Desde 1976 se empezó la excavación de una serie de yacimientos en la burgalesa sierra de Atapuerca, que desde entonces ha sido clave para entender el origen de la humanidad.

"Miguelón", el cráneo número 5 de un Homo heidelbergensis
con entre 300.000 y 350.000 años de antigüedad, hallado
en las excavaciones de Atapuerca en 1992.
(Foto CC de José-Manuel Benito Álvarez, vía Wikimedia Commons)
¿Cuánto tiempo más va a haber excavaciones en Atapuerca?

Nadie lo sabe.

Al paso del tiempo, los yacimientos de la Sierra de Atapuerca no sólo nos han ofrecido un creciente conocimiento de la evolución humana, especialmente en Europa, sino que ha sido fuente de constantes sorpresas.

Quizá para entenderlo debamos saber que en Atapuerca no hay un solo yacimiento de fósiles y artefactos humanos, sino varios de ellos, cada uno de los cuales nos ofrece datos de distintos momentos de la historia de nuestra especie. Es decir, no se está excavando un lugar donde hubo un grupo de pobladores (como sería, digamos, la excavación de un poblado romano), sino varios sitios donde a lo largo de 1,4 millones de años vivieron distintos grupos, distintas especies humanas, no de modo continuo, sino sucesivo.

Atapuerca es así como un muestrario de la vida a lo largo de ese período larguísimo.

¿Por qué era atractiva para ellos esta zona? Probablemente por la abundancia de cuevas que podían prestarles refugio. Atapuerca está formada por piedra caliza, es decir, roca que es resultado del depósito o sedimentación de varios minerales, principalmente carbonato de calcio, a lo largo de mucho tiempo. Las rocas de Atapuerca tienen una antigüedad de alrededor de 1,7 millones de años. Una característica de la roca caliza es que el paso del agua en distintas formas crea cavidades en ella, dolinas, galerías y cuevas.

En Atapuerca, el “complejo cárstico”, es decir el conjunto de cavidades de la roca, tiene una longitud de más de 4 kilómetros de galerías.

A fines del siglo XIX, la construcción de un ferrocarril exigió excavar una trinchera en este complejo, que puso al descubierto algunos restos que fueron inmediatemante del interés de los arqueólogos. Pero fue en 1976, cuando se descubrieron algunos restos humanos, que empezó la exploración de la zona en forma sistemática e incesante hasta el día de hoy.

Los yacimientos

La gran dolina es uno de los más famosos puntos de Atapuerca, una cueva de 20 metros de alto que estuvo ocupada en dos momentos distintos.

En lo profundo de la cueva están los restos de quienes la habitaron hace 900.000 años, una especie humana desconocida hasta su descubrimiento aquí entre 1994 y 1995 por parte de dos de los codirectores del yacimiento, Eduald Carbonell y Juan Luis Arsuaga, siendo el tercero José María Bermúdez de Castro. Sus trabajos descubrieron alrededor de 80 fragmentos de huesos de 6 individuos distintos, además de gran cantidad de herramientas de piedra y huesos de animales. Los restos humanos eran distintos de los conocidos hasta entonces, y la nueva especie fue bautizada Homo antecessor, el hombre explorador, una especie derivada del Homo ergaster y que podría ser incluso el ancestro común de nuestra especie y la de los neandertales.

La abundancia de fósiles ha permitido extraer algunas relevantes conclusiones, como la práctica habitual del canibalismo entre estos posibles ancestros humanos,

En un nivel superior, de hace 450.000 años, está el asentamiento de un grupo de Homo heidelbergensis, que se consideran el ancestro directo de nuestra especie.

La galería es una cavidad en la que también vivieron grupos de Homo heidelbergensis por la misma época, y en otros momentos se usó como trampa natural para presas que eran conducidas allí para que cayeran en ella.

La sima del elefante es una cueva de 15 metros de profundidad en la que se han encontrado igualmente varios momentos de habitación del paleolítico además de restos fósiles de una especie humana no identificada que, si las dataciones son correctas, la habitó hace un millón y medio de años, por lo que sería la más antigua ocupación en cueva conocida del continente europeo.

La sima de los huesos es un pozo de 12 metros de profundidad que conduce a una rampa y una sala de unos 15 metros cuadrados y que se considera el más rico yacimiento de fósiles humanos del mundo, los más antiguos de un millón de años, debido a que se utilizaba como cementerio, es decir, que los muertos eran depositados a propósito en ella, dando cuenta de los más antiguos ritos funerarios que conocemos hasta hoy. Desde que se empezó a excavar en 1983 ha aportado decenas de fósiles de Homo heidelbergensis, los más importantes de los cuales se rescataron en 1992, como el llamado “Miguelón”, que es el cráneo más completo de esta especie que hay en el mundo.

La cueva mayor es un yacimiento arqueológico conocido desde principios del siglo XX en el cual hay artefactos de distintas épocas, desde el neolítico hasta la Edad del Bronce, y que contiene dos yacimientos en sí, el portalón, que es la entrada de la cueva y la galería del sílex, un espacio en cuyas paredes se han encontrado más de 400 motivos pintados o grabados, principalmente formas geométricas y algunas representaciones humanas y animales.

La cueva del mirador por su parte da testimonio de la vida de los humanos en esa misma época, aportando datos sobre la vida de los primeros pueblos ganaderos y agricultores que ocuparon la sierra hace 7 mil años.

Además de los yacimientos en cuevas, hay tres más que están al aire libre: el valle de las orquídeas, con restos que pertenecen al paleolítico, hundidero, con vestigios de asentamientos del paleolítico superior y Hotel California, curioso nombre de un yacimiento con materiales del paleolítico inferior y medio.

Finalmente, un último yacimiento, la galería de las estatuas, los responsables del proyecto esperan encontrar restos de Homo neanderthalensis, el único homínido del que aún no se han hallado fósiles en Atapuerca, y que ayudarían a determinar finalmente cuál es el lugar del Homo antecessor en el linaje humano, tema que sigue estando a debate.

En su conjunto, Atapuerca es uno de los espacios privilegiados del mundo para el conocimiento de la evolución de nuestra especie. Y sin embargo, es posible que tenga aún mucho qué revelarnos. Distintas prospecciones realizadas por los equipos que año con año hacen campaña en algunos de los yacimientos de la zona indican la presencia de muchos asentamientos, algunos de los cuales parecen guardar la promesa de una gran relevancia arqueológica y paleantropológica.

Visitar Atapuerca

Es posible para cualquier persona visitar algunos de los yacimientos de la Sierra de Atapuerca, principalmente los que se hallan a lo largo de la Trinchera del Ferrocarril. Esta visita se complementa con el Museo de la Evolución Humana en el centro de Burgos y el recorrido por el parque arqueológico, donde el visitante puede practicar algo de arqueología experimental para concer algunos aspectos de la vida de los ancestros de la humanidad.

noviembre 15, 2013

Galaxias comunes y extrañas

En menos de un siglo, nuestra visión del universo se ha ampliado hasta abarcar un número enorme de galaxias, cada una con otras tantas estrellas, y algunas de ellas de aspecto o comportamiento desusados.

ARP 148, resultado del choque de dos galaxias, dejando una
galaxia anillo y otra alargada. (Foto D.P. NASA, vía
Wikimedia Commons)
Una galaxia es un sistema formado por estrellas, tanto activas como en formación, los restos de estrellas que han terminado su vida ya sea apagándose o estallando como supernovas, polvo estelar y otros cuerpos, unidos por la gravedad formando un cúmulo o agrupación distinguibles, separados de otros similares.

Hasta hace menos de 100 años, se creía que la Vía Láctea (la “galaxia”, que en griego significa precisamente “láctea”), esa franja de estrellas que podemos ver en la noche, era todo el universo. Tuvieron que llegar los astrónomos Ernst Öpik y Edwin Hubble en 1922 para determinar que las “nebulosas” que se habían observado no eran nubes dentro de nuestra galaxia, sino que eran en realidad otras agrupaciones de estrellas, otras galaxias, que se encontraban a distancias enormes de la nuestra.

El salto en nuestro conocimiento del universo operado en las últimas décadas ha sido sin duda espectacular. Si los astrónomos de la década de 1920 conocían un puñado de nebulosas a las que identificaron como galaxias similares a la nuestra, hoy se calcula que existen al menos 140 mil millones de galaxias, ateniéndonos a las observaciones del telescopio Hubble en las regiones más profundas del espacio. Pero ésa es la cifra más pequeña, la más conservadora.

Algunos astrónomos creen que podría haber un billón (un millón de millones) de galaxias o más en el universo.

Las galaxias tienden a ser agrupaciones más o menos en forma de platos, definidas por las enormes fuerzas gravitacionales de todos sus componentes. Algunas son elipses que pueden ser casi esferas, son las más grandes, probablemente resultado de la colisión de dos o más galaxias, mientras que la mayoría son espirales, con o sin una barra que las atraviesa, con dos o más brazos q ue se extienden a partir de un centro de estrellas más antiguas. Su forma les es dada por el giro que tienen alrededor del centro.

La mayor concentración de masa en el centro de las galaxias es uno de los elementos responsables de que, según cálculos de los astrofísicos, haya un agujero negro supermasivo en el centro mismo de cada galaxia.

Nuestra propia galaxia, la Vía Láctea, es una espiral barrada, surgida poco después del Big Bang en el que se cree que comenzó nuestro universo. Es, de hecho, una galaxia de tipo bastante común. Sus estrellas más jóvenes, como el Sol, están en los brazos que giran alrededor del centro, tardando entre 225 y 250 millones de años en describir una órbita completa.

Es decir, la última vez que nuestro sol estuvo en la posición que tiene hoy, aún no habían aparecido los mamíferos en la superficie de la Tierra.

Pero además de las galaxias de formas y características comunes, a lo largo de estos años se han descubierto algunas que sólo pueden calificarse de extrañas.

Las galaxias diferentes

Si todas las galaxias tienen en su centro un agujero negro, la galaxia NGC 1277, que está a unos 220 millones de años luz, en la constelación de Perseo, podría definirse más precisamente como un agujero negro que tiene alrededor una galaxia. En la mayoría de los casos, los agujeros negros conforman el 0,1% de la masa de toda la galaxia, mientras que el de la NGC 1277, uno de los más masivos detectados a la fecha, contiene el 14% y su diámetro es más de 11 veces el de la órbita de Neptuno alrededor del Sol. Nuestro sistema solar completo es diminuto comparado con esta enorme singularidad, cuya masa es igual a la de 17 mil millones de soles como el nuestro.

Un caso especial son las galaxias anillo, formadas, suponen los astrofísicos, del choque de dos galaxias, una pasando por el centro de la otra. Por supuesto, debido a las enormes distancias que separan a las estrellas dentro de cada galaxia, no hay un choque físico de estrellas, pero sí de las fuerzas gravitacionales. El resultado son galaxias con un anillo de estrellas azules muy jóvenes en cuyo centro hay un cúmulo de estrellas más antiguas, como es el caso del llamado “Objeto de Hoag”, descubierto en 1950, que tiene ocho mil millones de estrellas, o la galaxia ZW II 28, de color rosado y púrpura y cuyo centro aún no ha sido observado, aunque se espera que exista.

Entre el zoo de galaxias extrañas producto del choque de dos de ellas, destaca la conocida como Mrk 273, una galaxia con dos núcleos activos y una larga cola que le da el aspecto de un espermatozoide. Lo apasionante para los astrónomos no es la forma, solamente, sino el hecho de que los dos agujeros negros supermasivos del centro de las agrupaciones originales eventualmente se unirán formando uno mucho mayor que puede disparar la actividad en el centro de la galaxia.

El descubrimiento de nuevas formas y tipos de galaxias de hecho se acelera conforme se realizan más observaciones en mejores telescopios que usan no sólo luz visible, sino que pueden “ver” en distintas frecuencias del espectro electromagnético, como la infrarroja, los rayos X, las ondas de radio y los rayos gamma.

Así, en 2012 se anunciaba que el telescopio Wise de la NASA había descubierto no sólo 563 millones de objetos, muchos de ellos agujeros negros, sino un grupo peculiar de unas mil galaxias que nos quedan ocultas por polvo estelar y que emiten tanta luz como 100 billones de estrellas como la nuestra. Son galaxias con el doble de temperatura que otras similares y, dado que la masa que se puede calcular que tienen es mayor que la de sus estrellas visibles, podrían albergar agujeros negros de enorme tamaño.

El próximo lanzamiento de telescopios como el James Webb, sucesor tecnológicamente avanzadísimo del Hubble, el explorador ultravioleta de la universidad de Tel Aviv (TAUVEX ) o el telescopio de rayos X chino llamado HXMT seguramente harán que los miembros que hoy parecen más extraños de la familia universal palidezcan ante lo que aún queda por descubrir del universo en su parte visible en distintas longitudes de onda... y todo ello sin contar la parte invisible, más del 95% de la masa del universo, formada por materia oscura y la energía oscura, el objetivo más deseado de la ciencia.

Cómo se nombra a las galaxias

Las galaxias más visibles tienen nombres tradicionales, como Andrómeda, pero también tienen nombre, como las que no podemos ver desde la Tierra, según distintos catálogos. Las letras iniciales del nombre indican el catálogo: NGC (nuevo catálogo general), ESO (observatorio europeo del sur), IR (satélite astronómico infrarrojo), Mrk (Markarian) y UGC (catálogo general de Uppsala). Así, por ejemplo, Andrómeda es NGC 224 en el nuevo catálogo. Todos los nombres están administrados por la Unión Astronómica Internacional.

noviembre 12, 2013

Prevención para salvar vidas: Maurice Hilleman

El nombre de Maurice Hilleman merecería ser más conocido, siendo el científico creador de más vacunas en la historia, el salvador de muchas vidas incluida, probablemente, la de usted.

Maurice Hilleman alrededor de 1958
(Foto DP Walter Reed Army Medical Center
vía Wikimedia Commons)
No existe una receta única para hacer una vacuna: distintas enfermedades, distintos patógenos, requieren distintas aproximaciones.

Algunas vacunas (gripe, polio, rabia) contienen virus muertos, otras (sarampión, rubéola, paperas) están hechas con virus atenuados, algunas mas (la antitetánica) constan de las sustancias tóxicas que producen los patógenos, otras contienen sólo un determinado fragmento de proteína potencialmente dañina y una clase más tiene sólo la capa exterior de algunas bacterias, conjugada con las sustancias tóxicas.

Estas aproximaciones tienen todas el mismo fin: al inocularse en nuestro cuerpo y amenazarlo, éste crea anticuerpos para destruir al agente de la vacuna. Luego el cuerpo “recuerda” cómo producir esos anticuerpos, y el día que se ve atacado por verdaderos patógenos con toda su potencia, por así decirlo, la fábrica de nuestras defensas está preparada para producir esos anticuerpos para defenderse si lo atacan.

Casi todos, al menos en los países opulentos, nos hemos beneficiado de una o más de las vacunas que desarrolló Maurice Hilleman.

Este estadounidense creó o mejoró durante su carrera más de 40 vacunas, muchas de las cuales siguen en uso hoy, ya bien entrado el siglo XXI.

Una granja familiar y un libro

Maurice Hilleman nació en una granja en Montana en 1919 y creció durante la Gran Depresión en un ambiente religioso luterano. En octavo grado, se encontró con el libro de Charles Darwin El origen de las especies y decidió que se dedicaría a la ciencia, lo que consiguió pese a las dificultades financieras que en los años siguientes amenazarían su sueño. Pero la familia consiguió al fin que Maurice se doctorara en microbiología por la Universidad de Chicago en 1941, con un trabajo de investigación que demostraba que la clamidia no era producida por un virus, sino por una bacteria.

Inició entonces una carrera en la industria farmacéutica empezando con el desarrollo de una vacuna contra la encefalitis japonesa B, enfermedad que atacaba a los soldados destacados en el Pacífico Sur durante la Segunda Guerra Mundial y después otra que logró contener una peligrosa pandemia de gripe de una nueva variedad a fines de 1950.

En 1963, Hilleman enfrentó el desafío que presentaba la vacuna contra el sarampión desarrollada por John Enders. Aunque efectiva y muy apreciada pues por entonces el sarampión mataba a medio millar de niños al año en los Estados Unidos, era demasiado potente y con cierta frecuencia provocaba fiebre y sarpullidos en los niños a los que se les aplicaba. El científico desarrolló un procedimiento para reducir esos efectos aplicando al mismo tiempo una dosis de gammaglobulina al niño. Pero siguió trabajando con la vacuna hasta que logró desarrollar una cepa del virus del sarampión que era mucho menos agresiva y que es la que se utiliza hasta la actualidad.

Ese mismo año, una epidemia de rubéola mató a alrededor de 11 mil niños en Europa y Estados Unidos y los investigadores del gobierno estadounidense desarrollaron una vacuna que, sin embargo, era altamente tóxica. De nuevo, Hilleman entró en escena y para 1969 había desarrollado una versión segura de la vacuna que evitó una nueva epidemia.

Su pasión la ejemplificaba una de las anécdotas favoritas del propio Hilleman. Una madrugada de 1963, su hija Jeryl Lynn cayó víctima de las paperas. El microbiólogo la metió en cama, condujo 20 minutos hasta el laboratorio, tomó el material necesario para recoger muestras del virus infeccioso que crecía en la garganta de su hija, volvió a casa, tomó las muestras y una vez más se dirigió al laboratorio para preservarlas en el frigorífico del laboratorio. El cultivo del virus y su estudio darían como resultado, tiempo después, la vacuna contra las paperas, que convirtió en recuerdo en gran parte del mundo una enfermedad infantil que ocasionaba numerosos casos de sordera entre sus víctimas.

En 1971, el Dr. Hilleman consiguió unir en una sola las tres vacunas principales que había desarrollado, la MMR (por las siglas en inglés de sarampión, paperas y rubéola) o “triple vírica” que desde entonces es parte importante del arsenal inmunológico de la medicina preventiva.

Maurice Hilleman tenía una personalidad áspera y brusca, que atribuía (o excusaba) con su temprana formación en los campos cultivados de Montana. Y ello también lo hacía un individualista desusado en una época en que, cada vez más, los avances científicos son producto del trabajo de grupos interdisciplinarios formados por numerosos investigadores. “A diferencia de otras personas que trabajan en la investigación”, recordaba uno de sus jefes del laboratorio Merck, “Maurice hacía él mismo todos los aspectos de la investigación y el desarrollo”. Esta actitud que le hacía decir “mi hobby es mi trabajo” lo impulsaba a realizar largas jornadas de trabajo siete días a la semana, algo que aseguraba que debían hacer todos los investigadores.

Su dedicación no se limitaba al desarrollo científico y técnico de las vacunas, sino que se desbordaba hasta la fabricación. Una vez que terminaba los estudios clínicos y la vacuna era aprobada para ser usada, Hilleman solía estar al tanto de la producción industrial de la vacuna, vigilando el proceso y corrigiendo posibles fallos con una tenacidad que en ocasiones provocaba tensiones entre el personal de fabricación, no acostumbrado a esta supervisión. “Entré en conflicto prácticamente con todo el mundo”, recordaría después Hilleman divertido.

Sin embargo, su insistencia permitió el desarrollo de métodos de producción en masa de vacunas seguras que pueden almacenarse durante largos períodos, en preparación de posibles epidemias.

Cuando alcanzó la edad de 65 años, que era la de jubilación obligatoria en el laboratorio, fue inmediatamente recontratado como asesor externo, lo que implicó básicamente que siguiera haciendo su trabajo normal durante 20 años más, hasta su muerte en el 2005, mientras batallaba furiosamente por desarrollar una vacuna contra el VIH/SIDA.

Hoy se calcula que el trabajo acumulado de Maurice Hilleman, héroe desconocido de la medicina, salva alrededor de 8 millones de vidas al año. Quizás sean más.

El trabajo de Hilleman

Entre las más de 40 vacunas desarrolladas por Hilleman están la del sarampión, las paperas, la hepatitis A, la hepatitis B, la meningitis, la varicela, la rubéola, la neumonía y la gripe Haemophilus influenzae tipo b, además de haber descubierto varios virus y descrito el proceso de reproducción de diversas infecciones. Por eso Robert Gallo, descubridor del virus del SIDA, lo llamó “el vaccinólogo más exitoso de la historia”.