Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Las conexiones cerebrales hackeadas

Estamos habituados a que nuestras percepciones nos den una representación fiable del mundo. Pero en algunos casos podemos perder hasta la capacidad de percibir nuestro propio rostro.

Un intento por representar cómo ve a la gente una persona
con prosopagnosia, la incapacidad de reconocer los rostros.
(Foto CC de Krisse via Wikimedia Commons)
Es común decir que no vemos con los ojos, sino que vemos con el cerebro (o, más precisamente, el encéfalo, que incluye a otras estructuras además del cerebro). Es decir: la luz efectivamente es detectada en nuestra retina por receptores llamados conos y bastones, que la convierten en impulsos que viajan a través del nervio óptico cruzando el área visual del tálamo antes de llegar a la parte de la corteza cerebral que se llama precisamente “corteza visual”, ubicada en la parte posterior de nuestra cabeza, arriba de la nuca. Pero en todo ese proceso aún no hemos “visto” nada. Sólo cuando la corteza visual registra e interpreta los impulsos nerviosos se produce el fenómeno de la visión, es decir, la representación mental de la realidad visible.

Lo mismo se puede aplicar, por supuesto, a los demás sentidos. Todos los impulsos viajan hasta llegar al encéfalo pero es allí donde se produce el proceso de interpretación.

Y cuando ese centro de interpretación falla, por trastornos físicos, fisiológicos o de otro tipo, nuestra percepción y comprensión del mundo puede verse profundamente alterada.

Una de las formas más conocidas de estas alteraciones de la percepción es la sinestesia, una condición neurológica que no es una enfermedad o un trastorno patológico, en la que la estimulación de un sentido o una percepción conceptual dispara percepciones en otros sentidos que normalmente no serían estimulados por ella.

Por ejemplo, al olfatear algún alimento o bebida, la mayoría de las personas sólo perciben el aroma, pero alguien con sinestesia, al percibir un aroma, puede ver determinados colores. Un catador sinestésico, por ejemplo, dice que el sabor de ciertos vinos blancos le evoca un color azul aguamarina. Otros sinestetas pueden experimentar sabores al escuchar sonidos o, alternativamente escuchar sonidos al ver ciertos objetos. Algunas personas con gran capacidad de realizar cálculos mentalmente “ven” los números como si tuvieran un color determinado, y en las operaciones matemáticas manipulan colores más que trabajar con los números.

Aunque la sinestesia fue descrita ya por Francis Galton, primo de Charles Darwin, a fines del siglo XIX, no empezó a ser estudiada científicamente sino hasta 1980 por el neurólogo Richard E. Cytowic, que eventualmente escribió el libro “El hombre que saboreaba las formas” explicando el trastorno. Aunque se sabe por tanto poco de esta condición, algunos estudios indican que en los sinestetas las conexiones neurales entre distintas áreas sensoriales del encéfalo tienen más mielina, sustancia que recubre las neuronas permitiendo que los impulsos nerviosos viajen más rápidamente. Esto podría ser parte de la explicación de esta curiosa unión de los sentidos en nuestro cerebro, comunicando zonas que generalmente estarían aisladas entre sí.

Las inquietantes agnosias

Otras alteraciones mucho más inquietantes y claramente patológicas son las diversas agnosias. La palabra “agnosia” significa ausencia de conocimiento, y se usa para denotar a las afecciones en las cuales la persona no puede reconocer ciertos objetos, sonidos, formas, aromas, personas o conceptos pese a que su sistema sensorial esté intacto. El problema se origina habitualmente con una lesión o enfermedad neurológicas.

Así, por ejemplo, una persona con agnosia del color puede reconocer el color verde y diferenciarlo de otros colores distintos, pero no distinguirlo y nombrarlo, de modo que puede parecerle perfectamente normal el proverbial perro verde.

Hay más de 25 formas de agnosia reconocidas, principalmente de tres tipos: visuales, auditivas y táctiles. Algunas sencillas como la sordera cortical, en la que los sonidos simplemente no son percibidos. Otras se expresan de modo más complejo, como la prosopagnosia o ceguera a los rostros, en la que los pacientes no pueden reconocer rostros que les deberían ser familiares. Incluso pueden no reconocer su propio rostro. Al verse en un espejo saben que ese rostro les pertenece, pero es como si lo vieran por primera vez. Igualmente, al ver una fotografía de una persona conocida o un familiar pueden describir el rostro, decir si es hombre o mujer, su edad aproximada y otras características, pero sin reconocer que pertenece a una persona que conocen previamente. Otra forma de agnosia visual hace que no se puedan reconocer ciertos objetos más que en su función general: un paciente puede identificar que un tenedor es una herramienta que sirve para comer, pero lo puede confundir con una cuchara o un cuchillo, que también sirven para comer, sin ser capaz de distinguirlos entre sí.

La negligencia es una de las más extrañas formas de agnosia en la que el afectado no reconoce nada que esté de uno de los lados: se peinan o afeitan o maquillan sólo un lado del rostro, pueden sólo ver un lado de un corredor o un cuadro e incluso comer sólo la comida que está en un lado del plato, como si todo lo que estuviera del otro lado simplemente no existiera.

Los trastornos pueden tener una expresión opuesta y en vez de afectar a las percepciones pueden alterar las acciones de las personas, la llamada “apraxia” o incapacidad de realizar c ciertos movimientos o acciones. Si en las agnosias el sistema de percepción está intacto, en las apraxias los afectados no tienen problemas musculares, pero su encéfalo es incapaz de ordenar, por ejemplo, que se muevan correctamente para crear expresiones faciales, mover uno o más miembros o incluso no poder hablar.

Las distintas formas de la agnosia y la apraxia, junto con la identificación de las lesiones encefálicas a las que está asociada cada una de ellas, han permitido ir haciendo un mapa que indica en qué punto se procesa determinada información, ayudando a la comprensión de nuestro cerebro, su estructura, organización y funcionamiento, mientras al mismo tiempo se indagan formas de diagnosticar correctamente las agnosias conseguir la curación de los afectados por la agnosia, o al menos una recuperación parcial que les permita funcionar en su vida cotidiana reduciendo los efectos del trastorno.

Oliver Sacks y las agnosias

El neurólogo Oliver Sacks, conocido por su trabajo con las víctimas de encefalitis letárgica relatado en la película “Despertares”, con Robin Williams en el papel de Sacks, también ha estudiado las agnosias. Sus casos más apasionantes están reunidos en el libro “El hombre que confundió a su mujer con un sombrero”, título referido a un paciente con agnosia visual un día tomó la cabeza de su mujer intentando calársela como un sombrero, incapaz de distinguir distintas cosas salvo por estar relacionadas con la cabeza.

Nuestro mundo por dentro

Vivimos, sin siquiera darnos cuenta, en la superficie de un planeta turbulento, en el que operan fuerzas colosales de presión, temperatura y movimiento.

Ilustración a partir de un original GNUFDL de Matts Haldin
(vía Wikimedia Commons)
Es muy probable que allí, donde quiera que usted esté, no sepa que se encuentra sobre un material tan caliente como la superficie del sol. Justo debajo de sus pies.

Incluso quizá más caliente.

Para su fortuna, usted está aislado de ese calor, que los científicos calculan hoy en alrededor de los 6.000 grados centígrados. Porque ésa sería la temperatura del núcleo más interno de la Tierra, el centro, del que nos separan unos 5.300 kilómetros de capas de distintos materiales que conforman un planeta que nos resulta casi un desconocido.

Aún no conocemos todos los rincones de la superficie del planeta, y mucho menos sus océanos, como decía Jacques-Yves Cousteau, sabemos más del espacio exterior que de los océanos que cubren más del 70% de la Tierra. Y aún más preguntas encierra el interior del planeta, que sólo conocemos indirectamente.

Los antiguos imaginaron la Tierra como una masa sólida de roca con un interior hueco o, cuando menos, con una enorme cantidad de espacio en su interior, que pudiera albergar ciudades, reinos y mundos enteros: el inframundo griego, el infierno cristiano, la mítica ciudad de Shambalah de los tibetanos o el tenebroso Mictlán o tierra de los muertos de los aztecas, creencias sustentadas en la existencia de cavernas que parecían estar a gran profundidad. Pero no lo estaban. La más profunda conocida es la de Krubera, en la República de Georgia, con unos 2.190 metros de profundidad.

Aunque para fines del siglo XVIII ya los geólogos consideraban inviable que nuestro planeta tuviera espacios vacíos en su interior, la fantasía siguió considerando la posibilidad, como en la novela “Viaje al centro de la Tierra” de Julio Verne, publicada en 1864.

Como las capas de una cebolla

Hoy sabemos que la Tierra tiene un radio medio de unos 6.370 kilómetros, que sería la longitud del pozo que necesitaríamos para llegar a su mítico centro. Mucho más que el pozo más profundo jamás perforado para investigación científica, el llamado Kola SG-3, en la península de Kola, en Rusia que en 1989 superó los 12 kilómetros. Desde entonces, algunos pozos destinados a la explotación petrolera han llegado un poco más hondo... pero no más de 0,187% del radio del planeta

Este agujero, perforado con tantos esfuerzos, es minúsculo incluso en la capa más superficial de la Tierra, la corteza, en la cual vivimos todos los seres terrestres. Tiene un espesor de entre 10 kilómetros en las cuencas océanicas y 70 kilómetros en suelo seco. Pero, además, no es una superficie uniforme, sino que está dividida en diversas placas que, como piezas de un rompecabezas en movimiento, “flotan” sobre la astenosfera, que es la parte más superior del manto terrestre, la siguiente capa viajando hacia el centro. Estas placas tectónicas están en constante, aunque muy lento movimiento, chocando entre sí, a veces hundiéndose una debajo de otra hacia el manto (un proceso llamado subducción), y provocando terremotos. Este movimiento ha sido además el responsable de los cambios que los continentes han experimentado a lo largo de la historia del planeta.

La astenosfera es una capa muy caliente y, por tanto, suave, viscosa y flexible, de unos 180 kilómetros de espesor. Es parte del manto superior, que en conjunto mide 600 kilómetros. Debajo de él está el manto inferior, con unos 2.700 kilómetros de espesor. Contrario a lo que se cree comúnmente, el manto no es líquido, sino fundamentalmente sólido, formado por rocas calientes suaves con una textura como la de una plastilina más viscosa. Estas rocas están formadas principalmente por óxidos de silicio (sílice, la arena común) y de magnesio, además de pequeñas cantidades de hierro, calcio y aluminio. En el manto hay algunas bolsas de roca totalmente fundida, el magma, que en determinadas circunstancias puede salir a la superficie en forma de lava en las erupciones volcánicas.

Debajo del manto se encuentra el núcleo, que también se divide en dos secciones, el núcleo exterior y el interior. El núcleo exterior tiene unos 2.200 kilómetros de espesor y está formado por níquel y hierro líquidos a una temperatura de entre 4.500 y 6.000 grados. Las diferencias en presión, temperatura y composicion de este océano metálico provocan corrientes de convexión, es decir, movimientos del material hacia arriba y hacia abajo, del mismo modo en que lo hace el agua en una olla de agua en ebullición. Estas corrientes en ocasiones podemos verlas en el movimiento circular entre la superficie del agua y el fondo de la olla que exhiben algunos ingredientes.

El flujo del hierro líquido en las corrientes de convexión del núcleo exterior genera corrientes eléctricas que, a su vez, son los que generan el campo magnético de la Tierra en un proceso que se conoce como “geodinamo”. El campo magnético producido por el núcleo exterior nos protege del viento solar y es, por tanto, responsable en gran medida de que pueda haber vida en el planeta.

Por debajo se encuentra el núcleo interior, formado principalmente por hierro sólido. Esta aparente paradoja se debe a las colosales presiones a las que está sometido el centro del planeta, calculadas en unas 3,5 millones de veces la presión atmosférica a nivel del mar. Debido a ellas, el hierro del núcleo no puede fluir como un líquido. De hecho, hay estudios que indican que es al menos plausible que el núcleo interno del planeta sea un gran cristal de hierro que gira dentro del núcleo exterior a una velocidad ligeramente mayor que la del resto del planeta.

La realidad es, sin embargo, que no sabemos cómo se puede comportar un elemento como el hierro a esas presiones y temperaturas. Para darnos una idea, los científicos hacen por igual experimentos donde ejercen gran presión sobre materiales calentados con láseres hasta cálculos que utilizan los conocimientos de la mecánica cuántica. Es una forma de conocer el mundo en el que vivimos y al que no podemos acceder directamente. Es más fácil, lo hemos demostrado seis veces, ir a la Luna.

El laboratorio de los terremotos

La mejor forma que tienen los geólogos de estudiar el interior de nuestro hogar es por medio de las ondas que provocan los terremotos. Al estudiar y comparar los registros de sismógrafos situados en distintos puntos del planeta que capturan los mismos movimiento, pueden calcular las diferentes densidades y, por tanto, la composición y estado de las capas por las que pasan –o se absorben– los componentes de movimiento de un terremoto, las ondas S, horizontales, y las ondas P, verticales. El movimiento más rápido o más lento de las ondas a diferentes distancias del epicentro se interpreta para ir mirando la Tierra por dentro, como en una ecografía.

Los animales y la investigación

El delicado tema del uso de animales en la indagación científica, la valoración de los beneficios que pueden dar y el esfuerzo por encontrar otras formas de investigar.

El virus de la poliomielitis se aisló en monos de
laboratorio. El resultado fue la vacuna que ha
salvado a millones de sufrir la enfermedad.
(Foto D.P. Charles Farmer, CDC
vía Wikimedia Commons) 
El estudio de los animales quizá comenzó cuando el Homo habilis empezó a utilizar herramientas para cazarlos y destazarlos, hace alrededor de 2,3 millones de años. Esta especie antecesora, y las que le siguieron hasta llegar a la nuestra (que apenas existe hace unos 200.000 años) tuvo que aprender al menos algunas cosas sobre los órganos internos de los animales con que se alimentaba para hacer de modo eficiente el trabajo de carnicería.

En algún momento, a través de observaciones diversas, el ser humano se hizo consciente de sus similitudes con los demás animales, en especial los mamíferos: cuatro miembros, dos ojos, dos oídos, dos fosas nasales y una boca, más la correspondencia de muchos órganos internos. Y en el siglo IV antes de nuestra era, Aristóteles hizo experimentos con animales como sus observaciones de huevos fertilizados de gallina en distintas etapas del desarrollo que dieron origen a la embriología.

Décadas después, Erisístrato realizó en Alejandría disecciones de animales y humanos con las que describió las estructuras del cerebro y especuló (correctamente) que las circunvoluciones de la corteza se relacionan con la inteligencia. Galeno, en el siglo II de nuestra era hizo los últimos experimentos con animales en 1000 años por la presión religiosa, hasta que en el siglo XII, Avenzoar, en la España morisca, empezó a probar sus procedimientos quirúrgicos en animales antes de aplicarlos a pacientes humanos.

Más allá del interés de la biología por conocer a los seres vivos, fue al desarrollarse la medicina científica a partir de los trabajos de Koch y Pasteur (quien demostró cómo inmunizar a los animales experimentando con ovejas a las que les inoculó ántrax, principio de su vacuna para la rabia), cuando los modelos animales empezaron a emplearse ampliamente en la investigación.

Las pruebas en animales para medicamentos se implantaron por una tragedia acontecida en 1937 en Estados Unidos. Un laboratorio mezcló sulfanilamida (un antibacteriano anterior a la penicilina) con glicol dietileno, producto que no sabían que era venenoso. La comercialización del medicamento provocó la muerte de un centenar de personas.

El escándalo público llevó a promulgar la Ley Federal de Alimentos, Medicamentos y Cosméticos de 1938, que dispuso que no se comercializara ninguno de estos productos si no se probaba primero su seguridad en estudios con animales.

Y así han sido probados absolutamente todos los medicamentos producidos después de la Segunda Guerra Mundial, cuando se generalizó el protocolo de investigación farmacéutica, que requiere primero pruebas en células en el laboratorio, después en animales y, si todo está bien, estudios clínicos con voluntarios.

Hay así dos tipos de investigación que utiliza animales. Una es la investigación básica dedicada a obtener conocimientos y técnicas nuevos en diversas áreas (fisiología, genética, anatomía, bioquímica, cirugía, etc.) y la otra es la prueba de medicamentos, alimentos y cosméticos para garantizar al público una mayor seguridad, reduciendo la frecuencia y gravedad de acontecimientos como el de 1937.

Prácticamente todos los avances de la medicina y gran cantidad de conocimientos de las ciencias de la vida han sido resultado de la experimentación animal, desde los anestésicos hasta los corazones artificiales, desde el aprendizaje y el condicionamiento de la conducta hasta los viajes espaciales. La vacuna para la difteria comenzó protegiendo a conejillos de indias de la enfermedad. Los estudios en perros permitieron descubrir la función de la insulina dándolele una vida mejor y más larga a los diabéticos. Antibióticos como la estreptomicina se usaron primero en animales de laboratorio. El virus de la polio se aisló en monos rhesus (los mismos monos en los que se identificó el factor Rh de la sangre) abriendo la puerta a la casi erradicación de la enfermedad en el mundo desarrollado. Y los primeros antibióticos para la lepra se desarrollaron en armadillos, animales que pueden albergar la bacteria sin ser afectados. Los experimentos con animales nos han permitido descubrir, por ejemplo, que los monos tienen una comprensión de la equidad y la solidaridad, que diversos animales pueden cooperar o que ciertos comportamientos innatos son tan inamovibles como algunas condiciones físicas determinadas genéticamente.

Al paso del tiempo, la preocupación ética por el bienestar de los animales que se utilizan para la experimentación ha llevado a cambios y reducciones drásticos en la experimentación animal, con una creciente atención a evitar todo el sufrimiento evitable y a utilizar otros modelos cuando sea posible.

Sin embargo, en este momento no contamos con modelos para reemplazar a la totalidad de los animales utilizados en investigación. Un caso ilustra esta situación por estar relacionado con nuestros más cercanos parientes evolutivos, los chimpancés. Precisamente por esa cercanía y similitud genética, son los únicos animales que se pueden infectar con el virus de la hepatitis C y por tanto siguen siendo utilizados en investigaciones.

El ideal a alcanzar es que finalmente dejen de usarse animales en la investigación científica. Para ello se ha acordado el modelo de las tres “R”, para el reemplazo de animales con otros modelos, la reducción del uso de animales y el refinamiento de las prácticas para hacerlas más humanitarias. Gracias a este esfuerzo, en 2012, según el periodista científico Michael Brooks, sólo el 2% de todos los procedimientos científicos realizados en animales en Estados Unidos podían causar una incomodidad o daño a los sujetos.

Y esos trabajos de investigación se hacen hoy en día bajo la vigilancia de comités éticos que determinan que sean absolutamente necesarios y se desarrollen en las mejores condiciones posibles... todo mientras nuestros conocimientos de genética, cultivo de tejidos, clonación y otras técnicas permiten prescindir de este tipo de estudios sin quitarle la esperanza a las personas que dependen de estos avances para el alivio a su dolor, sufrimiento y discapacidad.

El problema de la seguridad

En una carta al British Medical Journal, un farmacólogo explicaba el problema de la seguridad y el riesgo y beneficio: si tenemos 4 posibles medicamentos contra el VIH, pero el primero mata a 4 tipos de animales, el segundo a tres de ellos, el tercero a uno solo y el cuarto no mata a ninguno de los animales, aún administrado en grandes dosis, ¿cuál de ellos debemos probar en un pequeño grupo de voluntarios humanos? La respuesta es sencilla: el cuarto. La pregunta más difícil es ¿cómo lo sabríamos de otro modo?

La invasión de los cuadricópteros

Juguetes, armas, herramientas de investigación, las máquinas volantes de cuatro o más rotores son también vanguardia en la investigación robótica.

Cuadricóptero Aeyron Scout en vuelo
(Foto D.P. de Dkroetsch, vía Wikimedia Commons)
Felipe tiene una empresa dedicada a realizar panorámicas fotográficas y recorridos virtuales como los que seguramente todos hemos visto en Internet con los cuales podemos visitar museos, sitios históricos e incluso casas en venta a través de nuestra pantalla. A fines del año pasado empezó a hacer panorámicas aéreas de 360 grados con una inversión realmente mínima. Lo que antes se podía hacer únicamente con un helicóptero y una multitud de permisos para volar a baja altura, lo ha hecho con tres cámaras digitales fijadas a un juguete volador de control remoto con cuatro hélices, un cuadricóptero o cuadrirrotor.

El cuadricóptero es una aeronave de varios rotores que, a diferencia de un helicóptero, que utiliza una hélice vertical (o a veces dos en el mismo eje, que giran en direcciones opuestas), utiliza dos o más rotores para conseguir volar, suspenderse en el aire y realizar complejas maniobras aéreas ya sea mediante mando a distancia o como robots.

Y pueden ser pequeños. Extremadamente pequeños. Los llamados “nanocópteros”, que hoy se pueden adquirir comercialmente como juguetes por menos de cien euros, caben en la palma de la mano. Y los más grandes, que pueden ser más potentes, están controlados por exactamente los mismos elementos de hardware y software.

Son los descendientes más desarrollados de uno de los sueños de Leonardo Da Vinci.

Suspendidos en el aire

Una máquina capaz de despegar verticalemente y quedar suspendida en el aire es un desafío mucho mayor que una que simplemente vuele. El primero en imaginarla fue Leonardo Da Vinci en 1480, su “tornillo de aire”, que, decía, si girara a suficiente velocidad desplazaría el aire como un tornillo de Arquímedes lo hace con el agua.

La palabra “helicóptero” (del griego “helikos”, espiral y “pteron”, ala) antecedió a la primera aeronave capaz de hacer lo que preveía Leonardo. Fue acuñada en 1861 por Gustave de Ponton d'Amécourt, entusiasta del vuelo y amigo de Julio Verne, cuya idea de una aeronave movida por dos hélices verticales fue utilizada por el pionero de la ciencia ciencia ficción en su novela Robur el conquistador.

El primer aparato capaz de lograr la hazaña fue probado en 1870 en Milán por Enrico Forlanini. Sus rotores estaban movidos por una máquina de vapor y consiguió mantenerse inmóvil en el aire unos 20 segundos aunque sólo avanzaba si soplaba el aire. Sin embargo, antes de que Igor Sikorsky consiguiera el primer helicóptero viable tal como los conocemos hoy en día, el experto en aerodinámica George de Bothezat, creó y voló con éxito para el ejército estadounidense una nave dotada de cuatro hélices verticales. Durante 1922 y 1923, el aparato de Bothezat realizó más de 100 vuelos, alcanzando alturas de hasta 9 metros y consiguiendo mantenerse en el aire hasta 2 minutos y 45 segundos. Pero el ejército norteamericano prefirió orientar sus esfuerzos primero al autogiro y después al helicóptero de Sikorsky, que empezó a utilizarse en la Segunda Guerra Mundial.

El cuadricóptero resuelve el principal problema del helicóptero: el giro de la hélice vertical en un sentido hace que el cuerpo de la aeronave tienda a girar en sentido contrario. Para evitarlo, se utiliza un rotor trasero horizontal que impulsa al aparato en sentido contrario al de la hélice. A cambio, presenta otro problema: las cuatro hélices deben estar sincronizadas con enorme precisión o el aparato se desestabilizará rápidamente.

Los cuadricópteros radiocontrolados de juguete llegaron al mercado a principios de los 90 en Japón, aunque su auge comenzó a fines de esa década, dado que sus más apasionantes capacidades dependen de elementos de la más moderna tecnología.

Estas aeronaves están controladas por una pequeña placa madre que contiene una unidad central de procesamiento o CPU, giroscopios, un acelerómetro, controladores de los motores e incluso un GPS.

La estabilidad se la dan sus sensores. Tiene giroscopios que corresponden a los tres ejes que describen un espacio tridimensional y que en aeronáutica se conocen como cabeceo, alabeo y guiñada. Estando de pie, el cabeceo sería el ángulo que tenemos al inclinarnos hacia adelante o hacia atrás, el alabeo sería la inclinación a izquierda o derecha y la guiñada sería el ángulo creado al girar el cuerpo mirando hacia un lado u otro. Con estos tres ejes se puede describir cualquier posición. Mientras, el acelerómetro permite conocer el movimiento en cualquiera de esos tres ejes. Juntos, estos elementos permiten que la CPU sepa cuánto se ha movido, a qué velocidad y en qué dirección, y hacer ajustes delicadísimos a la velocidad de los cuatro rotores para mantener la estabilidad y la dirección de vuelo.

El mismo conjunto de giroscopios y acelerómetros está en los smartphones actuales, permitiéndoles girar la pantalla según la posición del teléfono, usarse como niveles para ajustar ángulos rectos o jugar juegos donde la posición sirve como control. Estos giroscopios y acelerómetros son diminutos aparatos microelectromecánicos (MEMS) en los cuales delicados sensores registran el movimiento de minúsculos trozos móviles de silicio.

Si a estos sensores se añade un GPS, la CPU puede saber su posición exacta en la superficie del planeta. Con sensores de proximidad puede evitar chocar contra objetos que estén en su camino. Y puede tener otros muchos sensores que, junto con la velocidad de procesamiento de la CPU y una programación adecuada permiten que los cuadricópteros se muevan con una exactitud literalmente milimétrica.

Dotados con cámaras, los cuadricópteros pueden permitir una experiencia de vuelo “en primera persona” para quien ve la pantalla, pero también pueden reunir información en lugares inaccesibles para personas, animales u otros aparatos. Esto los ha ido convirtiendo en herramientas útiles para cuerpos de policía y de rescate, para la supervisión industrial en áreas de acceso difícil o riesgoso, como plataformas de fotografía y videografía y, también como herramientas de vigilancia y, algo que inquieta a muchas personas pese a ser inevitable dadas las características de estos dispositivos, el espionaje y vigilancia militares.

Los robots volantes

En la Arena de Máquinas Voladoras del Instituto Federal Suizo de Tecnología se trabaja con enjambres de cuadricópteros controlados de modo inalámbrico por un ordenador central que decide sus movimientos basado en la realimentación de los sensores de las máquinas. Los drones suizos pueden volar en formación, recorrer laberintos y, en una exhibición que se volvió rápidamente viral, construyeron una torre de 6 metros de altura colocando con exquisita precisión 1.500 cubos de espuma.

Cecilia, ¿de qué está hecho el universo?

El “techo de cristal” que sufrían las mujeres en el siglo XX fue roto por figuras monumentales de la investigación como Marie Curie y Cecilia Payne.

Cecilia Payne-Gaposchkin en el observatorio
de la Universidad de Harvard.
(Foto D.P. Acc. 90-105 - Science Service, Records, 1920s-1970s,
Smithsonian Institution Archives, vía Wikimedia Commons)
En 1924 Cecilia Payne estaba trabajando en el observatorio de la Universidad de Harvard, en Massachustes, EE.UU., cuando su profesor, el astrónomo Harlow Shapley, le sugirió que escribiera una tesis doctoral.

La idea no le entusiasmaba a Cecilia. Le dijo a Shapley que ya tenía un título de Cambrige. “Es el título más alto del mundo. No quiero ningún otro”, afirmó. Pero Shapley, famoso por haber conseguido calcular el tamaño de la Vía Láctea y el lugar de nuestro sistema solar en ella, insistió. Él se había arriesgado invitando a la brillante astrónoma británica a cruzar el océano para convertirse en su alumna, en una época en la que pocas mujeres estaban activas en la ciencia, y quería que el resultado de sus esfuerzos se plasmara en un título de doctorado.

Cecilia finalmente cedió e investigó y escribió una disertación doctoral con el sobrio título de “Atmósferas estelares, una contribución al estudio observacional de altas temperaturas en las capas de inversión de las estrellas” que presentó en 1925. En ella, utilizaba la aún novedosa mecánica cuántica para demostrar que el espectro luminoso de las estrellas estaba determinado únicamente por sus temperaturas y no por los elementos que las componían, porque los elementos estaban presentes en proporciones esencialmente iguales en toda la galaxia: el sol tiene tanto silicio y carbono proporcionalmente como la tierra.

Pero había una excepción: el helio y, especialmente el hidrógeno, eran mucho, muchísimo más abundantes en las estrellas. El hidrógeno, de hecho, era del orden de un millón de veces más abundante en las estrellas. En todas las estrellas de toda la galaxia. La conclusión era tan revolucionaria que el asesor de tesis de Cecilia la convenció de suavizar la presentación de los datos indicando que eran una anomalía que probablemente era un error.

De corroborarse esta conclusión que se desprendía inevitablemente de los cálculos de la astrónoma, significaría que el universo estaría formado por hidrógeno en un 99%, algo que iba contra todas las suposiciones de la astrofísica de la época. Y un descubrimiento cuando menos asombroso para una joven de apenas 25 años de edad.

Sucesivas observaciones y cálculos confirmaron en los tres años siguientes las conclusiones de Cecilia Payne y el propio Russell retiró sus objeciones y le dio todo el crédito correspondiente. El universo estaba hecho de hidrógeno, uno de los más trascendentes descubrimientos de la historia de la astronomía.

De la botánica a las estrellas

Conocida por su apellido compuesto de casada, Cecilia Payne-Gaposchkin nació el 10 de mayo de 1900 en Wendover, Inglaterra e hizo sus primeros estudios en la escuela para niñas de St. Paul’s, en Londres, y lo habitual habría sido que allí terminara su escolarización, pues su madre viuda prefería invertir en la educación de su hermano. Sin embargo, Cecilia consiguió una beca para el Colegio de Newnham, en Cambridge, donde se matriculó con objeto de estudiar botánica.

Sus proyectos se vieron alterados cuando pasó por Cambridge Sir Arthur Eddington, el célebre astrónomo. Eddington había registrado en África el eclipse solar del 29 de mayo de 1919, y sus fotografías, publicadas un año después, eran la primera demostración firme de que la teoría de la relatividad de Einstein era correcta: mostraban cómo el campo gravitacional del sol había curvado la luz de estrellas cuando pasaba cerca de él desde nuestro punto de vista, haciendo parecer que estaban en una posición distinta. Con este antecedente, Eddington se embarcó en una serie de conferencias de divulgación sobre esta investigación y sobre la relatividad. Cecilia asistió a la que dictó en Cambridge y, como comentó en una entrevista: “Fue el día después de la conferencia cuando fui con mi director de estudios y dije que iba a cambiar mis estudios de la botánica a la física”.

Como única mujer que estudiaba física en Cambridge, sin embargo, provocó algunas suspicacias. Un caso que también cambiaría el rumbo de su vida fue el del legendario físico Ernest Rutherford, padre de la física nuclear y por entonces ya Premio Nobel de química que sentía que su alumna era demasiado ambiciosa en la ciencia. Cecilia se hizo amiga de la hija del Rutherford, Eillen Mary, él le dijo a su heredera “No le interesas, querida, ella sólo está interesada en mí”.

Cuando Eileen Mary se lo comentó a Cecilia, ésta se enfureció y, relata, “decidí que no seguiría en la física, sino que me orientaría a la astronomía en cuanto pudiera”. Y así lo hizo, obteniendo su licenciatura, maestría y doctorado en astronomía en 1923.

Fue entonces cuando, viendo que en Inglaterra no tenía futuro como investigadora, aceptó la invitación de Harlow Shapley, director del Observatorio Universitario de Harvard para entrar al recientemente inaugurado programa de postgrado de astronomía. Dos años después producía la disertación doctoral que fue descrita como “la tesis de doctorado más brillante jamás escrita en la astronomía” por Otto Struve, uno de los más prolíficos astrónomos de la historia y que descubrió, entre otras cosas, el hidrógeno interestelar.

Después de presentar su tesis, Cecilia Payne adoptó la ciudadanía estadounidense y en 1933, durante un viaje por Europa ya como una de las astrónomas más distinguidas del momento, conoció al astrofísico Sergei I. Gaposchkin, a quien ayudó a salir de la Alemania nazi a Estados Unidos, donde se casaron y tuvieron tres hijos: Edward, astrofísico; Katherine, astrónoma e historiadora de la ciencia, y Peter Arthur, programador analista y físico.

Durante los años siguientes, Cecila y Sergei se dedicaron a diversos trabajos astronómicos, como la observación de las estrellas de gran magnitud y las estrellas variables, que les permitieron establecer los caminos de la evolución de las estrellas. En 1956, mientras continuaba su trabajo de investigación, se convirtió en la primera mujer en obtener una cátedra en la Universidad de Harvard y la primera en encabezar un departamento académico en esa universidad, el de astronomía.

Cuando murió, en 1979, había acumulado una de las más impresionantes carreras de la astronomía del siglo XX.

Si quieres estudiar ciencia

Además de su legado científico, Cecilia Payne-Gaposchkin dejó estas palabras para quienes quieren estudiar ciencia: “No emprendas una carrera científica en busca de la fama o el dinero. Hay formas más sencillas y mejores de alcanzarlos. Empréndela sólo si nada más te puede satisfacer, porque lo que probablemente recibirás es nada. Tu recompensa será la ampliación del horizonte conforme escalas. Y si logras esa recompensa, no pedirás ninguna otra".

Los corsarios de las células

Los virus, organismos en el límite entre lo vivo y lo inanimado, son importantes enemigos de nuestra salud contra los que seguimos siendo incómodamente vulnerables.

Virus de la gripe de 1918 recreado para su estudio.
(Foto D.P. Cynthia Goldsmith, CDC/ Dr. Terrence
Tumpey, TimVickers, via Wikimedia Commons)
En la última década del siglo XIX se descubrió que el agente infeccioso responsable de la enfermedad del mosaico del tabaco era más pequeño de lo que podía ser una bacteria, pues atravesaba exitosamente filtros de porcelana con poros tan pequeños que no dejarían pasar ninguna bacteria. O bien era parte del propio líquido o tenía un tamaño tan diminuto que no se podía ver en los microscopios de la época.

Fue Edward Jenner, el creador de la vacuna contra la viruela, quien llamó a estos agentes “virus”, palabra latina que significaba veneno o sustancia dañina y que aplicó a la “sustancia venenosa” causante de la viruela.

En 1898, el microbiólogo holandés Martinus Beijerinck publicó que este virus no se podía cultivar como otros organismos y sólo se reproducía infectado a las plantas, es decir, que era necesariamente un parásito. Tuvieron que pasar años y descubrimientos hasta que en 1939 se confirmara que los virus eran partículas y no un veneno líquido.

Hoy sabemos que un virus es un agente infeccioso formado por una molécula de un ácido nucleico (ARN o ADN), rodeada por un recubrimiento proteínico y una capa grasa o de lípidos, con un tamaño de entre 20 y 300 nanómetros, es decir, milésimas de millonésimas de metro) que sólo se puede reproducir dentro de las células de sus anfitriones vivos.

El surgimiento de los antibióticos a principios del siglo XX, arma eficaz para combatir las infecciones bacterianas, fue inútil contra las virales. Esto demostraba que quedaba un largo camino en la lucha contra la infección, pues las causadas por virus son el 90% de todas las infecciones que podemos sufrir, entre ellas, por ejemplo, la gastroenteritis infantil, la mononucleosis, la hepatitis A y B, los herpes, la meningitis, el SIDA, la poliomielitis, la rabia, la neumonía, la rubéola, el sarampión, la varicela y, claro, la gripe, entre otras muchas.

Estas partículas orgánicas se encuentran además en el límite entre el mundo vivo y el inanimado. O, por decirlo de otro modo, sólo podemos decir si están o no vivas según la definición que elijamos de “vida”. Su mecanismo de reproducción implica secuestrar la maquinaria de las células que sirven como sus anfitrionas. Y cuando las células son nuestras, nos provocan enfermedades.

En algunos casos, el malestar dura un breve tiempo y nuestro cuerpo “aprende” a combatir a los virus por medio de los antígenos del virus. Es lo que ocurre con la gripe, que al cabo de más o menos una semana es vencida por nuestro sistema inmune. En otros casos, la enfermedad se puede volver crónica, o seguir avanzando hasta provocarnos graves problemas o la muerte.

El ataque se realiza cuando un virus se fija a la membrana de una célula sana e inyecta su material genético en ella e invadiendo su ADN para obligarla a producir copias del virus. La propia célula enferma, controlada por el material genético del virus, crea nuevos virus y los libera para que puedan infectar a otras células. Otra forma de ataque es la de los retrovirus, que insertan su mensaje genético en la célula atacada pero éste se mantiene inactivo. Cuando la célula se reproduce, lo hace con el segmento de ADN ajeno. Al darse ciertas condiciones medioambientales, el ADN viral se activa en todas las células para hacer también copias de sí mismo.

Hasta hoy, las formas que tenemos de combatir las infecciones virales son muy limitadas. Sustancias químicas que estimulan al sistema inmunitario como las interleukinas o los interferones, o antivirales y antirretrovirales que interfieren con el funcionamiento, infección y reproducción de los virus; e incluso medicamentos que destruyen las células infectadas para impedir que reproduzcan copias del virus. Ninguno de estos medicamentos, desafortunadamente, tiene la efectividad que tienen los antibióticos contra las infecciones bacterianas.

Por ello, la primera línea de batalla contra las infecciones virales es la prevención, lo que implica cuarentenas para alejar a quienes ya tienen enfermedades contagiosas, prácticas que impidan la entrada de los virus (como lavarse las manos con frecuencia en temporada de gripe) y, sobre todo, el procedimiento descubierto por Edward Jenner, las vacunas.

Ninguna otra intervención médica ha sido tan eficaz, en toda la historia humana, que las vacunas. Han conseguido erradicar por completo enfermedades tan terribles como la viruela y liberar a muchas regiones de azotes históricos como la polio, la terrible tos ferina o la varicela (cuyo virus permanece en el cuerpo ocasionando daños y molestias a lo largo de toda la vida). Una vacuna es una forma inocua de “mostrarle” a nuestro sistema inmune los antígenos de un virus para que esté preparado y pueda combatirlos exitosamente en caso de una infección del virus real. Es por ello que la gran esperanza contra afecciones virales como el dengue o el SIDA es el desarrollo de sus respectivas vacunas.

La capacidad que tienen los virus de evolucionar rápidamente implica que algunas vacunas, como la de la gripe, deban adaptarse continuamente para mantener un nivel razonable de eficacia. Entender el funcionamiento, la adaptación y, por supuesto, las debilidades de los virus, se trabaja continuamente en el conocimiento de la composición genética de los virus y la secuenciación de sus cadenas de ARN o ADN. La tarea es colosal, porque existen más especies de virus que de todos los demás seres vivos juntos.

Los virus, sin embargo, no son sólo una amenaza. Pueden utilizarse como coadyuvantes de los antibióticos, infectando bacterias y debilitándolas para que sean más susceptibles a la acción de los antibióticos. Los mecanismos de invasión de los virus se pueden también modificar mediante ingeniería genética para transportar medicamentos a células enfermas o cancerosas, para atacar plagas reduciendo el uso de pesticidas o para llevar genes nuevos a otras células como herramientas de la propia ingeniería genética para mejorar todo tipo de especies. Una promesa envuelta en la aterradora capa de una de las peores amenazas a nuestra salud.

Los riesgos de epidemia

Una de las peores epidemias de la historia humana fue la de la gripe de 1918-1920, que infectó a 500 millones de personas y mató a 100 millones. El virus era, hasta donde sabemos, un parásito de las aves que se trasladó a los cerdos que se mantenían en el frente de la Primera Guerra Mundial y sufrió una letal mutación. Debido a este antecedente, existe una alerta intensa ante cualquier brote viral que pudiera convertirse en otro azote similar, como ha ocurrido con la gripe aviar y la gripe A, que afortunadamente no han evolucionado según las menos optimistas predicciones. Hasta hoy.

Nuestro cerebro y el alcohol

Es una de las drogas más consumidas en el mundo junto con la cafeína, y objeto de los elogios y furias de grupos contrapuestos por sus efectos, contradictorios y cada vez mejor comprendidos.

"Restaurant La Mie", óleo de Henri de Toulouse-Lautrec
(vía Wikimedia Commons)
Hace al menos diez mil años el hombre ha producido bebidas con contenido alcohólico, lo que sabemos por el descubrimiento de jarras de cerveza de la era neolítica. Prácticamente todas las culturas han producido bebidas alcohólicas, admitiendo y hasta recomendando su consumo moderado al tiempo que condenaban y desaconsejaban la ebriedad.

Estas bebidas contienen alcohol etílico o etanol, una molécula pequeña cuya fórmula es CH3-CH2-OH y que se disuelve fácilmente en el agua. Se obtiene dejando fermentar productos como frutas, bayas, cereales, miel y otros, que atraen naturalmente a bacterias y levaduras (hongos unicelulares) que al alimentarse de ellos convierten sus carbohidratos y azúcares en etanol. Éste es el proceso que se conoce como fermentación. La gran revolución alcohólica se dio en el siglo XIII, cuando los alquimistas descubrieron la destilación, convirtiendo las bebidas fermentadas en aguardientes o bebidas espirituosas.

La solubilidad del etanol en agua es la responsable de que sus efectos sean tan rápidos y generalizados. Al consumir una bebida alcohólica, las moléculas de etanol se absorben rápidamente, un 20% del alcohol en el estómago, y el resto en el intestino delgado, pasando directamente al torrente sanguíneo, que las lleva a todos los tejidos del cuerpo, afectando especialmente a los tejidos que requieren un abundante riego sanguíneo, como el cerebro. El etanol se mueve por el cuerpo hasta que tiene la misma concentración en todos los tejidos, y parte de él se evapora mediante la respiración. Por ello, la medición del porcentaje de alcohol en el aliento es un indicador razonablemente preciso de la concentración de alcohol en el tejido pulmonar y, por tanto, en el torrente sanguíneo.

El alcohol afecta directamente nuestro sistema nervioso, y lo hace de distintas formas según la cantidad de esta sustancia que tengamos en sangre. Pequeñas cantidades de alcohol son estimulantes para muchos órganos, y con un nivel en sangre entre 0,03% y 0,12% nos sentimos relajados, libera tensión, aumenta nuestra confianza en nosotros mismos y reduce nuestra ansiedad y algunas inhibiciones comunes, facilitando la interacción social. Esto explica por qué las reuniones sociales se “lubrican” o facilitan con el consumo de alcohol. Esto ocurre porque se deprimen los centros inhibitorios de la corteza cerebral, donde ocurren los procesos del pensamiento y la conciencia. El tímido habla con más confianza, el temeroso puede sentirse más valiente, se cuentan confidencias que en otras condiciones se reservarían y se hacen comentarios impulsivos.

Pero al aumentar la concentración de alcohol en nuestra sangre, obstaculiza más ampliamente la neurotransmisión interrumpiendo la comunicación nerviosa, por ejemplo, con los músculos, provocando descoordinación en los movimientos, problemas de equilibrio y hablar arrastrando las palabras. Este efecto se debe a la acción del alcohol en el cerebelo, que es el centro del movimiento y el equilibrio.

Entre 0,09 y 0,25% de contenido de alcohol en sangre la estimulación se vuelve depresión, sentimos sueño, se dificulta la comprensión de las palabras y la memoria, los reflejos se ralentizan o desaparecen. También se obstaculizan los impulsos nerviosos de entrada desde el exterior y hay visión borrosa y disminución de la percepción de sabor, tacto y dolor (por lo cual antes de la invención de los anestésicos se solía emborrachar a los pacientes para realizar intervenciones, desde extracciones de piezas dentales hasta amputaciones). El sueño se debe a la acción del alcohol en el tallo cerebral, que además disminuye el ritmo respiratorio y reduce la temperatura corporal.

Cuando la concentración de alcohol está entre el 0,18 y el 0,30% aparece la confusión y siguen desactivándose mecanismos de nuestro cerebro. Podemos no saber dónde estamos y perder fácilmente el equilibrio; las emociones se desbordan y nos podemos comportar con agresividad o con afectuosidad excesiva. Y cuando los niveles llegan a entre 0,25% y 0,40%, el bebedor ya no puede moverse, apenas responde a los estímulos, no puede caminar y puede perder el sentido por momentos. Un 0,50% de alcohol en sangre implica un coma etílico, con pérdida de conciencia, depresión de los reflejos y ralentización de la respiración. Por encima de 0,50% la respiración se deprime tanto que la persona deja de respirar y muere.

Todo esto se debe a que el alcohol tiene efectos contradictorios en el sistema nervioso. Por un lado, obstaculiza la liberación del glutamato, un neurotransmisor excitador que aumenta la actividad del cerebro y aumenta los efectos del ácido gamma amino butírico o GABA, transmisor que tranquiliza la actividad cerebral (medicamentos contra la ansiedad como el diazepam precisamente aumentan la presencia de GABA en el sistema nervioso).

El alcohol también aumenta la liberación de la dopamina, responsable de controlar los centros de recompensa y placer del cerebro. A mayor presencia de dopamina, mejor nos sentimos. El centro de recompensa del cerebro es una serie de áreas que se estimulan con todas las actividades que hallamos placenteras, sea ver una película, estar con gente que queremos, consumir drogas o escuchar música. Beber alcohol altera el equilibrio químico de nuestro cerebro haciéndonos sentir bien, y es el factor esencial para que un 10% de los hombres y un 5% de las mujeres que beben desarrollen dependencia respecto del alcohol.

Esta acción contradictoria es responsable de un efecto común: al disminuir las inhibiciones aumentan los pensamientos sexuales, pero se deprimen los centros nerviosos del hipotálamo responsables de la excitación y la capacidad de tener relaciones sexuales. Se quiere más y se puede menos.

El alcohol es metabolizado convirtiéndolo primero en acetaldehído, un potente veneno responsable de muchos de los síntomas de la resaca, y después en radicales de ácido acético o vinagre. El resto de la temida resaca se debe al metabolismo de los ésteres y aldehídos que dan a algunas bebidas alcohólicas su aroma, sabor y color peculiares.

Animales bebedores

Apenas en 2008 se descubrió el primer caso de animales que buscan una bebida alcohólica natural. Algunos primates de Malasia como la tupaya y el loris lento, suelen beber el néctar de una palmera local que fermenta hasta tener un contenido alcohólico similar al de la cerveza. La planta aprovecha esta afición para utilizarlos como sus polinizadores. Sin embargo, pese a beber el equivalente a 9 chupitos, los lémures no muestran un comportamiento de ebriedad, convirtiéndolos en la envidia de muchos bebedores.

Volar sin GPS

Las largas y complejas migraciones de las aves han presentado al hombre varios de los grandes misterios de la naturaleza, preguntas aún sin respuesta clara.

Ánade real negro, ave migratoria común
por toda Europa.
(Foto © Mauricio-José Schwarz)
La aparición y desaparición estacional de algunas aves fue observada por el ser humano desde sus orígenes y llegó a ser símbolo de fertilidad y riqueza, además de una fuente de alimentación, como ocurrió en el antiguo Egipto, con la llegada anual de las aves a las riberas del río Nilo, coincidente con la inundación de este río.

En la Grecia clásica, varios autores registraron las migraciones de varias especies de aves, como las grullas, que se observó que migraban anualmente desde las estepas ucranias que entonces eran parte de Escitia, hasta la cabecera precisamente del río Nilo. Sin embargo, Aristóteles también consagró fantasías que, como tantas observaciones del filósofo, en dogmas de fe sin bases. Afirmó que algunas aves, como las golondrinas, no migraban en el invierno, sino que hibernaban, incluso se llegó a creer que bajo el agua y congeladas, y también concluyó que algunas especies se “transmutaban” en otras debido a los cambios de estación. Es decir, que las aves que partían al sur y las que llegaban del norte eran las mismas, pero habían cambiado de especie.

La más delirante fantasía sobre el misterio de las migraciones nos la dejó un anónimo que en 1703 publicó en Inglaterra un tratado proponiendo que las aves, efectivamente, migraban estacionalmente, pero no a otras latitudes, sino directamente a la Luna. Otro mito generalizado era que, si bien las aves más grandes podían migrar, las pequeñas carecían de la fuerza necesaria para hacerlo por sí mismas y se trasladaban viajando como pasajeros a bordo de las más grandes.

Fue a partir de los estudios de aves realizados en el siglo XIX y el desarrollo de nuevas técnicas que se pudo determinar que estas ideas eran mitos y que estos animales realizaban efectivamente migraciones asombrosas, como la más larga, que hace el gaviotín ártico, Sterna paradisaea, y que llega a recorrer 40.000 kilómetros desde el Polo Norte hasta el Sur y de vuelta, o la hazaña del vuelo ininterrumpido más largo, que logra anualmente la aguja colipinta, Limosa lapponica, volando 13.690 kilómetros en nueve días sin pausa para ir desde Alaska hasta Nueva Zelanda.

Se demostró también que las aves pueden desplazarse a alturas de hasta 10.000 metros, con muy bajas temperaturas y poco oxígeno, lo que exige además importantes adaptaciones metabólicas. Éste es uno de los factores que han llevado a especular que el comportamiento migratorio, al menos en algunos casos, se origina por los cambios climáticos y geográficos que ha experimentado el planeta y que van alejando progresivamente las fuentes de alimentación en invierno y en verano.

Pero un caso observado en el siglo XX indica que no se necesita forzosamente mucho tiempo para generar una conducta migratoria. En la década de 1940 se liberaron en Nueva York algunos ejemplares del ave llamada carpodaco doméstico llevadas desde California. No acostumbradas a los duros inviernos neoyorquinos, desarrollaron rápidamente una ruta migratoria. Para la década de 1960, al aproximarse el invierno muchos carpodacos ya emigraban al sur, a los climas amables de las cosas del Golfo de México, para volver a Nueva York con la primavera.

La migración tiene para más beneficios que peligros para las especies que las realizan, por su acceso a alimentos y las buenas condiciones para la reproducción. Para realizarla, distintas aves emplean al parecer no sólo una forma de navegación, sino varias, de manera bastante flexible. Pueden utilizar puntos geográficos de referencia, como picos, bosques y ríos. O bien usar la posición del sol, con mecanismos bien desarrollados para compensar el movimiento del sol en distintas épocas. Si migran de noche, en cambio, parecen utilizar la posición de las estrellas con la habilidad de un avezado navegante. Y los olores cambiantes conforme avanzan en su migración son también usados como pistas.

Así, la hazaña de encontrar su camino desde el punto de partida al de llegada, siguiendo rutas bien establecidas que apenas varían de un año al otro, no depende de una sola variable. Como cualquiera de nosotros que intenta navegar, las aves echan mano de múltiples pistas para fijar su hoja de ruta y no dependen de una sola habilidad o fuente de información, lo que haría demasiado frágil su supervivencia a la hora de realizar sus migraciones.

Otro misterio es el mapa o referencia interna que se necesita para utilizar una brújula. Ese mapa puede estar formado por rutas aprendidas, siguiendo a la bandada, o puede tener una base genética, como lo sugieren los cucos o cuclillos, que después de desarrollarse toda su vida, desde la eclosión, en un nido de otra especie, sin ver a otro individuo de la suya propia, al madurar migran perfectamente a sus territorios de invierno en los trópicos y vuelven en verano para reproducirse.

El más detallado experimento para tratar de determinar la capacidad de migración lo realizó el científico alemán Hans Wallraff con palomas mensajeras, transportándolas totalmente aisladas de un punto a otro para determinar si podían volver a su lugar de origen. Con objeto de que las aves no obtuvieran datos sensoriales del entorno durante el viaje de ida, tomó todo género de precauciones. Cada paloma viajó en un recipiente herméticamente cerrado y recibía su aire de un tanque, para que no tuviera pistas de olores o la humedad del aire a lo largo del trayecto. Los recipientes estaban rodeados de bobinas que generaban campos magnéticos que cambiaban al azar. Viajaron sometidas a un fuerte ruido blanco para eliminar igualmente las pistas sonoras, y los recipientes cambiaban aleatoriamente de posición e inclinación controlados por un ordenador, todo con objeto de que no pudieran percibir la dirección del viaje y “aprender” el camino.

Pese a todas estas precauciones, cuando las palomas mensajeras fueron liberadas, volvieron sin mayor problema a su punto de origen.

Este experimento confirmó que las aves tienen también alguna forma de brújula interna que utilizan para navegar, una forma de percibir el campo magnético de la Tierra. Sin embargo, el mecanismo concreto que usan para ello no ha sido identificado aún, de modo que el paso de bandadas de aves sobre nuestras cabezas es, todavía, un profundo misterio de la adaptabilidad de la vida a los más complejos desafíos.

Las mariposas migratorias

La única competidora de las aves en cuanto a migraciones es la mariposa monarca, que cada año recorre 4.500 kilómetros desde el este de Canadá hasta el centro de México, donde pasa el invierno. Una de las formas que se ha descubierto que utilizan las mariposas para orientarse es utilizar sus dos antenas como una brújula solar.

Oppenheimer y la responsabilidad del científico

Las enormes fuerzas a las que el hombre obtuvo acceso gracias a la revolución de la física en el siglo XX le presentaron a los científicos desafíos éticos que antes no se habían planteado abiertamente.

Einstein con J. Robert Oppenheimer.
(Foto D.P. del Departamento de Defensa de los EE.UU.
vía Wikimedia Commons)
El 29 de junio de 1954, después de un accidentado proceso, Julius Robert Oppenheimer, “Oppy” para los medios de comunicación, el padre de la bomba atómica estadounidense, era despojado de su autorización de seguridad por la Comisión de la Energía Atómica (AEC). Era, en muchos sentidos, la caída de un héroe. Los motivos eran, principalmente, sus dudas éticas a la luz de los acontecimientos derivados de su trabajo en el Proyecto Manhattan.

El proceso a Oppenheimer fue una parte muy visible de la “cacería de brujas” del senador Joseph McCarthy, promotor de un pánico anticomunista que barrió los Estados Unidos y destrozó las vidas de numerosas personas, no sólo comunistas, sino hombres y mujeres de avanzada, incluso simples antifascistas.

Pero el delito de Oppenheimer era no sólo tener simpatías de izquierdas. Era haber asumido una posición moral ante el desarrollo de la bomba de hidrógeno, entendiendo que el científico no podía deslindarse ya más del uso que la política daba al conocimiento.

Una vida en el conocimiento

Julius Robert Oppenheimer nació en la ciudad de Nueva York en 1904, en una familia acomodada judía no practicante emigrada desde Alemania y estudió sus primeros años en la Escuela de la Sociedad de la Cultura Ética. Esta institución educativa, que aún existe, fue fundada por el racionalista Félix Adler como una escuela gratuita para hijos de obreros con la idea de que se desarrollaran como personas “competentes para cambiar su entorno para lograr una mayor conformidad con el ideal moral”.

En esta escuela de pedagogía revolucionaria, estudió matemáticas, ciencia e idiomas, desde griego y latín clásico hasta francés y alemán. A la temprana edad de 12 años, su pasión por coleccionar minerales le hizo presentar un artículo científico ante el Club Mineralógico de Nueva York, que lo recibió como miembro honorario. Se matriculó en Harvard en 1922 con la idea de estudiar química, pero terminó fascinado por la física y emprendiendo una carrera vertiginosa. Se graduó en 1925 y viajó a Inglaterra donde investigó bajo la dirección del famoso físico Sir Joseph John Thomson para después concluir su doctorado en la universidad de Göttingen con el no menos importante Max Born, con quien hizo trabajos de mecánica cuántica. En 1927 volvió a Harvard y en 1929, con sólo 25 años, fue nombrado profesor en la Universidad de California.

Esta carrera implicó que se desentendiera del “mundo real”, de la política y los conflictos sociales, hasta que la emergencia del fascismo en la década de 1930 lo sacudió. Comenzó a relacionarse con personas de la izquierda estadounidense y apoyó económicamente a las Brigadas Internacionales en la Guerra Civil Española mientras seguía con su trabajo en la física teórica, que incluyó algunos de los primeros artículos que sugerían la existencia de los agujeros negros.

Al comenzar la Segunda Guerra Mundial, Oppenheimer se implicó como entusiasta antifascista en el esfuerzo por desarrollar una bomba atómica: un dispositivo en que un material radiactivo iniciara una reacción en cadena que llevara a una explosión convirtiendo una mínima parte de su materia en energía. En 1942, el ejército estadounidense lo nombró director científico de lo que se conocería con el nombre clave de “Proyecto Manhattan”. Oppenheimer fue más allá de la física, organizando, administrando y conduciendo a un equipo de más de 3.000 personas, entre ellas las mejores mentes de la física de ese tiempo. El proyecto dio sus frutos el 16 de julio de 1945, cuando se detonó la primera bomba atómica en Alamogordo, Nuevo México. Es famosa la afirmación de Oppenheimer de que, al contemplar la explosión, pensó en una línea del Bhagavad-Gita: “Me he convertido en la Muerte, el destructor de universos”. Menos famosa es su observación de que “Sabíamos que el mundo ya no sería el mismo” desde ese momento.

Menos de un mes después, se lanzaron dos bombas atómicas contra Hiroshima y Nagasaki. El argumento era que una invasión convencional de Japón podría costar hasta 14 millones de vidas entre soldados aliados y civiles japoneses. Las bombas atómicas causaron unas 210.000 víctimas civiles y provocaron la rendición inmediata de Japón, pero también el terror mundial ante su violencia. De inmediato, además, comenzó una carrera armamentista entre las dos superpotencias de la época: los EE.UU. y la URSS para desarrollar nuevas armas nucleares y amenazarse mutuamente.

El siguiente paso se dio en la década de 1950 con el desarrollo de las bombas termonucleares, que utilizan una bomba atómica como detonante de una reacción de fusión de hidrógeno miles de veces más poderosa.

Pero Robert Oppenheimer, al frente de los esfuerzos estadounidenses, expresó su clara oposición al desarrollo de la bomba de hidrógeno, proponiendo en cambio negociaciones con la URSS que detuvieran la proliferación de armas nucleares y advirtiendo del peligro de un holocausto nuclear. Ya en 1945 había dicho “Si las bombas atómicas han de añadirse como nuevas armas a los arsenales de un mundo en guerra, o a los arsenales de las naciones que se preparan para la guerra, llegará el día en que la humanidad maldiga los nombres de Los Álamos e Hiroshima. La gente de este mundo debe unirse o perecerán.”

En 1953, el pánico anticomunista del senador Joseph McCarthy lo convirtió en su blanco por esta actitud conciliadora, interpretada como traición a los Estados Unidos, por sus simpatías de izquierdas y por su amistad con comunistas. Despojado de su autorización de seguridad, volvió a su trabajo como investigador y profesor en la Universidad de Berkeley donde siguió haciendo aportaciones a la teoría de la relatividad y la física cuántica.

En 1963, el gobierno estadounidense, a modo de disculpa, le concedió el premio Enrico Fermi.

Robert Oppenheimer murió el 18 de febrero de 1967 a causa de un cáncer en la garganta dejando la convicción de que los físicos debían hacerse responsables de lo que se hacía con el conocimiento que obtenían. “Los físicos han conocido el pecado”, dijo en 1947, “y éste es un conocimiento que ya no pueden perder”.

Oppenheimer en el teatro

El proceso a Oppenheimer, su interrogatorio y condena, fueron tomados por el dramaturgo Heiar Kipphardt, miembro del movimiento de teatro-documento, en la obra Sobre el asunto de J. Robert Oppenheimer, publicada en 1964, cuando el físico aún vivía. Basada en las 3.000 páginas de la transcripción del proceso, la obra explora los problemas éticos y la responsabilidad moral de los científicos, y la interferencia política en su trabajo.

El elemento número 1

Estamos cada vez más cerca del día en que gran parte de nuestras necesidades de energía sean satisfechas por el hidrógeno, el elemento más antiguo y más abundante de nuestro universo.

Esquema de una celdilla de combustible de
hidrógeno que produce una corriente eléctrica.
(Imagen D.P. de Albris modificada por Los
Expedientes Occam. vía Wikimedia Commons)
Cuando miramos por la noche a las estrellas, estamos asistiendo, muchas veces sin saberlo, a un espectáculo de hidrógeno incandescente.

Todas las estrellas de todo el universo no son sino enormes esferas de hidrógeno que debido a su enorme están experimentando una reacción atómica llamada fusión, donde los átomos de hidrógeno se fusionan o unen para formar otros elementos y, como resultado de este proceso, liberando enormes cantidades de energía en forma de diversos tipos de radiación, entre ellos la luz gracias a la cual las vemos.

El horno de fusión de hidrógeno más cercano a nosotros es precisamente la estrella que ocupa el centro de nuestro sistema planetario, el sol, gracias a cuya energía existe y se mantiene la vida en nuestro planeta.

El universo era muy joven cuando apareció el hidrógeno. Realmente joven. Habían pasado apenas unos tres minutos desde el Big Bang, esa súbita expansión de una singularidad en la cual surgieron al mismo tiempo el espacio, el tiempo y toda la materia, cuando los protones y neutrones que habían aparecido poco antes empezaron a formar núcleos rodeados de un electrón, convirtiéndose en hidrógeno pesado, una de las varias formas de este elemento. En el proceso se formó también helio. Los cálculos de los cosmólogos indican que en esos tres primeros minutos de nuestro universo había 10-11 átomos de hidrógeno por cada uno de helio. Y de inmediato hizo su aparición también el hidrógeno común, formado por un protón y un electrón, sin neutrones.

El hidrógeno es el más común de los elementos, tanto que toda la materia que podemos ver en el universo es aproximadamente 73% de hidrógeno y 25% de helio. Sólo un 2% aproximadamente del universo está formado por elementos más pesados que estos dos.

(Cabe señalar que la materia que podemos ver es sólo el 23% de toda la materia del universo, mientras que el 77% restante de la materia que debe existir para que el universo se comporte tal como lo hace es, hasta hoy, invisible para nosotros. Es la llamada “materia oscura” que hoy la ciencia busca invirtiendo grandes esfuerzos.)

Todos los elementos del universo proceden, pues, del hidrógeno, que es el más ligero de ellos y por tanto el que ocupa el primer lugar en la tabla periódica que ordena los elementos por sus características y su peso atómico. El peso atómico es el número de protones que contiene el núcleo de los átomos de cada elemento. El hidrógeno tiene el número 1.

En el corazón de las estrellas, el hidrógeno se fusiona en helio, el helio y el hidrógeno se fusionan para crear berilio... y así se van creando todos los elementos hasta el hierro, que tiene el número atómico 23. Todos los demás elementos, desde el cobre, con número atómico 27 hasta el uranio, el 92 de la tabla y el último que es natural (todos los elementos más pesados que el uranio son hechos por el ser humano) se crean no en el corazón de las estrellas, sino al estallar éstas en las explosiones que llamamos supernovas.

Por eso decía Carl Sagan que “estamos hecho de materia de estrellas”.

Sin embargo, pese a su temprana aparición, su abundancia y su importancia, el hidrógeno no fue identificado por el ser humano sino hasta 1766, cuando el británico Henry Cavendish se dio cuenta de que este inflamable gas, que había sido producido por primera vez por el sabio renacentista Paracelso, era una sustancia discreta. En 1781, el propio Cavendish descubrió que al quemarse esta sustancia producía agua, un experimento fundamental para desmentir la idea de que el universo estaba formado por cuatro elementos. Finalmente, en 1783, el francés Antoine Lavoisier, después de reproducir los experimentos de Cavendish, le dio nombre a la sustancia que solían llamar “aire inflamable”: hidrógeno, que en griego quiere decir “generador de agua”.

Una de las características del hidrógeno, además de su facilidad para quemarse, es ser mucho más ligero que el aire. Esto lo aprovechó ese mismo año un físico francés, Jacques Alexander Cesar Charles, para lanzar un globo lleno de hidrógeno que alcanzó una altitud de tres kilómetros. Poco después, Charles se convirtió en el primer hombre en volar en un globo de hidrógeno.

En 1800 se descubrió que al aplicarle una corriente eléctrica al agua, ésta se descomponía en hidrógeno y oxígeno, un proceso llamado electrólisis. Y en 1839 se descubrió el proceso inverso, el de la celdilla de combustible, en el que el hidrógeno se une al oxígeno y genera una corriente eléctrica, que se llevó a la práctica en 1845 con la creación de la primera “batería de gas”.

A lo largo de los años se fueron descubriendo numerosos usos industriales para el hidrógeno al tiempo que se abandonaban otros. La tragedia del dirigible Hindenburg, que se incendió al atracar en en 1937 en Nueva Jersey, marcó el fin del uso del hidrógeno para hacer volar máquinas más ligeras que el aire, y fue sustituido por el helio.

Pero la idea del hidrógeno como combustible siguió su camino. En los programas espaciales, de modo muy notable, los combustibles utilizados son el hidrógeno y el oxígeno líquidos, que al mezclarse generan un fuerte empuje. Pero, con menos atención del público, los astronautas que fueron a la luna en las misiones Apolo y sus antecesores de las misiones Gémini obtenían su electricidad en el espacio gracias a celdillas de combustible que, además, les proporcionaban agua para beber.

Hoy en día, el hidrógeno es una de las más prometedoras opciones para ofrecer a la humanidad una fuente de energía limpia, no contaminante y renovable. Algunos fabricantes de autos ya están trabajando para dejar atrás, en un futuro quizás cercano, el ruidoso automóvil con motor a explosión de gasolina, sustituido por vehículos eléctricos accionados por hidrógeno.

El desafío es hacer el sistema más eficiente y encontrar formas para obtener hidrógeno a un coste tal que resulte competitivo con los todavía baratos combustibles fósiles. Esto puede parecer extraño tratándose de un elemento tan abundante en el universo pero, después de todo, en nuestro planeta se encuentra principalmente en forma de compuesto, como en el agua de los océanos. Resolver este desafío podría significar toda una nueva era para la civilización humana.

El hidrógeno en nosotros

El hidrógeno es uno de los seis elementos básicos que hacen posible la vida, junto con el carbono, el oxígeno, el nitrógeno, el azufre y el fósforo, y está presente en todas las moléculas que nos conoforman. Aproximadamente el 10% de la masa de nuestro cuerpo es hidrógeno, la mayor parte en el agua que es nuestro principal componente. Es una parte de nosotros que nació junto con el universo mismo.

La estrella de la mañana

Muchas culturas lo identificaron con los atributos de sus deidades femeninas. Para otras era la guía del sol y el reloj del universo. Y al ser el planeta más cercano al nuestro, ha presentado un desafío genuinamente milenario.

Imagen de Venus con rayos X que permite ver
su superficie por debajo de la densa capa de
nubes que lo cubre.
(Foto D.P. de Magellan Team, JPL, NASA,
vía Wikimedia Commons)
Los escritores de ciencia ficción del siglo XIX y principios del XX se imaginaron el planeta Venus, nuestro vecino de camino al Sol así como Marte lo es en sentido contrario, como una especie de paraíso tropical, un planeta con junglas húmedas, como una versión más cálida y exuberante de la Tierra. Sus especulaciones se basaban en lo poco que se sabía entonces sobre el planeta. Sabíamos que disponía de atmósfera desde que el ruso Mijail Lomonosov lo observó en un tránsito por el Sol en 1761, y observaciones posteriores constataron que esa atmósfera contenía una espesa capa de nubes que no permitía ver su superficie pero le daba su peculiar brillo al reflejar intensamente la luz del Sol.

Especulaciones más descabelladas o desvergonzadas provenían de quienes, a raíz del estallido del mito ovni en 1947, escribieron libros asegurando que habían sido llevados a visitar Venus por los habitantes del planeta, tripulantes de naves maravillosas.

Estas especulaciones se alimentaban de otros datos sugerentes. Venus es casi gemelo de nuestro mundo: tiene un tamaño del 90% de la Tierra y una masa del 80%. De hecho se parece más a nuestro planeta que Marte, que mide sólo la mitad de la Tierra y tiene una masa es de poco más del 10%, y que también apasionó a escritores de ciencia ficción y charlatanes. A estos parecidos une características singulares como que su rotación es en dirección contraria a la de la Tierra y ocurre muy lentamente. Un día venusino, es decir, una rotación completa alrededor de su propio eje, dura 243 días terrestres, más tiempo que un año venusino, el tiempo que tarda en dar una órbita completa alrededor del Sol y que es de 224,65 días terrestres.

El 14 de diciembre de 1962, el Mariner 2, se convertía en el primer aparato hecho por el hombre que se acercaba a otro planeta de nuestro sistema solar y nos informaba de cómo eran las condiciones en ese lugar, hasta entonces sólo visto y analizado por medio de nuestros telescopios. La sonda pasó a una distancia de 34.773 kilómetros de la superficie de Venus y en breves observaciones destruyó la fantasía. Donde Edgar Rice Burroughs se había imaginado un planeta de agua en su serie de historias fantásticas sobre Venus, había un planeta con temperaturas altísimas y sin rastro de agua alguna.

Casi cinco años después, un artilugio humano tocaba la superficie de Venus. El 18 de octubre de 1967, la sonda Venera 4 de la entonces Unión Soviética, lanzó varios instrumentos a la atmósfera venusina antes de descender en paracaídas. Supimos entonces que la atmósfera de Venus estaba formada casi totalmente de dióxido de carbono y la presión atmosférica en su superficie era mucho mayor que la de la Tierra, hoy sabemos que es 92 veces mayor, más o menos la presión que existe a un kilómetro bajo el mar. Su capa de nubes, de varios kilómetros de espesor, genera además un poderoso efecto invernadero que da a la superficie de Venus las más altas temperaturas del sistema solar, mayores incluso que las de Mercurio, mucho más cerca del Sol, que llegan hasta 450 grados Celsius.

Era la realidad de uno de los cuerpos celestes por los que los pueblos antiguos mostraron un mayor interés debido a que es el objeto más luminoso del cielo después del Sol y de la Luna y tiene la característica de ser visible únicamente poco antes del amanecer en algunos meses o, en otros, poco después del atardecer, y en otros no es visible. Como ocurre con Mercurio, ambos planetas no son visibles de noche ya que debido a que sus órbitas son “inferiores” a la órbita de la Tierra, es decir, que están entre nosotros y el sol, desde nuestro punto de vista siempre aparecen cerca de nuestra estrella.

El primer registro escrito sobre el segundo planeta desde el sol data del 1581 antes de nuestra era: un texto babilónico llamado la tabla de Ammisaduqa, que registra 21 años de apariciones de Venus. Algunas otras culturas creían, sin embargo, que se trataba de dos objetos celestes distintos: una estrella de la mañana y una estrella del atardecer Para los egipcios, las dos estrellas eran Tioumoutiri y Ouaiti, mientras que los griegos las llamaron Phosphorus y Hesperus, al menos hasta que en el siglo VI antes de nuestra era Pitágoras determinó con certeza que se trataba de un solo objeto celeste.

La identificación de Venus con una imagen femenina data desde los propios babilonios, que lo llamaban Ishtar, el nombre de su diosa de la guerra, la fertilidad y el amor, parcialmente identificada con Venus, la diosa griega del amor. Para los persas era Anahita, diosa también de la fertilidad, la medicina y la sabiduría. Los antiguos chinos llamaban a Venus Tai-pe, la hermosa blanca, mientras que en la actualidad las culturas china, japonesa, coreana y vietnamita lo llaman “la estrella de metal”.

Pero probablemente ninguna cultura estableció una relación tan estrecha con Venus como los mayas, para los cuales el movimiento y ciclos de Venus. Para la cultura maya, Venus era considerado el objeto celeste que guiaba al sol, y por tanto tenía tanta o más importancia que nuestra estrella.

Los mayas relacionaban a Venus con una de sus principales deidades, Kukulcán, la serpiente emplumada. Le llamaban Chak Ek’, la gran estrella, que cuando salía en la mañana en el este era considerada indicio de renacimiento, al mismo tiempo que un anuncio de guerra y un peligro para la gente, pero cuando aparecía en la tarde se relacionaba con la muerte, y se creía que el período entre ambas apariciones en el que no se veía se debía a que hacía un recorrido por el submundo de los muertos. Los ciclos de Venus eran una de las bases de la compleja interacción de calendarios de la cultura maya, que se utilizaban incluso para decidir el mejor momento de emprender una guerra contra una ciudad-estado vecina.

25 misiones exitosas de acercamiento o descenso en Venus (rodeadas de muchos intentos fallidos, especialmente en los inicios de la exploración espacial), conocemos mejor a nuestro casi gemelo cósmico. Contamos con mapas detallados de su superficie, obtenidos por rayos X y tenemos respuestas a muchas preguntas... y cada día nuevas preguntas.

Venus y Galileo

Venus fue uno de los objetos celestes a los que Galileo dirigió su telescopio, descubriendo que exhibía fases igual que la Luna. La observación de este fenómeno fue una de las primeras demostraciones contundentes y concluyentes de la validez de la idea del sistema heliocéntrico propuesto por Copernico. Si, como proponía el modelo geocéntrico de Ptolomeo, Venus giraba en epiciclos alrededor de la Tierra junto con el Sol, debería estar siempre en fase creciente.

La lucha contra el frío

Bajan dos grados y lo resentimos. Pero hay seres a nuestro alrededor que han desarrollado diversas estrategias para soportar temperaturas de rigor estrictamente cósmico.

Pingüino emperador en la Antártida
(Foto CC de Hannes Grobe
vía Wikimedia Commons)
El frío es un excelente conservante de los alimentos, y de los tejidos vivientes en general, debido a que a bajas temperaturas, las bacterias que descomponen los tejidos muertos para realizar el peculiar reciclaje de la naturaleza ven su actividad enormemente reducida o incluso anulada.

Es por esto que tenemos neveras y congeladores, no sólo en nuestros hogares sino en muchos lugares y vehículos para mantenerlos frescos. Y es por esto también que en lugares especialmente fríos se pueden conservar asombrosamente personas como Ötzi, el hombre del hielo que tanto nos ha enseñado sobre la vida de nuestros antepasados

Las bacterias disminuyen enormemente su actividad por debajo de los 4 grados centígrados y, por debajo del punto de congelación, mueren debido a que el agua que las compone en un 80-90% se cristaliza, destruyendo al organismo. Esto es también la explicación de por qué no se pude congelar a un ser humano y revivirlo posteriormente: el congelamiento destruye las células físicamente.

Y sin embargo, hay muchos seres vivos que viven en temperaturas extremas en las que un ser de características tropicales como el ser humano no podría vivir sin la protección que ha diseñado culturalmente, como la ropa de abrigo o la calefacción. Estos seres vivos han desarrollado una enorme variedad de estrategias para enfrentar el frío, sobrevivirlo e incluso prosperar en él... incluso en extremos verdaderamente aterradores y que, a primera vista, nos parecerían incompatibles con la vida.

Los más conocidos son, por supuesto, un pelaje o plumaje densos y con una buena dosis de aceite, que cree una capa de aire inmóvil cerca de la piel que se mantiene más caliente que el aire más allá de la capa de pelo o plumas. Esta estrategia, junto con una buena capa de grasa subcutánea, aísla a animales como las focas, los pingüinos y los mamíferos de las zonas más frías, como liebres, zorros y, claro, los emblemáticos osos que bajo su pelaje tienen, por cierto, la piel negra.

Las especies de clima frío suelen ser además más grandes que especies similares en climas cálidos, con extremidades más cortas y cuerpos más gruesos. lo que reduce la superficie de contacto con el aire que provoca la pérdida de calor. Así, estos animales son capaces de mantener temperaturas corporales normales, en general similares a las del ser humano, entre 34 y 40 grados Celsius (aunque pueden bajar hasta los 31-32 grados durante la hibernación).

Hay otros sistemas menos conocidos, como el mecanismo llamado “intercambio calórico de contracorriente”, en el que las arterias que traen sangre caliente de los pulmones y el corazón se ven rodeadas de redes venosas que traen sangre fría de las extremidades. La sangre venosa captura parte de ese calor en su camino hacia el interior del cuerpo, evitando que se pierda mientras que la sangre arterial llega más fría a su destino. Esto pasa en las patas de los pingüinos, el lobo y el zorro árticos y otras especies, que pueden mantener sus patas por encima de la temperatura de congelación sin perder demasiado calor.

El anticongelante orgánico

Hay lugares donde, hasta hace poco tiempo, no creíamos que pudiera haber vida, lugares con condiciones extremas, por lo que a sus habitantes, que poco a poco se van descubriendo, se les llama extremófilos, o seres que gustan de los extremos. A los que gustan del frío extremo se les llama psicrófilos (“psicrós” en griego es “frío”), pues pueden vivir en temperaturas muy bajas, incluso de hasta -15 grados Celsius, como ocurre en algunas bolsas de agua muy salada rodeadas de hielo y que no se congelan precisamente por su alto contenido de sal.

La hazaña de sobrevivir a temperaturas tan bajas requiere una forma de impedir que el agua de los organismos se congele y se cristalice, y para ello se utilizan distintas estrategias.

Algunos peces que viven en aguas heladas acumulan sodio, potasio, iones de calcio o urea. Estas sustancias reducen el punto de congelación de sus tejidos, del mismo modo en que la sal permite que no se congelen las bolsas de agua más frías. Otras especies producen naturalmente las llamadas glicoproteínas, que inhiben el crecimiento de los cristales de hielo, lo mismo que hace el anticongelante que se tiene que poner en los autos en zonas gélidas cuando se acerca el invierno.

Las glicoproteínas son sólo algunas de las proteínas anticongelantes que producen algunos animales, plantas, hongos y bacterias. Estas proteínas se unen a los cristales de hielo cuando aún son pequeños, impidiéndoles crecer y recristalizarse. Hay muchas variedades de proteínas anticongelantes, utilizadas por plantas, bacterias, arqueobacterias, insectos y peces.

Lo más interesante de estas proteínas es que su eficacia como anticongelantes es muy superior a la de los anticongelantes usados por el ser humano, como el metanol, el propilenglicol o el etilenglicol, alcoholes que se añaden al agua utilizada para el enfriamiento de motores para reducir su punto de congelación y evitar que se hiele dentro de los conductos del motor cuando están inactivos, lo que podría provocar el estallido de los conductos y otros daños.

Una estrategia de supervivencia en estado de verdadera animación suspendida al estilo de las historias de ciencia ficción y fantasía es la que siguen los tardígrados, que pueden soportar hasta dos semanas a una temperatura casi de cero absoluto, -273 grados Celsius, más que ningún otro ser vivo, entrando en un estado llamado de “tun”, donde se deshace de gran parte del agua de su cuerpo además de producir proteínas anticongelantes para proteger la poca que le queda, redefiniendo en ese estado nuestro concepto mismo de la vida.

Los animales que soportan el frío nos dan además claves para soportarlo mejor, para crear cultivos que puedan tolerar las bajas temperaturas facilitando la agricultura en zonas extremas y, sobre todo, nos animan a pensar que si la vida es así de persistente en nuestro planeta, probablemente ello signifique que está ocupando otros espacios del universo, aunque no venga a visitarnos en naves caprichosas.

Temblar de frío

Cuando hace frío, el hipotálamo, que entre otras actividades es el centro regulador de la temperatura del cuerpo, envía un mensaje a los músculos para que se contraigan rítmicamente, lo que conocemos como temblar de frío. Este temblor tiene por objeto aumentar la producción de calor del cuerpo de una manera muy eficiente. Además el temblor de alta intensidad que conocemos comúnmente y que dura un tiempo relativamente corto, hay un temblor de baja intensidad que puede sostenerse durante mucho tiempo, incluso durante meses, y así lo hacen muchos animales que hibernan durante el invierno, temblando imperceptiblemente para mantener su temperatura.