Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Ventanas para el universo: el vidrio

Asombroso por su transparencia, durante la mayor parte de la historia el vidrio fue un lujo reservado a la élite. Hoy es uno de los productos más omnipresentes en nuestra vida.

Vitral inglés del siglo XIII
(Foto D.P. de Daderot,
vía Wikimedia Commons)
Desde un humilde vaso hasta la resistente pantalla de un teléfono inteligente, desde el parabrisas antiastillamiento hasta las lentes de precisión de un microscopio, el vidrio es importante actor de nuestra cotidianidad.

Los más antiguos vestigios arqueológicos encontrados hasta ahora indican que el vidrio ya se fabricaba en Mesopotamia 3.000 años antes de la Era Común, utilizándose como recubrimiento (o vidriado) de piezas de cerámica.

Sin embargo, miles de años antes antes de que se inventara la tecnología para producirlo, el ser humano ya había descubierto una forma de vidrio producto de las erupciones volcánicas: la obsidiana, que se utilizó desde la edad de piedra tanto para la fabricación de armas y herramientas, por sus bordes cortantes, como para la creación de adornos y joyas con sus brillantes colores negro, gris y verde.

En Egipto, hace 2.500 años, ya había talleres que hacían tanto piezas de cerámica vidriada como cuentas de vidrio utilizadas para joyería y altamente apreciadas por su brillo, aprovechando la abundancia de los elementos necesarios para su fabricación, como el natrón, esa sal conocida por su empleo como desecante en el proceso de momificación y que se utilizaba como fundente de la arena para fabricar vidrio.

Porque el vidrio es… arena.

El principal componente de la arena es el sílice, o dióxido de silicio, lo que significa que está formado por los dos elementos más abundantes de la corteza terrestre, el oxígeno (46% de la masa del planeta) y el silicio (algo menos del 28%). Cuando el sílice se funde a altas temperaturas con ayuda de un fundente como el carbonato de sodio, que ayuda a reducir la temperatura necesaria para fundir la arena, y un estabilizante como el carbonato de calcio. El añadido de otras sustancias o elementos puede darle al vidrio, entre otras características, mayor brillo, funciones ópticas deseables para diversas aplicaciones, color, dureza o resistencia a los cambios de temperatura.

El único procedimiento para darle forma al vidrio fue el moldeado, hasta que en el siglo I a.E.C. apareció el sistema del vidrio soplado: tomar una bola de vidrio fundido con una larga herramienta hueca y usar el aliento para hacer, literalmente, una burbuja de vidrio soplando aire en su interior. El historiador Plinio afirma que la tecnología nació en Sidón, Siria, en la costa de lo que hoy es el Líbano, y cien años después la tecnología ya se había extendido por el Oriente Medio y el sur de Europa. Hoy sigue siendo el procedimiento (a escala industrial) para producir botellas de vidrio.

El vidrio fascinó a los romanos y aprovecharon la tradición egipcia para promover la producción de vidrio principalmente en la ciudad de Alejandría, extendiéndola luego por sus dominios. La fabricación del material era tan abundante que la gente común tuvo por primera vez acceso a él, en la forma de recipientes y copas. Incluso se empezó a desarrollar la técnica de las hojas de vidrio, aplanado con rodillos. No era muy transparente ni uniforme, pero empezó a usarse como aislamiento en ventanas y casas de baños.

Después de la caída del imperio romano de occidente, la fabricación de vidrio continuó en recipientes, v vasos, copas y frascos, y desarrollando técnicas para dar color al vidrio, ya sea pintándolo o añadiendo al material fundido distintas sustancias para que al solidificarse tuviera un color: el cobre otorga un color rojo, el óxido de hierro le da un azul pálido y el manganeso lo tiñe de morado.

Fue este vidrio de colores el que permitió crear los vitrales que adornaron e iluminaron las iglesias durante la Edad Medida. Estas obras de arte eran, además, conocidas como “la biblia del pobre”, porque representaban pasajes bíblicos gráficamente. En la vida civil, los ricos y poderosos también disponían de vitrales decorativos a su gusto y de ventanas de vidrio traslúcido.

En el lenguaje común, solemos hablar de “el techo de cristal”, “quebrarse como un cristal”, “las casas de cristal”, “el cristal con que se mira”… en todos estos casos estamos, por supuesto, hablando de vidrio, pero lo llamamos “cristal”, especialmente cuando tiene cierta calidad y belleza especiales, como el vidrio plomado (por su singular resplandor y reflectividad), por una cuestión de márketing renacentista.

El vidrio es lo que los físicos llaman un “sólido amorfo”, es decir, que contrariamente a lo que podría indicarnos el sentido común, no tiene una estructura cristalina, sino que sus átomos y moléculas no están ordenados uniformemente. En palabras de un experto, es como si “quisiera ser un cristal” pero su proceso de fabricación se lo impide, convirtiéndolo en un caso especial de los sólidos. Esta estructura es la que le da tanto su transparencia como su proverbial fragilidad.

La tecnología para el vidrio transparente fue perfeccionada hacia el siglo XV en Murano, Venecia, al añadirle óxido de magnesio al vidrio fundido para eliminar el tono amarillo o verdoso que solía mostrar. Sus creadores lo llamaron “cristallo” para destacar su claridad y similitud con el cristal de roca. La tecnología se difundió pronto por Europa pues tenía un resultado adicional inesperado: impartía una enorme ductilidad al vidrio, permitiendo soplar piezas muy delicadas que se volvieron objeto del deseo de los poderosos y que hoy nos siguen fascinando en la forma de finas copas de vino y cava.

Los nuevos combustibles de la revolución industrial animaron la producción de vidrio, pero fue hasta 1902 cuando Irving Colburn inventó el primer proceso capaz de producir grandes hojas de vidrio de espesor uniforme, abatiendo su precio y permitiendo desde los rascacielos recubiertos de vidrio hasta que cualquier pudiera tener ventanas de vidrio.

El siglo XX, finalmente, ha sido la era del desarrollo tecnológico del vidrio para aplicaciones diversas, desde cascos de astronautas hasta pantallas táctiles. Las variedades de vidrio son hoy tan numerosas que es un tanto desafiante recordar que, finalmente, todas se pueden reducir simplemente a arena.

Pero no es un líquido

Existe una extendida leyenda que afirma que el vidrio es un líquido, si bien extremadamente denso. La idea se sustenta en parte en la observación de que algunas piezas de los antiguos vitrales tiende es más gruesa en su parte inferior que en la superior, como si se hubiera “escurrido” al paso de los siglos. Pero no hay datos de que esto sea una constante, sino que el vidrio medieval no se podía hacer de espesor uniforme, y los vitralistas preferían poner la parte más gruesa en la parte inferior, para sostener mejor la estructura de su obra.

La casa de los cometas

¿De dónde vienen los cometas? La observación de estos peculiares objetos celestes sugiere la existencia de un depósito cósmico que aún no hemos podido ver.

La gigantesca nube de Oort que rodea el sistema solar.
(Imagen D.P. de la NASA, vía Wikimedia Commons)
Cuando pensamos en el sistema solar lo imaginamos formado por el sol, los planetas interiores (Mercurio, Venus, la Tierra y Marte), el cinturón de asteroides y los planetas exteriores (Júpiter, Saturno, Urano y Neptuno), además de Plutón, al que la Unión Astronómica Internacional reclasificó en 2006, con gran atención de la prensa, como “planeta enano”, por haberse descubierto en 2005 un cuerpo de tamaño aún mayor que Plutón.

Lo que yace más allá, hasta la estrella más cercana al sol, Proxima Centauri, tendemos a imaginarlo como espacio vacío, acaso con algo de polvo poco relevante.

La realidad es distinta. El sistema solar, definido como todos los cuerpos que están gravitacionalmente vinculados a nuestra estrella, el Sol, está mucho más poblado aunque sea mayoritariamente espacio vacío.

Y en las más inaccesibles zonas de las afueras de nuestro sistema solar, los astrónomos creen que existe un gigantesco depósito del que proceden algunos de los más asombrosos objetos que conviven con nosotros: los cometas y los más misteriosos cuerpos, mitad cometa y mitad asteroides, llamados centauros. Y existen en enormes cantidades.

Un sistema solar grande

La representación del sol y los planetas que habitualmente vemos en libros y documentales no es muy fiel respecto de la escala que guardan entre sí los cuerpos del sistema solar y la distancia a la que se encuentran unos de otros.

En una escala más exacta, si el sol fuera una esfera de un metro de diámetro, la Tierra sería una pequeña esfera de 9 milímetros de diámetro girando en una órbita elíptica a una media de 107,5 metros de distancia del sol; el gigantesco Júpiter tendría 10 centímetros de diámetro y se encontraría a unos 550 metros del Sol y el lejano Plutón, representado por una diminuta esfera de sólo milímetro y medio de diámetro, se situaría a unos 4,2 kilómetros del centro del sistema. Plutón es además parte de una nube de pequeños cuerpos celestes llamada “cinturón de Kuiper”, descubierta apenas en 1992.

En un sistema solar bastante predecible, aparecen sin embargo ocasionalmente en nuestro entorno cósmico otros espectaculares cuerpos, los cometas, formados por hielo, polvo y partículas rocosas. Los astrónomos pueden observar cinco o seis al año, entre conocidos y nuevos. Debido a su composición, al acercarse al sol en un extremo de su órbita se forma a su alrededor una atmósfera temporal llamada “coma” una envoltura gaseosa producto de la volatilización del hielo del cometa.

Conforme los cometas se acercan al sol, el viento y la radiación solares alargan la coma creando la cola del cometa que, por ello, siempre apunta en dirección opuesta al sol. El otro extremo de la alargada elipse que describe la órbita de los cometas se encuentra en las zonas más alejadas del sistema solar.

Los cometas de “período corto” tienen una órbita de entre 20 y 200 años de duración y según los astrónomos proceden de una zona ubicada inmediatamente más allá del cinturón de Kuiper, el llamado “disco disperso”, que contiene al parecer cientos de miles de cuerpos de más de 100 kilómetros de diámetro y un billón o más de cometas. El más famoso cometa de período corto es el cometa Halley, que vuelve a pasar cerca del sol cada 75-76 años.

Pero existen otros cometas, llamados de “período largo”, que pueden tardar más de 200 e incluso varios miles de años en recorrer completa su órbita. Estos cometas, creen los astrónomos, proceden de una gigantesca y difusa esfera llamada “nube de Oort” que se extendería hasta más allá de la mitad de la distancia que nos separa de Proxima Centauri, y se calcula que debería contener incluso billones de cuerpos capaces de convertirse en cometas.

Pero, si nadie ha visto la nube de Oort, ¿cómo saben los astrónomos de su existencia?

Detectives interestelares

Los astrónomos habían observado que los cometas no tienen una zona de origen específica, sino que pueden provenir de cualquier punto del espacio. Es decir, sus órbitas no están alineadas en términos generales como las de los planetas. Esto sugiere que el origen de los cometas de período largo no está en un cinturón de nuestro sistema solar, sino en una esfera.

Adicionalmente, se sabe que las órbitas de los cometas no son estables, y se ha observado que al cabo de varias órbitas, acaban destruyéndose, ya sea volatilizándose o chocando con el sol o con algún planeta, como el cometa Shoemaker-Levy, que en 1992 se disgregó al pasar cerca de Júpiter y, en su siguiente órbita, en 1994, colisionó con el gigante gaseoso.

Con estos elementos, el astrónomo holandés Jan Hendrik Oort razonó que los cometas de período largo no podían haberse formado en su órbita actual, a diferencia de los planetas o el cinturón de asteroides, sino que deberían existir en un depósito esférico durante la mayor parte de su existencia, y que los efectos gravitacionales de su entorno y de los planetas los desplazan de sus órbitas originales lanzándolos al vertiginoso viaje interplanetario cuyo extremo observamos cuando entran a la zona de los planetas del sistema solar. Un viaje vertiginoso que termina, eventualmente, con la destrucción del cometa.

La nube de Oort sería así un remanente de la nebulosa de polvo estelar que se condensó debido a las fuerzas gravitacionales, formando nuestro sistema solar hace alrededor de 4.600 millones de años.

La hipótesis, presentada públicamente en 1950, es la más plausible que tenemos para explicar el comportamiento que observamos en los cometas. Demostrar que es correcta resulta uno de los grandes desafíos de la astronomía.

El primer paso para ello es la misión New Horizons (Nuevos Horizontes), lanzada por la NASA en 2006. La sonda, la primera misión de su tipo, recorrerá 5 mil millones de kilómetros para llegar, en 20015, a Plutón y seguir su camino hasta el cinturón de Kuiper.

Sus observaciones sobre los objetos que forman el cinturón de Kuiper nos pueden aportar datos sobre los cometas de período corto y saber más sobre sus parientes de período largo y el misterioso lugar de su origen en el espacio fronterizo de nuestro sistema solar, que ciertamente no está tan vacío como pensábamos.

Jan Hendrik Oort

Jan Hendrik Oort, 1900-1992, es uno de los más importantes astrónomos del siglo XX. Con poco más de veinte años postuló que nuestra galaxia gira como los fuegos artificiales llamados “rueda catalina”, donde las estrellas cercanas al centro giran a más velocidad que las que están en las zonas exteriores. Demostró además que nuestro sistema solar se encuentra en uno de los brazos exteriores de la galaxia y no en su centro, postuló la existencia de la materia oscura y fue uno de los pioneros de la radiotelescopía.

Cómo hundir un barco

No fue, por mucho, el más trágico hundimiento hasta entonces (el vapor SS Sultana se hundió en el río Mississippi el 27 de abril de 1865 matando a 1.800 de sus 2.400 pasajeros), y desde su hundimiento, otros desastres han superado con mucho a las 1.523 víctimas mortales del Titanic. Sin embargo, el hundimiento del enorme transatlántico ha cautivado la atención del público y los medios durante cien años.

El Titanic en el muelle de Southampton
(foto D.P. de autor anónimo vía Wikimedia Commons)
Buena parte de la fascinación, hasta donde sabemos, se basa en la idea de que el Titanic había sido anunciado ampliamente como un barco “imposible de hundir” (“unsinkable” en inglés) y que el accidente que lo llevó al fondo del mar había sido una especie de golpe del destino o de los poderes divinos contra la arrogancia de los constructores, idea promovida por el obispo de Winchester en una prédica poco después del hundimiento.

Pero tal afirmación es, al menos, imprecisa. En un folleto de la línea White Star durante la construcción de los barcos gemelos Olympic y el Titanic (el segundo apenas un poco más grande), se afirmaba que “en la medida en que es posible hacerlo, estas dos maravillosas naves están diseñadas para ser imposibles de hundir”, mientras que otro folleto, distribuido en Estados Unidos, explicaba el sistema de compuertas estancas del Titanic afirmando que “prácticamente hacían a la nave imposible de hundir”.

Estas afirmaciones publicitarias son cercanas a las que escuchamos sobre productos milagrosos que “podrían ayudar a combatir el envejecimiento” o “podrían combatir” tal o cual afección (y, queda implícito, podrían no hacerlo). Es decir, se han redactado para dar una impresión determinada pero que no pueda ser un compromiso exigible si algo fallara. La línea dueña de las embarcaciones, pues, se cubrió las espaldas.

Pero el público en general, la prensa e incluso el capitán del Titanic, dejaron de lado las precauciones para asegurar categóricamente que el barco era imposible de hundir. Algo absurdo considerando cómo flotan y cómo se hunden los barcos.

Arquímedes y la flotación

Evidentemente, las embarcaciones flotaban miles y miles de años antes de que supiéramos por qué. Aunque las embarcaciones más antiguas halladas hasta hoy por los arqueólogos son de hace un máximo de 10.000 años, la evidencia de las migraciones humanas nos sugiere que el hombre las utiliza desde hace más de 100.000 años y con ellas realizó el poblamiento de tierras aisladas como Australia, hace 40.000 años.

La fabricación de embarcaciones fue, por tanto, un arte basado en experiencias empíricas hasta que Arquímedes, en el siglo III antes de la Era Común describió en su libro “Sobre los cuerpos flotantes” que un cuerpo sumergido en un líquido experimenta un empuje hacia arriba igual al peso del líquido que desplaza. Esto quiere decir que un cuerpo puede flotar si desplaza una cantidad de agua que pese menos que ellos, para lo cual le damos una forma tal que tenga una cantidad suficiente de aire en su interior, y así pueda desplazar su peso en agua sin que el agua llegue a entrar en él. Un barco de acero como el Titanic, de 46.000 toneladas, está diseñado para desplazar más de 46.000 toneladas de agua marina.

Por ello mismo, hay materiales que flotan por sí mismos sin importar su forma, porque su densidad intrínseca es menor a la densidad del agua. O, dicho de otro modo, un determinado volumen de ellos pesa menos que el mismo volumen de agua.

Al entrar agua en una embarcación, el aire se sustituye por agua y la densidad total del barco aumenta hasta que se hunde.

Esto permite entender cómo se diseñó el Titanic para evitar que una perforación del casco provocara la inundación de todo el barco. Por debajo de la línea de flotación, el barco estaba dividido en 16 compartimientos estancos que podían cerrarse rápidamente. Si había una perforación, se sellaba el compartimiento de modo que, aunque se inundara, la nave seguiría a flote. De hecho, se calcula que el Titanic se podría haber mantenido a flote incluso si cinco de los compartimientos se inundaran.

Y sin embargo, se hundió.

Fallos en cascada

El estudio de los restos del Titanic ha permitido determinar cuáles fueron los factores que incidieron en el desastre.

En primer lugar, el acero de la nave y el hierro los remaches utilizados para armar el casco de la nave sucumbieron a un fenómeno llamado “fractura frágil”, en la que un metal se rompe sin sufrir previamente una deformación. Este tipo de fractura ocurre cuando se presentan tres factores, mismos que se dieron en el Titanic esa noche: que el metal tenga un alto contenido de azufre, que esté a muy baja temperatura y que el impacto que sufra sea muy fuerte. Esto fue demostrado con muestras del Titanic en 1994 y 1995.

Pero además el barco chocó lateralmente contra el iceberg, no de frente, de modo que éste provocó 6 largas heridas en el casco que inundaron los seis compartimientos delanteros. Las compuertas se cerraron inmediatamente después de la colisión, pero el daño era demasiado. Se calcula que el Titanic podría haber soportado incluso la inundación de cinco compartimientos, uno menos de los dañados.

Esto explica además por qué el hundimiento fue tan rápido y la forma en que se dio, con toda la proa inundada, haciendo que el barco se inclinara para después partirse en dos. Incluso se ha hecho notar que si no se hubieran cerrado las compuertas, el agua se habría extendido por todo el casco haciendo más lento el hundimiento, lo que habría permitido que se utilizaran mejor los botes salvavidas y que el Carpathia, el barco de pasajeros que se apresuró a llegar al lugar del hundimiento, rescatara a muchos más supervivientes.

La explicación de la fascinación pública sobre el Titanic será, sin duda, mucho más difícil de desentrañar que los fallos de diseño y de materiales que provocaron su hundimiento. Pero el legado más importante de la tragedia, vale tenerlo presente, fue una intensa mejora en los diseños y métodos de construcción de barcos, en la seguridad y en la legislación sobre botes salvavidas, que han salvado, con certeza, muchas más vidas de las que se perdieron esa madrugada en el Mar del Norte.

La búsqueda del Titanic

Durante 73 años, distintos grupos se ocuparon de buscar los restos del Titanic. La creencia de que se había hundido en una sola pieza alimentó todo tipo de especulaciones, como la que llevó al escritor estadounidense Clive Cussler a escribir la novela “¡Rescaten al Titanic!”, un thriller en el que se utiliza aire comprimido para reflotar el pecio y rescatar un supuesto mineral que transportaba. La novela fue llevada al cine con poco éxito en 1980. El 1º de septiembre de 1985, una expedición francoestadounidense encontró finalmente los restos del famoso barco.

La alquimia de la cocina

Cocinar los alimentos es un acto que les provoca cambios químicos y físicos fundamentales que no sólo mejoran su sabor, sino que pueden ser la diferencia entre lo nutritivo y lo que no lo es.

"Los comedores de patatas", de Vincent van Gogh.
Al cocinar las patatas o papas, sus moléculas de almidón
se descomponen facilitando su digestión.
(Museo van Gogh D.P. vía Wikimedia Commons)
Los más recientes datos (y seguramente habrá otros) indican que los humanos utilizan el fuego desde hace cuando menos un millón de años. Este descubrimiento en la cueva de Wonderwerk en Suráfrica da fuerza a la hipótesis de Richard Wrangham, de la Universidad de Harvard, en el sentido de que cocinar la comida fue un prerrequisito para la aparición del hombre moderno, al proporcionar una mejor nutrición que permitió el crecimiento de un cerebro más grande y que nuestros ancestros pasaran menos tiempo masticando. Su hipótesis exigía que los homínidos utilizaran el fuego hace al menos un millón de años.

Curiosamente, esta hipótesis iría a contracorriente de la creencia de que lo “natural” para el ser humano es el consumo casi exclusivo de vegetales, y de preferencia crudos.

Y es que cocinar los alimentos los transforma profundamente y, al mismo tiempo, parece habernos transformado como parte de nuestra forma de enfrentar el mundo. No hay ninguna cultura que no cocine sus alimentos, y de hecho identificamos buena parte de las culturas por su cocina, sus peculiaridades gastronómicas.

Tres son los cambios esenciales que se producen en un alimento al cocinarlo y que lo convierten en una fuente de nutrición mejor para el ser humano.

En primer lugar, descompone las moléculas de almidón en fragmentos más digeribles. El almidón es el carbohidrato más común de la dieta humana, aunque solemos pensar en él principalmente asociado a la patata, que tiene un contenido especialmente alto en almidón. Pero está presente tanto en el centeno como en las castañas, las lentejas, los guisantes, los garbanzos y, en general, en cereales y raíces, en una forma cristalina distinta en cada alimento.

Las enzimas digestivas tienen problemas para digerir las estructuras cristalinas, entre ellas la del almidón. Al cocinar los almidones, se aumenta su facilidad de digestión. Por esto mismo, los cereales no eran una buena forma de obtener energía antes de que el ser humano dominara el fuego y pudiera cocinarlos para obtener desde unas sencillas gachas hasta el pan y demás alimentos de cereales horneados y todas las formas de pasta, ya sea oriental o italiana.

En segundo lugar, el calor desnaturaliza las moléculas de las proteínas. La forma física de las proteínas es esencial para la función que cumplen. Las proteínas están formadas por cadenas de aminoácidos (sus elementos esenciales) que se doblan en ciertas formas utilizando uniones químicas. Al cocinar las proteínas, se rompen esos enlaces químicos y se desdoblan (o desnaturalizan) las cadenas de aminoácidos que los componen, lo cual facilita la acción de las enzimas digestivas, que así pueden descomponer las proteínas en aminoácidos que nuestro cuerpo utiliza para construir sus propias proteínas.

El ejemplo más conocido de este proceso es el que podemos ver al freír un huevo. Las proteínas que conforman la clara del huevo tienen forma globular, como un papel arrugado. Al calentarlas, las proteínas chocan entre sí y con otros elementos (como el aceite) desdoblándose y creando una red de cadenas de proteínas que capturan el agua del huevo, cambiando además drásticamente su aspecto de transparente a blanco. El aparato digestivo humano digiere mucho mejor el huevo cocido que el huevo crudo.

Finalmente, y no por ello menos importante, el calor suaviza físicamente los alimentos. Los granos secos como el trigo, el centeno o la cebada, la carne seca, son bastante más fáciles de consumir, y no sólo por adultos sanos, sino también por niños y ancianos que hayan perdido piezas dentales.

Además de estos cambios que benefician el consumo y aprovechamiento de los alimentos, hay otros que influyen en su sabor, y entre ellos destaca la reacción descrita a principios del siglo XX por el francés Louis-Camille Maillard y que lleva su nombre.

Reacción de Maillard

El color dorado de los alimentos cocinados les aporta un atractivo especial, no sólo por el aspecto que adoptan, sino porque aumenta intensamente su sabor.

Las marcas doradas de la parrilla en la carne, la corteza del pan, la crujiente piel del pollo son apetitosos ejemplos. Este color dorado se debe a la llamada "reacción de Maillard", que es en realidad un complejo conjunto de reacciones químicas simultáneas donde la temperatura elevada provoca que interaccionen las proteínas y las azúcares de los alimentos, un proceso similar a la caramelización.

Las moléculas producto de esta reacción forman azúcares dobles responsables del regusto dulce de las zonas más doradas. También producen proteínas de peso molecular bajo que imparten aroma a los alimentos. El resultado incluye en su conjunto literalmente cientos de posibles compuestos que nos resultan simplemente sabrosos.

Cada alimento experimenta su propia reacción de Maillard y el resultado depende también de la presencia de otros alimentos o condimentos, el método de cocción, el tiempo y las temperaturas. Cada alimento tiene su particular reacción de Maillard con resultados que varían según los diferentes métodos de cocción, temperaturas o interacción con otros alimentos. Esto explica además la poco apetitosa palidez y blandura de los alimentos cocinados al vapor o hervidos, y que nunca llegan a experimentar esta transformación sorprendente.

Otra forma de dorado pariente de la reacción de Maillard es la caramelización, que ocurre cuando se oxidan las azúcares de un alimento, dando como resultado un sabor característico. Al calentarse un azúcar, se elimina el agua que contiene y el azúcar en sí se descompone mediante un proceso aún no bien detallado que da como resultado las sustancias que le dan su sabor y aroma a los alimentos.

Quedan por averiguar, sin embargo, muchas dudas gastronómico-científicas, desde el momento preciso en que los ancestros de los humanos modernos empezaron a cocinar hasta algún procedimiento contrastado y fiable para conseguir que los niños se coman las verduras… probablemente una forma de darles sabor a pizza. Finalmente, hay toda una especialidad de la ciencia de los alimentos dedicada a los misterios de la pizza.

La gastronomía molecular

Junto al estudio de la nutrición, la seguridad alimenticia, la microbiología, la conservación y demás disciplinas relacionadas con nuestra comida, desde 1988 existe el concepto de “gastronomía molecular”, creado por el físico Nicholas Kurti y el químico Hervé This con objeto de estudiar científicamente las transformaciones y procesos culinarios desde el punto de vista de la física y la química, por ejemplo en la cocción, el batido, los cambios de temperatura, etc.. Aunque algunos chefs lo utilizan para distinguir productos de su cocina que utilizan procesos físicoquímicos complejos, como el uso de nitrógeno líquido o gelificaciones.

Un pionero incómodo

Wernher von Braun llevó a los Estados Unidos a triunfar en la carrera espacial hacia la Luna, pero su pasado en la Alemania nazi nunca dejó de arrojar una sombra sobre el hombre y sus proyectos.

Wernher Von Braun en su despacho de director de la NASA en 1964.
(foto D.P. de la NASA, vía Wikimedia Commons)
El 20 de julio de 1969, el modulo lunar “Eagle”, comandado por Neil Armstrong y copilotado por Edwin Aldrin se posaba en la superficie de la Luna.

Ese histórico momento marcó también un hito político. Terminaba la carrera espacial, iniciada en 1957 con el satélite Sputnik I de la Unión Soviética. Las dos superpotencias que habían emergido como hegemónicas después de la Segunda Guerra Mundial habían vivido una competencia vertiginosa en pos de distintas hazañas espaciales para evitar que su adversario los superara tecnológicamente. Cada logro se presentaba además como prueba de la superioridad del comunismo o del capitalismo, según el caso.

Desde el despacho de director de la NASA, Werhner von Braun veía coronado un sueño acariciado desde su adolescencia: llevar al ser humano más allá de nuestro planeta, primero a la Luna como preludio del soñado viaje a Marte. Y lo había hecho no sólo como administrador de la agencia espacial estadounidense, sino como ingeniero y visionario responsable del desarrollo del los cohetes de la NASA, llegando al Saturno V, el más potente fabricado incluso hasta la actualidad, para llevar al hombre hasta la Luna.

Pero en el proceso de conseguir esta verdadera hazaña tecnológica y humana, Wernher von Braun había pagado un alto precio humano. Un precio que hasta hoy no conocemos con precisión.

La ilusión del vuelo espacial

Werhner Magnus Maximilian von Braun nació el 23 de marzo de 1912 como heredero de un barón prusiano en Wirsitz, Alemania. Su pasión por el espacio se inició en su niñez y adolescencia, con el telescopio que le dio su madre y mediante la la lectura de los libros de ciencia ficción de Jules Verne y H.G. Wells y por las sólidas especulaciones científicas del físico Hermann Oberth en su libro “Por cohete hacia el espacio interplanetario”. Muy pronto se hizo parte de la sociedad alemana para los viajes interplanetarios fundada por Oberth en 1927, una de varias organizaciones similares en los Estados Unidos, Gran Bretaña o Rusia, que experimentaban con lanzamientos de pequeños cohetes.

Buscando trabajar con cohetes más grandes y presupuestos acordes al sueño, empezó a trabajar en 1932 con el gobierno alemán en el desarrollo de misiles balísticos, dos años antes de obtener su doctorado en física, y siguió trabajando para el ejército después de que Hitler ascendiera al poder en 1933, y en 1934 consiguió lanzar dos cohetes que ascendieron verticalmente más de 2 y 3 kilómetros.

En 1937, trabajando ya en el centro militar de cohetes de Peenemünde, solicitó su ingreso en el Partido Nazi, aunque afirmó que se le invitó a incorporarse en 1939 y que se vio obligado a hacerlo para continuar con su trabajo, aunque no hay evidencia de que haya realizado ninguna actividad política. Ciertamente, no habría podido continuar trabajando en cohetes pues el régimen nazi prohibió toda experimentación civil. Von Braun continuó trabajando los primeros años de la Segunda Guerra Mundial en el desarrollo de combustibles líquidos para misiles capaces de llevar cargas explosivas.

En 1942, Hitler no sólo había perdido estrepitosamente la Batalla de Inglaterra de 1940, sino que la aviación británica había comenzado a bombardear ciudades alemanas, de modo que ordenó la creación de un arma de venganza dirigida principalmente contra Gran Bretaña. Esta arma, el cohete V2, diseñado por Von Braun, estuvo lista en septiembre de 1944. El ejército alemán lanzó más de 3.000 de estos cohetes, producidos en fábricas con trabajo esclavo de los campos de concentración, contra blancos en Bélgica, Francia, Gran Bretaña y Holanda, dejando un saldo de al menos 5.000 muertos y muchos más heridos. Siempre quedaron dudas sobre cuánto sabía Von Braun de la mano de obra que producía sus cohetes o cuánto podría haber hecho por ellos.

Entretanto, Von Braun había estado brevemente preso en marzo de 1944 acusado de tener simpatías comunistas y una actitud “derrotista” ante el esfuerzo bélico alemán, pero fue liberado por su importancia para el programa de las V2.

Vencida Alemania, Von Braun orquestó un plan para rendirse con su equipo al ejército estadounidense antes de ser capturados por los soviéticos, y pronto se vio trabajando con el ejército antes enemigo, lanzando en el desierto de Nuevo México cohetes V2 capturados por el ejército y desarrollando nuevas armas como el misil Júpiter.

El lanzamiento del Sputnik I en 1957 por parte de los soviéticos (con el apoyo de otros científicos alemanes como Helmut Gröttrup) hizo que el gobierno de Estados Unidos acelerara su esfuerzo hacia los viajes espaciales, lanzando en 1958 el Explorer I, satélite científico que preparaba Von Braun desde 1954 y creando la NASA, de la que el científico alemán se convirtió en director en 1960.

Desde ese momento, Von Braun sería no sólo una pieza clave en la ciencia y tecnología del esfuerzo espacial estadounidense, sino uno de sus grandes defensores públicos. Durante los siguientes diez años se convertiría en la imagen misma de la carrera espacial del lado estadounidense y conseguiría estar siempre sólo un paso atrás de la Unión Soviética, que acumuló una serie impresionante de primeros logros (primer ser vivo en órbita, primer humano en órbita, primeras naves en la Luna y en Venus) pero fue superada en el objetivo final, la Luna, en 1969.

Ese objetivo, sin embargo, enfrió el entusiasmo público por los viajes espaciales, y Von Braun vio cómo el programa Apolo sufría recortes presupuestales que hacían imposible su siguiente sueño: llevar a un hombre a Marte. En 1972 decidió dejar la NASA para pasar al sector privado en la empresa aeronáutica Fairchild Industries, y murió de cáncer de páncreas en 1977, con apenas 65 años de edad.

La búsqueda por el “verdadero” Von Braun sigue. Sin embargo, los matices de su relación con los nazis y la medida en que su sueño de viajes espaciales pudo o no cegarlo a una realidad atroz tendrán siempre que ser parte de la historia del hombre que llevó a la humanidad a la Luna.

La operación Paperclip

Paperclip, literalmente "sujetapapeles", fue el programa de la Oficina de Servicios Estratégicos de las fuerzas armadas estadounidenses para reclutar científicos de la Alemania nazi para Estados Unidos, evitando que fueran reclutados por la Unión Soviética. El presidente Harry S. Truman ordenó excluir a miembros del Partido Nazi, o gente que hubiera participado activamente en él o apoyara activamente el militarismo nazi. Para eludir esta orden, las propias agencias de inteligencia crearon papeles y antecedentes falsos para blanquear el pasado de muchos científicos, entre ellos Wernher von Braun.

Antimateria, la realidad invertida

Un profundo desequilibrio en nuestro universo nos muestra el camino para comprender mejor la composición de cuanto conocemos, incluidos nosotros.

El rastro curvo del primer positrón observado
en una cámara de niebla, fotografiado por
su descubridor.
(Foto D.P. de Carl D. Anderson,
vía Wikimedia Commons)
Era 1928 y el físico británico Paul Dirac trabajaba en el vertiginoso mundo de la física que bullía entre la teoría de la relatividad y la teoría cuántica, la primera que describía el comportamiento del universo a nivel cosmológico y la segunda a nivel subatómico, y que parecían contradecirse. ¿Era posible conciliar las dos teorías? Dirac lo logró a través de una ecuación (hoy conocida como “Ecuación de Dirac”) que describía el comportamiento del electrón conciliando la relatividad y la cuántica.

Este logro, considerado una de las más importantes aportaciones a la física del siglo XX, tenía varias implicaciones inquietantes. Como otras ecuaciones, tenía dos soluciones posibles (por ejemplo, x2=4 se puede resolver como 2x2 o -2x-2). Una de las soluciones describía a un electrón con carga negativa, como los que forman la materia a nuestro alrededor, y la otra describía una partícula idéntica en todos los aspectos salvo que tendría energía positiva. Un “antielectrón”.

Esto implicaba que existían, o podían existir, partículas opuestas a todas las que conocemos. Al protón, de carga positiva, correspondía un antiprotón, idéntico en todas sus características pero con carga eléctrica negativa. Y al neutrón, de carga neutra, correspondía un antineutrón también de carga neutra pero con partículas componentes de diferente signo. Las antipartículas se podrían unir para crear antimateria. Un positrón y un antiprotón, por ejemplo, formarían un átomo de antihidrógeno tal como sus correspondientes partículas forman el hidrógeno común.

De hecho, cuando Paul Dirac recibió en 1933 el Premio Nobel de Física por su aportación, dedicó su discurso a plantear cómo se podía concebir todo un antiuniverso, con antiplanetas y antiestrellas y cualquier otra cosa imaginable, incluso antitortugas o antihumanos, formados por átomos de antimateria y que funcionarían exactamente como la materia que conocemos. Una especie de imagen en negativo de la realidad que conocemos.

Porque la ecuación de Dirac tenía implicaciones aún más peculiares. Establecía que las antimateria estaba sujeta exactamente a las mismas leyes físicas que rigen a la materia y demostraba la simetría en la naturaleza. Siempre que se crea materia a partir de la energía lo hace en pares de partícula y antipartícula. Y, de modo correspondiente, que al encontrarse una partícula y su antipartícula, como un electrón y un positrón, se aniquilarían mutuamente convirtiéndose totalmente en energía.

La ecuación parecía matemáticamente sólida y coherente con lo conocido en la física, pero faltaba la demostración experimental que la validara. Comenzó entonces la búsqueda de la antimateria y sorprendentemente tuvo sus primeros frutos muy pronto. En 1932 Carl Anderson, en California, observó, en un dispositivo llamado cámara de niebla que se utiliza para estudiar partículas subatómicas por su rastro, una partícula con la misma masa de un electrón pero de carga positiva, producida al mismo tiempo que un electrón. Era la partícula predicha por Dirac, a la que Anderson bautizó como “positrón”. Pronto se confirmó que, efectivamente, al encontrarse con un electrón, ambas partículas se aniquilaban.

Carl Anderson obtuvo también el Nobel de física en 1936 por su trabajo experimental. Pero después hubo que esperar hasta 1955 para que aceleradores de partículas de gran energía en el CERN (antecesores del LHC) pudieran producir el primer antiprotón y un año más para que nos dieran el antineutrón y, después, algunos átomos de antimateria.

Entretanto, los cosmólogos habían desarrollado y confirmado la teoría del Big Bang como origen del universo, pero se enfrentaban a un problema: la simetría planteada por la ecuación de Dirac indicaba que al momento de aparecer el universo, se había creado necesariamente tanta materia como antimateria, tantos electrones como antielectrones, tantos quarks como antiquarks, pero… ¿dónde estaba esa antimateria que debería ser tan abundante como la materia? El universo que observamos contiene una proporción muy pequeña de antimateria (un antiprotón por cada 1000,000,000,000,000 protones), y todas las búsquedas de antimateria en nuestro universo han sido en vano. Para donde miremos, el universo parece hecho de materia común y ordinaria.

La ausencia de antimateria en nuestro universo podría ser simplemente la incapacidad experimental actual de encontrarla, o bien podría significar que la simetría propuesta a partir de Dirac (simetría CP, siglas de Carga y Paridad) no es perfecta, que hay alguna diferencia sustancial, relevante, entre la materia y la antimateria que haya provocado la prevalencia de la materia.

Actualmente, hay investigaciones avanzando bajo ambos supuestos. En la Estación Espacial Internacional y en distintos satélites y sondas se han colocado aparatos que buscan detectar rayos gamma que pudieran ser producidos por galaxias de antimateria en algún lugar de nuestro universo, y se buscan nuevas formas de encontrar el faltante. Quizá está en los bordes de lo que podemos observar, separado de la materia por algún fenómeno desconocido que abriría nuevos horizontes en la física.

Pero también hay experimentos y estudios destinados a explorar la simetría de la materia y la antimateria en busca de diferencias hasta ahora no apreciadas. Desde la década de 1960, se observó que hay una pequeña diferencia en la forma en que se degradan unas partículas llamadas mesones K y sus correspondientes antipartículas. Esta discrepancia podría ser el pequeño desequilibrio de la simetría que explicara por qué nuestro universo es como es.

Apenas en 2011, los científicos que trabajan en uno de los detectores del LHC en Ginebra, Suiza, encontraron datos que parecen indicar otra diferencia, en este caso de las partículas llamadas mesones D0, y sus antipartículas también decaen de modo distinto. Esto podría llevar a avances en la física que explicaran otros grandes misterios como la materia y la energía oscura y la forma en que se transmite la fuerza gravitacional.

Usted y los positrones

La antimateria se utiliza los escáneres de tomografía por emisión de positrones (PET, por sus siglas en inglés). En este procedimiento, se obtienen imágenes del cuerpo administrando un marcador radiactivo de vida muy corta (entre unos minutos y un par de horas) que emite positrones. Los positrones viajan alrededor de un milímetro dentro del cuerpo antes de aniquilarse con un electrón. Un escáner registra la energía, que se produce en forma de dos rayos gamma que viajan en direcciones opuestas, y un potente ordenador interpreta los resultados para crear una imagen tridimensional de gran fidelidad y utilidad en el diagnóstico médico.

Mensajes subliminales: la leyenda continúa

Es una de esas cosas que “todo mundo sabe”, pero sin saber que fue uno de los grandes bulos que han afectado a la psicología.

La creencia en la persuasión subliminal afirma que
podemos ser manipulados como títeres.
(foto de Giulia (master of puppets) CC-BY-2.0,
vía Wikimedia Commons)
Cualquiera puede decirle a usted que hay “mensajes subliminales” que pueden influir en nosotros de manera estremecedoramente efectiva y profunda. “Subliminal” quiere decir “por debajo del umbral” de la percepción, es decir, son estímulos que nos pueden afectar sin que seamos conscientes siquiera de su existencia. Esta sola definición evoca niveles de control mental propios de “Un mundo feliz” de Aldous Huxley o “Mil novecientos ochenta y cuatro” de George Orwell.

Y sin embargo, nadie lo ha podido demostrar.

La idea de los mensajes subliminales nació en 1957 cuando un investigador de mercados llamado James Vicary afirmó haber realizado un experimento con resultados asombrosos e incluso preocupantes. Según su descripción, instaló durante seis semanas, en un cine de Ft. Lee, Nueva Jersey una máquina llamada “taquitoscopio” capaz de disparar mensajes que sólo estaban en pantalla 1/3000 de segundo. Durante la proyección de la película “Picnic” (de la que nadie se acuerda), la máquina disparaba cada cinco segundos dos frases sencillas: "Tome Coca-Cola" y "¿Tiene hambre? Coma palomitas de maíz".

Vicary afirmó consiguió un aumento de 18.1% en las ventas de Coca-Cola y de un asombroso 57.8% en las de palomitas de maíz.

Para los publicistas y mercadólogos, las implicaciones eran maravillosas: podían hacer que la gente comprara sin convencerlos, mostrarles imágenes agradables, mensajes persuasivos, testimoniales de personalidades famosas o situaciones sexuales. Con sólo disparar una frase y sin que el público se diera cuenta, alguna parte de su cerebro percibiría la frase, la entendería y luego obligaría al resto del cerebro a obedecer la orden como un zombie vudú de pelicula serie B.

James Vicary inventó la frase “publicidad subliminal”, de la que se declaró inventor y dominador, y procedió a ofrecer sus servicios a sus clientes.

Ese mismo año apareció el libro “The hidden persuaders” (Los persuasores ocultos) del periodista Vance Packard, que emprendía una profunda crítica de los estudios motivacionales que empezaban a utilizarse en publicidad y diseño de productos, pero con una visión siniestra y paranoica, advirtiendo de los riesgos que implicaba que estas técnicas (hoy bien conocidas) se usaran también en política y suponiéndoles demasiada efectividad.

Para el público, las implicaciones de las historias de Vicary y el libro de Packard indicaban una manipulación atroz que podía dejar a la humanidad sin libertad alguna. El periodista Norman Cousins, se apresuró a pedir la prohibición de la publicidad subliminal por violentar los espacios “más profundos y privados de la mente humana”.

La Comisión Federal de Comunicaciones de los Estados Unidos se apresuró a prohibir la “publicidad subliminal” so pena de retirar la licencia a cualquier televisora que la usara. Sobrevinieron también prohibiciones den Gran Bretaña y Australia.

El experimento de Vicary, sin embargo, no apareció en ninguna revista científica con las características que se le exigen a todos los estudios: metodología, detalles del desarrollo, tratamiento estadístico válido de los resultados y toda la cocina con su proceso de obtención de resultados que es la esencia de un artículo científico. Psicólogos y organismos como la Comisión Federal de Comunicaciones dudaron desde el principio y pidieron algo básico: la replicación del estudio. Vicary emprendió demostraciones informales de su máquina, pero o tenía problemas técnicos o simplemente no lograba resultados como los originalmente reportados.

Pasado más de un año desde que el mundo se enteró del experimento de la Coca-Cola y las palomitas como invasión de nuestras más profundas motivaciones, el doctor Henry Link, psicólogo experimental, desafió a James Vicary a hacer una réplica del experimento bajo condiciones controladas y supervisado por investigadores independientes. Vicary no pudo negarse. ¿El resultado? Ninguno. Los estímulos subliminales no afectaban la conducta de la gente.

Llegó 1962 y James Vicary confesó al fin, en una entrevista con la revista Advertising Age que el estudio había sido inventado para aumentar la clientela de su rengueante negocio. Vamos, que había mentido como un publicista.

Desde entonces, diversos experimentos diseñados con rigor científico han podido demostrar que, si bien puede existir cierta “percepción subliminal” (es decir, parte de nuestro cerebro puede registrar estímulos que no percibimos conscientemente), no hay indicios de que exista la “persuasión subliminal”, la capacidad de los estímulos subliminales de movernos a la acción, y menos aún derrotando nuestra voluntad y volviéndonos autómatas como temían Packard y Cousins.

Lo que resulta verdaderamente asombroso es que, pese a todos estos hechos y datos, los medios de comunicación, la percepción popular e incluso algunas instituciones de enseñanza mantengan viva la leyenda urbana de la “publicidad subliminal” como una vía rápida a nuestras emociones y convicciones. Parecería que la historia es demasiado buena para no ser cierta.

El profesor de psicología de la Universidad de California Anthony R. Pratkanis, experto la influencia de la sociedad sobre en nuestras actitudes, creencias y comportamiento, considera que la creencia en lo “subliminal” como una fuerza poderosa se remonta a la creencia en el “magnetismo animal” de Mesmer y las experiencias de la hipnosis que le siguieron.

Pratkanis observa cómo se ha desarrollado la creencia en la persuasión subliminal para adoptar aspectos cada vez más místicos, como la creencia en que podemos aprender mientras dormimos o escuchando cintas con “mensajes subliminales”, la creencia (común en la subcultura de la conspiranoia) de que la publicidad está llena de tales mensajes e incluso la idea de que se pueden insertar mensajes malévolos grabados al revés en la música, y nuestros cerebros pueden percibirlos, invertirlos, entenderlos y actuar de acuerdo a ellos aunque no queramos.

En distintos experimentos realizados por Patkanis, ninguna de las cintas de “motivación subliminal” que son una floreciente industria tuvo ningún efecto en los sujetos experimentales. Lo cual sigue sin bastar para que nos deshagamos de esta atractiva, atemorizante y curiosa leyenda urbana.


(Foto de Zach Petersen, CC via Wikimedia Commons)

Judas Priest

En 1990, el grupo de rock Judas Priest fue acusado de haber grabado el mensaje subliminal “Hazlo” en una de sus canciones, afirmando que este mensaje había convencido a dos adolescentes problemáticos para que se suicidaran. El juez, sin embargo, los declaró inocentes con la obvia explicación de que había “otros factores que explicaban la conducta de los fallecidos”. Pero el mito de los mensajes ocultos en el rock permanece.

El mapa de los pozos mortales

El origen de la epidemiología se encuentra en la historia de una bomba de agua londinense y la inteligente observación de un joven médico.

El Dr. John Snow
(Rsabbatini, D.P. vía Wikimedia Commons)
Era 1854 y Londres sufría un brote de cólera, el cuarto en muy pocos años, sembrando el temor entres la población. Se trataba de una enfermedad desconocida a principios del siglo XIX que se había empezado a extender por el mundo desde las aguas sucias de Calcuta, en la India colonizada por Gran Bretaña. La primera pandemia de 1817-1823 había afectado a gran parte de Asia y Oriente Medio, así como la costa oriental africana. La segunda, que se inició en Rusia, afectó a toda Europa, África del Norte y la costa oriental de América del Norte.

La forma en que se diseminaba la enfermedad parecía evidenciar claramente una ruta de contagio y algún agente responsable del contagio. Pero cuando el cólera llegó a Inglaterra en 1832, la teoría microbiana de la enfermedad ni siquiera había sido postulada por el italiano Agostino Bassi. Y no sería demostrada sino mucho después por Louis Pasteur y Robert Koch, hasta que hacia 1880 se abandonó finalmente la creencia en los miasmas.

La idea prevaleciente era que las enfermedades se transmitían mediante “miasmas” o “malos aires”, vapores que tenían partículas de materia descompuesta y malévola, la “miasmata”. Así, no se creía que las enfermedades se transmitieran de una persona a otra, sino que ambas eran víctimas del aire contaminado. Esta creencia no era sólo occidental, sino que la compartían otras culturas como las de la India y China.

Durante el segundo brote de cólera en Londres de 1848-1849, que mató a más de 14.000 personas, apareció en escena el doctor John Snow, como uno de los fundadores de la Sociedad Epidemiológica de Londres y desafiando las creencias de la época que, más que ciencia o medicina, eran ideas supervivientes de tiempos anteriores a la revolución científica.

John Snow había nacido en 1813, en una familia obrera, una limitación que consiguió superar abandonando el hogar a los 14 años para hacerse aprendiz de médico en la vertiente de cirujano barbero. Así, cuando apenas tenía 18 años, en 1831, en una visita a mineros del carbón tuvo su primer encuentro con el cólera, recién llegado de Asia, sin imaginar que sería el centro de su vida profesional. A los 23 años comenzó finalmente a estudiar medicina de modo formal, doctorándose en 1844 y obteniendo su licencia como especialista en 1849.

Snow hizo sus primeros trabajos con las formas primitivas de la anestesia, desarrollando un dispositivo para administrar cloroformo de manera eficaz y segura, tanto que fue él quien se lo administró por primera vez a la Reina Victoria en el parto del Príncipe Leopoldo en 1853.

Curiosamente, este acontecimiento significó el inicio de la aceptación popular a la anestesia, rechazada sobre todo por motivos religiosos aduciendo la maldición bíblica contra la mujer de parir a sus hijos con dolor. Pero, razonó la opinión pública, si la reina podía evadir la maldición, podía hacerlo también cualquier ciudadana común y corriente. Y lo empezaron a hacer, en lo que fue un logro peculiar para un hombre devotamente cristiano, célibe, abstemio y metódico hasta el extremo como era el doctor Snow.

En el segundo brote de cólera en Londres, Snow realizó lo que sería el primer estudio epidemiológiclo de la historia, determinando los niveles distintos de mortalidad causada por la epidemia en 32 subdistritos de Londres. Con sus resultados, teorizó que la enfermedad se diseminaba por algún agente por medio del contacto directo con la materia fecal, el agua contaminada y la ropa sucia. Publicó sus resultados en 1849, en el ensayo “Sobre el modo de contagio del cólera”, donde presentaba las observaciones estadísticas que sustentaban su propuesta.

Sin embargo, esto no impidió que 1854 el tercer brote de cólera en Londres se atribuyera a una concentración de miasmata en las cercanías del Río Támesis. Los acontecimientos en la zona del Soho fueron especialmente violentos porque literalmente de un día para otro enfermaron más de 100 personas y rápidamente se acumuló la aterradora cifra de 600 víctimas mortales.

Una variante del mapa del cólera del Dr. Snow
La aproximación de Snow fue estudiar en dónde estaban físicamente situadas las víctimas del cólera en el Soho, y crear un mapa donde pudo ver claramente que las muertes por la enfermedad parecían irradiar de un punto muy concreto: una bomba de agua situada en Broad Street; una de las 13 bombas que abastecían al barrio en una época en que no existía el concepto de agua corriente en las casas. Para Snow resultaba absolutamente evidente que era el agua, y el agua de esa bomba, la responsable de una serie de muertes que se desató violentamente a partir de un día concreto, el 31 de agosto.

Armado con sus datos y su prestigio como médico, Snow acudió a las autoridades con una solicitud: que se quitara el mango de la bomba de agua de Broad Street, haciendo que los residentes se abastecieran en alguna de las otras bombas de la zona. Esto se hizo finalmente el 7 de septiembre, y el número de enfermos y muertos disminuyó rápidamente.

Otro estudio que realizó el mismo año comparó los barrios de Londres que recibían agua de dos empresas distintas, una que tomaba el agua río arriba en el Támesis, donde no había contaminación, y otra que lo hacía en el centro de Londres. Los resultados de Snow demostraban el efecto dañino del agua contaminada y le permitieron sugerir formas de controlar la epidemia e ideas para evitarlas en el futuro.

Aunque la teoría de los miasmas siguió prevaleciendo durante algunas décadas, la realidad se impuso y marcó una serie de cambios en la política londinense, incluida la creación de una nueva red de drenaje en 1880. John Snow, sin embargo, no vivió para ver el triunfo de su esfuerzo sobre las antiguas supersticiones. Murió en 1858 de un accidente cerebrovascular mientras seguía estudiando sus dos pasiones: la anestesia y la epidemiología, disciplina de la que es considerado el gran pionero.

Hoy en día, los visitantes de Londres pueden ir a la calle Broadwick, que es como se rebautizó Broad Street y ver una réplica de la famos bomba de agua del Dr. Snow sin el mango, como testigo de cómo la aproximación sistemática y científica a un problema puede cambiar la forma en que vemos el mundo.

El cólera en España

Los brotes de cólera en España coinciden con las grandes pandemias europeas. El primero comenzó en Vigo y en Barcelona en 1833, y se prolongó al menos hasta 1834 recorriendo el país. Seguiría otro en 1855, parte de la pandemia que abordó John Snow, y un tercero en 1865. Las vacunas y los avances de la medicina contuvieron la enfermedad salvo por dos brotes en el siglo XX atribuibles a la mala gestión de las aguas residuales, uno en 1971 en la ribera del Jalón y otro en 1979 en Málaga y Barcelona.

Fotografía: el momento irrepetible

Herramienta para la comunicación, las ciencias, la tecnología y el arte, la fotografía es una sucesión de encuentros entre distintas tecnologías e inventos.

"Vista desde la ventana en Le Gras", la primera
fotografía de la historia, obtenida por
Joseph Nicéphore Niépce en 1826.
(Imagen de D.P. vía Wikimedia Commons)
Supongamos una caja cerrada, ya sea pequeña o del tamaño de una habitación. En el centro de una de sus caras, abrimos un orificio diminuto. Sorprendentemente, las imágenes que estén frente al orificio en el exterior de la cámara se proyectarán en la cara opuesta dentro de la caja, pero invertidas.

Este fenómeno se explica porque, cuando los rayos de luz que viajan en línea recta pasan por un orificio pequeño en un material no demasiado espeso, no se dispersan, sino que se cruzan entre sí y vuelven a formar la imagen de cabeza. El orificio funciona como una lente y, de hecho, si utilizamos una lente en su lugar, se puede obtener tanto mayor nitidez como mayor luminosidad en la imagen reconstruida.

Este fenómeno fue descrito al menos desde el siglo V antes de la Era Común, por el filósofo chino Mo-Hi, quien llamó al lugar donde se veían las imágenes “habitación cerrada del tesoro”. En occidente, el principio también era entendido al menos desde Aristóteles, quien lo utilizó para observar eclipses de sol, práctica aún común para evitar ver el sol directamente.

En el siglo XVI se empezaron a utilizar lentes convexas en lugar del orificio y un espejo para invertir nuevamente la imagen y proyectarla en una superficie, creando un dispositivo portátil que durante siglos fue utilizado como auxiliar para el dibujo. Las habitaciones en las que se utilizaba el fenómeno para ver imágenes de gran tamaño fueron llamadas por el astrónomo Johannes Kepler “cámaras oscuras” , motivo por el cual llamamos “cámara” a cualquier dispositivo fotográfico o cinematográfico.

El siguiente paso era capturar las imágenes. Pero no pensaba en ello el alemán Johann Heinrich Schulze, que 1727, en uno de sus experimentos, mezcló tiza, ácido nítrico y plata observando que se oscurecía en el lado que estaba hacia la luz. Había creado la primera sustancia fotosensible conocida. Las experiencias ulteriores con sustancias sensibles a la luz tenían el problema de que las imágenes no se fijaban: la sustancia seguía reaccionando ante la luz y eventualmente era totalmente negra

Fue un francés, Joseph Nicéphore Niépce, quien experimentó durante años uniendo la cámara oscura y el trabajo de los químicos para hacer, en 1826, la primera cámara y la primera fotografía (misma que aún existe). Aplicó una mezcla de betún de Judea sobre una placa de peltre y la expuso desde su ventana durante ocho horas.

El siglo XIX fue escenario de experiencias con diversos materiales buscando obtener más nitidez, conseguir imágenes en menos tiempo y con menos luz, y poderlas conservar eficazmente, ya fuera en positivo, como en los daguerrotipos, o en negativo, proceso inventado por John Talbot y que permitía hacer las copias que se quisiera del original.

Las placas debían ser preparadas por el fotógrafo en el sitio, con una feria de aparatos y sustancias peligrosas, por lo que fue bienvenida la aparición de las “placas secas” de vidrio que tenían ya una sustancia fotosensible que se mantenían en la oscuridad antes y después de hacer la foto, para posteriormente revelarse. Su tiempo de exposición era tan pequeño que las cámaras fotográficas pudieron hacerse pequeñas y manuables.

El gran salto para la popularización de la fotografía lo dio el estadounidense George Eastman en 1889 con una película flexible, irrompible y que podía enrollarse, recubierta de una sustancia fotosensible que producía imágenes en negativo. Esto permitió hacer cámaras mucho más pequeñas y poner la tecnología fotográfica al alcance de todo el mundo. Ya no se necesitaba tener un laboratorio y saber manejarlo, bastaba “hacer la foto” y llevar el rollo a un técnico que se encargaría de revelarlo y hacer cuantas copias se quisiera.

El siglo XX se dedicó a perfeccionar la tecnología haciéndola más rápida, más eficaz, más precisa y trayendo al público, en 1940, la fotografía en color. Era una nueva forma de arte, pero también una herramienta documental y científica que permitió ver lo que nunca se había podido ver, como el momento en que una bala traspasa una manzana, imágenes infrarrojas y ultravioleta, y una enorme cantidad de accesorios alrededor del humilde principio de la cámara oscura.

En 1975, el ingeniero Steven Sasson, de la empresa de George Eastman, Kodak, creó la primera cámara fotográfica digital, a partir de tecnología de vídeo ya existente. En vez de utilizar una sustancia química fotosensible de un solo uso, estas cámaras emplean sensores electrónicos que detectan la luz y la convierten en una carga eléctrica. La cámara de Sasson tenía una resolución de sólo 100x100 píxeles (10.000 píxeles, comparados con los varios millones de píxeles que tiene cualquier cámara barata hoy en día), tardaba 23 segundos en registrar una imagen y pesaba más de 4 kilos.

El desarrollo de la fotografía digital fue muy rápido. La primera cámara para el consumidor fue lanzada en 1988-1989 y para 1991 había cámaras profesionales comerciales con más de un megapíxel (un millón de píxeles) de resolución, todas en blanco y negro. El color digital llegó en 1994 y de modo acelerado se ofreció comercialmente una sucesión de cámaras con más píxeles, más nitidez, mejor óptica, mejor almacenamiento (con la aparición de las tarjetas flash) y, sobre todo, precios cada vez más bajos.

La última gran revolución de la fotografía digital fue su integración en 2002 a los teléfonos móviles, que habían aparecido en 1983 (aunque no fueron realmente portátiles sino hasta 1989). A futuro se habla por igual de fotografía en 3 dimensiones (viejo sueño) como de perspectivas totalmente nuevas.

En 2011 se presentó una nueva cámara, Lytro, que en lugar de capturar la luz según el principio de la cámara oscura, lo hace interpretando campos de luz. El resultado son imágenes que no es necesario enfocar al momento de hacerlas, sino que el foco se decide en el ordenador posteriormente, algo que además de tener grandes posibilidades profesionales puede ser una ayuda enorme para el aficionado.

Las tragedias de Kodak

El popularizador de la fotografía, George Eastman, se suicidó en 1932 víctima de terribles dolores por una afección en la columna vertebral. Su empresa, Eastman Kodak, que fue la vanguardia de la fotografía durante más de 100 años, solicitó protección contra la quiebra en 2012, herida por la muerte de la película fotográfica y embarcada en una serie de litigios para conseguir el pago de sus patentes de fotografía digital por parte de otros fabricantes. La empresa se dedicará, si sobrevive, al papel fotográfico y la impresión por chorro de tinta, y licenciando su bien conocida marca a otras firmas.

Galvani, Frankenstein y el desfibrilador

El funcionamiento de nuestro cuerpo depende de impulsos eléctricos generados químicamente, algo que empezamos a descubrir hace 220 años.

Mary Wollstonecraft Shelley
(Retrato D.P. de Reginald Easton,
via Wikimedia Commons)
Era 1790 y la señora Galvani, afectada por una fiebre, pidió una curativa sopa de rana. Su marido, el fisiólogo Luigi Galvani, profesor de la universidad de Bolonia, se puso a preparar el brebaje y depositó la bandeja de ranas sobre su mesa de trabajo, donde jugueteaba con la electricidad. Una chispa saltó de un instrumento a la pata de una rana, ésta se contrajo violentamente y Luigi Galvani descubrió la relación entre los impulsos nerviosos y la electricidad.

Este relato tiene un gran atractivo literario, incluido el científico distraído que por error realiza un descubrimiento relevante, pero por desgracia es un simple mito. En realidad, el trabajo de Galvani había comenzado mucho antes, observando cómo la electricidad afectaba a los músculos de las ranas antes de publicar sus conclusiones en las actas del Instituto de Ciencias de Bolonia en 1791 con el título Comentario sobre la fuerza de la electricidad en el movimiento muscular.

La misteriosa electricidad había sido estudiada por primera vez con detenimiento en 1600, por el inglés William Gilbert, entre otras cosas médico de Isabel I, quien descubrió que nuestro planeta es magnético y acuñó el término “electricus” denotar lo que hoy llamamos “electricidad estática”, la capacidad del ámbar de atraer objetos ligeros después de frotarlo.

Pero fueron estudiosos como Benjamín Franklin (quien demostró que los relámpagos son electricidad) o Alessandro Volta los que dispararon el interés por la electricidad. Volta, colega, amigo y vecino de Galvani, consideraba que las convulsiones de las ranas se debían sólo a que el tejido servía como conductor, mientras que Galvani consideraba que los seres vivos tenían y generaban electricidad.

Para demostrar que su amigo se equivocaba, por cierto, Volta creó su primera pila, la madre de todas las baterías, con objeto de tener una corriente eléctrica continua para sus experimentos

Y entonces apareció Mary Shelley, que tenía todavía de apellido Wollstonecraft en 1816, cuando el poeta Percy Bysse Shelley con el que había huido a Ginebra (el escritor estaba casado con otra) les propuso a ella, al también poeta Lord Byron y al médico John Polidori escribir un cuento de terror.

Los miembros del grupo ya habían comentado los descubrimientos sobre electricidad y Mary, de sólo 18 años, leía sobre los descubrimientos del italiano. Tuvo entonces una pesadilla donde vio a un estudiante de “artes impías” dando vida a un ser utilizando una máquina. El resultado fue la novela Frankenstein o el moderno Prometeo, que publicaría finalmente en 1819, ya en Inglaterra y casada con el poeta. Por ese libro, para la mayoría de la gente el apellido “Shelley” evoca al monstruo y a su atormentado creador, antes que a los versos de Ozymandias o la Oda al viento del este.

El debate entre Galvani y Volta se habría resuelto en 1794 con la publicación de un libro de Galvani que incluía un experimento en el cual los músculos de una rana se contraían al ser tocados no por una placa metálica con una diferencia de potencial, sino con una fibra nerviosa de otra rana. Pero por alguna causa, la publicación se hizo de manera anónima.

Hubo de llegar el naturalista alemán Alexander von Humboldt a realizar una serie de experimentos que demostraron que el tejido animal era capaz por sí mismo de generar un potencial eléctrico, lo cual por cierto quedaba también demostrado con su trabajo sobre anguilas eléctricas, cuya capacidad de causar violentas reacciones en sus víctimas era bien conocida, pero no se había explicado hasta entonces.

Demostrado pues que las fibras nerviosas eran conductoras y generadoras de electricidad, se sucedieron los descubrimientos. Supimos que el sistema nervioso está formado por células cuyas prolongaciones forman las fibras nerviosas o que existe un aislante eléctrico natural en estas fibras, la mielina. Se midió la la velocidad de los impulsos nerviosos y se fue describiendo cómo el sistema nervioso transmite órdenes y recibe información electroquímicamente de célula en célula.

Las derivaciones médicas vinieron pronto. Además de los charlatanes que vendían por igual agua electrizada para curarlo todo o slips eléctricos para la impotencia masculina, la detección de los potenciales eléctricos se convirtió en procedimientos de diagnóstico como la electrocardiografía y la electroencefalografía, entre otros, mientras que las descargas eléctricas de intensidad variable se empezaron a utilizar para la estimulación muscular en rehabilitación, para el manejo del dolor, apoyando la cicatrización pues mejoran la microcirculación y la síntesis de proteínas en zonas lesionadas, y aplicadas directamente en el cerebro mediante electrodos para afecciones tan distintas como la enfermedad de Parkinson y la depresión grave.

Pero el más espectacular uso de la electricidad en medicina sigue siendo evocador de las ranas de Galvani y del momento en que Frankenstein le da vida a su criatura: es el desfibrilador. En 1899, los investigadores Jean-Louis Prévost y Frederic Batelli descubrieron que una descarga eléctrica podía provocar la fibrilación (el latido irregular del corazón, que lleva a un fallo catastrófico) mientras que una descarga aún mayor podía invertir el proceso, regularizando el ritmo cardíaco.

Desde 1947, cuando el médico estadounidense Claude Beck lo usó por primera vez para salvar a un paciente de 14 años, el desfibrilador se ha desarrollado y ha salvado una cantidad incalculable de vidas.

Pero el cine y la televisión suelen mostrar el uso de desfibriladores para “poner en marcha” un corazón que se ha detenido (la temida línea recta del electrocardiógrafo con su siniestro pitido). Pero esto no ocurre así. La descarga eléctrica no puede arrancar un corazón detenido. Al contrario, detiene momentáneamente el corazón, bloqueado por impulsos desordenados, de modo que su marcapasos natural, un grupo de células nerviosas llamado “nodo sinoatrial”, pueda entrar en acción. Es una forma de restaurar el funcionamiento corazón. Pero cuando el corazón se ha detenido y el nodo sinoatrial no está enviando impulsos, lo que se utiliza son distintos compuestos químicos para ponerlo nuevamente en marcha… lo cual es bastante menos cinematográfico por útil que resulte.

El temido electroshock

La terapia electroconvulsiva es materia de muchas historias de terror por la forma en que se utilizó en las décadas de 1940 y 1950. Sin embargo, hoy se aplica sólo con el consentimiento del paciente y bajo anestesia. Si bien no es una panacea, no es tampoco un procedimiento que afecte al paciente y sí es una herramienta útil en casos de depresión grave y otros problemas.

Microondas: de las telecomunicaciones a la cocina

Son simples ondas de radio, de longitud un poco más pequeña, pero cuyas características las han convertido en una de las herramientas clave de nuestra vida actual.

El Piruli close view02
Las antenas de Torrespaña, de RTVE
(Foto CC de Xauxa Håkan Svensson,
vía Wikimedia Commons)
Cuando ponemos las palomitas de maíz en el microondas para una sesión doméstica de cine o un partido de fútbol, estamos reproduciendo sin saberlo un experimento de 1945 que llevó el principio del radar a numerosas cocinas en todo el mundo.

El experimento en cuestión fue inspirado por un peculiar accidente. Percy Spencer, ingeniero autodidacta contratado por la empresa Raytheon, estaba investigando las características y fabricación de los magnetrones usados para producir ondas de radar. Un día, después de estar un tiempo frente a un potente magnetrón en funcionamiento, descubrió que se había derretido una chocolatina que llevaba en el bolsillo.

Al día siguiente, Spencer hizo un experimento informal llevando maíz para palomitas a su laboratorio y colocándolo frente al magnetrón, con los mismos resultados que obtenemos nosotros en nuestras cocinas. Un año después, Raytheon empezaba a vender un horno de microondas primitivo, basado en la patente de Spencer… y el público en general se familiarizaba con la palabra “microondas” aunque probablemente no con su significado.

Las microondas se definen son ondas de radio con longitudes de onda entre un metro y un milímetro o bien de frecuencias entre 1 y 100 GHz o gigaherzios (es decir, que oscilan entre 1.000 y 300.000 millones de veces por segundo). Son más potentes y de mayor frecuencia que las ondas que utilizamos para la transmisión de radio y menos potentes que la radiación infrarroja, la luz visible, los rayos X y los rayos gamma.

Una de las características peculiares de las microondas es que ciertas sustancias como las grasas o el agua absorben su energía y entran en movimiento, chocando entre sí y produciendo calor. Es un fenómeno que los físicos llaman “calentamiento dieléctrico” y que es el responsable de que nuestros pequeños hornos puedan calentar la comida “agitando” sus líquidos y grasas sin calentar ni el aire ni los recipientes. Las microondas que utilizan nuestros hornos tienen una longitud de onda de 122 milímetros.

Las microondas habían sido previstas por las ecuaciones publicadas en 1873 por el físico escocés James Clerk Maxwell. Al entender que el magnetismo y la electricidad eran una misma fuerza, la electromagnética, y describir su funcionamiento, preveía la posibilidad de que existieran ondas electromagnéticas invisibles con longitudes de onda mucho mayores que las de la luz visible (que tiene longitudes entre unos 400 y 700 nanómetros, o millonésimas de metro).

Fue Heinrich Hertz quien a partir de 1886 hizo los experimentos que demostraron que estas ondas existían y que se podían transmitir, convirtiéndose en el primer hombre que generó ondas de radio.

El siglo XX comenzó de lleno con el esfuerzo por generar, controlar y utilizar efectivamente esas ondas, con las experiencias y desarrollo de la radio por parte del italiano Guillermo Marconi. Con base en ellas, Nikola Tesla propuso que se podían utilizar ondas electromagnéticas para localizar objetos que las reflejaran, principio que fue utilizado por el francés Émile Girardeau en 1934 para crear el primer radar experimental utilizando el magnetrón, inventado en 1920 por Albert Hull, para emitir microondas, que son reflejadas por los objetos metálicos.

El radar, palabra procedente de las siglas en inglés de “detección y localización por radio”, se desarrolló rápidamente en varios países, pero fueron los británicos los primeros que lo emplearon con éxito para detectar la entrada de aviones enemigos en su espacio aéreo. Continuó siendo un elemento fundamental durante toda la Segunda Guerra Mundial.

Desde el radar y el horno, las microondas han encontrado una variedad asombrosa de usos en nuestra vida.

En el terreno de las comunicaciones, las microondas tienen la ventaja de que se pueden transmitir en haces muy estrechos que pueden ser captados por antenas igualmente pequeñas. Por ello se utilizaron, antes de que existiera la fibra óptica, para crear enlaces terrestres como los de telefonía y televisión. La comunicación por microondas se realiza en lo que se llama “línea de visión”, es decir, no debe haber obstrucciones (incluida la curvatura de la Tierra) entre antenas. Así, la señal se iba relevando de una a otra antena de microondas situadas generalmente en puntos geográficos elevados.

Los satélites se enlazan mediante microondas entre sí y a las estaciones terrestres que los controlan y dirigen, y a todos los puntos a los que envían su información. Todo lo que obtenemos de los satélites nos llega por microondas, sean datos meteorológicos, las fotografías del telescopio Hubble, mediciones del magnetismo terrestre o los datos para la navegación por satélite, como los del sistema GPS estadounidense que hoy está presente en la mayoría de los automóviles y el futuro Galileo de la Unión Europea.

Las microondas, además, permiten la existencia de la telefonía móvil y otros sistemas de comunicación inalámbrica como el bluetooth y el wifi. Su eficiencia a baja potencia permite tener transmisores y receptores pequeños y de bajo consumo. Y pese a todas las afirmaciones poco informadas en contrario, son, hasta donde sabemos, inocuas para la salud humana, lo cual se explica fácilmente al tener en cuenta que tienen mucho menos energía que la luz visible.

La radioastronomía, por su parte, observa la radiación de microondas del universo e incluso las utiliza para realizar tareas tan diversas como calcular la distancia de la Tierra a la Luna o para poder cartografiar la superficie de Venus a través de su eterna capa de nubes.

Estas peculiares ondas de radio podrían ser, además, protagonistas de uno de los avances más anhelados de nuestro tiempo: la fusión nuclear controlada, que podría darnos cantidades enormes de energía con mínima contaminación y a bajo coste. En los reactores, las microondas se emplean para ayudar a calentar el hidrógeno y disparar la reacción en la que las moléculas de este elemento se unen formando helio y generando energía tal como lo hace nuestro sol.

La huella del big bang

En 1948 un estudio predijo que el universo entero tenía una radiación de microondas cósmica de fondo, misma que fue descubierta en 1965 por Arno Penzias y Robert Woodrow Wilson, quienes acabarían recibiendo el Premio Nobel de Física por su descubrimiento. Estas microondas presentes de modo uniforme en todo el universo son ni más ni menos que el “eco” o el calor restante producto de la colosal explosión llamada “Big Bang” en la que se originó nuestro universo, el tiempo y el espacio. No sólo demuestran que ocurrió, sino que pueden decirnos mucho sobre cómo ocurrió.

Alfred Russell Wallace, el pionero oscuro

En la era de los grandes naturalistas ingleses del siglo XX, uno de los más brillantes es hoy uno de los más injustamente olvidados.

Alfred Russell Wallace en su libro sobre
sus viajes por el Río Negro.
(D.P., vía Wikimedia Commons)
La historia nos puede sonar conocida: joven británico emprende un viaje como naturalista de a bordo en una expedición hacia América. Analizando las especies que va encontrando empieza a germinar en su mente la idea de que cuanto ve es una prueba de que las especies se van formando, evolucionando por medio de un mecanismo llamado “selección natural”, mediante el cual los individuos mejor adaptados para la supervivencia tienen una probabilidad mayor de reproducirse, creándose una criba lenta que al paso de larguísimos períodos va llevando a una especie como tal a diferenciarse de otra, a cambiar, a mejorar su adaptación, a sobrevivir mejor.

Sin embargo, ésta no es la historia de Charles Darwin. Es la historia, paralela a la de éste,del segundo genio de la selección natural de la Inglaterra del siglo XIX, Alfred Russell Wallace.

Alfred Rusell Wallace, presuntamente descendiente del independentista escocés William Wallace, nació en Monmouthshire, Inglaterra (hoy Gales) en 1823, como el octavo de nueve hermanos. Cualquier inquietud intelectual que hubiera tenido en su niñez sufrió un duro golpe cuando, a los doce años de edad, su padre, arruinado a manos de unos estafadores, lo tuvo que sacar de la escuela y enviarlo con sus hermanos mayores, uno de los cuales, William, lo tomó como aprendiz de topógrafo.

En 1843, cuando sólo tenía 20 años, el joven Alfred consiguió un puesto como profesor de dibujo, topografía, inglés y aritmética en el Collegiate School de Leicester, donde además empezó a estudiar historia natural, disciplina que lo fascinó, especialmente en cuanto a los insectos y su clasificación.

En 1845, la lectura de un libro de Robert Chambers lo convenció de que la evolución (llamada por entonces “transmutación”) era un hecho real. Tres años después, en compañía de un amigo y colega entomólogo, emprendió el viaje a Brasil, inspirado por otros naturalistas como el propio Darwin, que había hecho su viaje en el “Beagle” en 1831.

Russell Wallace pasó cuatro años recorriendo las selvas brasileñas, recolectando especímenes, haciendo mapas, dibujando animales y escribiendo numerosas notas. Por desgracia, cuando decidió volver a Inglaterra en 1852, el barco en el que viajaba se hundió, dejándolo a la deriva durante 10 días y llevándose al fondo del mar todos los documentos reunidos por el joven naturalista. Sin arredrarse, en 1854 emprendió una nueva expedición, ahora al archipiélago malayo, donde pasó ocho años en total dedicado a documentar la fauna local, describiendo miles de especies hasta entonces desconocidas para la ciencia.

Fue en 1858 cuando, estando convalesciente de una enfermedad en la isla indonesia de Halmahera, Alfred Russell Wallace encontró finalmente una explicación plausible, integral y clarísima del proceso mediante el cual evolucionaban las especies, la selección natural. De inmediato escribió un extenso ensayo explicando su teoría y sus bases, y se la envió a Charles Darwin, con quien ya había tenido correspondencia sobre el tema de la evolución.

Darwin, por su parte, había descubierto el mecanismo de la selección natural años atrás, pero su visión sistemática y pausada (llevaba más de 25 años analizando los datos que había reunido en el “Beagle”, investigando e incluso experimentando sobre temas diversos relacionados con el tema) le había hecho mantener su idea en relativo secreto, hasta estar absolutamente seguro de que los datos la sustentaban. Ahora, sin embargo, el asunto debía saltar al público.

Asesorado por el geólogo Charles Lyell y el explorador y botánico Joseph Dalton Hooker, Darwin aceptó que ellos dos presentaran el ensayo de Wallace y dos extractos del libro que pacientemente había ido redactando Darwin (“El origen de las especies”) ante la Sociedad Linneana de Londres el 1º de julio de 1858, y que se publicaron ese año en la revista de la sociedad con el nombre conjunto de “Sobre la tendencia de las especies a formar variedades y sobre la perpetuación de las variedades y las especies por medios naturales de selección".

Durante los años siguientes, la teoría de la evolución por medio de la selección natural fue conocida como la teoría Darwin-Wallace, y los premios, reconocimientos y críticas recayeron por igual sobre los dos destacados naturalistas, el ya maduro (Darwin estaba por cumplir medio siglo) y el aún joven (Russell Wallace tenía casi la mitad, 25).

Mientras Darwin publicaba un año después su famoso libro y, con el apoyo de Thomas Henry Huxley, capeaba en el Reino Unido el temporal de críticas y malinterpretaciones que produjo, Alfred Russell Wallace continuó trabajando en Indonesia, clasificando, observando y tomando notas.

Cuando finalmente volvio a Inglaterra en 1862, Wallace se dedicó a difundir y explicar la teoría de la selección natural que había creado con Darwin, y a escribir más de 20 libros sobre viajes, zoología y biogeografía, entre ellos “El archipiélago malayo”, un clásico de la exploración y la aventura. Además de ello, tuvo tiempo bastante de disfrutar multitud de honores, premios y apoyos. Incluso cuando se vio en dificultades económicas, contó con la ayuda de Darwin, que consiguió que la corona inglesa le asignara a Wallace un estipendio vitalicio para que pudiera continuar su trabajo sin preocupaciones financieras.

Al morir Alfred Russell Wallace en 1913 a los 91 años, era probablemente el más conocido naturalista inglés. Y sin embargo, conforme la teoría de la selección natural se perfeccionó y afinó con nuevos descubrimientos como la genética para crear la síntesis que hoy explica el surgimiento de las especies, el nombre de Alfred Russell Wallace se fue borrando de la conciencia popular, pese al reconocimiento que Darwin siempre le dio como co-fundador de la teoría de la evolución mediante la selección natural.

Quizá haya alguna clave en el hecho de que Wallace escribiera, con base en las conferencias que dio sobre evolución en los Estados Unidos durante tres años, el libro simplemente intitulado “Darwinismo”, publicado en 1889 y que se convirtió en una de sus obras más citadas, dejándonos con la duda de por qué no lo llamó “Darwinismo-Wallacismo”.

La línea de Wallace

Alfred Russell Wallace fue también uno de los fundadores de la biogeografía, al notar que ,pese a que las islas de Bali y de Lombok, están separadas por apenas 35 kilómetros, la diferencia de su fauna era enorme. Las aves de Bali eran parientes de las que vivían en las islas mayores como Sumatra y Java, mientras que las de Lombok estaban relacionadas con las de Nueva Guinea y Australia. Había encontrado el punto que delimita dos zonas ecológicas distintas, lo que hoy se conoce como la Línea de Wallace.