Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El acertijo de la luz

El intento por comprender la luz fue la clave, al paso de 2500 años, para permitir al ser humano comprender el universo en el que vive.

Fuegos artificiales, una de las formas en que
los seres humanos nos divertimos con la luz.
(Fotografía ©Mauricio-José Schwarz)
Pensándolo atentamente, la luz es en sí un fenómeno misterioso. Para nosotros, seres eminentemente visuales, es el principal medio por el cual conocemos el universo a nuestro alrededor, y sin embargo no es tan evidente por sí misma como lo pueden ser otros elementos de nuestra realidad.

Seguramente los seres humanos se hicieron preguntas sobre la luz mucho antes, pero la primera teoría que conocemos acerca de la luz fue la que propuso Empédocles de Acragas (actual Agrigento) en el siglo V antes de la Era Común. Después de proponer la teoría de que todo el universo está formado por cuatro elementos (que dominó el pensamiento hasta el Renacimiento), sugirió que la luz era un fuego que no quemaba y que que fluía del ojo hacia los objetos, chocaba con ellos y provocaba que se formara su imagen en nuestra mente. Filósofos como Platón o Ptolomeo, se adhirieron a la teoría de Empédocles, mientras que otros como Pitágoras pensaban que la luz era emanada de los objetos luminosos y caía en el ojo produciendo la visión.

Pero éstas eran sólo especulaciones sin bases experimentales.

Los primeros experimentos con la luz que conocemos fueron los de Euclides en el siglo III aEC, con espejos planos y cóncavos, y cuyos resultados están en su libro “Catóptrica”. Cuatrocientos años después, en Alejandría, Claudio Ptolomeo desarrollaría el trabajo de Euclides con datos experimentales adicionales para escribir su libro “Óptica”. Este trabajo fue desarrollado en el siglo XI por el sabio Alhazén, originario de Basora, en lo que hoy es Iraq. También llamado al-Haytam, uno de los padres del método científico, realizó experimentos demostrando que la visión se producía cuando el ojo recibía la luz, ya fuera reflejada por los objetos o emitida por ellos, y que la luz viaja en línea recta. Su “Libro de la óptica” fue la base teórica de la invención de las lentes para ver, gafas o anteojos, doscientos años después en Europa.

Parece, pero no es

Los avances en la óptica nos permitieron comprender el comportamiento de la luz, pero no nos dieron información sobre qué era ese fenómeno, cómo era esa fuerza que se comportaba de modo tan predecible. Se entendía cómo se reflejaba o difractaba la luz y ese conocimiento permitió la creación de lentes cada vez más perfectos, a su vez indispensables para la invención del microscopio y del telescopio, pero su composición seguía siendo motivo de debate.

Las observaciones de Isaac Newton, el genio que revolucionó la física y las matemáticas en el siglo XVII, lo llevaron a pensar que la luz estaba formada por partículas físicas que se reflejaban al golpear una superficie del mismo modo en que una pelota rebota al chocar con una superficie dura. En parte concluyó esto al observar que los rayos de luz no interferían unos con otros, el fenómeno llamado difracción, que sí ocurre cuando las ondas que se propagan en un medio interfieren entre sí.

Sin embarto, el físico holandés Christian Huygens, contemporáneo de Newton, con buenos argumentos y otros datos, sostenía que la luz se emitía en una serie de ondas que se extendían en todas direcciones como pasa con las ondas de un estanque cuando cae una piedra en él, y que no eran afectadas por la gravedad.

Sin embargo, el enorme prestigio de Newton ayudó a que su hipótesis fuera generalmente aceptada hasta que un experimento en el siglo XIX revivió la hipótesis de las ondas demostrando que la luz sí podía difractarse. La luz que Newton había observado era la luz del sol, que incluye una amplia gama de frecuencias y su amplitud varía rápidamente, por lo que no se puede observar la difracción. Al usar una luz con frecuencias coherentes, Thomas Young demostró que sí se difractaba. El conocimiento volvía al principio.

A fines del siglo XIX, James Clerk Maxwell desarrolló cuatro ecuaciones que describían las ondas magnéticas y eléctricas, y siguiendo esas ecuaciones no sólo se obtenía la velocidad de la luz, sino que tanto la luz visible como las demás ondas electromagnéticas no eran hechos distintos, sino el mismo fenómeno pero con diferentes frecuencias. La luz era una forma de energía electromagnética cuya única característica especial es que, debido a la historia evolutiva de nuestra especie, podemos verla. Algunos otros animales, como ciertos reptiles, pueden detectar la radiación infrarroja, mientras que otros como las abejas y algunas aves, pueden ver la luz ultravioleta, de frecuencia un poco más alta que la luz visible.

Fue necesario que se desarrollara una aproximación completamente nueva de la física para resolver el dilema. En 1901, el físico alemán Max Planck determinó que la radiación electromagnética sólo se podía emitir en paquetes de energía con un valor determinado que llamó “cuantos”, y al estudiar el efecto fotoeléctrico, Einstein determinó que la luz se emitía en cuantos. Al fin sabíamos lo que era.

La luz, y toda la radiación electromagnética, tienen propiedades que nos pueden parecer contradictorias, pero que en realidad no lo son. Decimos que toda la realidad exhibe una “dualidad onda-partícula” que se descubrió primero en la luz y hoy sabemos que es una propiedad de toda la materia. Pero esto se debe a que se habían usado ejemplos (como pelotas chocando u ondas en un estanque) que no se aplicaban a la realidad de la materia pero parecían de sentido común. También era de sentido común la creencia de Aristóteles de que un objeto diez veces más pesado que otro cae diez veces más rápido. La demostración de Galileo de que la velocidad de caída no dependía del peso fue, en su momento, también opuesta al sentido común.

Con su teoría de la relatividad, Albert Einstein determinó que la velocidad de la luz en el vacío es el único hecho independiente del marco de observación en un universo donde todos los fenómenos son relativos. La velocidad de la luz nos permite comprender el sorprendente hecho de que la materia y la energía son intercambiables.

Al conseguir finalmente entender la luz y su comportamiento a nivel cuántico, encontramos la clave para comprender el universo en toda su grandeza, la llave que abrió espacios de conocimiento y preguntas que seguramente habrían entusiasmado a Empédocles, Pitágoras y Euclides.

La radiación electromagnética

La radiación electromagnética es una forma de energía que emiten y absorben las partículas cargadas, y puede tener desde frecuencias muy bajas hasta muy altas formando un espectro o continuo. De menor a mayor frecuencia, el espectro electromagnético tiene las ondas largas, las que utilizamos para transmitir radio y televisión, las microondas, la luz infrarroja, la luz visible, la luz ultravioleta, los rayos X y los rayos gamma.

El estudio del sexo

Quizá el tema más apasionante para el ser humano no fue objeto de estudio científico sino hasta el siglo pasado, y siempre provocando una gran inquietud.

Fresco romano en la Casa
de los Epigramas de Pompeya
(Foto D.P. de By WolfgangRieger,
vía Wikimedia Commons)
En 1929, uno de los fundadores de la psicología científica, John Watson, escribía “El estudio del sexo sigue plagado de peligros… Es, ciertamente, el tema más importante de la vida. Es, ciertamente, lo que causa más naufragios en la felicidad de los hombres y las mujeres. Y, sin embargo, nuestra información científica sobre él es tan escasa. Incluso los pocos hechos que tenemos deben ser contemplados más o menos como material de contrabando”.

Cuando Watson escribió esto, sólo existía una institución en el mundo dedicada a la comprensión de la sexualidad humana, el Instituto de Sexología fundado en Berlín en 1919 por el doctor Magnus Hirschfeld, pionero de la sexología, del feminismo y de la defensa de los derechos de las minorías sexuales. En los siguientes años, el instituto reunió gran cantidad de datos y desarrolló algunos procedimientos terapéuticos.

Sin embargo, los “peligros” a los que hacía referencia Watson se hicieron evidentes. En mayo de 1933, los camisas pardas nazis atacaron el instituto y se llevaron toda su documentación, estudios y libros, que fueron pasto de las llamas en la infame quema de libros del 10 de mayo de 1933 en la Plaza de la Ópera de Berlín. Hirschfeld, que estaba en una gira de conferencias, nunca volvería a Alemania.

Los más antecedentes del estudio científico de la sexología no estaban demasiado lejos en el pasado. Se hallaban en un libro sobre psicopatías sexuales del alemán Richard Freiherr von Krafft-Ebing de 1886, que narraba los casos de más de 230 pacientes psiquiátricos, y en un estudio médico del sexólogo británico Havelock Ellis sobre la homosexualidad. Ambos, sin embargo, se basaban en especulaciones no sustentadas con datos objetivos, y por tanto, como Freud, no son considerados aún sexólogos científicos, aunque su curiosidad y audacia fueron esenciales para llegar a una aproximación más rigurosa.

En 1947, apenas terminada la Segunda Guerra Mundial, el biólogo estadounidense Alfred Kinsey fundó el Instituto para la Investigación Sexual en la Universidad de Indiana, inspirado claramente en el instituto de Hirschfeld. Un año después, Kinsey denunciaba que, en ese momento, teníamos un conocimiento científico más amplio sobre la sexualidad de los animales de granja que sobre la humana. Como resultado del trabajo de su instituto, en 1948 y 1953, Kinsey publicó dos informes sobre la sexualidad humana, el primero sobre el macho humano y el segundo sobre la hembra humana.

Los reportes Kinsey servirían para comenzar la demolición de una enorme cantidad de mitos sobre la sexualidad, gracias a su visión objetiva y rigurosa, producto de la formación biológica del investigador, de la diversidad de prácticas sexuales humanas. Kinsey y su equipo de investigadores recorrieron los Estados Unidos entrevistando a todo tipo de personas en todo tipo de circunstancias. Aunque además de las entrevistas Kinsey realizó experimentos y observaciones de la actividad sexual, no los referenció directamente por mantener la confidencialidad de sus sujetos.

Repitiendo la persecución de Hirschfeld, el Comité de Actividades Antiestadounidenses del Congreso investigó a Kinsey a partir de 1953, suponiendo que su interés en el sexo podría tener alguna relación con el comunismo, lo que llevó a la suspensión del financiamiento público de su instituto.

No fue extraño, entonces, que unos años después, en 1966, la publicación de La respuesta sexual humana de William Masters y Virginia Johnson fuera al mismo tiempo objeto de una atención apasionada que convirtió a este libro en un bestseller y de un abierto escándalo público. Más allá de entrevistas y encuestas, de 1957 a 1965 se habían dedicado a observar la sexualidad en el laboratorio. Esto implicaba analizar la respuesta fisiológica, ritmo cardiaco, anatomía y otros aspectos del cuerpo humano durante la actividad sexual, en solitario y en pareja, con atención especial a la estimulación y al orgasmo.

Donde Alfred Kinsey había estudiado qué prácticas sexuales realizaba la gente, Masters y Johnson buscaron averiguar cómo funcionaban esas prácticas desde el punto de vista fisiológico, anatómico y psicológico. Por ello, algunos de los aspectos del diseño experimental de Masters y Johnson eran verdaderamente escandalosos para la sociedad estadounidense de los años 60. Por ejemplo, en lugar de utilizar parejas ya existentes, pidieron voluntarios dispuestos a ser “asignados” a una pareja sexual arbitrariamente.

En total, la pareja de investigadores estudió a 382 mujeres y 312 hombres, abriendo brecha en áreas de investigación tales como la satisfacción sexual de la mujer, la sexualidad de los humanos ancianos, la homosexualidad y el tratamiento eficaz de disfunciones sexuales como la impotencia, la frigidez y otras que habían sido tratadas, en todo caso, con psicoterapias que se podían prolongar durante años.

La labor de Masters y Johnson abrió las puertas a la sexología moderna, al estudio del fenómeno de la sexualidad como cualquier otro asunto del universo que merece la atención de la ciencia, aunque a ojos de muchos, por motivos de convicciones morales, religiosas o políticas, el sexo debería estar protegido de los ojos cuestionadores y la visión crítica de los científicos, una visión que actualmente no comparte la mayoría de la gente, independientemente de su visión política o social, aceptando lo que establecía Kinsey como compromiso de su trabajo: “Somos los registradores e informantes de los hechos, no los jueces de los comportamientos que describimos”.

El estudio de la sexualidad tiene implicaciones que van mucho más allá del placer que suelen despertar la suspicacia de ciertos sectores, incide en la felicidad y bienestar humanos, en la salud física y emocional, en la reproducción exitosa (y la anticoncepción), en la comprensión de diversas patologías y en el desarrollo de terapias para resolver los conflictos que esta poderosa fuerza de la naturaleza nos provoca. Y aunque la sexología ha avanzado en muchos aspectos, podría decirse que sigue siendo una ciencia apenas en la pubertad.

El arte de amar

Antes de que existiera una aproximación científica a la sexualidad humana hubo libros dedicados a la obtención e intensificación del placer sexual como el Kama Sutra o El arte de amar del poeta romano Ovidio, cuyas descripciones revelan su conocimiento empírico: “Si das en aquel sitio más sensible de la mujer, que un necio pudor no te detenga la mano; entonces observarás cómo sus ojos despiden una luz temblorosa, semejante al rayo del sol que se refleja en las aguas cristalinas”, poética descripción de lo que un moderno sexólogo llamaría “el punto G”.

El mundo de von Humboldt

Uno de los pocos genios universales verdaderos, Von Humboldt fue también quizá el último.

Alexander von Humbold, autorretrato
en París, de 1814.
(D.P. vía Wikimedia Commons)
Cuando en 1839 Charles Darwin publicó el El viaje del Beagle sobre el recorrido del que se desprendería su teoría de la evolución mediante la selección natural, uno de los primeros ejemplares lo dedicó y envió al naturalista prusiano Friedrich W.K.H. Alexander von Humboldt, que había sido la inspiración para que el joven Charles se lanzara a la aventura del Beagle.

Humboldt con su característica acuciosidad, no sólo analizó cuidadosamente el libro en una larga carta de respuesta, sino que animó a Darwin a seguir su trabajo, señalando agudamente dónde Darwin lo había superado y concluyendo que, puesto que que el inglés le atribuía parte de sus deseo de viajar a tierras distantes como naturalista, “Considerando la importancia de su trabajo, Señor, éste puede ser el mayor éxito que pudo traer mi humilde trabajo”.

Quizá, nuevamente, Humboldt había animado a Darwin a que persistiera en el camino que lo llevaría a publicar El origen de las especies en 1859, el mismo año de la muerte de su inspirador y modelo.

La humildad de Humboldt era un rasgo de cortesía que, sin embargo, la realidad no sustentaba. Desde su infancia como hijo de una familia de nobles y militares prusianos, en la que nació en 1769, se había caracterizado por su interés en recolectar y etiquetar diversos especímenes vegetales y animales. Más adelante, los intentos de su familia por convertirlo en un profesional de las finanzas, quizá un político relevante como lo sería su hermano mayor Wilhelm se vieron saboteados una y otra vez por la pasión de Alexander por la naturaleza.

La visión de los naturalistas del siglo XIX, antes de que la abundancia de información llevara a la división en especialidades como la biología o la geología, era integral y universal. A Humboldt le interesaban por igual los insectos que los fósiles, la geografía y la botánica, basado en su filosofía de que ningún organismo ni hecho de la naturaleza podía entenderse aislado de los demás. Así, de las finanzas pasó pronto a la filosofía y después estudió ciencias naturales y minería en Friburgo, además de idiomas.

En los años siguientes, además de estudiar la geología de su zona, Humboldt se apasionó por los trabajos de Galvani con la electricidad y en 1797 publicó “Experimentos con la fibra muscular y nerviosa estimulada”, donde además especulaba sobre los procesos químicos de la vida, algo que era casi una herejía en ese momento.

A los 30 años de edad, el joven naturalista ya era uno de los más respetados geógrafos de Europa, habiendo producido trabajos importantes en las áreas de la geografía y la física de la tierra. Pero para ser universal no bastaba hacer viajes en Alemania o Europa, así que ese año de 1799 emprendió el viaje a la misteriosa América con el botánico Aimé Bonpland.

En este viaje que duraría cinco largos años, los amigos reunieron una cantidad colosal de información absolutamente nueva. Cierto, Suramérica y Centroamérica habían sido colonizadas más de 250 años atrás, pero no habían sido estudiadas con el ojo de un naturalista, sino con una visión más bien comercial.

Humboldt y Bonpland entraron a selvas donde ningún europeo había estado, escalaron los Andes, describieron especies, hicieron descubrimientos geológicos y, adicionalmente, realizaron un primer trabajo antropológico y sociológico estudiando y describiendo las costumbres, política, idiomas y economía de las zonas que visitaron, y que pocos años después se convertirían en los países que hoy son Venezuela, Cuba, Colombia, Ecuador, Perú y México.

El viaje llegó a su fin con una visita al entonces joven país que era Estados Unidos de América, donde Von Humboldt estableció una firme amistad con Thomas Jefferson, el principal autor de la declaración de independencia estadounidense en 1776 y por entonces presidente de la nación.

No era una amistad extraña. Además de la capacidad intelectual y el inagotable interés científico por la realidad que le animaban, Humboldt fue además un progresista defensor del pensamiento ilustrado que Jefferson también animaba, y tuvo la osadía necesaria para oponerse al racismo, al antisemitismo y a toda forma de colonialismo, cuando su sociedad (y su clase social, además de su posición nobiliaria) dependían precisamente del sistema colonial.

Los datos reunidos en el largo viaje hicieron que Simón Bolívar, a quien Humboldt conoció en París a su regreso, considerara que el naturalista alemán era “el verdadero descubridor de América”. Los resultados del viaje dieron origen a Viaje a las regiones equinocciales del nuevo continente, que los dos aventureros empezaron a publicar en 1807.

Pero ese primer tomo era apenas el principio. Radicado en París, durante los siguientes 20 años Humboldt publicó 33 tomos más de esta impresionante obra que no sólo incluía la narrativa del viaje, sino que echó mano de famosos pintores y grabadores para representar gráficamente los paisajes, los animales y las plantas de América en 400 láminas.

A los 59 años de edad, Humboldt decidió conocer el otro lado del mundo y emprendió un recorrido de más de 13.000 kilómetros cruzando Rusia, pasando los montes Urales y llegando a la frontera con China, todo financiado por el zar Nicolás I que deseaba conocer mejor ciertas zonas de su vasto imperio. Este  viaje dio como resultado, entre otros escritos, el libro en dos volúmenes llamado Fragmentos de geología y climatología asiáticas.

La totalidad de la obra de Humboldt es difícil de reunir pues además de sus ambiciosos libros (cuya edición muchas veces financió él mismo gracias a la fortuna familiar hasta agotarla) publicó numerosísimas monografías y estudios.

Al momento de su muerte, en 1859, Alexander von Humboldt era el más famoso científico de Europa, fundador de la ciencia que hoy llamamos geografía física y uno de los más grandes impulsores de la investigación y la visión científicas como resultado de un pensamiento libre y progresista según el cual el conocimiento científico es riqueza y fuerza para el bien.

Esa superioridad del conocimiento y el pensamiento hicieron a Humboldt señalar que “la visión del mundo más peligrosa es la de quienes no han visto el mundo”.

“Cosmos”, Humboldt antes de Carl Sagan


La visión universalista de Alexander von Humboldt incluía el interés por llevar el conocimiento científico a la gente no especializada, la divulgación o popularización de la ciencia. Entre 1827 y 1828 dictó un ciclo de conferencias sobre geografía y ciencias naturales al que dio por título “Cosmos”, en su acepción de “el todo”. Entre 1845 y 1858 las usó como base para su monumental serie de 5 libros del mismo nombre, que además de divulgar con gran éxito se propuso la unificación de todas las ciencias naturales.

Ventanas para el universo: el vidrio

Asombroso por su transparencia, durante la mayor parte de la historia el vidrio fue un lujo reservado a la élite. Hoy es uno de los productos más omnipresentes en nuestra vida.

Vitral inglés del siglo XIII
(Foto D.P. de Daderot,
vía Wikimedia Commons)
Desde un humilde vaso hasta la resistente pantalla de un teléfono inteligente, desde el parabrisas antiastillamiento hasta las lentes de precisión de un microscopio, el vidrio es importante actor de nuestra cotidianidad.

Los más antiguos vestigios arqueológicos encontrados hasta ahora indican que el vidrio ya se fabricaba en Mesopotamia 3.000 años antes de la Era Común, utilizándose como recubrimiento (o vidriado) de piezas de cerámica.

Sin embargo, miles de años antes antes de que se inventara la tecnología para producirlo, el ser humano ya había descubierto una forma de vidrio producto de las erupciones volcánicas: la obsidiana, que se utilizó desde la edad de piedra tanto para la fabricación de armas y herramientas, por sus bordes cortantes, como para la creación de adornos y joyas con sus brillantes colores negro, gris y verde.

En Egipto, hace 2.500 años, ya había talleres que hacían tanto piezas de cerámica vidriada como cuentas de vidrio utilizadas para joyería y altamente apreciadas por su brillo, aprovechando la abundancia de los elementos necesarios para su fabricación, como el natrón, esa sal conocida por su empleo como desecante en el proceso de momificación y que se utilizaba como fundente de la arena para fabricar vidrio.

Porque el vidrio es… arena.

El principal componente de la arena es el sílice, o dióxido de silicio, lo que significa que está formado por los dos elementos más abundantes de la corteza terrestre, el oxígeno (46% de la masa del planeta) y el silicio (algo menos del 28%). Cuando el sílice se funde a altas temperaturas con ayuda de un fundente como el carbonato de sodio, que ayuda a reducir la temperatura necesaria para fundir la arena, y un estabilizante como el carbonato de calcio. El añadido de otras sustancias o elementos puede darle al vidrio, entre otras características, mayor brillo, funciones ópticas deseables para diversas aplicaciones, color, dureza o resistencia a los cambios de temperatura.

El único procedimiento para darle forma al vidrio fue el moldeado, hasta que en el siglo I a.E.C. apareció el sistema del vidrio soplado: tomar una bola de vidrio fundido con una larga herramienta hueca y usar el aliento para hacer, literalmente, una burbuja de vidrio soplando aire en su interior. El historiador Plinio afirma que la tecnología nació en Sidón, Siria, en la costa de lo que hoy es el Líbano, y cien años después la tecnología ya se había extendido por el Oriente Medio y el sur de Europa. Hoy sigue siendo el procedimiento (a escala industrial) para producir botellas de vidrio.

El vidrio fascinó a los romanos y aprovecharon la tradición egipcia para promover la producción de vidrio principalmente en la ciudad de Alejandría, extendiéndola luego por sus dominios. La fabricación del material era tan abundante que la gente común tuvo por primera vez acceso a él, en la forma de recipientes y copas. Incluso se empezó a desarrollar la técnica de las hojas de vidrio, aplanado con rodillos. No era muy transparente ni uniforme, pero empezó a usarse como aislamiento en ventanas y casas de baños.

Después de la caída del imperio romano de occidente, la fabricación de vidrio continuó en recipientes, v vasos, copas y frascos, y desarrollando técnicas para dar color al vidrio, ya sea pintándolo o añadiendo al material fundido distintas sustancias para que al solidificarse tuviera un color: el cobre otorga un color rojo, el óxido de hierro le da un azul pálido y el manganeso lo tiñe de morado.

Fue este vidrio de colores el que permitió crear los vitrales que adornaron e iluminaron las iglesias durante la Edad Medida. Estas obras de arte eran, además, conocidas como “la biblia del pobre”, porque representaban pasajes bíblicos gráficamente. En la vida civil, los ricos y poderosos también disponían de vitrales decorativos a su gusto y de ventanas de vidrio traslúcido.

En el lenguaje común, solemos hablar de “el techo de cristal”, “quebrarse como un cristal”, “las casas de cristal”, “el cristal con que se mira”… en todos estos casos estamos, por supuesto, hablando de vidrio, pero lo llamamos “cristal”, especialmente cuando tiene cierta calidad y belleza especiales, como el vidrio plomado (por su singular resplandor y reflectividad), por una cuestión de márketing renacentista.

El vidrio es lo que los físicos llaman un “sólido amorfo”, es decir, que contrariamente a lo que podría indicarnos el sentido común, no tiene una estructura cristalina, sino que sus átomos y moléculas no están ordenados uniformemente. En palabras de un experto, es como si “quisiera ser un cristal” pero su proceso de fabricación se lo impide, convirtiéndolo en un caso especial de los sólidos. Esta estructura es la que le da tanto su transparencia como su proverbial fragilidad.

La tecnología para el vidrio transparente fue perfeccionada hacia el siglo XV en Murano, Venecia, al añadirle óxido de magnesio al vidrio fundido para eliminar el tono amarillo o verdoso que solía mostrar. Sus creadores lo llamaron “cristallo” para destacar su claridad y similitud con el cristal de roca. La tecnología se difundió pronto por Europa pues tenía un resultado adicional inesperado: impartía una enorme ductilidad al vidrio, permitiendo soplar piezas muy delicadas que se volvieron objeto del deseo de los poderosos y que hoy nos siguen fascinando en la forma de finas copas de vino y cava.

Los nuevos combustibles de la revolución industrial animaron la producción de vidrio, pero fue hasta 1902 cuando Irving Colburn inventó el primer proceso capaz de producir grandes hojas de vidrio de espesor uniforme, abatiendo su precio y permitiendo desde los rascacielos recubiertos de vidrio hasta que cualquier pudiera tener ventanas de vidrio.

El siglo XX, finalmente, ha sido la era del desarrollo tecnológico del vidrio para aplicaciones diversas, desde cascos de astronautas hasta pantallas táctiles. Las variedades de vidrio son hoy tan numerosas que es un tanto desafiante recordar que, finalmente, todas se pueden reducir simplemente a arena.

Pero no es un líquido

Existe una extendida leyenda que afirma que el vidrio es un líquido, si bien extremadamente denso. La idea se sustenta en parte en la observación de que algunas piezas de los antiguos vitrales tiende es más gruesa en su parte inferior que en la superior, como si se hubiera “escurrido” al paso de los siglos. Pero no hay datos de que esto sea una constante, sino que el vidrio medieval no se podía hacer de espesor uniforme, y los vitralistas preferían poner la parte más gruesa en la parte inferior, para sostener mejor la estructura de su obra.

La casa de los cometas

¿De dónde vienen los cometas? La observación de estos peculiares objetos celestes sugiere la existencia de un depósito cósmico que aún no hemos podido ver.

La gigantesca nube de Oort que rodea el sistema solar.
(Imagen D.P. de la NASA, vía Wikimedia Commons)
Cuando pensamos en el sistema solar lo imaginamos formado por el sol, los planetas interiores (Mercurio, Venus, la Tierra y Marte), el cinturón de asteroides y los planetas exteriores (Júpiter, Saturno, Urano y Neptuno), además de Plutón, al que la Unión Astronómica Internacional reclasificó en 2006, con gran atención de la prensa, como “planeta enano”, por haberse descubierto en 2005 un cuerpo de tamaño aún mayor que Plutón.

Lo que yace más allá, hasta la estrella más cercana al sol, Proxima Centauri, tendemos a imaginarlo como espacio vacío, acaso con algo de polvo poco relevante.

La realidad es distinta. El sistema solar, definido como todos los cuerpos que están gravitacionalmente vinculados a nuestra estrella, el Sol, está mucho más poblado aunque sea mayoritariamente espacio vacío.

Y en las más inaccesibles zonas de las afueras de nuestro sistema solar, los astrónomos creen que existe un gigantesco depósito del que proceden algunos de los más asombrosos objetos que conviven con nosotros: los cometas y los más misteriosos cuerpos, mitad cometa y mitad asteroides, llamados centauros. Y existen en enormes cantidades.

Un sistema solar grande

La representación del sol y los planetas que habitualmente vemos en libros y documentales no es muy fiel respecto de la escala que guardan entre sí los cuerpos del sistema solar y la distancia a la que se encuentran unos de otros.

En una escala más exacta, si el sol fuera una esfera de un metro de diámetro, la Tierra sería una pequeña esfera de 9 milímetros de diámetro girando en una órbita elíptica a una media de 107,5 metros de distancia del sol; el gigantesco Júpiter tendría 10 centímetros de diámetro y se encontraría a unos 550 metros del Sol y el lejano Plutón, representado por una diminuta esfera de sólo milímetro y medio de diámetro, se situaría a unos 4,2 kilómetros del centro del sistema. Plutón es además parte de una nube de pequeños cuerpos celestes llamada “cinturón de Kuiper”, descubierta apenas en 1992.

En un sistema solar bastante predecible, aparecen sin embargo ocasionalmente en nuestro entorno cósmico otros espectaculares cuerpos, los cometas, formados por hielo, polvo y partículas rocosas. Los astrónomos pueden observar cinco o seis al año, entre conocidos y nuevos. Debido a su composición, al acercarse al sol en un extremo de su órbita se forma a su alrededor una atmósfera temporal llamada “coma” una envoltura gaseosa producto de la volatilización del hielo del cometa.

Conforme los cometas se acercan al sol, el viento y la radiación solares alargan la coma creando la cola del cometa que, por ello, siempre apunta en dirección opuesta al sol. El otro extremo de la alargada elipse que describe la órbita de los cometas se encuentra en las zonas más alejadas del sistema solar.

Los cometas de “período corto” tienen una órbita de entre 20 y 200 años de duración y según los astrónomos proceden de una zona ubicada inmediatamente más allá del cinturón de Kuiper, el llamado “disco disperso”, que contiene al parecer cientos de miles de cuerpos de más de 100 kilómetros de diámetro y un billón o más de cometas. El más famoso cometa de período corto es el cometa Halley, que vuelve a pasar cerca del sol cada 75-76 años.

Pero existen otros cometas, llamados de “período largo”, que pueden tardar más de 200 e incluso varios miles de años en recorrer completa su órbita. Estos cometas, creen los astrónomos, proceden de una gigantesca y difusa esfera llamada “nube de Oort” que se extendería hasta más allá de la mitad de la distancia que nos separa de Proxima Centauri, y se calcula que debería contener incluso billones de cuerpos capaces de convertirse en cometas.

Pero, si nadie ha visto la nube de Oort, ¿cómo saben los astrónomos de su existencia?

Detectives interestelares

Los astrónomos habían observado que los cometas no tienen una zona de origen específica, sino que pueden provenir de cualquier punto del espacio. Es decir, sus órbitas no están alineadas en términos generales como las de los planetas. Esto sugiere que el origen de los cometas de período largo no está en un cinturón de nuestro sistema solar, sino en una esfera.

Adicionalmente, se sabe que las órbitas de los cometas no son estables, y se ha observado que al cabo de varias órbitas, acaban destruyéndose, ya sea volatilizándose o chocando con el sol o con algún planeta, como el cometa Shoemaker-Levy, que en 1992 se disgregó al pasar cerca de Júpiter y, en su siguiente órbita, en 1994, colisionó con el gigante gaseoso.

Con estos elementos, el astrónomo holandés Jan Hendrik Oort razonó que los cometas de período largo no podían haberse formado en su órbita actual, a diferencia de los planetas o el cinturón de asteroides, sino que deberían existir en un depósito esférico durante la mayor parte de su existencia, y que los efectos gravitacionales de su entorno y de los planetas los desplazan de sus órbitas originales lanzándolos al vertiginoso viaje interplanetario cuyo extremo observamos cuando entran a la zona de los planetas del sistema solar. Un viaje vertiginoso que termina, eventualmente, con la destrucción del cometa.

La nube de Oort sería así un remanente de la nebulosa de polvo estelar que se condensó debido a las fuerzas gravitacionales, formando nuestro sistema solar hace alrededor de 4.600 millones de años.

La hipótesis, presentada públicamente en 1950, es la más plausible que tenemos para explicar el comportamiento que observamos en los cometas. Demostrar que es correcta resulta uno de los grandes desafíos de la astronomía.

El primer paso para ello es la misión New Horizons (Nuevos Horizontes), lanzada por la NASA en 2006. La sonda, la primera misión de su tipo, recorrerá 5 mil millones de kilómetros para llegar, en 20015, a Plutón y seguir su camino hasta el cinturón de Kuiper.

Sus observaciones sobre los objetos que forman el cinturón de Kuiper nos pueden aportar datos sobre los cometas de período corto y saber más sobre sus parientes de período largo y el misterioso lugar de su origen en el espacio fronterizo de nuestro sistema solar, que ciertamente no está tan vacío como pensábamos.

Jan Hendrik Oort

Jan Hendrik Oort, 1900-1992, es uno de los más importantes astrónomos del siglo XX. Con poco más de veinte años postuló que nuestra galaxia gira como los fuegos artificiales llamados “rueda catalina”, donde las estrellas cercanas al centro giran a más velocidad que las que están en las zonas exteriores. Demostró además que nuestro sistema solar se encuentra en uno de los brazos exteriores de la galaxia y no en su centro, postuló la existencia de la materia oscura y fue uno de los pioneros de la radiotelescopía.

Cómo hundir un barco

No fue, por mucho, el más trágico hundimiento hasta entonces (el vapor SS Sultana se hundió en el río Mississippi el 27 de abril de 1865 matando a 1.800 de sus 2.400 pasajeros), y desde su hundimiento, otros desastres han superado con mucho a las 1.523 víctimas mortales del Titanic. Sin embargo, el hundimiento del enorme transatlántico ha cautivado la atención del público y los medios durante cien años.

El Titanic en el muelle de Southampton
(foto D.P. de autor anónimo vía Wikimedia Commons)
Buena parte de la fascinación, hasta donde sabemos, se basa en la idea de que el Titanic había sido anunciado ampliamente como un barco “imposible de hundir” (“unsinkable” en inglés) y que el accidente que lo llevó al fondo del mar había sido una especie de golpe del destino o de los poderes divinos contra la arrogancia de los constructores, idea promovida por el obispo de Winchester en una prédica poco después del hundimiento.

Pero tal afirmación es, al menos, imprecisa. En un folleto de la línea White Star durante la construcción de los barcos gemelos Olympic y el Titanic (el segundo apenas un poco más grande), se afirmaba que “en la medida en que es posible hacerlo, estas dos maravillosas naves están diseñadas para ser imposibles de hundir”, mientras que otro folleto, distribuido en Estados Unidos, explicaba el sistema de compuertas estancas del Titanic afirmando que “prácticamente hacían a la nave imposible de hundir”.

Estas afirmaciones publicitarias son cercanas a las que escuchamos sobre productos milagrosos que “podrían ayudar a combatir el envejecimiento” o “podrían combatir” tal o cual afección (y, queda implícito, podrían no hacerlo). Es decir, se han redactado para dar una impresión determinada pero que no pueda ser un compromiso exigible si algo fallara. La línea dueña de las embarcaciones, pues, se cubrió las espaldas.

Pero el público en general, la prensa e incluso el capitán del Titanic, dejaron de lado las precauciones para asegurar categóricamente que el barco era imposible de hundir. Algo absurdo considerando cómo flotan y cómo se hunden los barcos.

Arquímedes y la flotación

Evidentemente, las embarcaciones flotaban miles y miles de años antes de que supiéramos por qué. Aunque las embarcaciones más antiguas halladas hasta hoy por los arqueólogos son de hace un máximo de 10.000 años, la evidencia de las migraciones humanas nos sugiere que el hombre las utiliza desde hace más de 100.000 años y con ellas realizó el poblamiento de tierras aisladas como Australia, hace 40.000 años.

La fabricación de embarcaciones fue, por tanto, un arte basado en experiencias empíricas hasta que Arquímedes, en el siglo III antes de la Era Común describió en su libro “Sobre los cuerpos flotantes” que un cuerpo sumergido en un líquido experimenta un empuje hacia arriba igual al peso del líquido que desplaza. Esto quiere decir que un cuerpo puede flotar si desplaza una cantidad de agua que pese menos que ellos, para lo cual le damos una forma tal que tenga una cantidad suficiente de aire en su interior, y así pueda desplazar su peso en agua sin que el agua llegue a entrar en él. Un barco de acero como el Titanic, de 46.000 toneladas, está diseñado para desplazar más de 46.000 toneladas de agua marina.

Por ello mismo, hay materiales que flotan por sí mismos sin importar su forma, porque su densidad intrínseca es menor a la densidad del agua. O, dicho de otro modo, un determinado volumen de ellos pesa menos que el mismo volumen de agua.

Al entrar agua en una embarcación, el aire se sustituye por agua y la densidad total del barco aumenta hasta que se hunde.

Esto permite entender cómo se diseñó el Titanic para evitar que una perforación del casco provocara la inundación de todo el barco. Por debajo de la línea de flotación, el barco estaba dividido en 16 compartimientos estancos que podían cerrarse rápidamente. Si había una perforación, se sellaba el compartimiento de modo que, aunque se inundara, la nave seguiría a flote. De hecho, se calcula que el Titanic se podría haber mantenido a flote incluso si cinco de los compartimientos se inundaran.

Y sin embargo, se hundió.

Fallos en cascada

El estudio de los restos del Titanic ha permitido determinar cuáles fueron los factores que incidieron en el desastre.

En primer lugar, el acero de la nave y el hierro los remaches utilizados para armar el casco de la nave sucumbieron a un fenómeno llamado “fractura frágil”, en la que un metal se rompe sin sufrir previamente una deformación. Este tipo de fractura ocurre cuando se presentan tres factores, mismos que se dieron en el Titanic esa noche: que el metal tenga un alto contenido de azufre, que esté a muy baja temperatura y que el impacto que sufra sea muy fuerte. Esto fue demostrado con muestras del Titanic en 1994 y 1995.

Pero además el barco chocó lateralmente contra el iceberg, no de frente, de modo que éste provocó 6 largas heridas en el casco que inundaron los seis compartimientos delanteros. Las compuertas se cerraron inmediatamente después de la colisión, pero el daño era demasiado. Se calcula que el Titanic podría haber soportado incluso la inundación de cinco compartimientos, uno menos de los dañados.

Esto explica además por qué el hundimiento fue tan rápido y la forma en que se dio, con toda la proa inundada, haciendo que el barco se inclinara para después partirse en dos. Incluso se ha hecho notar que si no se hubieran cerrado las compuertas, el agua se habría extendido por todo el casco haciendo más lento el hundimiento, lo que habría permitido que se utilizaran mejor los botes salvavidas y que el Carpathia, el barco de pasajeros que se apresuró a llegar al lugar del hundimiento, rescatara a muchos más supervivientes.

La explicación de la fascinación pública sobre el Titanic será, sin duda, mucho más difícil de desentrañar que los fallos de diseño y de materiales que provocaron su hundimiento. Pero el legado más importante de la tragedia, vale tenerlo presente, fue una intensa mejora en los diseños y métodos de construcción de barcos, en la seguridad y en la legislación sobre botes salvavidas, que han salvado, con certeza, muchas más vidas de las que se perdieron esa madrugada en el Mar del Norte.

La búsqueda del Titanic

Durante 73 años, distintos grupos se ocuparon de buscar los restos del Titanic. La creencia de que se había hundido en una sola pieza alimentó todo tipo de especulaciones, como la que llevó al escritor estadounidense Clive Cussler a escribir la novela “¡Rescaten al Titanic!”, un thriller en el que se utiliza aire comprimido para reflotar el pecio y rescatar un supuesto mineral que transportaba. La novela fue llevada al cine con poco éxito en 1980. El 1º de septiembre de 1985, una expedición francoestadounidense encontró finalmente los restos del famoso barco.

La alquimia de la cocina

Cocinar los alimentos es un acto que les provoca cambios químicos y físicos fundamentales que no sólo mejoran su sabor, sino que pueden ser la diferencia entre lo nutritivo y lo que no lo es.

"Los comedores de patatas", de Vincent van Gogh.
Al cocinar las patatas o papas, sus moléculas de almidón
se descomponen facilitando su digestión.
(Museo van Gogh D.P. vía Wikimedia Commons)
Los más recientes datos (y seguramente habrá otros) indican que los humanos utilizan el fuego desde hace cuando menos un millón de años. Este descubrimiento en la cueva de Wonderwerk en Suráfrica da fuerza a la hipótesis de Richard Wrangham, de la Universidad de Harvard, en el sentido de que cocinar la comida fue un prerrequisito para la aparición del hombre moderno, al proporcionar una mejor nutrición que permitió el crecimiento de un cerebro más grande y que nuestros ancestros pasaran menos tiempo masticando. Su hipótesis exigía que los homínidos utilizaran el fuego hace al menos un millón de años.

Curiosamente, esta hipótesis iría a contracorriente de la creencia de que lo “natural” para el ser humano es el consumo casi exclusivo de vegetales, y de preferencia crudos.

Y es que cocinar los alimentos los transforma profundamente y, al mismo tiempo, parece habernos transformado como parte de nuestra forma de enfrentar el mundo. No hay ninguna cultura que no cocine sus alimentos, y de hecho identificamos buena parte de las culturas por su cocina, sus peculiaridades gastronómicas.

Tres son los cambios esenciales que se producen en un alimento al cocinarlo y que lo convierten en una fuente de nutrición mejor para el ser humano.

En primer lugar, descompone las moléculas de almidón en fragmentos más digeribles. El almidón es el carbohidrato más común de la dieta humana, aunque solemos pensar en él principalmente asociado a la patata, que tiene un contenido especialmente alto en almidón. Pero está presente tanto en el centeno como en las castañas, las lentejas, los guisantes, los garbanzos y, en general, en cereales y raíces, en una forma cristalina distinta en cada alimento.

Las enzimas digestivas tienen problemas para digerir las estructuras cristalinas, entre ellas la del almidón. Al cocinar los almidones, se aumenta su facilidad de digestión. Por esto mismo, los cereales no eran una buena forma de obtener energía antes de que el ser humano dominara el fuego y pudiera cocinarlos para obtener desde unas sencillas gachas hasta el pan y demás alimentos de cereales horneados y todas las formas de pasta, ya sea oriental o italiana.

En segundo lugar, el calor desnaturaliza las moléculas de las proteínas. La forma física de las proteínas es esencial para la función que cumplen. Las proteínas están formadas por cadenas de aminoácidos (sus elementos esenciales) que se doblan en ciertas formas utilizando uniones químicas. Al cocinar las proteínas, se rompen esos enlaces químicos y se desdoblan (o desnaturalizan) las cadenas de aminoácidos que los componen, lo cual facilita la acción de las enzimas digestivas, que así pueden descomponer las proteínas en aminoácidos que nuestro cuerpo utiliza para construir sus propias proteínas.

El ejemplo más conocido de este proceso es el que podemos ver al freír un huevo. Las proteínas que conforman la clara del huevo tienen forma globular, como un papel arrugado. Al calentarlas, las proteínas chocan entre sí y con otros elementos (como el aceite) desdoblándose y creando una red de cadenas de proteínas que capturan el agua del huevo, cambiando además drásticamente su aspecto de transparente a blanco. El aparato digestivo humano digiere mucho mejor el huevo cocido que el huevo crudo.

Finalmente, y no por ello menos importante, el calor suaviza físicamente los alimentos. Los granos secos como el trigo, el centeno o la cebada, la carne seca, son bastante más fáciles de consumir, y no sólo por adultos sanos, sino también por niños y ancianos que hayan perdido piezas dentales.

Además de estos cambios que benefician el consumo y aprovechamiento de los alimentos, hay otros que influyen en su sabor, y entre ellos destaca la reacción descrita a principios del siglo XX por el francés Louis-Camille Maillard y que lleva su nombre.

Reacción de Maillard

El color dorado de los alimentos cocinados les aporta un atractivo especial, no sólo por el aspecto que adoptan, sino porque aumenta intensamente su sabor.

Las marcas doradas de la parrilla en la carne, la corteza del pan, la crujiente piel del pollo son apetitosos ejemplos. Este color dorado se debe a la llamada "reacción de Maillard", que es en realidad un complejo conjunto de reacciones químicas simultáneas donde la temperatura elevada provoca que interaccionen las proteínas y las azúcares de los alimentos, un proceso similar a la caramelización.

Las moléculas producto de esta reacción forman azúcares dobles responsables del regusto dulce de las zonas más doradas. También producen proteínas de peso molecular bajo que imparten aroma a los alimentos. El resultado incluye en su conjunto literalmente cientos de posibles compuestos que nos resultan simplemente sabrosos.

Cada alimento experimenta su propia reacción de Maillard y el resultado depende también de la presencia de otros alimentos o condimentos, el método de cocción, el tiempo y las temperaturas. Cada alimento tiene su particular reacción de Maillard con resultados que varían según los diferentes métodos de cocción, temperaturas o interacción con otros alimentos. Esto explica además la poco apetitosa palidez y blandura de los alimentos cocinados al vapor o hervidos, y que nunca llegan a experimentar esta transformación sorprendente.

Otra forma de dorado pariente de la reacción de Maillard es la caramelización, que ocurre cuando se oxidan las azúcares de un alimento, dando como resultado un sabor característico. Al calentarse un azúcar, se elimina el agua que contiene y el azúcar en sí se descompone mediante un proceso aún no bien detallado que da como resultado las sustancias que le dan su sabor y aroma a los alimentos.

Quedan por averiguar, sin embargo, muchas dudas gastronómico-científicas, desde el momento preciso en que los ancestros de los humanos modernos empezaron a cocinar hasta algún procedimiento contrastado y fiable para conseguir que los niños se coman las verduras… probablemente una forma de darles sabor a pizza. Finalmente, hay toda una especialidad de la ciencia de los alimentos dedicada a los misterios de la pizza.

La gastronomía molecular

Junto al estudio de la nutrición, la seguridad alimenticia, la microbiología, la conservación y demás disciplinas relacionadas con nuestra comida, desde 1988 existe el concepto de “gastronomía molecular”, creado por el físico Nicholas Kurti y el químico Hervé This con objeto de estudiar científicamente las transformaciones y procesos culinarios desde el punto de vista de la física y la química, por ejemplo en la cocción, el batido, los cambios de temperatura, etc.. Aunque algunos chefs lo utilizan para distinguir productos de su cocina que utilizan procesos físicoquímicos complejos, como el uso de nitrógeno líquido o gelificaciones.

Un pionero incómodo

Wernher von Braun llevó a los Estados Unidos a triunfar en la carrera espacial hacia la Luna, pero su pasado en la Alemania nazi nunca dejó de arrojar una sombra sobre el hombre y sus proyectos.

Wernher Von Braun en su despacho de director de la NASA en 1964.
(foto D.P. de la NASA, vía Wikimedia Commons)
El 20 de julio de 1969, el modulo lunar “Eagle”, comandado por Neil Armstrong y copilotado por Edwin Aldrin se posaba en la superficie de la Luna.

Ese histórico momento marcó también un hito político. Terminaba la carrera espacial, iniciada en 1957 con el satélite Sputnik I de la Unión Soviética. Las dos superpotencias que habían emergido como hegemónicas después de la Segunda Guerra Mundial habían vivido una competencia vertiginosa en pos de distintas hazañas espaciales para evitar que su adversario los superara tecnológicamente. Cada logro se presentaba además como prueba de la superioridad del comunismo o del capitalismo, según el caso.

Desde el despacho de director de la NASA, Werhner von Braun veía coronado un sueño acariciado desde su adolescencia: llevar al ser humano más allá de nuestro planeta, primero a la Luna como preludio del soñado viaje a Marte. Y lo había hecho no sólo como administrador de la agencia espacial estadounidense, sino como ingeniero y visionario responsable del desarrollo del los cohetes de la NASA, llegando al Saturno V, el más potente fabricado incluso hasta la actualidad, para llevar al hombre hasta la Luna.

Pero en el proceso de conseguir esta verdadera hazaña tecnológica y humana, Wernher von Braun había pagado un alto precio humano. Un precio que hasta hoy no conocemos con precisión.

La ilusión del vuelo espacial

Werhner Magnus Maximilian von Braun nació el 23 de marzo de 1912 como heredero de un barón prusiano en Wirsitz, Alemania. Su pasión por el espacio se inició en su niñez y adolescencia, con el telescopio que le dio su madre y mediante la la lectura de los libros de ciencia ficción de Jules Verne y H.G. Wells y por las sólidas especulaciones científicas del físico Hermann Oberth en su libro “Por cohete hacia el espacio interplanetario”. Muy pronto se hizo parte de la sociedad alemana para los viajes interplanetarios fundada por Oberth en 1927, una de varias organizaciones similares en los Estados Unidos, Gran Bretaña o Rusia, que experimentaban con lanzamientos de pequeños cohetes.

Buscando trabajar con cohetes más grandes y presupuestos acordes al sueño, empezó a trabajar en 1932 con el gobierno alemán en el desarrollo de misiles balísticos, dos años antes de obtener su doctorado en física, y siguió trabajando para el ejército después de que Hitler ascendiera al poder en 1933, y en 1934 consiguió lanzar dos cohetes que ascendieron verticalmente más de 2 y 3 kilómetros.

En 1937, trabajando ya en el centro militar de cohetes de Peenemünde, solicitó su ingreso en el Partido Nazi, aunque afirmó que se le invitó a incorporarse en 1939 y que se vio obligado a hacerlo para continuar con su trabajo, aunque no hay evidencia de que haya realizado ninguna actividad política. Ciertamente, no habría podido continuar trabajando en cohetes pues el régimen nazi prohibió toda experimentación civil. Von Braun continuó trabajando los primeros años de la Segunda Guerra Mundial en el desarrollo de combustibles líquidos para misiles capaces de llevar cargas explosivas.

En 1942, Hitler no sólo había perdido estrepitosamente la Batalla de Inglaterra de 1940, sino que la aviación británica había comenzado a bombardear ciudades alemanas, de modo que ordenó la creación de un arma de venganza dirigida principalmente contra Gran Bretaña. Esta arma, el cohete V2, diseñado por Von Braun, estuvo lista en septiembre de 1944. El ejército alemán lanzó más de 3.000 de estos cohetes, producidos en fábricas con trabajo esclavo de los campos de concentración, contra blancos en Bélgica, Francia, Gran Bretaña y Holanda, dejando un saldo de al menos 5.000 muertos y muchos más heridos. Siempre quedaron dudas sobre cuánto sabía Von Braun de la mano de obra que producía sus cohetes o cuánto podría haber hecho por ellos.

Entretanto, Von Braun había estado brevemente preso en marzo de 1944 acusado de tener simpatías comunistas y una actitud “derrotista” ante el esfuerzo bélico alemán, pero fue liberado por su importancia para el programa de las V2.

Vencida Alemania, Von Braun orquestó un plan para rendirse con su equipo al ejército estadounidense antes de ser capturados por los soviéticos, y pronto se vio trabajando con el ejército antes enemigo, lanzando en el desierto de Nuevo México cohetes V2 capturados por el ejército y desarrollando nuevas armas como el misil Júpiter.

El lanzamiento del Sputnik I en 1957 por parte de los soviéticos (con el apoyo de otros científicos alemanes como Helmut Gröttrup) hizo que el gobierno de Estados Unidos acelerara su esfuerzo hacia los viajes espaciales, lanzando en 1958 el Explorer I, satélite científico que preparaba Von Braun desde 1954 y creando la NASA, de la que el científico alemán se convirtió en director en 1960.

Desde ese momento, Von Braun sería no sólo una pieza clave en la ciencia y tecnología del esfuerzo espacial estadounidense, sino uno de sus grandes defensores públicos. Durante los siguientes diez años se convertiría en la imagen misma de la carrera espacial del lado estadounidense y conseguiría estar siempre sólo un paso atrás de la Unión Soviética, que acumuló una serie impresionante de primeros logros (primer ser vivo en órbita, primer humano en órbita, primeras naves en la Luna y en Venus) pero fue superada en el objetivo final, la Luna, en 1969.

Ese objetivo, sin embargo, enfrió el entusiasmo público por los viajes espaciales, y Von Braun vio cómo el programa Apolo sufría recortes presupuestales que hacían imposible su siguiente sueño: llevar a un hombre a Marte. En 1972 decidió dejar la NASA para pasar al sector privado en la empresa aeronáutica Fairchild Industries, y murió de cáncer de páncreas en 1977, con apenas 65 años de edad.

La búsqueda por el “verdadero” Von Braun sigue. Sin embargo, los matices de su relación con los nazis y la medida en que su sueño de viajes espaciales pudo o no cegarlo a una realidad atroz tendrán siempre que ser parte de la historia del hombre que llevó a la humanidad a la Luna.

La operación Paperclip

Paperclip, literalmente "sujetapapeles", fue el programa de la Oficina de Servicios Estratégicos de las fuerzas armadas estadounidenses para reclutar científicos de la Alemania nazi para Estados Unidos, evitando que fueran reclutados por la Unión Soviética. El presidente Harry S. Truman ordenó excluir a miembros del Partido Nazi, o gente que hubiera participado activamente en él o apoyara activamente el militarismo nazi. Para eludir esta orden, las propias agencias de inteligencia crearon papeles y antecedentes falsos para blanquear el pasado de muchos científicos, entre ellos Wernher von Braun.

Antimateria, la realidad invertida

Un profundo desequilibrio en nuestro universo nos muestra el camino para comprender mejor la composición de cuanto conocemos, incluidos nosotros.

El rastro curvo del primer positrón observado
en una cámara de niebla, fotografiado por
su descubridor.
(Foto D.P. de Carl D. Anderson,
vía Wikimedia Commons)
Era 1928 y el físico británico Paul Dirac trabajaba en el vertiginoso mundo de la física que bullía entre la teoría de la relatividad y la teoría cuántica, la primera que describía el comportamiento del universo a nivel cosmológico y la segunda a nivel subatómico, y que parecían contradecirse. ¿Era posible conciliar las dos teorías? Dirac lo logró a través de una ecuación (hoy conocida como “Ecuación de Dirac”) que describía el comportamiento del electrón conciliando la relatividad y la cuántica.

Este logro, considerado una de las más importantes aportaciones a la física del siglo XX, tenía varias implicaciones inquietantes. Como otras ecuaciones, tenía dos soluciones posibles (por ejemplo, x2=4 se puede resolver como 2x2 o -2x-2). Una de las soluciones describía a un electrón con carga negativa, como los que forman la materia a nuestro alrededor, y la otra describía una partícula idéntica en todos los aspectos salvo que tendría energía positiva. Un “antielectrón”.

Esto implicaba que existían, o podían existir, partículas opuestas a todas las que conocemos. Al protón, de carga positiva, correspondía un antiprotón, idéntico en todas sus características pero con carga eléctrica negativa. Y al neutrón, de carga neutra, correspondía un antineutrón también de carga neutra pero con partículas componentes de diferente signo. Las antipartículas se podrían unir para crear antimateria. Un positrón y un antiprotón, por ejemplo, formarían un átomo de antihidrógeno tal como sus correspondientes partículas forman el hidrógeno común.

De hecho, cuando Paul Dirac recibió en 1933 el Premio Nobel de Física por su aportación, dedicó su discurso a plantear cómo se podía concebir todo un antiuniverso, con antiplanetas y antiestrellas y cualquier otra cosa imaginable, incluso antitortugas o antihumanos, formados por átomos de antimateria y que funcionarían exactamente como la materia que conocemos. Una especie de imagen en negativo de la realidad que conocemos.

Porque la ecuación de Dirac tenía implicaciones aún más peculiares. Establecía que las antimateria estaba sujeta exactamente a las mismas leyes físicas que rigen a la materia y demostraba la simetría en la naturaleza. Siempre que se crea materia a partir de la energía lo hace en pares de partícula y antipartícula. Y, de modo correspondiente, que al encontrarse una partícula y su antipartícula, como un electrón y un positrón, se aniquilarían mutuamente convirtiéndose totalmente en energía.

La ecuación parecía matemáticamente sólida y coherente con lo conocido en la física, pero faltaba la demostración experimental que la validara. Comenzó entonces la búsqueda de la antimateria y sorprendentemente tuvo sus primeros frutos muy pronto. En 1932 Carl Anderson, en California, observó, en un dispositivo llamado cámara de niebla que se utiliza para estudiar partículas subatómicas por su rastro, una partícula con la misma masa de un electrón pero de carga positiva, producida al mismo tiempo que un electrón. Era la partícula predicha por Dirac, a la que Anderson bautizó como “positrón”. Pronto se confirmó que, efectivamente, al encontrarse con un electrón, ambas partículas se aniquilaban.

Carl Anderson obtuvo también el Nobel de física en 1936 por su trabajo experimental. Pero después hubo que esperar hasta 1955 para que aceleradores de partículas de gran energía en el CERN (antecesores del LHC) pudieran producir el primer antiprotón y un año más para que nos dieran el antineutrón y, después, algunos átomos de antimateria.

Entretanto, los cosmólogos habían desarrollado y confirmado la teoría del Big Bang como origen del universo, pero se enfrentaban a un problema: la simetría planteada por la ecuación de Dirac indicaba que al momento de aparecer el universo, se había creado necesariamente tanta materia como antimateria, tantos electrones como antielectrones, tantos quarks como antiquarks, pero… ¿dónde estaba esa antimateria que debería ser tan abundante como la materia? El universo que observamos contiene una proporción muy pequeña de antimateria (un antiprotón por cada 1000,000,000,000,000 protones), y todas las búsquedas de antimateria en nuestro universo han sido en vano. Para donde miremos, el universo parece hecho de materia común y ordinaria.

La ausencia de antimateria en nuestro universo podría ser simplemente la incapacidad experimental actual de encontrarla, o bien podría significar que la simetría propuesta a partir de Dirac (simetría CP, siglas de Carga y Paridad) no es perfecta, que hay alguna diferencia sustancial, relevante, entre la materia y la antimateria que haya provocado la prevalencia de la materia.

Actualmente, hay investigaciones avanzando bajo ambos supuestos. En la Estación Espacial Internacional y en distintos satélites y sondas se han colocado aparatos que buscan detectar rayos gamma que pudieran ser producidos por galaxias de antimateria en algún lugar de nuestro universo, y se buscan nuevas formas de encontrar el faltante. Quizá está en los bordes de lo que podemos observar, separado de la materia por algún fenómeno desconocido que abriría nuevos horizontes en la física.

Pero también hay experimentos y estudios destinados a explorar la simetría de la materia y la antimateria en busca de diferencias hasta ahora no apreciadas. Desde la década de 1960, se observó que hay una pequeña diferencia en la forma en que se degradan unas partículas llamadas mesones K y sus correspondientes antipartículas. Esta discrepancia podría ser el pequeño desequilibrio de la simetría que explicara por qué nuestro universo es como es.

Apenas en 2011, los científicos que trabajan en uno de los detectores del LHC en Ginebra, Suiza, encontraron datos que parecen indicar otra diferencia, en este caso de las partículas llamadas mesones D0, y sus antipartículas también decaen de modo distinto. Esto podría llevar a avances en la física que explicaran otros grandes misterios como la materia y la energía oscura y la forma en que se transmite la fuerza gravitacional.

Usted y los positrones

La antimateria se utiliza los escáneres de tomografía por emisión de positrones (PET, por sus siglas en inglés). En este procedimiento, se obtienen imágenes del cuerpo administrando un marcador radiactivo de vida muy corta (entre unos minutos y un par de horas) que emite positrones. Los positrones viajan alrededor de un milímetro dentro del cuerpo antes de aniquilarse con un electrón. Un escáner registra la energía, que se produce en forma de dos rayos gamma que viajan en direcciones opuestas, y un potente ordenador interpreta los resultados para crear una imagen tridimensional de gran fidelidad y utilidad en el diagnóstico médico.

Mensajes subliminales: la leyenda continúa

Es una de esas cosas que “todo mundo sabe”, pero sin saber que fue uno de los grandes bulos que han afectado a la psicología.

La creencia en la persuasión subliminal afirma que
podemos ser manipulados como títeres.
(foto de Giulia (master of puppets) CC-BY-2.0,
vía Wikimedia Commons)
Cualquiera puede decirle a usted que hay “mensajes subliminales” que pueden influir en nosotros de manera estremecedoramente efectiva y profunda. “Subliminal” quiere decir “por debajo del umbral” de la percepción, es decir, son estímulos que nos pueden afectar sin que seamos conscientes siquiera de su existencia. Esta sola definición evoca niveles de control mental propios de “Un mundo feliz” de Aldous Huxley o “Mil novecientos ochenta y cuatro” de George Orwell.

Y sin embargo, nadie lo ha podido demostrar.

La idea de los mensajes subliminales nació en 1957 cuando un investigador de mercados llamado James Vicary afirmó haber realizado un experimento con resultados asombrosos e incluso preocupantes. Según su descripción, instaló durante seis semanas, en un cine de Ft. Lee, Nueva Jersey una máquina llamada “taquitoscopio” capaz de disparar mensajes que sólo estaban en pantalla 1/3000 de segundo. Durante la proyección de la película “Picnic” (de la que nadie se acuerda), la máquina disparaba cada cinco segundos dos frases sencillas: "Tome Coca-Cola" y "¿Tiene hambre? Coma palomitas de maíz".

Vicary afirmó consiguió un aumento de 18.1% en las ventas de Coca-Cola y de un asombroso 57.8% en las de palomitas de maíz.

Para los publicistas y mercadólogos, las implicaciones eran maravillosas: podían hacer que la gente comprara sin convencerlos, mostrarles imágenes agradables, mensajes persuasivos, testimoniales de personalidades famosas o situaciones sexuales. Con sólo disparar una frase y sin que el público se diera cuenta, alguna parte de su cerebro percibiría la frase, la entendería y luego obligaría al resto del cerebro a obedecer la orden como un zombie vudú de pelicula serie B.

James Vicary inventó la frase “publicidad subliminal”, de la que se declaró inventor y dominador, y procedió a ofrecer sus servicios a sus clientes.

Ese mismo año apareció el libro “The hidden persuaders” (Los persuasores ocultos) del periodista Vance Packard, que emprendía una profunda crítica de los estudios motivacionales que empezaban a utilizarse en publicidad y diseño de productos, pero con una visión siniestra y paranoica, advirtiendo de los riesgos que implicaba que estas técnicas (hoy bien conocidas) se usaran también en política y suponiéndoles demasiada efectividad.

Para el público, las implicaciones de las historias de Vicary y el libro de Packard indicaban una manipulación atroz que podía dejar a la humanidad sin libertad alguna. El periodista Norman Cousins, se apresuró a pedir la prohibición de la publicidad subliminal por violentar los espacios “más profundos y privados de la mente humana”.

La Comisión Federal de Comunicaciones de los Estados Unidos se apresuró a prohibir la “publicidad subliminal” so pena de retirar la licencia a cualquier televisora que la usara. Sobrevinieron también prohibiciones den Gran Bretaña y Australia.

El experimento de Vicary, sin embargo, no apareció en ninguna revista científica con las características que se le exigen a todos los estudios: metodología, detalles del desarrollo, tratamiento estadístico válido de los resultados y toda la cocina con su proceso de obtención de resultados que es la esencia de un artículo científico. Psicólogos y organismos como la Comisión Federal de Comunicaciones dudaron desde el principio y pidieron algo básico: la replicación del estudio. Vicary emprendió demostraciones informales de su máquina, pero o tenía problemas técnicos o simplemente no lograba resultados como los originalmente reportados.

Pasado más de un año desde que el mundo se enteró del experimento de la Coca-Cola y las palomitas como invasión de nuestras más profundas motivaciones, el doctor Henry Link, psicólogo experimental, desafió a James Vicary a hacer una réplica del experimento bajo condiciones controladas y supervisado por investigadores independientes. Vicary no pudo negarse. ¿El resultado? Ninguno. Los estímulos subliminales no afectaban la conducta de la gente.

Llegó 1962 y James Vicary confesó al fin, en una entrevista con la revista Advertising Age que el estudio había sido inventado para aumentar la clientela de su rengueante negocio. Vamos, que había mentido como un publicista.

Desde entonces, diversos experimentos diseñados con rigor científico han podido demostrar que, si bien puede existir cierta “percepción subliminal” (es decir, parte de nuestro cerebro puede registrar estímulos que no percibimos conscientemente), no hay indicios de que exista la “persuasión subliminal”, la capacidad de los estímulos subliminales de movernos a la acción, y menos aún derrotando nuestra voluntad y volviéndonos autómatas como temían Packard y Cousins.

Lo que resulta verdaderamente asombroso es que, pese a todos estos hechos y datos, los medios de comunicación, la percepción popular e incluso algunas instituciones de enseñanza mantengan viva la leyenda urbana de la “publicidad subliminal” como una vía rápida a nuestras emociones y convicciones. Parecería que la historia es demasiado buena para no ser cierta.

El profesor de psicología de la Universidad de California Anthony R. Pratkanis, experto la influencia de la sociedad sobre en nuestras actitudes, creencias y comportamiento, considera que la creencia en lo “subliminal” como una fuerza poderosa se remonta a la creencia en el “magnetismo animal” de Mesmer y las experiencias de la hipnosis que le siguieron.

Pratkanis observa cómo se ha desarrollado la creencia en la persuasión subliminal para adoptar aspectos cada vez más místicos, como la creencia en que podemos aprender mientras dormimos o escuchando cintas con “mensajes subliminales”, la creencia (común en la subcultura de la conspiranoia) de que la publicidad está llena de tales mensajes e incluso la idea de que se pueden insertar mensajes malévolos grabados al revés en la música, y nuestros cerebros pueden percibirlos, invertirlos, entenderlos y actuar de acuerdo a ellos aunque no queramos.

En distintos experimentos realizados por Patkanis, ninguna de las cintas de “motivación subliminal” que son una floreciente industria tuvo ningún efecto en los sujetos experimentales. Lo cual sigue sin bastar para que nos deshagamos de esta atractiva, atemorizante y curiosa leyenda urbana.


(Foto de Zach Petersen, CC via Wikimedia Commons)

Judas Priest

En 1990, el grupo de rock Judas Priest fue acusado de haber grabado el mensaje subliminal “Hazlo” en una de sus canciones, afirmando que este mensaje había convencido a dos adolescentes problemáticos para que se suicidaran. El juez, sin embargo, los declaró inocentes con la obvia explicación de que había “otros factores que explicaban la conducta de los fallecidos”. Pero el mito de los mensajes ocultos en el rock permanece.

El mapa de los pozos mortales

El origen de la epidemiología se encuentra en la historia de una bomba de agua londinense y la inteligente observación de un joven médico.

El Dr. John Snow
(Rsabbatini, D.P. vía Wikimedia Commons)
Era 1854 y Londres sufría un brote de cólera, el cuarto en muy pocos años, sembrando el temor entres la población. Se trataba de una enfermedad desconocida a principios del siglo XIX que se había empezado a extender por el mundo desde las aguas sucias de Calcuta, en la India colonizada por Gran Bretaña. La primera pandemia de 1817-1823 había afectado a gran parte de Asia y Oriente Medio, así como la costa oriental africana. La segunda, que se inició en Rusia, afectó a toda Europa, África del Norte y la costa oriental de América del Norte.

La forma en que se diseminaba la enfermedad parecía evidenciar claramente una ruta de contagio y algún agente responsable del contagio. Pero cuando el cólera llegó a Inglaterra en 1832, la teoría microbiana de la enfermedad ni siquiera había sido postulada por el italiano Agostino Bassi. Y no sería demostrada sino mucho después por Louis Pasteur y Robert Koch, hasta que hacia 1880 se abandonó finalmente la creencia en los miasmas.

La idea prevaleciente era que las enfermedades se transmitían mediante “miasmas” o “malos aires”, vapores que tenían partículas de materia descompuesta y malévola, la “miasmata”. Así, no se creía que las enfermedades se transmitieran de una persona a otra, sino que ambas eran víctimas del aire contaminado. Esta creencia no era sólo occidental, sino que la compartían otras culturas como las de la India y China.

Durante el segundo brote de cólera en Londres de 1848-1849, que mató a más de 14.000 personas, apareció en escena el doctor John Snow, como uno de los fundadores de la Sociedad Epidemiológica de Londres y desafiando las creencias de la época que, más que ciencia o medicina, eran ideas supervivientes de tiempos anteriores a la revolución científica.

John Snow había nacido en 1813, en una familia obrera, una limitación que consiguió superar abandonando el hogar a los 14 años para hacerse aprendiz de médico en la vertiente de cirujano barbero. Así, cuando apenas tenía 18 años, en 1831, en una visita a mineros del carbón tuvo su primer encuentro con el cólera, recién llegado de Asia, sin imaginar que sería el centro de su vida profesional. A los 23 años comenzó finalmente a estudiar medicina de modo formal, doctorándose en 1844 y obteniendo su licencia como especialista en 1849.

Snow hizo sus primeros trabajos con las formas primitivas de la anestesia, desarrollando un dispositivo para administrar cloroformo de manera eficaz y segura, tanto que fue él quien se lo administró por primera vez a la Reina Victoria en el parto del Príncipe Leopoldo en 1853.

Curiosamente, este acontecimiento significó el inicio de la aceptación popular a la anestesia, rechazada sobre todo por motivos religiosos aduciendo la maldición bíblica contra la mujer de parir a sus hijos con dolor. Pero, razonó la opinión pública, si la reina podía evadir la maldición, podía hacerlo también cualquier ciudadana común y corriente. Y lo empezaron a hacer, en lo que fue un logro peculiar para un hombre devotamente cristiano, célibe, abstemio y metódico hasta el extremo como era el doctor Snow.

En el segundo brote de cólera en Londres, Snow realizó lo que sería el primer estudio epidemiológiclo de la historia, determinando los niveles distintos de mortalidad causada por la epidemia en 32 subdistritos de Londres. Con sus resultados, teorizó que la enfermedad se diseminaba por algún agente por medio del contacto directo con la materia fecal, el agua contaminada y la ropa sucia. Publicó sus resultados en 1849, en el ensayo “Sobre el modo de contagio del cólera”, donde presentaba las observaciones estadísticas que sustentaban su propuesta.

Sin embargo, esto no impidió que 1854 el tercer brote de cólera en Londres se atribuyera a una concentración de miasmata en las cercanías del Río Támesis. Los acontecimientos en la zona del Soho fueron especialmente violentos porque literalmente de un día para otro enfermaron más de 100 personas y rápidamente se acumuló la aterradora cifra de 600 víctimas mortales.

Una variante del mapa del cólera del Dr. Snow
La aproximación de Snow fue estudiar en dónde estaban físicamente situadas las víctimas del cólera en el Soho, y crear un mapa donde pudo ver claramente que las muertes por la enfermedad parecían irradiar de un punto muy concreto: una bomba de agua situada en Broad Street; una de las 13 bombas que abastecían al barrio en una época en que no existía el concepto de agua corriente en las casas. Para Snow resultaba absolutamente evidente que era el agua, y el agua de esa bomba, la responsable de una serie de muertes que se desató violentamente a partir de un día concreto, el 31 de agosto.

Armado con sus datos y su prestigio como médico, Snow acudió a las autoridades con una solicitud: que se quitara el mango de la bomba de agua de Broad Street, haciendo que los residentes se abastecieran en alguna de las otras bombas de la zona. Esto se hizo finalmente el 7 de septiembre, y el número de enfermos y muertos disminuyó rápidamente.

Otro estudio que realizó el mismo año comparó los barrios de Londres que recibían agua de dos empresas distintas, una que tomaba el agua río arriba en el Támesis, donde no había contaminación, y otra que lo hacía en el centro de Londres. Los resultados de Snow demostraban el efecto dañino del agua contaminada y le permitieron sugerir formas de controlar la epidemia e ideas para evitarlas en el futuro.

Aunque la teoría de los miasmas siguió prevaleciendo durante algunas décadas, la realidad se impuso y marcó una serie de cambios en la política londinense, incluida la creación de una nueva red de drenaje en 1880. John Snow, sin embargo, no vivió para ver el triunfo de su esfuerzo sobre las antiguas supersticiones. Murió en 1858 de un accidente cerebrovascular mientras seguía estudiando sus dos pasiones: la anestesia y la epidemiología, disciplina de la que es considerado el gran pionero.

Hoy en día, los visitantes de Londres pueden ir a la calle Broadwick, que es como se rebautizó Broad Street y ver una réplica de la famos bomba de agua del Dr. Snow sin el mango, como testigo de cómo la aproximación sistemática y científica a un problema puede cambiar la forma en que vemos el mundo.

El cólera en España

Los brotes de cólera en España coinciden con las grandes pandemias europeas. El primero comenzó en Vigo y en Barcelona en 1833, y se prolongó al menos hasta 1834 recorriendo el país. Seguiría otro en 1855, parte de la pandemia que abordó John Snow, y un tercero en 1865. Las vacunas y los avances de la medicina contuvieron la enfermedad salvo por dos brotes en el siglo XX atribuibles a la mala gestión de las aguas residuales, uno en 1971 en la ribera del Jalón y otro en 1979 en Málaga y Barcelona.

Fotografía: el momento irrepetible

Herramienta para la comunicación, las ciencias, la tecnología y el arte, la fotografía es una sucesión de encuentros entre distintas tecnologías e inventos.

"Vista desde la ventana en Le Gras", la primera
fotografía de la historia, obtenida por
Joseph Nicéphore Niépce en 1826.
(Imagen de D.P. vía Wikimedia Commons)
Supongamos una caja cerrada, ya sea pequeña o del tamaño de una habitación. En el centro de una de sus caras, abrimos un orificio diminuto. Sorprendentemente, las imágenes que estén frente al orificio en el exterior de la cámara se proyectarán en la cara opuesta dentro de la caja, pero invertidas.

Este fenómeno se explica porque, cuando los rayos de luz que viajan en línea recta pasan por un orificio pequeño en un material no demasiado espeso, no se dispersan, sino que se cruzan entre sí y vuelven a formar la imagen de cabeza. El orificio funciona como una lente y, de hecho, si utilizamos una lente en su lugar, se puede obtener tanto mayor nitidez como mayor luminosidad en la imagen reconstruida.

Este fenómeno fue descrito al menos desde el siglo V antes de la Era Común, por el filósofo chino Mo-Hi, quien llamó al lugar donde se veían las imágenes “habitación cerrada del tesoro”. En occidente, el principio también era entendido al menos desde Aristóteles, quien lo utilizó para observar eclipses de sol, práctica aún común para evitar ver el sol directamente.

En el siglo XVI se empezaron a utilizar lentes convexas en lugar del orificio y un espejo para invertir nuevamente la imagen y proyectarla en una superficie, creando un dispositivo portátil que durante siglos fue utilizado como auxiliar para el dibujo. Las habitaciones en las que se utilizaba el fenómeno para ver imágenes de gran tamaño fueron llamadas por el astrónomo Johannes Kepler “cámaras oscuras” , motivo por el cual llamamos “cámara” a cualquier dispositivo fotográfico o cinematográfico.

El siguiente paso era capturar las imágenes. Pero no pensaba en ello el alemán Johann Heinrich Schulze, que 1727, en uno de sus experimentos, mezcló tiza, ácido nítrico y plata observando que se oscurecía en el lado que estaba hacia la luz. Había creado la primera sustancia fotosensible conocida. Las experiencias ulteriores con sustancias sensibles a la luz tenían el problema de que las imágenes no se fijaban: la sustancia seguía reaccionando ante la luz y eventualmente era totalmente negra

Fue un francés, Joseph Nicéphore Niépce, quien experimentó durante años uniendo la cámara oscura y el trabajo de los químicos para hacer, en 1826, la primera cámara y la primera fotografía (misma que aún existe). Aplicó una mezcla de betún de Judea sobre una placa de peltre y la expuso desde su ventana durante ocho horas.

El siglo XIX fue escenario de experiencias con diversos materiales buscando obtener más nitidez, conseguir imágenes en menos tiempo y con menos luz, y poderlas conservar eficazmente, ya fuera en positivo, como en los daguerrotipos, o en negativo, proceso inventado por John Talbot y que permitía hacer las copias que se quisiera del original.

Las placas debían ser preparadas por el fotógrafo en el sitio, con una feria de aparatos y sustancias peligrosas, por lo que fue bienvenida la aparición de las “placas secas” de vidrio que tenían ya una sustancia fotosensible que se mantenían en la oscuridad antes y después de hacer la foto, para posteriormente revelarse. Su tiempo de exposición era tan pequeño que las cámaras fotográficas pudieron hacerse pequeñas y manuables.

El gran salto para la popularización de la fotografía lo dio el estadounidense George Eastman en 1889 con una película flexible, irrompible y que podía enrollarse, recubierta de una sustancia fotosensible que producía imágenes en negativo. Esto permitió hacer cámaras mucho más pequeñas y poner la tecnología fotográfica al alcance de todo el mundo. Ya no se necesitaba tener un laboratorio y saber manejarlo, bastaba “hacer la foto” y llevar el rollo a un técnico que se encargaría de revelarlo y hacer cuantas copias se quisiera.

El siglo XX se dedicó a perfeccionar la tecnología haciéndola más rápida, más eficaz, más precisa y trayendo al público, en 1940, la fotografía en color. Era una nueva forma de arte, pero también una herramienta documental y científica que permitió ver lo que nunca se había podido ver, como el momento en que una bala traspasa una manzana, imágenes infrarrojas y ultravioleta, y una enorme cantidad de accesorios alrededor del humilde principio de la cámara oscura.

En 1975, el ingeniero Steven Sasson, de la empresa de George Eastman, Kodak, creó la primera cámara fotográfica digital, a partir de tecnología de vídeo ya existente. En vez de utilizar una sustancia química fotosensible de un solo uso, estas cámaras emplean sensores electrónicos que detectan la luz y la convierten en una carga eléctrica. La cámara de Sasson tenía una resolución de sólo 100x100 píxeles (10.000 píxeles, comparados con los varios millones de píxeles que tiene cualquier cámara barata hoy en día), tardaba 23 segundos en registrar una imagen y pesaba más de 4 kilos.

El desarrollo de la fotografía digital fue muy rápido. La primera cámara para el consumidor fue lanzada en 1988-1989 y para 1991 había cámaras profesionales comerciales con más de un megapíxel (un millón de píxeles) de resolución, todas en blanco y negro. El color digital llegó en 1994 y de modo acelerado se ofreció comercialmente una sucesión de cámaras con más píxeles, más nitidez, mejor óptica, mejor almacenamiento (con la aparición de las tarjetas flash) y, sobre todo, precios cada vez más bajos.

La última gran revolución de la fotografía digital fue su integración en 2002 a los teléfonos móviles, que habían aparecido en 1983 (aunque no fueron realmente portátiles sino hasta 1989). A futuro se habla por igual de fotografía en 3 dimensiones (viejo sueño) como de perspectivas totalmente nuevas.

En 2011 se presentó una nueva cámara, Lytro, que en lugar de capturar la luz según el principio de la cámara oscura, lo hace interpretando campos de luz. El resultado son imágenes que no es necesario enfocar al momento de hacerlas, sino que el foco se decide en el ordenador posteriormente, algo que además de tener grandes posibilidades profesionales puede ser una ayuda enorme para el aficionado.

Las tragedias de Kodak

El popularizador de la fotografía, George Eastman, se suicidó en 1932 víctima de terribles dolores por una afección en la columna vertebral. Su empresa, Eastman Kodak, que fue la vanguardia de la fotografía durante más de 100 años, solicitó protección contra la quiebra en 2012, herida por la muerte de la película fotográfica y embarcada en una serie de litigios para conseguir el pago de sus patentes de fotografía digital por parte de otros fabricantes. La empresa se dedicará, si sobrevive, al papel fotográfico y la impresión por chorro de tinta, y licenciando su bien conocida marca a otras firmas.