Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Ventanas para el universo: el vidrio

Asombroso por su transparencia, durante la mayor parte de la historia el vidrio fue un lujo reservado a la élite. Hoy es uno de los productos más omnipresentes en nuestra vida.

Vitral inglés del siglo XIII
(Foto D.P. de Daderot,
vía Wikimedia Commons)
Desde un humilde vaso hasta la resistente pantalla de un teléfono inteligente, desde el parabrisas antiastillamiento hasta las lentes de precisión de un microscopio, el vidrio es importante actor de nuestra cotidianidad.

Los más antiguos vestigios arqueológicos encontrados hasta ahora indican que el vidrio ya se fabricaba en Mesopotamia 3.000 años antes de la Era Común, utilizándose como recubrimiento (o vidriado) de piezas de cerámica.

Sin embargo, miles de años antes antes de que se inventara la tecnología para producirlo, el ser humano ya había descubierto una forma de vidrio producto de las erupciones volcánicas: la obsidiana, que se utilizó desde la edad de piedra tanto para la fabricación de armas y herramientas, por sus bordes cortantes, como para la creación de adornos y joyas con sus brillantes colores negro, gris y verde.

En Egipto, hace 2.500 años, ya había talleres que hacían tanto piezas de cerámica vidriada como cuentas de vidrio utilizadas para joyería y altamente apreciadas por su brillo, aprovechando la abundancia de los elementos necesarios para su fabricación, como el natrón, esa sal conocida por su empleo como desecante en el proceso de momificación y que se utilizaba como fundente de la arena para fabricar vidrio.

Porque el vidrio es… arena.

El principal componente de la arena es el sílice, o dióxido de silicio, lo que significa que está formado por los dos elementos más abundantes de la corteza terrestre, el oxígeno (46% de la masa del planeta) y el silicio (algo menos del 28%). Cuando el sílice se funde a altas temperaturas con ayuda de un fundente como el carbonato de sodio, que ayuda a reducir la temperatura necesaria para fundir la arena, y un estabilizante como el carbonato de calcio. El añadido de otras sustancias o elementos puede darle al vidrio, entre otras características, mayor brillo, funciones ópticas deseables para diversas aplicaciones, color, dureza o resistencia a los cambios de temperatura.

El único procedimiento para darle forma al vidrio fue el moldeado, hasta que en el siglo I a.E.C. apareció el sistema del vidrio soplado: tomar una bola de vidrio fundido con una larga herramienta hueca y usar el aliento para hacer, literalmente, una burbuja de vidrio soplando aire en su interior. El historiador Plinio afirma que la tecnología nació en Sidón, Siria, en la costa de lo que hoy es el Líbano, y cien años después la tecnología ya se había extendido por el Oriente Medio y el sur de Europa. Hoy sigue siendo el procedimiento (a escala industrial) para producir botellas de vidrio.

El vidrio fascinó a los romanos y aprovecharon la tradición egipcia para promover la producción de vidrio principalmente en la ciudad de Alejandría, extendiéndola luego por sus dominios. La fabricación del material era tan abundante que la gente común tuvo por primera vez acceso a él, en la forma de recipientes y copas. Incluso se empezó a desarrollar la técnica de las hojas de vidrio, aplanado con rodillos. No era muy transparente ni uniforme, pero empezó a usarse como aislamiento en ventanas y casas de baños.

Después de la caída del imperio romano de occidente, la fabricación de vidrio continuó en recipientes, v vasos, copas y frascos, y desarrollando técnicas para dar color al vidrio, ya sea pintándolo o añadiendo al material fundido distintas sustancias para que al solidificarse tuviera un color: el cobre otorga un color rojo, el óxido de hierro le da un azul pálido y el manganeso lo tiñe de morado.

Fue este vidrio de colores el que permitió crear los vitrales que adornaron e iluminaron las iglesias durante la Edad Medida. Estas obras de arte eran, además, conocidas como “la biblia del pobre”, porque representaban pasajes bíblicos gráficamente. En la vida civil, los ricos y poderosos también disponían de vitrales decorativos a su gusto y de ventanas de vidrio traslúcido.

En el lenguaje común, solemos hablar de “el techo de cristal”, “quebrarse como un cristal”, “las casas de cristal”, “el cristal con que se mira”… en todos estos casos estamos, por supuesto, hablando de vidrio, pero lo llamamos “cristal”, especialmente cuando tiene cierta calidad y belleza especiales, como el vidrio plomado (por su singular resplandor y reflectividad), por una cuestión de márketing renacentista.

El vidrio es lo que los físicos llaman un “sólido amorfo”, es decir, que contrariamente a lo que podría indicarnos el sentido común, no tiene una estructura cristalina, sino que sus átomos y moléculas no están ordenados uniformemente. En palabras de un experto, es como si “quisiera ser un cristal” pero su proceso de fabricación se lo impide, convirtiéndolo en un caso especial de los sólidos. Esta estructura es la que le da tanto su transparencia como su proverbial fragilidad.

La tecnología para el vidrio transparente fue perfeccionada hacia el siglo XV en Murano, Venecia, al añadirle óxido de magnesio al vidrio fundido para eliminar el tono amarillo o verdoso que solía mostrar. Sus creadores lo llamaron “cristallo” para destacar su claridad y similitud con el cristal de roca. La tecnología se difundió pronto por Europa pues tenía un resultado adicional inesperado: impartía una enorme ductilidad al vidrio, permitiendo soplar piezas muy delicadas que se volvieron objeto del deseo de los poderosos y que hoy nos siguen fascinando en la forma de finas copas de vino y cava.

Los nuevos combustibles de la revolución industrial animaron la producción de vidrio, pero fue hasta 1902 cuando Irving Colburn inventó el primer proceso capaz de producir grandes hojas de vidrio de espesor uniforme, abatiendo su precio y permitiendo desde los rascacielos recubiertos de vidrio hasta que cualquier pudiera tener ventanas de vidrio.

El siglo XX, finalmente, ha sido la era del desarrollo tecnológico del vidrio para aplicaciones diversas, desde cascos de astronautas hasta pantallas táctiles. Las variedades de vidrio son hoy tan numerosas que es un tanto desafiante recordar que, finalmente, todas se pueden reducir simplemente a arena.

Pero no es un líquido

Existe una extendida leyenda que afirma que el vidrio es un líquido, si bien extremadamente denso. La idea se sustenta en parte en la observación de que algunas piezas de los antiguos vitrales tiende es más gruesa en su parte inferior que en la superior, como si se hubiera “escurrido” al paso de los siglos. Pero no hay datos de que esto sea una constante, sino que el vidrio medieval no se podía hacer de espesor uniforme, y los vitralistas preferían poner la parte más gruesa en la parte inferior, para sostener mejor la estructura de su obra.

La casa de los cometas

¿De dónde vienen los cometas? La observación de estos peculiares objetos celestes sugiere la existencia de un depósito cósmico que aún no hemos podido ver.

La gigantesca nube de Oort que rodea el sistema solar.
(Imagen D.P. de la NASA, vía Wikimedia Commons)
Cuando pensamos en el sistema solar lo imaginamos formado por el sol, los planetas interiores (Mercurio, Venus, la Tierra y Marte), el cinturón de asteroides y los planetas exteriores (Júpiter, Saturno, Urano y Neptuno), además de Plutón, al que la Unión Astronómica Internacional reclasificó en 2006, con gran atención de la prensa, como “planeta enano”, por haberse descubierto en 2005 un cuerpo de tamaño aún mayor que Plutón.

Lo que yace más allá, hasta la estrella más cercana al sol, Proxima Centauri, tendemos a imaginarlo como espacio vacío, acaso con algo de polvo poco relevante.

La realidad es distinta. El sistema solar, definido como todos los cuerpos que están gravitacionalmente vinculados a nuestra estrella, el Sol, está mucho más poblado aunque sea mayoritariamente espacio vacío.

Y en las más inaccesibles zonas de las afueras de nuestro sistema solar, los astrónomos creen que existe un gigantesco depósito del que proceden algunos de los más asombrosos objetos que conviven con nosotros: los cometas y los más misteriosos cuerpos, mitad cometa y mitad asteroides, llamados centauros. Y existen en enormes cantidades.

Un sistema solar grande

La representación del sol y los planetas que habitualmente vemos en libros y documentales no es muy fiel respecto de la escala que guardan entre sí los cuerpos del sistema solar y la distancia a la que se encuentran unos de otros.

En una escala más exacta, si el sol fuera una esfera de un metro de diámetro, la Tierra sería una pequeña esfera de 9 milímetros de diámetro girando en una órbita elíptica a una media de 107,5 metros de distancia del sol; el gigantesco Júpiter tendría 10 centímetros de diámetro y se encontraría a unos 550 metros del Sol y el lejano Plutón, representado por una diminuta esfera de sólo milímetro y medio de diámetro, se situaría a unos 4,2 kilómetros del centro del sistema. Plutón es además parte de una nube de pequeños cuerpos celestes llamada “cinturón de Kuiper”, descubierta apenas en 1992.

En un sistema solar bastante predecible, aparecen sin embargo ocasionalmente en nuestro entorno cósmico otros espectaculares cuerpos, los cometas, formados por hielo, polvo y partículas rocosas. Los astrónomos pueden observar cinco o seis al año, entre conocidos y nuevos. Debido a su composición, al acercarse al sol en un extremo de su órbita se forma a su alrededor una atmósfera temporal llamada “coma” una envoltura gaseosa producto de la volatilización del hielo del cometa.

Conforme los cometas se acercan al sol, el viento y la radiación solares alargan la coma creando la cola del cometa que, por ello, siempre apunta en dirección opuesta al sol. El otro extremo de la alargada elipse que describe la órbita de los cometas se encuentra en las zonas más alejadas del sistema solar.

Los cometas de “período corto” tienen una órbita de entre 20 y 200 años de duración y según los astrónomos proceden de una zona ubicada inmediatamente más allá del cinturón de Kuiper, el llamado “disco disperso”, que contiene al parecer cientos de miles de cuerpos de más de 100 kilómetros de diámetro y un billón o más de cometas. El más famoso cometa de período corto es el cometa Halley, que vuelve a pasar cerca del sol cada 75-76 años.

Pero existen otros cometas, llamados de “período largo”, que pueden tardar más de 200 e incluso varios miles de años en recorrer completa su órbita. Estos cometas, creen los astrónomos, proceden de una gigantesca y difusa esfera llamada “nube de Oort” que se extendería hasta más allá de la mitad de la distancia que nos separa de Proxima Centauri, y se calcula que debería contener incluso billones de cuerpos capaces de convertirse en cometas.

Pero, si nadie ha visto la nube de Oort, ¿cómo saben los astrónomos de su existencia?

Detectives interestelares

Los astrónomos habían observado que los cometas no tienen una zona de origen específica, sino que pueden provenir de cualquier punto del espacio. Es decir, sus órbitas no están alineadas en términos generales como las de los planetas. Esto sugiere que el origen de los cometas de período largo no está en un cinturón de nuestro sistema solar, sino en una esfera.

Adicionalmente, se sabe que las órbitas de los cometas no son estables, y se ha observado que al cabo de varias órbitas, acaban destruyéndose, ya sea volatilizándose o chocando con el sol o con algún planeta, como el cometa Shoemaker-Levy, que en 1992 se disgregó al pasar cerca de Júpiter y, en su siguiente órbita, en 1994, colisionó con el gigante gaseoso.

Con estos elementos, el astrónomo holandés Jan Hendrik Oort razonó que los cometas de período largo no podían haberse formado en su órbita actual, a diferencia de los planetas o el cinturón de asteroides, sino que deberían existir en un depósito esférico durante la mayor parte de su existencia, y que los efectos gravitacionales de su entorno y de los planetas los desplazan de sus órbitas originales lanzándolos al vertiginoso viaje interplanetario cuyo extremo observamos cuando entran a la zona de los planetas del sistema solar. Un viaje vertiginoso que termina, eventualmente, con la destrucción del cometa.

La nube de Oort sería así un remanente de la nebulosa de polvo estelar que se condensó debido a las fuerzas gravitacionales, formando nuestro sistema solar hace alrededor de 4.600 millones de años.

La hipótesis, presentada públicamente en 1950, es la más plausible que tenemos para explicar el comportamiento que observamos en los cometas. Demostrar que es correcta resulta uno de los grandes desafíos de la astronomía.

El primer paso para ello es la misión New Horizons (Nuevos Horizontes), lanzada por la NASA en 2006. La sonda, la primera misión de su tipo, recorrerá 5 mil millones de kilómetros para llegar, en 20015, a Plutón y seguir su camino hasta el cinturón de Kuiper.

Sus observaciones sobre los objetos que forman el cinturón de Kuiper nos pueden aportar datos sobre los cometas de período corto y saber más sobre sus parientes de período largo y el misterioso lugar de su origen en el espacio fronterizo de nuestro sistema solar, que ciertamente no está tan vacío como pensábamos.

Jan Hendrik Oort

Jan Hendrik Oort, 1900-1992, es uno de los más importantes astrónomos del siglo XX. Con poco más de veinte años postuló que nuestra galaxia gira como los fuegos artificiales llamados “rueda catalina”, donde las estrellas cercanas al centro giran a más velocidad que las que están en las zonas exteriores. Demostró además que nuestro sistema solar se encuentra en uno de los brazos exteriores de la galaxia y no en su centro, postuló la existencia de la materia oscura y fue uno de los pioneros de la radiotelescopía.

Cómo hundir un barco

No fue, por mucho, el más trágico hundimiento hasta entonces (el vapor SS Sultana se hundió en el río Mississippi el 27 de abril de 1865 matando a 1.800 de sus 2.400 pasajeros), y desde su hundimiento, otros desastres han superado con mucho a las 1.523 víctimas mortales del Titanic. Sin embargo, el hundimiento del enorme transatlántico ha cautivado la atención del público y los medios durante cien años.

El Titanic en el muelle de Southampton
(foto D.P. de autor anónimo vía Wikimedia Commons)
Buena parte de la fascinación, hasta donde sabemos, se basa en la idea de que el Titanic había sido anunciado ampliamente como un barco “imposible de hundir” (“unsinkable” en inglés) y que el accidente que lo llevó al fondo del mar había sido una especie de golpe del destino o de los poderes divinos contra la arrogancia de los constructores, idea promovida por el obispo de Winchester en una prédica poco después del hundimiento.

Pero tal afirmación es, al menos, imprecisa. En un folleto de la línea White Star durante la construcción de los barcos gemelos Olympic y el Titanic (el segundo apenas un poco más grande), se afirmaba que “en la medida en que es posible hacerlo, estas dos maravillosas naves están diseñadas para ser imposibles de hundir”, mientras que otro folleto, distribuido en Estados Unidos, explicaba el sistema de compuertas estancas del Titanic afirmando que “prácticamente hacían a la nave imposible de hundir”.

Estas afirmaciones publicitarias son cercanas a las que escuchamos sobre productos milagrosos que “podrían ayudar a combatir el envejecimiento” o “podrían combatir” tal o cual afección (y, queda implícito, podrían no hacerlo). Es decir, se han redactado para dar una impresión determinada pero que no pueda ser un compromiso exigible si algo fallara. La línea dueña de las embarcaciones, pues, se cubrió las espaldas.

Pero el público en general, la prensa e incluso el capitán del Titanic, dejaron de lado las precauciones para asegurar categóricamente que el barco era imposible de hundir. Algo absurdo considerando cómo flotan y cómo se hunden los barcos.

Arquímedes y la flotación

Evidentemente, las embarcaciones flotaban miles y miles de años antes de que supiéramos por qué. Aunque las embarcaciones más antiguas halladas hasta hoy por los arqueólogos son de hace un máximo de 10.000 años, la evidencia de las migraciones humanas nos sugiere que el hombre las utiliza desde hace más de 100.000 años y con ellas realizó el poblamiento de tierras aisladas como Australia, hace 40.000 años.

La fabricación de embarcaciones fue, por tanto, un arte basado en experiencias empíricas hasta que Arquímedes, en el siglo III antes de la Era Común describió en su libro “Sobre los cuerpos flotantes” que un cuerpo sumergido en un líquido experimenta un empuje hacia arriba igual al peso del líquido que desplaza. Esto quiere decir que un cuerpo puede flotar si desplaza una cantidad de agua que pese menos que ellos, para lo cual le damos una forma tal que tenga una cantidad suficiente de aire en su interior, y así pueda desplazar su peso en agua sin que el agua llegue a entrar en él. Un barco de acero como el Titanic, de 46.000 toneladas, está diseñado para desplazar más de 46.000 toneladas de agua marina.

Por ello mismo, hay materiales que flotan por sí mismos sin importar su forma, porque su densidad intrínseca es menor a la densidad del agua. O, dicho de otro modo, un determinado volumen de ellos pesa menos que el mismo volumen de agua.

Al entrar agua en una embarcación, el aire se sustituye por agua y la densidad total del barco aumenta hasta que se hunde.

Esto permite entender cómo se diseñó el Titanic para evitar que una perforación del casco provocara la inundación de todo el barco. Por debajo de la línea de flotación, el barco estaba dividido en 16 compartimientos estancos que podían cerrarse rápidamente. Si había una perforación, se sellaba el compartimiento de modo que, aunque se inundara, la nave seguiría a flote. De hecho, se calcula que el Titanic se podría haber mantenido a flote incluso si cinco de los compartimientos se inundaran.

Y sin embargo, se hundió.

Fallos en cascada

El estudio de los restos del Titanic ha permitido determinar cuáles fueron los factores que incidieron en el desastre.

En primer lugar, el acero de la nave y el hierro los remaches utilizados para armar el casco de la nave sucumbieron a un fenómeno llamado “fractura frágil”, en la que un metal se rompe sin sufrir previamente una deformación. Este tipo de fractura ocurre cuando se presentan tres factores, mismos que se dieron en el Titanic esa noche: que el metal tenga un alto contenido de azufre, que esté a muy baja temperatura y que el impacto que sufra sea muy fuerte. Esto fue demostrado con muestras del Titanic en 1994 y 1995.

Pero además el barco chocó lateralmente contra el iceberg, no de frente, de modo que éste provocó 6 largas heridas en el casco que inundaron los seis compartimientos delanteros. Las compuertas se cerraron inmediatamente después de la colisión, pero el daño era demasiado. Se calcula que el Titanic podría haber soportado incluso la inundación de cinco compartimientos, uno menos de los dañados.

Esto explica además por qué el hundimiento fue tan rápido y la forma en que se dio, con toda la proa inundada, haciendo que el barco se inclinara para después partirse en dos. Incluso se ha hecho notar que si no se hubieran cerrado las compuertas, el agua se habría extendido por todo el casco haciendo más lento el hundimiento, lo que habría permitido que se utilizaran mejor los botes salvavidas y que el Carpathia, el barco de pasajeros que se apresuró a llegar al lugar del hundimiento, rescatara a muchos más supervivientes.

La explicación de la fascinación pública sobre el Titanic será, sin duda, mucho más difícil de desentrañar que los fallos de diseño y de materiales que provocaron su hundimiento. Pero el legado más importante de la tragedia, vale tenerlo presente, fue una intensa mejora en los diseños y métodos de construcción de barcos, en la seguridad y en la legislación sobre botes salvavidas, que han salvado, con certeza, muchas más vidas de las que se perdieron esa madrugada en el Mar del Norte.

La búsqueda del Titanic

Durante 73 años, distintos grupos se ocuparon de buscar los restos del Titanic. La creencia de que se había hundido en una sola pieza alimentó todo tipo de especulaciones, como la que llevó al escritor estadounidense Clive Cussler a escribir la novela “¡Rescaten al Titanic!”, un thriller en el que se utiliza aire comprimido para reflotar el pecio y rescatar un supuesto mineral que transportaba. La novela fue llevada al cine con poco éxito en 1980. El 1º de septiembre de 1985, una expedición francoestadounidense encontró finalmente los restos del famoso barco.

La alquimia de la cocina

Cocinar los alimentos es un acto que les provoca cambios químicos y físicos fundamentales que no sólo mejoran su sabor, sino que pueden ser la diferencia entre lo nutritivo y lo que no lo es.

"Los comedores de patatas", de Vincent van Gogh.
Al cocinar las patatas o papas, sus moléculas de almidón
se descomponen facilitando su digestión.
(Museo van Gogh D.P. vía Wikimedia Commons)
Los más recientes datos (y seguramente habrá otros) indican que los humanos utilizan el fuego desde hace cuando menos un millón de años. Este descubrimiento en la cueva de Wonderwerk en Suráfrica da fuerza a la hipótesis de Richard Wrangham, de la Universidad de Harvard, en el sentido de que cocinar la comida fue un prerrequisito para la aparición del hombre moderno, al proporcionar una mejor nutrición que permitió el crecimiento de un cerebro más grande y que nuestros ancestros pasaran menos tiempo masticando. Su hipótesis exigía que los homínidos utilizaran el fuego hace al menos un millón de años.

Curiosamente, esta hipótesis iría a contracorriente de la creencia de que lo “natural” para el ser humano es el consumo casi exclusivo de vegetales, y de preferencia crudos.

Y es que cocinar los alimentos los transforma profundamente y, al mismo tiempo, parece habernos transformado como parte de nuestra forma de enfrentar el mundo. No hay ninguna cultura que no cocine sus alimentos, y de hecho identificamos buena parte de las culturas por su cocina, sus peculiaridades gastronómicas.

Tres son los cambios esenciales que se producen en un alimento al cocinarlo y que lo convierten en una fuente de nutrición mejor para el ser humano.

En primer lugar, descompone las moléculas de almidón en fragmentos más digeribles. El almidón es el carbohidrato más común de la dieta humana, aunque solemos pensar en él principalmente asociado a la patata, que tiene un contenido especialmente alto en almidón. Pero está presente tanto en el centeno como en las castañas, las lentejas, los guisantes, los garbanzos y, en general, en cereales y raíces, en una forma cristalina distinta en cada alimento.

Las enzimas digestivas tienen problemas para digerir las estructuras cristalinas, entre ellas la del almidón. Al cocinar los almidones, se aumenta su facilidad de digestión. Por esto mismo, los cereales no eran una buena forma de obtener energía antes de que el ser humano dominara el fuego y pudiera cocinarlos para obtener desde unas sencillas gachas hasta el pan y demás alimentos de cereales horneados y todas las formas de pasta, ya sea oriental o italiana.

En segundo lugar, el calor desnaturaliza las moléculas de las proteínas. La forma física de las proteínas es esencial para la función que cumplen. Las proteínas están formadas por cadenas de aminoácidos (sus elementos esenciales) que se doblan en ciertas formas utilizando uniones químicas. Al cocinar las proteínas, se rompen esos enlaces químicos y se desdoblan (o desnaturalizan) las cadenas de aminoácidos que los componen, lo cual facilita la acción de las enzimas digestivas, que así pueden descomponer las proteínas en aminoácidos que nuestro cuerpo utiliza para construir sus propias proteínas.

El ejemplo más conocido de este proceso es el que podemos ver al freír un huevo. Las proteínas que conforman la clara del huevo tienen forma globular, como un papel arrugado. Al calentarlas, las proteínas chocan entre sí y con otros elementos (como el aceite) desdoblándose y creando una red de cadenas de proteínas que capturan el agua del huevo, cambiando además drásticamente su aspecto de transparente a blanco. El aparato digestivo humano digiere mucho mejor el huevo cocido que el huevo crudo.

Finalmente, y no por ello menos importante, el calor suaviza físicamente los alimentos. Los granos secos como el trigo, el centeno o la cebada, la carne seca, son bastante más fáciles de consumir, y no sólo por adultos sanos, sino también por niños y ancianos que hayan perdido piezas dentales.

Además de estos cambios que benefician el consumo y aprovechamiento de los alimentos, hay otros que influyen en su sabor, y entre ellos destaca la reacción descrita a principios del siglo XX por el francés Louis-Camille Maillard y que lleva su nombre.

Reacción de Maillard

El color dorado de los alimentos cocinados les aporta un atractivo especial, no sólo por el aspecto que adoptan, sino porque aumenta intensamente su sabor.

Las marcas doradas de la parrilla en la carne, la corteza del pan, la crujiente piel del pollo son apetitosos ejemplos. Este color dorado se debe a la llamada "reacción de Maillard", que es en realidad un complejo conjunto de reacciones químicas simultáneas donde la temperatura elevada provoca que interaccionen las proteínas y las azúcares de los alimentos, un proceso similar a la caramelización.

Las moléculas producto de esta reacción forman azúcares dobles responsables del regusto dulce de las zonas más doradas. También producen proteínas de peso molecular bajo que imparten aroma a los alimentos. El resultado incluye en su conjunto literalmente cientos de posibles compuestos que nos resultan simplemente sabrosos.

Cada alimento experimenta su propia reacción de Maillard y el resultado depende también de la presencia de otros alimentos o condimentos, el método de cocción, el tiempo y las temperaturas. Cada alimento tiene su particular reacción de Maillard con resultados que varían según los diferentes métodos de cocción, temperaturas o interacción con otros alimentos. Esto explica además la poco apetitosa palidez y blandura de los alimentos cocinados al vapor o hervidos, y que nunca llegan a experimentar esta transformación sorprendente.

Otra forma de dorado pariente de la reacción de Maillard es la caramelización, que ocurre cuando se oxidan las azúcares de un alimento, dando como resultado un sabor característico. Al calentarse un azúcar, se elimina el agua que contiene y el azúcar en sí se descompone mediante un proceso aún no bien detallado que da como resultado las sustancias que le dan su sabor y aroma a los alimentos.

Quedan por averiguar, sin embargo, muchas dudas gastronómico-científicas, desde el momento preciso en que los ancestros de los humanos modernos empezaron a cocinar hasta algún procedimiento contrastado y fiable para conseguir que los niños se coman las verduras… probablemente una forma de darles sabor a pizza. Finalmente, hay toda una especialidad de la ciencia de los alimentos dedicada a los misterios de la pizza.

La gastronomía molecular

Junto al estudio de la nutrición, la seguridad alimenticia, la microbiología, la conservación y demás disciplinas relacionadas con nuestra comida, desde 1988 existe el concepto de “gastronomía molecular”, creado por el físico Nicholas Kurti y el químico Hervé This con objeto de estudiar científicamente las transformaciones y procesos culinarios desde el punto de vista de la física y la química, por ejemplo en la cocción, el batido, los cambios de temperatura, etc.. Aunque algunos chefs lo utilizan para distinguir productos de su cocina que utilizan procesos físicoquímicos complejos, como el uso de nitrógeno líquido o gelificaciones.