Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La medicina en la guerra de independencia

Conociendo los elementos a disposición de los médicos hace 200 años, podemos apreciar mejor la medicina que tenemos, pese a sus muchas limitaciones.

Quienes en 1808 decidieron levantarse contra los franceses en Madrid tenían poco qué esperar de los médicos de su entorno, no por la falta de patriotismo o de rechazo al ocupante por parte de la profesión médica, sino porque los avances que se estaban viviendo en las ciencias físicas y naturales no se reflejaban en la medicina, que seguía siendo un arte con poca efectividad pese a la innegable buena voluntad de los practicantes. Incluso el sueño de los enciclopedistas de integrar al ser humano al estudio de las ciencias naturales no llevaba todavía a cuestionar y reevaluar profundamente las teorías médicas. Aunque la descripción del cuerpo humano, su anatomía, había recibido un fuerte impulso desde el Renacimiento, el funcionamiento del mismo estaba aún en la oscuridad, y los medicamentos eficaces eran todavía un sueño.

Un médico de principios del siglo XIX atendía a sus pacientes sin lavarse las manos, ni siquiera después de manipular una herida en un paciente y pasar a otro, pues lo ignoraba todo acerca de los gérmenes patógenos. Aunque Anton van Leeuwenhoek ya había observado los “animalillos” o seres vivientes microscópicos a fines del siglo XVII, la conexión de éstos con las enfermedades infecciosas no se establecería sino hasta mediados del siglo XIX.

Según la teoría de los médicos de principios del siglo XIX, las enfermedades se transmitían por algún medio misterioso, como aires malévolos (que se prevenían colocando productos aromáticos en las ventanas y habitaciones, como el ajo), o eran de generación espontánea, afectando a alguno de los cuatro humores que se creía que componían al cuerpo. La medicina todavía sostenía que el cuerpo humano estaba lleno de cuatro “humores” o líquidos, la bilis negra, la bilis amarilla, la flema y la sangre. En un cuerpo sano, los cuatro humores estaban equilibrados, pero creían que alguno de ellos podía aumentar por contagio o de modo espontáneo, y que ese desequilibrio provocaba la enfermedad. La forma de tratar dicha enfermedad era, entonces, devolver el equilibrio humoral al cuerpo. Las sangrías (mediante cortes o con sanguijuelas) comunes en la medicina del siglo XVIII y hasta principios del XIX eran resultado de esta teoría.

Como los cuatro humores se relacionaban con los cuatro elementos que se creía que eran los esenciales del universo (cosa que, increíblemente, aún sostienen algunas personas que hablan de los “cuatro elementos” en lugar de los más de 115 que conocemos hoy (de los que 94 ocurren naturalmente y los demás son sintéticos), se desarrollaron alambicadas correlaciones, asegurando que las personas en las que predominaba un humor u otro se caracterizaban por rasgos físicos y emocionales claros. Esas creencias, carentes totalmente de bases en la realidad, se mantienen con la descripción que podemos hacer de los ingleses como “flemáticos”, que quiere decir persona con exceso de flema, que es por tanto tranquilo y poco dado a expresar emociones, mientras que las personas que se enfadan con facilidad son “coléricas” o “biliosas” por tener un exceso de bilis amarilla.

Esta visión tenía un referente social, como hoy lo tienen otras visiones médicas, como las infecciones graves, el cáncer o el Alzheimer, es decir, no se limitaba a la salud y la enfermedad. Los monarcas y los siervos se calificaban y valoraban según estos principios, y se actuaba en consecuencia, en todos los niveles, desde el jurídico hasta el económico.

Una habilidad caracterizaba a todo buen médico de la época, y era la capacidad quirúrgica, en particular la capacidad de realizar amputaciones con gran precisión y velocidad. Y el motivo era la falta de anestésicos y analgésicos. Recibir un disparo o un corte profundo durante una batalla podía conllevar tal destrucción de los huesos que no se podía esperar que soldaran naturalmente, y se amputaba el miembro, igual que cuando se presentaba una infección y gangrena que, sin antibióticos, sólo podía detenerse con la sierra y el cuchillo, por supuesto que sin desinfectar ni lavar desde la anterior amputación. Si el paciente era rico y poderoso, podía quizás contar con opio suficiente para calmar el dolor de la herida y paliar el de la amputación, pero que de no serlo apenas tenía como opción beber algo de alcohol, morder algo como una rama de árbol y someterse a que lo contuvieran los ayudantes del cirujano mientras éste trabajaba, mientras más rápido mejor. Y si la amputación se decidía poco después de la herida y se realizaba de inmediato, se contaba con ventajas como la insensibilidad relativa del miembro afectado y la constricción de los vasos sanguíneos, sabemos ahora que a causa del shock de la herida. Los cirujanos también podían atender los dientes, como en el caso de abscesos o extracciones, pero la habilidad y conocimientos anatómicos de los cirujanos no se podía aplicar en muchas formas sin los anestésicos y su utilización generalizada que vinieron a mediados del siglo XIX.

Finalmente, el médico de principios del siglo XIX no contaba tampoco con un estetoscopio, aunque ya podía aplicar las vacunas desarrolladas por Edward Jenner, que funcionaban sin que se supiera exactamente cómo. Entre su arsenal tenía dentaduras y varios miembros postizos, así como anteojos e incluso bifocales que le permitían ayudar a sus pacientes a recuperar una visión adecuada y útil. Pero por lo demás estaban solos ante la enfermedad, como los últimos médicos cuya vocación se veía frustrada por la falta de herramientas, conocimientos y teorías adecuados para cumplir su objetivo de conseguir “el bien de sus pacientes”, como reza el juramento hipocrático desde el siglo IV antes de nuestra era.

Pocos años en el futuro, los médicos, quizá incluso los que participaron muy jóvenes tratando de salvar vidas en el levantamiento de 1808, tendrían en sus manos la práctica antiséptica, la anestesia, la teoría de gérmenes, la jeringa hipodérmica, el estetoscopio y todo un arsenal nuevo, inimaginable en los hospitales de campaña de Madrid hace 200 años.

Las heridas de guerra

Más allá de la amputación, los médicos de 1808 disponían de otras armas para tratar las heridas sufridas en combate. Empleaban vendas con yeso para unir fuertemente los dos extremos de una herida rasgada, y las heridas más grandes se cosían con hilo de algodón o hecho de tendones. Las heridas muy profundas causadas por armas punzocortantes no podían tratarse directamente, de modo que la opción era dejarlas sangrar para que salieran la suciedad y otros cuerpos extraños, para lo cual a veces incluso se abrían más. Las balas de mosquete, cuando no producían heridas mortales, eran extraídas por el cirujano con los dedos, y cuando eran demasiado profundas para alcanzarlas, se les dejaba dentro del paciente.

Momias: mensajes del pasado

El hecho de que los seres humanos estemos conscientes de nuestra propia mortalidad, unido al natural, instintivo deseo de sobrevivir, ha convertido a las momias en una fuente continua de asombro, supersticiones, ideas religiosas y, apenas en los últimos 200 años, fuente de información obtenida científicamente sobre el pasado no sólo del individuo momificado, sino de su entorno, su sociedad y su cultura.

Una momia es todo cadáver humano que al paso del tiempo desde su fallecimiento no sufre, el proceso de descomposición habitual, sino que conserva, total o parcialmente, la piel y carne. Esto puede ocurrir debido a las condiciones naturales de la ubicación del cuerpo (lugares en extremo fríos, con muy bajos niveles de humedad o ausencia de oxígeno) o bien puede ser resultado de un proceso intencional mediante el cual se conserva el cuerpo. El proceso de momificación más conocido es, sin duda, el egipcio, que se desarrolló a lo largo de unos tres mil años generando una enorme cantidad de ejemplos de diversos niveles de complejidad (y eficiencia) en el proceso de conservación del cuerpo.

Pero las momias más antiguas no son las egipcias. Hay indicios de que los antiguos persas momificaban a sus príncipes, pero no pruebas. Sin embargo, las momias de mayor antigüedad son las de la cultura chinchorro del norte de Chile, que momificó a sus muertos durante dos mil años empezando al menos en el año 5.000 antes de nuestra era. La antigüedad de sus momias, según explica el Dr. Bernardo Arriaza, uno de los principales estudiosos de las momias chinchorro, ha hecho que se revaloren las ideas preconcebidas sobre el “simplismo” de la vida de las sociedades de cazadores-recolectores, que puede haber sido mucho más elaborada de lo que creíamos. Si tenemos en cuenta que, en la actualidad, en muchas culturas se utilizan técnicas de embalsamamiento de modo habitual, podemos decir que las prácticas de momificación que iniciaron los chinchorro hace 7 mil años siguen en vigor como parte de nuestra cultura.

Las momias chinchorro, al igual que las egipcias y algunas momias chinas, son ejemplos de momificación intencional, es decir, que sus sociedades realizaron un esfuerzo por conseguir que el cuerpo no se descompusiera, o al menos no del todo. Es razonable suponer que las prácticas de momificación artificial se dieran después de que en sus culturas se hubieran observado los efectos de la momificación natural producida por la extrema sequedad de los desiertos de Atacama en Chile o del Sahara en Egipto. La preservación de los cuerpos, fuente de asombro y de creencias religiosas en todas las culturas (pensemos en los “cuerpos incorruptos” que se adoran en el catolicismo moderno como expresiones de cercanía con la divinidad), impulsó el desarrollo de técnicas que consiguieran el mismo resultado. El uso de la sal llamada “natrón” por los egipcios, que desecaba rápida y eficientemente el cuerpo, así como la extracción de las vísceras (excepto el corazón, que se dejaba en su sitio por ser considerado el asiento del alma), fueron los elementos que definieron la técnica egipcia, iniciada alrededor del 3.300 a.n.e. y que se utilizó hasta el siglo VII de nuestra era, cuando Egipto pasó de manos del imperio bizantino a las de los árabes, iniciándose su período islámico.

Las momias, que antes se estudiaban abriéndolas con métodos altamente destructivos, hoy son estudiadas mediante radiografías, escáneres CAT y MRT, estudios de ADN obtenido de la médula de sus huesos o de la pulpa de sus dientes, y otros sistemas que, casi sin dañar a la momia, nos pueden dar más información sobre la persona, su entorno y su cultura. Uno de los mejores ejemplos de esta cosecha de datos lo aporta la momia conocida como Ötzi, la momia natural de un cazador de la era del cobre, alrededor del 3.300 a.n.e. encontrado en un glaciar de los Alpes en la frontera entre Austria e Italia. El estudio de su cuerpo, del polen que se encontraba en su ropa y utensilios, del esmalte de sus dientes, de sus muchos tatuajes y del contenido de su estómago han permitido a los paleoantropólogos dibujar un retrato muy preciso del hombre, de los lugares en los que vivió, de lo que comía, de sus creencias y cultura, e incluso de su muerte, provocada por una flecha que le fue disparada por la espalda y un fuerte golpe en la cabeza.

Otras momias naturales relevantes son las producidas por el enterramiento en suelos altamente alcalinos, en las estepas, o en turberas, donde los cuerpos se conservan de modo espectacular debido a la acidez del agua, el frío y la falta de oxígeno, que en conjunto “curten” la piel y tejidos suaves del cuerpo. Estos ejemplares, lanzados a las turberas como sacrificios o asesinados, según se ha determinado, se han encontrado sobre todo en el norte europeo y en Inglaterra. Quedan por mencionar los casos, algunos dudosos, de momificación espontánea de algunos monjes budistas chinos y japoneses, así como los cuerpos de personajes relevantes del catolicismo y al menos un yogui indostano. Desafortunadamente, las consideraciones religiosas y de los sentimientos de los fieles y los líderes religiosos hacen muy difícil el estudio de estos restos, máxime cuando ya ha habido casos en que la ciencia ha concluido que ciertos “cuerpos incorruptos” habían sido en realidad embalsamados o, incluso, eran figuras de cera que podían albergar en su interior los verdaderos restos, descompuestos, del individuo en cuestión.

En cierto sentido, el punto culminante de la momificación ha sido alcanzado con la plastinación, un proceso desarrollado por el médico alemán Gunther von Hagens mediante el cual el agua y los tejidos grasos del cuerpo son sustituidos por polímeros como la silicona y las resinas epóxicas. Von Hagens crea especímenes para ayudar en las clases de medicina, pero también ha entrado en controversia con sus exposiciones Body Worlds, que muestran cuerpos plastinados en actitudes de la vida cotidiana. Para Von Hagens, “la plastinación transforma el cuerpo, un objeto de duelo individual, en un objeto de reverencia, aprendizaje, iluminación y apreciación”. Sus cuerpos plastinados son toda una lección sobre nuestro cuerpo, ya no un intento de permanecer en otra vida.


La palabra “momia”

El vocablo “momia” nos fue legado del latín, que a su vez lo obtuvo de “mumiya”, vocablo de origen árabe o persa que significa “betún” o “bitumen” y que originalmente designaba a una sustancia negra, parecida al asfalto, de composición orgánica, que se obtenía en Persia y se creía que poseía poderes curativos. Debido al color negro que asume la piel de las momias egipcias, durante siglos se tuvo la creencia de que en su proceso de momificación se utilizaba precisamente betún. La creencia era incorrecta, pero la palabra permaneció.

La antigüedad de las cosas

La comprensión del tiempo que tienen los objetos, los seres, los lugares, los planetas y el universo entero ha exigido que la tecnología sepa cómo medir su edad con una certeza razonable.

Desde que el arzobispo de Armagh, James Usher, usó la cronología bíblica para establecer que la creación del mundo había ocurrido el 23 de octubre del año 4004 A.e.C. hasta nuestra actual estimación, usando los conocimientos de la física y la cosmología, de que la tierra tiene unos 4.540 millones de años de existencia, mucho hemos andado para entender mejor las cifras (muchas veces vagas, o exageradas hacia arriba o hacia abajo) de algunos relatos históricos, no siempre fieles a los hechos, lo que hizo que Heródoto de Halicarnaso sea considerado al mismo tiempo “padre de la historia” y “padre de las patrañas”.

Sin embargo, en cuanto a las fechas de los hechos históricos, Heródoto no tenía más fuentes que las afirmaciones de quienes le relataban las historias, y algunas cronologías más o menos fiables. Otros estudiosos de la antigüedad se veían en problemas al encontrar, por ejemplo, los huesos fosilizados de dinosaurios, y ciertamente habrían encontrado difícil aceptar que tales seres habrían muerto 150 millones de años antes. Pero a nuestro alrededor son muchísimas las cosas que piden que identifiquemos su antigüedad: los seres vivos, en especial los longevos como ciertos árboles, las tortugas o los elefantes; los hechos históricos, reinados, batallas, acontecimientos; los restos del pasado: ciudades, muebles, restos de seres vivos, incluyendo a los seres humanos; los ríos, las montañas, los planetas, las estrellas, el universo todo. Responder a las cuestiones de la datación, de fechar con precisión hechos del pasado, a veces del pasado más lejano posible, del principio mismo del tiempo, ha puesto a prueba los recursos humanos.

La cuenta de los años era un problema, sobre todo cuando coexistían numerosos grupos que tenían distintas formas de medir el año, calendarios lunares, calendarios solares, calendarios rituales, y distintos niveles de conocimiento de las matemáticas y astronomía necesarias para tener cuentas precisas. Poco a poco, mientras se conocían hechos como que la formación de los anillos en los árboles tenía un ciclo anual, es decir, cada anillo correspondía a un año, se fue haciendo claro para los estudiosos que fenómenos como los estratos observables de la corteza terrestre también mostraban una sucesión cronológica. Es decir, cada capa era más joven que la inferior a ella y más antigua que la superior a ella, lo que permitió al menos una serie de dataciones “relativas”, que permitía conocer en qué sucesión ocurrieron algunos hechos, pero no las fechas más o menos precisas en que se dieron. Los fósiles y las características geológicas de los estratos fueron dando datos valiosos sobre la vida del planeta.

La datación “absoluta” o calendárica es un producto sumamente reciente de la tecnología, ya que sus marcos de referencia sólo estuvieron a nuestro alcance cuando conocimos la composición atómica de la materia y el fenómeno de la radiactividad. Con estos conocimientos, en 1949 se diseñó la datación mediante el “carbono 14” o C-14 con un procedimiento “radiométrico”, pues mide la descomposición de isótopos radiactivos. Sus principios son: 1) Toda la materia orgánica del planeta se basa en el carbono, incluidos nosotros y nuestros alimentos vegetales o animales, y día a día consumimos y desechamos carbono continuamente. 2) El carbono que nos forma es principalmente el carbono 12, es decir, la forma de este elemento que tiene 12 neutrones en su núcleo además de los 6 protones que lo definen como carbono. 3) El carbono 14 (con 14 neutrones) es un isótopo radiactivo (por eso se llama “radiocarbono”) que existe en proporciones muy pequeñas mezclado con el carbono 12 y que al emitir radiación se degrada convirtiéndose en nitrógeno 14. En 5730 años (la “vida media” del radiocarbono) la mitad del C-14 presente en una muestra se ha convertido en N-14. 4) La proporción de radiocarbono en todos los seres vivos se mantiene relativamente constante mientras viven, porque el carbono que consumen ny emiten contiene igual proporción de C-14. Sin embargo, al morir se deja de “renovar” el C-14, y el restante se sigue degradando.

Sobre estas bases, si un científico analiza huesos antiguos y descubre que su proporción de C-14 es de una cuarta parte de la que tienen los seres vivos, puede concluir, con buen grado de certeza, que dichos huesos tienen alrededor de 11.460 años.

La corta vida media del C-14 sólo permite utilizarlo para datar objetos o tejidos de hasta 40.000 años de antigüedad, y la precisión de la datación disminuye conforme más antiguo es el especimen de estudio. Para dataciones más antiguas se utilizan otros radioisótopos como el de potasio-argón, que utiliza el isótopo potasio-40 que al decaer se convierte en argón-40, pero tiene una vida media de 1.300 millones de años y además se puede usar para datar no sólo objetos orgánicos, sino también rocas. Otro procedimiento es el llamado “de termoluminiscencia”, que permite analizar la luz emitida por una roca o pieza de cerámica al calentarla para determinar cuándo fue la última vez que se calentó a tal temperatura, obteniendo así, por ejemplo, las fechas de horneado de un artefacto de barro o la fecha de una erupción volcánica.

Los sistemas de datación relativa y absoluta, unidos, permiten ir desentrañando con precisión numerosas fechas de la historia humana. En otros casos las fuentes, interpretadas a la luz de nuevos conocimientos, resultan una importante herramienta, como ocurre con el registro de eclipses o el paso de un cometa que podemos encontrar en escritos antiguos y que unido a la moderna astronomía pueden ponerle fecha exacta al hecho.

Y quizás por todo esto, la pasión humana por registrar los hechos actualmente se fecha tan cuidadosamente, para que nuestros descendientes, de haberlos, no sufran las confusiones que la especie humana ha tenido durante casi toda su historia acerca de la antigüedad de las cosas.

La edad del universo

La verdadera edad del universo, así como la de las estrellas y de los planetas, incluido el nuestro, no pudo calcularse con precisión sino hasta que conocimos la relatividad general gracias a Einstein en 1915, el astrónomo Edwin Hubble nos hizo saber en 1925 que el universo era más grande de lo supuesto y además estaba en expansión, y, finalmente, la técnica y la ciencia nos permitieron medir la radiación de fondo cósmico de microondas, que demostró que el universo y el tiempo habían comenzado en el Big Bang, y además nos han permitido la medición más precisa hasta hoy de la edad de nuestro universo: 13.700 millones de años, con un margen de error de 200 millones arriba o abajo.

Galileo, el rebelde renuente

Galileo Galilei, retrato
de Ottavio Leoni
En 2009, el Vaticano develará una estatua de Galileo Galilei en sus jardines, en capítulo más de un desencuentro originado en 1613 cuyos efectos siguen marcando a la ciencia y a la iglesia.

El choque que protagonizaron Galileo Galilei y la Inquisición a principios del siglo XVII es uno de los momentos más famosos de la historia del pensamiento científico, pero no siempre bien conocido, sino rodeado de leyendas y verdades a medias.

Nacido en Pisa, Italia, en 1564, Galileo Galilei se inclinó por las matemáticas llegando a ocupar la cátedra en su ciudad natal con apenas 25 años de edad. Tres años después, en 1592, fue a la Universidad de Padua, donde fue durante 18 años profesor de geometría, mecánica y astronomía, además de realizar importantes trabajos de investigación en física, matemáticas y astronomía que le llevaron a proponer algunos fundamentos esenciales del método científico, como la confianza en experimentos que pudieran ser analizados matemáticamente, la fidelidad a los experimentos aunque contradijeran creencias existentes, y la negativa a aceptar ciegamente la autoridad, implicando que se puede, y debe, cuestionar la autoridad si los datos la contradicen.

En 1608, basado en descripciones generales del telescopio inventado muy poco antes en Holanda, Galileo empezó a construir los propios para observar el cosmos. Así, el 7 de junio de 1610, descubrió tres pequeñas estrellas cerca de Júpiter, y durante las siguientes noches pudo observar que se movían, que al parecer pasaban por detrás de Júpiter, y reaparecían. No tardó en concluir que eran lunas en órbita alrededor de Júpiter, y el 13 de enero descubrió la cuarta. El anuncio de este descubrimiento, el de un cuerpo celeste alrededor del cual orbitaban otros, contradecía el modelo geocéntrico, según el cual todos los cuerpos del universo giraban alrededor de nuestro planeta. Sus datos fueron recibidos con suspicacia por astrónomos y filósofos, más cuando, en septiembre de ese año, describió las fases de Venus, similares a las de la Luna, lo que apoyaba al modelo heliocéntrico de Copérnico, señalando que el Sol era el centro del universo. Otras observaciones problemáticas de Galileo fueron las de las manchas solares y de las montañas y cráteres de la Luna. La filosofía vigente consideraba que los cielos eran la expresión de la perfección invariable de la creación, y para Aristóteles los cuerpos astronómicos eran esferas absolutamente perfectas, sin manchas ni irregularidades.

La descripción de sus observaciones astronómicas en sus obras El mensajero estelar de 1610 y Cartas sobre las manchas solares en 1613, abiertamente copernicana, iniciaron la controversia. En una prédica, el Padre Niccolo Lorini, fraile dominico y profesor de historia eclesiástica en Florencia, declaró que la idea copernicana violaba las escrituras. Galileo respondió en su Carta a Castelli, diciendo que las escrituras en no siempre debían interpretarse en sentido literal. El objetivo de Galileo era reconciliar a las escrituras con sus descubrimientos, pero Lorini mandó en 1615 a la Inquisición un ejemplar de la Carta a Castelli modificado a conveniencia para hacer más radical a Galileo, acompañado de sus observaciones compartidas por “todos los padres del Convento de San Marcos”. La Inquisición nombró a 11 teólogos para que calificaran el tema. Las proposición que debían evaluar eran “1. El sol es el centro del mundo y totalmente inamovible de su lugar” y “2. La tierra no es el centro del mundo, ni es inamovible, sino que se mueve en su totalidad, también con movimiento diurno”. Ambas proposiciones fueron rechazadas unánimemente por los calificadores, y consideradas contradictorias con las Sagradas Escrituras “en muchos pasajes”. El resultado fue comunicado a Galileo y se le ordenó abandonar los puntos de vista copernicanos.

Las consecuencias del decreto fueron diversas, entre ellas que la obra de Copérnico fuera incluida en el Index de libros prohibidos. Y la duda central que lo rodeaba era si la orden a Galileo fue solamente de no “sostener y defender” las ideas copernicanas aunque pudieran debatirse en términos hipotéticos, o si se le había exigido que “no enseñara” tales teorías, lo cual implicaba la prohibición de mencionarlas siquiera, incluso como malos ejemplos. Pero este problema se presentaría mucho después. Galileo, pese a todo, era miembro de la Academia de los Linces, la antecesora de la actual Academia Pontificia de las Ciencias, respetado profesor y un error teológico no implicaba un desastre. El Papa le garantizó a Galileo su seguridad, sus obras no fueron prohibidas y su posición académica y social se conservó.

Galileo obtuvo permiso formal de la Inquisición para realizar un libro que presentara una visión equilibrada de las teorías de Copérnico y de la iglesia, que fue su Diálogo referente a los dos principales sistemas del mundo, publicado en 1632 con gran éxito de ventas, adicionalmente. El libro era claramente parcial a la teoría de Copérnico, por lo que a los seis meses se suspendió su publicación y se ordenó al astrónomo comparecer ante el temible tribunal como sospechoso de herejía por haber violentado el mandato del que había sido objeto en 1616. Diez cardenales lo sometieron a un juicio paródico donde el tema no era la verdad o falsedad de las proposiciones de Copérnico, ese tema se había agotado en 1616, sino la desobediencia del astrónomo al publicar su nueva obra. Los evaluadores del Diálogo habían dictaminado que era parcial al copernicanismo, y antes del juicio mismo la iglesia ya había debatido qué hacer con el astrónomo. Aunque Galileo estaba dispuesto a cambiar de “opinión” y reconocer su “error”, los cardenales decidieron exigirle la abjuración del copernicanismo en un plenario del Santo Oficio, lo que ocurrió el 22 de junio de 1633. La sentencia fue que se prohibiera la circulación del Diálogo y que el astrónomo de casi 70 años fuera encarcelado sin plazo fijo a criterio de la inquisición. Entregado al embajador de Florencia, a fines de 1633 se le permitió lo que hoy se llamaría prisión domiciliaria en su granja de Arcetri, donde, ciego por sus observaciones del sol sin protección alguna para sus retinas, moriría en 1641.

Y en 1992...

Habían pasado 376 años desde la decisión de los calificadores sobre la inaceptabilidad del heliocentrismo cuando, ante la Academia Pontificia de las Ciencias, el Papa reinante Juan Pablo II declaró oficialmente que Galileo tenía razón. Pero para ello no se basó en la evidencia científica apabullante reunida durante casi cuatro siglos, sino en las conclusiones de un comité nombrado por el Papa en 1979, mismo que decidió que la Inquisición había actuado “de buena fe” pero se había equivocado. Paradójicamente, el renacimiento llegaba al Vaticano.

Atesorar la diversidad genética

En Noruega, en una cueva cavada en una ladera helada, más de 100 países han colaborado para colocar una muestra de todos los cultivos del mundo, como un extraño seguro para un futuro incierto.

La bóveda de semillas de Svalbard.
(Foto CC de Bjoertvedt, vía Wikimedia Commons)
La noticia fechada el 19 de junio de 2006 parecía, sin duda alguna, de ciencia ficción: los primeros ministros de Noruega, Suecia, Dinamarca, Finlandia e Islandia se reunieron en las islas Svalbard noruegas, a unos mil kilómetros del Polo Norte, para poner la primera piedra en la construcción de una “bóveda del día del juicio final” en el Ártico noruego, una caverna perforada en el helado permafrost de la isla para salvaguardar semillas de todos los cultivos del mundo en caso de un desastre global, con objeto de poder repoblar la tierra con las plantas que nos dan de comer.

El proyecto original, lanzado en enero de ese 2006 establecía que la bóveda noruega soportaría catástrofes naturales como guerras nucleares, epidemias vegetales, cambios climáticos (naturales o no) y otros desastres que pudieran amenazar las fuentes de alimento del planeta. El Fideicomiso Global de Diversidad de los Cultivos empezó entonces a organizar la recolección de las semillas, de modo que en la cueva artificial se tuviera una copia de todo el material genético que está en colecciones en todo el mundo. Entre tales colecciones, destaca la que reúne en España el Centro de Recursos Fitogenéticos del Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria, cuyo banco, situado en la Finca "La Canaleja" en Alcalá de Henares, cuenta con “duplicados de seguridad” de todas las colecciones de la red de bancos españoles de semillas, además de llevar a cabo una investigación continua para la recolección de ejemplares de toda la geografía española que enriquezcan su colección de varios miles de especies vegetales, mismas que ahora estarán también salvaguardadas en la bóveda ártica.

Nadie se preguntaba, eso sí, si un desastre que acabara con toda la vida vegetal dejaría sin embargo supervivientes humanos para beneficiarse de las semillas conservadas en la bóveda, pero la utilidad de este proyecto fuera de este aspecto mediático, al preservar una diversidad genética que está modificándose a gran velocidad conforme muchos cultivos se estandarizan a nivel mundial, sacrificando variedades locales de plantes, era tan clara que valía la pena aún cuando la idea de que serviría para después de una guerra nuclear fuera un tanto disparatada. Conservar las variedades genéticas de unos 1.400 bancos de semillas de todo el mundo en condiciones ideales y como parte de un esfuerzo multinacional resulta enormemente atractivo, como respaldo biológico para el día en que se requiera volver a cultivos que por motivos coyunturales (comerciales, de moda alimenticia, por alteración genética tradicional mediante de selección o mediante ingeniería genética, etc.) hubieran sido eliminados del mercado y desaparecieran de los campos de cultivo del planeta. Y como muchos de esos bancos de semillas están en países social y políticamente inestables, la bóveda de Svalbard servirá para conjurar el riesgo de que se pierdan en caso de un conflicto bélico, desastre o abandono.

Sin embargo, la bóveda ártica, pese a su indudable potencia mediática, es sólo una de las herramientas empleadas para preservar la diversidad genética agrícola, de la cual se ha perdido sin embargo ya una gran cantidad, como el maíz silvestre que dio origen a las miles de variedades domésticas que conocemos actualmente sobre todo en América, pero del que no tenemos ejemplares. Hace 9 mil años el hombre comenzó a influir en la evolución de esta planta y los especialistas no saben sin embargo cuál fue el antecesor común de todas las plantas de maíz. Para evitar que esto siga ocurriendo, existen reservas naturales de tierra, apoyos gubernamentales para que los agricultores tradicionales no abandonen del todo los antiguos cultivos, las colecciones de plantas sembradas en los campos, en bancos genéticos de tierra, el mantenimiento de plántulas de cultivos sin semilla (como el plátano) en cajas de Petri o tubos de ensaye y en bancos de semillas como el del Centro de Recursos Fitogenéticos español.

En el futuro, si los avances tecnológicos lo permiten, será mucho más fácil la conservación de la diversidad genética, ya sea mediante tejidos muertos o, incluso, simplemente de muestras de ADN. Por desgracia, aunque los enemigos de la tecnología hablen ya de un elevado nivel de control genético por parte de gobiernos y empresas, lo cierto es que aún no tenemos forma de enfrentar eficazmente la degradación del ADN al paso del tiempo (factor que hace imposible un logro como el imaginado en la película Parque Jurásico) y aún no sabemos cómo producir un ser vivo a partir de un juego de cromosomas.

Mientras lo conseguimos, dependemos de una fortaleza en el Ártico. Cercada con altos muros de hormigón, resguardada por personal de seguridad, con puertas de acero estancas y el apoyo de los osos polares que merodean en sus alrededores, fue creada como el edificio más seguro de su tipo en el mundo: una excavación en forma de tridente a 100 metros de profundidad, donde cada diente es una cámara estanca con paredes de hormigón reforzado. Las cámaras están refrigeradas, y la ubicación garantiza que, a una temperatura de alrededor de menos 14 grados centígrados, las semillas sigan congeladas aún si fallara el sistema de refrigeración. Su construcción tuvo un coste de más de 6 millones de euros por los sistemas de protección diseñados para soportar elevaciones del nivel del mar incluso si se derritieran las placas de Groenlandia y la Antártida, terremotos (como el que superó pocos días antes de su inauguración, el peor de la historia noruega con 6,2 grados Richter), ataques nucleares y el ascenso de la temperatura exterior.

La bóveda ha sido diseñada, previsoramente, para albergar el doble de las especies que los expertos creen actualmente que pueden existir, y actualmente tiene ya alrededor de un cuarto de millón de especies, a la espera de los “depósitos” de diversos países que colocarán en ella lo que Cary Fowler, dirigente del fideicomiso, llama sin más “un seguro de vida para el planeta”.

Los donantes

Una mezcla heterogénea de organizaciones oficiales de todo el mundo, gobiernos de países desarrollados y con carencias, fundaciones, empresas y organizaciones multilaterales, notablemente la Organización para la Alimentación y la Agricultura de las Naciones Unidas (FAO) han participado para reunir una dotación de 260 millones de dólares cuyos intereses, administrados por el Fideicomiso Global de Diversidad de los Cultivos, garantizarán la conservación de la diversidad agrícola y la disponibilidad de las semillas para quienes necesiten utilizarlas.

Cuando Hollywood se equivoca

El cine suele hacer corto circuito con los conceptos de la ciencia cuando intenta abordarla en sus producciones, causando a veces risa y, a veces, incluso indignación.

Los héroes del futuro lejano disparan un rayo de la muerte que alcanza a una nave espacial enemiga de diseño atemorizante. En una larga secuencia, la nave enemiga estalla con un estruendo ferocísimo que impresiona al espectador en sonido Dolby THX digital... y muy pocos espectadores reparan en que el sonido no se transmite en el vacío del espacio, y que por tanto una explosión como ésa, o incluso la mayor explosión del universo, la de una estrella supernova, transcurren en un silencio absoluto y el sonido que los expertos en efectos se han esmerado por producir rompe la ilusión que crea el cine. Otro caso famoso es el del final de la película pro-guerra de Vietnam Green berets de John Wayne, que camina con un niño mientras el sol se pone en el océano. Como la bahía de Camranh donde ocurre la escena está en la costa oriental de Vietnam ante el Pacífico, allí no se ha puesto el sol ni esa vez ni nunca, pues por allí sale todas las mañanas. Las puestas de sol sobre el mar sólo ocurren en playas que miran en términos generales hacia el poniente, precisamente.

Todos sabemos que el rigor histórico, el respeto a la novela original y la representación de las costumbres de otros países no son el fuerte de la “Meca del Cine”, sino que, por el contrario, aunque se esfuercen en respetar el vestido y la arquitectura de una producción de época, todo se va al garete cuando se trata de cuestiones de guión y muere con los tópicos y el desprecio a los hechos si interfieren con la emoción del espectador. Los productores desean impresionar, estremecer y lograr que más personas paguen una entrada, y pocas veces pretenden difundir o educar. Sin embargo, precisamente su éxito comercial provoca que tenga una enorme credibilidad en todos los temas, incluidos los referentes a la ciencia. Y esto se traduce en propuestas que se convierten en desinformación científica, y sin mala fe.

El terreno de la ciencia ficción, y en particular de los viajes y batallas espaciales ha sido, por supuesto, donde más resbalones ha sufrido el cine, con muy pocas excepciones. 2001: una odisea del espacio es singular no sólo por las imponentes escenas del espacio, donde el silencio es absoluto y sobrecogedor,sino porque a lo largo de toda la película se mantiene la premisa de que no hay atracción gravitacional visible en el espacio, de modo que los personajes flotan o usan métodos como el giro de la estación espacial para simularla. Pero no es necesario que el cine respete escrupulosamente todo el conocimiento real, a veces basta una coartada fantástica para evadirlo. Así, en todas las novelas, películas y series de televisión donde es imposible o poco útil la falta de atracción gravitatoria visible, se inventa un “campo de gravedad” o “simulador de gravedad” de una tecnología futura avanzadísima que replicaría los efectos de nuestro planeta. Igualmente, si bien hasta donde sabemos los viajes intergalácticos son materialmente imposibles debido a que es imposible superar la velocidad de la luz, la ciencia ficción ha echado mano de “impulsores translumínicos”, “viajes por el hiperespacio” y otras posibles explicaciones o pretextos para permitir que la fantasía nos ofrezca viajes a puntos lejanísimos de nuestro universo. Pero, como los saltos y giros de los expertos en artes marciales, la flexibilidad tiene un límite, y cuando se supera el espectador puede sentirse engañado o, simplemente, que el exceso de drama le provoque un ataque de hilaridad.

La saga de Star Wars, como lo sabe todo fan de la serie, está plagada de patadas científicas, y la más espectacular son los giros que las naves de combate hacen, inclinándose para imitar la posición de los aviones caza cuando realizan giros similares. Sin embargo, los aviones caza se apoyan precisamente en el aire para hacer tales giros, del mismo modo en que se inclinan para girar un surfero cabalgando una ola o un patinador sobre el asfalto. Tienen un material de sustentación del que carecen por completo las naves en “ala X” imaginadas por George Lucas. Atenidos a lo que sabe la física, girar en redondo en el espacio es complicado y bastante menos espectacular, pues implica detener la nave frenándola, después hacerla girar y reemprender el camino volviendo a acelerar, sin poder aprovechar la inercia con la que juegan los aviones caza y los expertos en esquí para sus evoluciones.

Ya en tierra, tenemos El día de mañana, película en la que el calentamiento global provoca una era glacial en pocas semanas, algo totalmente imposible, en especial cuando se congela en instantes el agua sobre Nueva York. Por su parte, Volcano parte de la premisa de que el movimiento de la falla de San Andrés en California puede provocar la aparición súbita de un volcán, algo igualmente imposible, pues aunque la falla es origen de terremotos y frecuentemente aparece como amenazante causa de desastres en el cine, su ubicación geográfica hace imposible que provoque la aparición de un volcán. Por su parte, un desbarre voluntario distingue a Parque Jurásico, que contó con algunos de los mejores asesores de la paleontología como el Dr. Jack Horner, pues Steven Spielberg quedó enamorado de las descripciones de velocidad y ferocidad que los expertos le atribuyen al velociraptor e imaginó al depredador que vemos en la película. El asesor le explicó al director que el problema era que el velociraptor sólo levantaba unos 50 cm del suelo, más o menos como un pavo, pero esto lo convertía en un ser muy poco impresionante en pantalla, de modo que se optó por conservar los enormes velociraptors que, en pandilla, aterrorizan a los protagonistas de la exitosa película.

Por supuesto, las patadas a la ciencia que el cine da, por ignorancia, por motivos dramáticos o por exigencias del guión que no saben resolver de otro modo, podrían ser una oportunidad excelente para que los científicos explicaran los hechos reales respecto de películas de gran audiencia, si hubiera interés de universidades y centros de cultura.

El entretenimiento como pretexto

No todas las incursiones de la industria del entretenimiento en la ciencia son negativas. Las series de CSI, pese a sus muchas patadas científicas, han despertado en todo el mundo el interés por la criminología. Según Jim Hurley, de la Academia Estadounidense de las Ciencias Forenses, más de una docena de universidades abrieron carreras forenses a sus planes de estudios a raíz de la serie. Quizá se deba, también, a que allí el científico aparece como un héroe, y no como un demente con bata blanca empeñado en conquistar el mundo, que es una patada recurrente de Hollywood.

Viva la diferencia... que no es poca

La biología evolutiva y el estudio de la conducta están explorando por primera vez con seriedad el significado de las obvias diferencias evolutivas entre hombres y mujeres... con ventaja para ellas.

Uno de los hechos más notables de la existencia de dos sexos en nuestra especie y en muchas otras es que, por decirlo en términos coloquiales, los machos son menos valiosos que las hembras en términos de supervivencia de la especie. La hembra humana produce normalmente un sólo óvulo cada mes, mientras que el macho produce, en una sola descarga, espermatozoides suficientes para fecundar al diez por ciento de todas las mujeres del mundo (unos trescientos millones). Más aún, cuando una mujer se embaraza, deja de ovular y dedica todas las energías del cuerpo a la formación del feto en su interior, y después del parto entra en un período de lactancia que normalmente también implica infertilidad. Mientras tanto, el macho que la ha fecundado puede seguir fecundando a otras hembras de inmediato, pudiendo dedicar toda su energía y alimentación a “esparcir su semilla”. Esto se traduce en un hecho claro: una tribu en la que una catástrofe dejara vivos sólo a una mujer y a veinte hombres, habría llegado al final de su existencia como grupo humano, mientras que si los sobrevivientes son veinte mujeres y un hombre, la tribu se puede reconstituir en menos de dos décadas, es un grupo humano viable.

A eso se refiere la biología evolutiva cuando considera a los machos en general “baratos” y a las hembras “valiosas”. Un ejemplo claro de este hecho se puede ver en grupos de primates que viven en grandes bandas, como los babuinos, que en su hábitat de la sabana están expuestos a los ataques de grandes depredadores como los leopardos. Cuando hay peligro, los integrantes de la banda se disponen en una serie de círculos concéntricos: los machos mayores y más experimentados, en el círculo exterior, después los machos jóvenes, luego las hembras mayores y, en el centro de esta fortaleza viviente, las hembras con crías o en edad de criar. Los babuinos y mandriles han adquirido este comportamiento a lo largo de su evolución porque es la mejor estrategia para la supervivencia del colectivo, y los que utilizaron otras estrategias simplemente desaparecieron a manos de sus depredadores.

Evidentemente, los ejemplos de la naturaleza no se pueden extrapolar directamente a los seres humanos por la enorme carga que la cultura impone sobre los comportamientos desarrollados evolutivamente. Para poder descubrir los elementos genéticos subyacentes a la cultura, los científicos emplean dos procedimientos. El primero es la comparación de comportamientos en culturas radicalmente distintas y de personas con discapacidades que les impiden imitar a otras personas, y el segundo es la observación de las características anatómicas y fisiológicas que dependen esencialmente de la genética y determinan el comportamiento o nos permiten valorarlo. Así, por ejemplo, los animales en general sólo tienen actividad durante los ciclos de fertilidad de las hembras, actuando asexuadamente el resto del tiempo, pero el ser humano (y los delfines) suelen mantener actividad sexual fuera de los momentos de fertilidad de sus hembras, únicamente por placer.

Uno de los personajes más destacados del mundo del estudio del hombre es el zoólogo británico Desmond Morris, que llevara la concepción del ser humano como mono a la conciencia popular en 1968 con su libro El mono desnudo, al que seguirían distintos libros sobre etología, la ciencia del comportamiento con bases genéticas, entre ellos un delicioso estudio del fútbol como una estructura tribal, traducido como El deporte rey. En 2004, Desmond Morris presentaba un libro absolutamente apasionante, La mujer desnuda: un estudio del cuerpo femenino, dedicado a explicar los posibles motivos evolutivos de las enormes diferencias que tenemos hombres y mujeres, y concluyendo que el cuerpo femenino es: “el organismo más extraordinario del planeta”. Morris realiza un análisis literalmente de la cabeza a los pies, pasando por todas las peculiaridades del organismo femenino, y dedicando también algo de tiempo a la forma en que culturalmente hemos destacado esas diferencias: peinados, maquillaje, piercings, tatuajes, prótesis, vestido, formas y colores.

Algunas de las diferencias más evidentes, de modo notable, parecen ser producto única y exclusivamente de lo que Darwin llamó “selección sexual”, es decir, aspectos que las posibles parejas prefieren por alguna causa que en sus orígenes pudo estar relacionada con muestras de buena salud y buena dotación genética, pero que al paso del tiempo se han independizado de esa función y sólo se conservan porque atraen a las parejas. Esto no sólo se refiere, por ejemplo, a los prominentes senos femeninos o al pene masculino (el mayor proporcionalmente de todos los grandes simios), sino a elementos como el cabello: un cabello fino, lustroso y largo podía ser en sus orígenes anuncio de salud y capacidad reproductiva, pero en el ser humano se ha convertido en un reclamo esencialmente sexual, y por tanto reprimido por quienes buscan controlar la sexualidad, por ejemplo en las religiones. Las más estrictas formas de la religión exigen que el cabello se corte a rape o se oculte mediante velos, no sólo en el Islam más puritano, también hasta hace poco en la iglesia católica, que prohibía a las mujeres entrar a las iglesias sin cubrirse el cabello. Cubrirlo o raparlo sigue siendo costumbre en algunas sociedades por luto o como castigo humillante.

En un mundo que demanda, cada vez con más fuerza, y que va haciendo realidad, a veces con lentitud dolorosa, la igualdad de derechos y oportunidades entre hombres y mujeres, trascendiendo con la inteligencia los estrechos límites de un viejo patriarcado siempre disfuncional, no es posible olvidar las diferencias, diferencias que son, para muchos, asombrosas y admirables, y que no deberían ser motivo de asignaciones jerárquicas de superioridad o inferioridad. Y sin embargo, si nos atenemos a los bien fundamentados argumentos de un experto como Desmond Morris, el cuerpo de la mujer, valioso en términos de supervivencia, está mucho más “evolucionado y maravillosamente perfeccionado” que las envolturas que los baratos y prescindibles machos arrastramos por la vida. Los machos quedamos segundos, lo cual no es noticia.

La evolución y Manolo Blahnik


La especialización del macho humano como cazador significaba que para él los pies más grandes eran una clara ventaja. No hubo tanta presión evolutiva sobre el pie femenino y por tanto ha quedado más pequeño y más ligero. Buscando exagerar esta cualidad femenina, las mujeres han llevado, durante siglos, los pies metidos en zapatos incómodamente apretados.” Desmond Morris

La evolución: dudas y certezas

El verdadero debate en el estudio de la vida, y las principales líneas de investigación, se refieren a los mecanismos mediante los cuales ocurre la evolución de los seres vivos.

La idea de que los grupos de seres vivos cambiaban al paso del tiempo apareció tempranamente en la constelación de las ideas humanas, y no es, como pretenden quienes afirman la literalidad de uno u otro texto religioso, un fenómeno del siglo XIX. Ya el filósofo presocrático Anaximandro, maestro de Pitágoras, observó algunos fósiles y propuso, en el siglo VI antes de la era común, que los animales se originaron en el mar y sólo después conquistaron la tierra. Empédocles también postuló un origen no sobrenatural de los seres vivos e incluso formuló una idea primitiva de selección natural. Aristóteles, por su parte, fue el primero en clasificar los organismos en una “escala natural” de acuerdo con su complejidad de estructuras y funciones.

Esta última concepción fue retomada en el medievo gracias a la conservación de los clásicos grecolatinos por parte de la cultura islámica, hablando de organismos “inferiores” y “superiores”, los primeros identificados más con el infierno y los segundos cerca del paraíso, como los hombres, los ángeles y, en la cima, la deidad, una cadena perfecta en la que las similitudes entre los seres vivos conformaban el criterio de ascenso considerando que la naturaleza no da saltos, sino que hace transiciones suaves. Por su parte, el pensamiento islámico de la época tenía claros exponentes de las ideas evolucionistas, como Ibn Miskawah y Al-Jahiz.

La idea de que el universo se había desarrollado y cambiado a lo largo del tiempo y no era una creación perfecta instantánea volvió al pensamiento occidental entre el siglo XVII y XVIII. La idea era, en sí misma, peligrosamente herética. El pensamiento religioso predominante se planteaba un universo perfecto, con un orden ideal e inamovible, considerando que un dios perfecto sólo puede crear un universo perfecto. Esa creencia en el orden cósmico se refleja claramente en la visión del astrónomo Johannes Kepler, que intentó relacionar matemáticamente los cinco sólidos platónicos (tetraedro, cubo, octaedro, dodecaedro e icosaedro) con las órbitas de los cinco planetas conocidos a principios del siglo XVI (excluyendo a la Tierra), un esfuerzo elegante que, sin embargo, tuvo que abandonar.

Si el universo no era estático, sino que cambiaba, y las fuerzas que lo regían no eran sobrenaturales, sino físicas, como lo iban demostrando Descartes, Galileo, Newton y los demás impulsores de la revolución científica, los seres vivos también podían cambiar, y así se lo plantearon personajes como Pierre Louis Maupertius, que postuló que las modificaciones naturales ocurridas durante la reproducción se podían acumular a lo largo de muchas generaciones, produciendo nuevas razas e, incluso, nuevas especies. En el siglo XVIII, Buffon planteó que las especies emparentadas podían ser variedades desarrolladas a partir de un ancestro común, un ser cuya descendencia se va separando y especializando. Y el abuelo de Charles Darwin, Erasmus, llegó a plantear en 1796 que todos los animales de sangre caliente han surgido de un solo “filamento” vivo.

Estos antecedentes, entre otros, unidos al creciente conocimiento y estudio del registro fósil y de la geología dejan claro que las ideas de Charles Darwin fueron la consecuencia natural de un trabajo colectivo variado y acumulado, como en su momento lo fue el pensamiento de Copérnico. Lo que consiguió Darwin fue sintetizar, ordenar, estructurar y, por medio de sus cuidadosas observaciones y reflexiones, demostrar que efectivamente las formas de vida han evolucionado a través del tiempo, con una contundencia tal que demolió por anticipado las críticas y argumentos en contra. Desde Darwin, podemos decir sin dudar que sabemos que la vida ha evolucionado y sabemos que lo hace acumulando las variaciones naturales que ocurren en la reproducción en función de las presiones que ejerce el medio ambiente, la selección natural. Y no sólo lo sabemos por los descubrimientos de Darwin, sino porque toda la evidencia reunida en 150 años por a biología, la genética, la geología, la paleontología, la bioquímica y otras disciplinas lo confirma más allá de toda duda razonable.

Sin embargo, esto no significa que todo lo planteado por Darwin se mantenga como parte de la ciencia de la evolución biológica. Por el contrario, los conocimientos adquiridos han abierto nuevas avenidas de conocimiento. De hecho, aunque no es del conocimiento general, la visión actual sobre la evolución no es realmente “darwinista”, sino “neodarwinista”, ya que se aparta de algunos postulados de Darwin que no han sido corroborados por la experiencia, como sería la “pangénesis”, el mecanismo de la herencia que fue una “hipótesis provisional” del naturalista inglés, que ha sido sustituida por los conceptos de genética desarrollados hasta el siglo XX.

El que se tenga una teoría cada vez más completa acerca de la evolución de los seres vivos no significa, ni mucho menos, que lo sepamos todo acerca de este fenómeno. Por ejemplo, sigue sin resolverse qué importancia relativa tienen la selección de los individuos y la selección de las especies, la selección de cada gen y la competencia a distintos niveles en la que están los seres vivos individual y colectivamente, y queda mucho por averiguar sobre el origen, evolución y transmisión hereditaria de los comportamientos innatos de las especies. Es decir, que teniendo una visión clara de lo que ocurre y cómo se da, aún estamos explorando los mecanismos precisos en que ello ocurre, tanto a nivel general en cada ser vivo como en la forma en que actúan específicamente los caracteres heredados en el ADN.

Como en todas las demás disciplinas científicas y humanas, los puntos de vista contrapuestos se expresan muchas veces con vehemencia y energía. El problema concreto de la evolución es que los desacuerdos son utilizados por quienes rechazan el concepto de evolución debido a una posición religiosa integrista y presentados como si significaran que los propios científicos no se han puesto de acuerdo sobre si la evolución es o no un hecho demostrado, cuando lo es y constantemente se confirma.

Es “sólo” una teoría

Ciertamente, la explicación neodarwinista es “una teoría”, pero no en el sentido que se le da a esta palabra en el habla cotidiana. En la conversación normal, una “teoría” es una especulación, algo que no hemos comprobado en la práctica. Para los científicos, en cambio, una "teoría” es “una serie de leyes que sirven para relacionar determinado orden de fenómenos”, que es la segunda acepción del Diccionario de la Real Academia. La evolución es una teoría, sí, pero una teoría científica, como lo son la gravitación o la relatividad.

Un universo ordenado

Isaac Newton, casi desconocido como persona, es uno de los más grandes genios y uno de los seres humanos que mayor influencia ha ejercido en la historia humana.

El día de navidad de 1642 (4 de enero de 1642 en el calendario actual) nacía en el pequeño poblado de Woolsthorpe, condado de Lincolnshire, en la costa oriental inglesa, un niño prematuro, hijo póstumo de un terrateniente analfabeta. A los tres años fue entregado a su abuela mientras su madre se casaba de nuevo y fundaba otra familia. Rechazado por su madre, odiando a su padrastro y pasando por una infancia infeliz y conflictiva, no había nada, como suele decirse, que indicara que el pequeño Isaac albergaba un genio capaz de hacer la luz sobre las leyes del universo.

La vuelta de su madre al morir su segundo marido en 1653 hizo volver al todavía niño Isaac de la escuela para encargarse de las tierras familiares, pero fue todo un fracaso como agricultor y volvió al colegio, con objeto de prepararse para entrar a Cambridge. Alumno brillante pero sin alardes demasiado destacados, y siempre con problemas emocionales, terminó su educación a los 18 años y a los 19 marchó a Cambridge, dejando atrás a la única novia que se le conocería. La venerable institución a la que llegó el joven y atormentado estudiante estaba por entonces dominada aún por las tradiciones escolásticas y la reverencia a Aristóteles, que no apasionaban a Newton. En examen en 1664 sobre la geometría de Euclides mostró graves lagunas, al mismo tiempo que estudiaba vigorosamente por su cuenta a pensadores menos tradicionales como Descartes (cuyas matemáticas le absorbían) y Hobbes, y a astrónomos revolucionarios y “peligrosos” como Galileo, Copérnico y Kepler. Estos serían los personajes a los que Newton se referiría cuando dijo en 1675: “Si he visto más lejos que otros, ha sido por estar de pie sobre hombros de gigantes”.

Graduado sin honores ni distinciones especiales en 1665, Newton volvió a su pueblo cuando Cambridge cerró sus puertas a causa de la peste, para abrirlas de nuevo hasta 1667. El joven se dedicó a estudios que se convertirían en asombrosas aportaciones para la ciencia. En sólo dieciocho meses (anticipando en cierta medida el “anno mirabilis” o “año de las maravillas de Einstein”, que en 1905 publicó cuatro artículos que cambiaron el mundo), Isaac Newton descubrió las ley del inverso del cuadrado, desarrolló el cálculo infinitesimal, generalizó el teorema del binomio, estableció las bases de su teoría de la luz y el color y avanzó de modo significativo en su comprensión del movimiento de los planetas que devendría en las leyes de la gravitación. Al término de este período, el personaje que volvió a Cambridge cuando la universidad reabrió sus puertas era otro, quizá con más claridad en sus intereses, que consiguió una beca menor, finalizó su maestría un año después y en 1669, a los 26 años de edad, obtuvo la cátedra lucasiana de matemáticas (hoy ocupada por Stephen Hawking), que representaba la tranquilidad profesional y económica, y una avenida para dedicar gran cantidad de tiempo a pensar, descubrir y crear. Newton envía entonces al editor su obra sobre cálculo de ecuaciones con números infinitos, que abriría el camino para el cálculo diferencial e integral, base de las matemáticas actuales.

De 1670 a 1672 se ocupa principalmente de la luz, demostrando que la luz blanca está compuesta por todos los colores del espectro, y desarrolla la teoría del color que demostró que el color es una propiedad de la luz y no de los objetos que la reflejan, además de inventar el telescopio de reflexión, el más común telescopio óptico desde entonces. En 1675 publica su Hipótesis sobre la luz, a contracorriente de sus contemporáneos que sostenían otras ideas y atacaron con bastante violencia a Newton. Autor de la frase “el tacto es la capacidad de hacer una afirmación sin hacerse de un enemigo”, Newton no gustaba de enfrentamientos y publicaba sin mucha convicción, por lo cual usó la reacción contra su obra como motivo para no publicar más sus obras mayores, compromiso que sostuvo hasta 1687. Esto significó que la difusión de su obra se daría en comunicaciones privadas con otros estudiosos. En 1676 le comunicó a Henry Oldenburg por carta el teorema del binomio que había desarrollado 10 años atrás, estableciendo por ello correspondencia con el matemático alemán Leibnitz. Varios astrónomos revolucionarios como Edmond Halley conocieron los méritos de Newton en el conocimiento de los movimientos de los cuerpos celestes, y fue este último el que se esforzó por conseguir que Newton aceptara publicar su libro Philosophiae naturalis principia mathematica, mejor conocido como los Principia con los que estableció los nuevos cimientos de las matemáticas y la física.

En 1689, dos años después de la publicación de esta obra esencial, Newton obtuvo un escaño como miembro del Parlamento, en el que, dice la leyenda, su única intervención fue para pedir que abrieran una ventana, y se ocupó de la química, la hidrodinámica y la construcción de telescopios, además de disciplinas menos precisas como la alquimia, el ocultismo y los estudios literalistas bíblicos, y finalmente abandonó Cambridge para aceptar el puesto de director de la casa de moneda, fue hecho caballero por la reina Ana y después de una larga enfermedad murió en 1727, a los 85 años de edad.

Los últimos años de la vida del genio británico se vieron ocupados por la renovación del sistema monetario británico, una excentricidad cada vez mayor y una feroz controversia con Leibnitz sobre la paternidad genuina del cálculo diferencial e integral, un enfrentamiento amargo que no terminó siquiera con la muerte de los matemáticos, pues seguía presente a fines del siglo XVIII, recordándonos que esos hombres de pensamiento genial y visión amplísima sobre el universo no dejan, por ello, de ser humanos, con las mismas pasiones y penurias que cualquiera de nosotros.

Hoy en día, los historiadores de la ciencia aceptan que Leibnitz y Newton muy probablemente desarrollaron el concepto independientemente.

El síndrome de Asperger

Investigadores de las universidades de Cambridge y Oxford concluyeron en 2003 que, probablemente, los dos máximos genios conocidos, Isaac Newton y Albert Einstein, sufrieron una forma de síndrome de Asperger, una de las formas del autismo, caracterizada por una falta de habilidades sociales, obsesión con temas complejos y problemas de comunicación. Se sabe que Newton casi no hablaba, se obsesionaba tanto con el trabajo que solía olvidarse de comer y era tibio o incluso desagradable con sus pocos amigos. Si bien esto no vuelve genios a todos los pacientes de Asperger, sí les da esperanzas de encontrar su lugar bajo el sol.

Rarezas y sorpresas en el cielo

Uno de los primeros anuncios científicos de este año estuvo a cargo, de nuevo, de observaciones realizadas por el telescopio espacial Hubble. La astrónoma Duilia de Mello anunció que con el Hubble se habían descubierto inesperadas “burbujas azules”, cada una con un peso de decenas de miles de veces la masa de nuestro Sol, en el punto donde tres galaxias chocaron hace unos 200 millones de años. Acercándose, el Hubble vio que eran grupos de hasta 20.000 estrellas cada uno, y algunas de sólo 10 millones de años (nuestro Sol, por comparación, tiene una antigüedad de 4.600 millones de años). Hasta este momento, los astrónomos consideraban que el gas en los bordes de la galaxia no era lo suficientemente concentrado como para disparar la creación de estrellas, además de poder haber jugado un papel relevante en los primeros tiempos de nuestro universo. Es la última (hasta hoy) rareza que nos ofrece el universo en el que vivimos.

Al mirar al cielo, los que tenemos poca experiencia en la observación de cuanto ocurre sobre nuestras cabezas podemos extrañarnos –e incluso alarmarnos- al ver ciertos fenómenos que son, sin embargo, totalmente naturales. En su día, incluso cuando ya se podían predecir, los eclipses de sol y de luna eran dotados de significados mágicos, sobrenaturales y con frecuencia temibles, y más grave era la situación de los cometas, cuya aparición no es fácilmente predecible (salvo los casos excepcionales de cometas de apariciones periódicas en relativamente poco tiempo, como el Halley, que vuelve a pasar cerca del sol cada 75-76 años). En prácticamente todas las civilizaciones los cometas eran augurio de calamidades diversas.

No fue sino hasta que se inventó el telescopio y se desarrolló la comprensión del universo a partir de las ideas de Nicolás Copérnico que empezamos a entender genuinamente algunos aspectos del espacio que nos rodea, y con ello empezamos a encontrarnos con objetos que fueron, todos, rarezas en su momento. Las manchas del sol y las lunas de Júpiter, dos descubrimientos de Galileo, simplemente cambiaron de golpe y para siempre la idea del cosmos como un lugar que reflejara uno u otro esquema mitológico o religioso. Ideas falsas pero atractivas como la de la “música de los astros” y la relación geométrica entre las órbitas de los planetas quedaron atrás rápidamente. Entendimos que otros planetas pueden tener satélites, que nuestro sol es una estrella y que otras estrellas pueden tener planetas, que las estrellas se agrupan en galaxias de distintas formas y características y, sobre todo, vimos los enormes alcances de nuestra ignorancia, lo mucho que nos quedaba por saber sobre nuestro universo. Para seguir conociéndolo, a los telescopios de luz visible se añadieron otras herramientas como los radiotelescopios, los telescopios de infrarrojos y de microondas, los telescopios que huían de las distorsiones causadas por nuestra atmósfera para hacer observaciones más precisas desde una órbita alrededor de la Tierra.

Con todas estas herramientas la humanidad ha confirmado la visionaria afirmación realizada en 1927 por el brillante genetista y biólogo evolutivo J.B.S. Haldane: “No tengo dudas de que en realidad el futuro será muchísimo más sorprendente que cualquier cosa que yo pueda imaginar. Ahora, mi propia sospecha es que el universo no es sólo más extraño de lo que suponemos, sino que es más extraño de lo que podemos suponer”, y lo ha hecho encontrando asombrosas rarezas en el universo, objetos enormes, reales y que nos permiten hacernos muchas nuevas preguntas.

En 1950, se empezaron a descubrir fuentes de radio que no tenían un objeto visible correspondiente. Pero no fue sino hasta 1962 que se encontró la primera contraparte visible de estos extraños objetos, bautizados en 1964 como “cuásares”, objetos cuasi estelares. Siguió a esto la búsqueda de una explicación a su enorme potencia pese a su enorme lejanía cósmica, lo qeu se logró en 1970, y en 1979 se demostró mediante observación que las emisiones de los cuásares sufrían el efecto de “lente gravitacional” predicho por la relatividad einsteiniana. Hoy, hay consenso en considerar, salvo nuevos datos, que los cuásares son los discos de acreción o acumulación de materia que existen alrededor de los agujeros negros supermasivos presentes, al parecer, en todas las galaxias, o en la mayoría de ellas.

En 1967, en un observatorio británico, Jocelyn Bell y Antony Hewish detectaron en los rastros de datos del radiotelescopio una señal de radio que era perfectamente regular en su duración, el ciclo de su repetición y su procedencia. La primera idea que tuvieron fue que se trataba de ruido aleatorio, pero pronto vieron que no podía serlo y propusieron como otra explicación que la señal podría ser un radiofaro o una comunicación de una civilización extraterrestre, de modo que llamaron al emisor de la señal LGM-1, donde LGM son las siglas de Little Green Men, pequeños hombres verdes, tomándose un poco a chanza la posibilidad que ellos mismos sugerían. Pronto se determinó, sin embargo, que era otra cosa. Los astrónomos Thomas Gold y Fred Hoyle sugirieron que se trataba de una "estrella de neutrones" que giraba rápidamente. La idea de una estrella formada principalmente por neutrones, como resultado de la explosión de una estrella masiva en el cataclismo estelar que conocemos como supernova, había aparecido apenas en 1934. Los estudios demostraron, finalmente, que LGM-1 era efectivamente una estrella neutrónica girando rápidamente (una vez cada 1,377 segundos) y su movimiento era el responsable de la señal pulsante, por lo que se dio el nombre de pulsares a este tipo de estrellas que hoy sabemos que son la mayoría de las estrellas neutrónicas.

Y podemos estar muy seguros de que, al paso del tiempo, encontraremos rarezas que dejarán atrás los sueños de la ciencia ficción, en un universo extraño pero fascinante.

Una idea convertida en realidad

El objeto estelar más extraño es el agujero negro. La probabilidad de su existencia se propuso por primera vez en 1783, pero hasta que tuvimos los conocimientos de la gravedad relativista se pudo dar un debate y estudios por los más relevantes físicos del siglo XX para determinar si podía o no haber agujeros negros, y cómo se comportarían. Lo que era sólo la hipótesis de un objeto tremendamente extraño, tan masivo y denso que ni la luz podía escapar de él, se fue perfilando como algo que debía existir en nuestro universo y algo que casi con certeza exista. Hoy, aunque no es posible detectar directamente un agujero negro, tenemos evidencias suficientes para considerar que hay uno en el centro de las galaxias más grandes... incluida la nuestra.

Tengo mucho corazón

¿Tenemos dos formas distintas de sangre en nuestro cuerpo como dijo Galeno? ¿El cuerpo consume la sangre y el hígado la fabrica continuamente? ¿Las arterias pulsan debido a la “virtud pulsátil” en lugar de por los latidos del corazón? ¿El mejor remedio para casi cualquier enfermedad es la extracción de sangre? ¿El corazón es el asiento de la inteligencia, el movimiento y la sensación? ¿Es un órgano caliente y seco según la teoría de Hipócrates? ¿Tiene tres cámaras? ¿Es enfriado por el cerebro y los pulmones?

La respuesta a todas estas preguntas es, por supuesto, que no. La sangre venosa y la arterial son la misma, y la diferencia de su color se debe a la presencia o ausencia de oxígeno en sus moléculas de hemoglobina; el cuerpo no consume sangre, y el hígado no “fabrica” ni sangre ni ningún otro “humor”; las arterias laten debido a los latidos del corazón, no tienen capacidad de hacerlo sin él; extraer sangre no sólo no sirve como remedio, sino que reduce la capacidad de respuesta del cuerpo a las enfermedades; la inteligencia, los movimientos y las sensaciones son controlados por el sistema nervioso; las ideas de calor-frío y humedad-sequedad de la teoría de los humores de Hipócrates no tienen ninguna base real; el corazón tiene cuatro cámaras, no tres, dos ventrículos y dos aurículas; el cerebro controla el cuerpo y los pulmones oxigenan la sangre, pero el corazón no necesita ningún enfriamiento.

Sin embargo, la cultura occidental respondió que “sí” a todas esas preguntas durante casi dos mil años, cuando la aparición del método científico sustituyó la fe en la autoridad de los autores antiguos. Así, en 1508-1509, Leonardo Da Vinci dibujó un corazón con aurículas y ventrículos separados por válvulas. Leonardo y otros ponen las bases para que el inglés William Harvey enuncie su teoría de la circulación sanguínea en 1628, cuando escribe su tratado Sobre la circulación de la sangre. Sólo a partir de este momento se puede hablar de una medicina con bases científicas que se ocupa realmente de los problemas, afecciones y enfermedades del órgano cardiaco. En 1733 el británico Stephen Hales midió por primera vez la tensión arterial, en 1816 el francés René Laennec inventó el estetoscopio, en 1903 el holandés Willem Einthoven desarrolla el electrocardiógrafo y en 1938 el médico estadounidense Robert Gross realiza la primera cirugía cardiaca ampliamente difundida, abriendo paso a numerosos sistemas, inventos y procedimientos para enfrentar las crisis cardiacas, tratarls y, de ser posible, prevenirlas. Así, una idea tan común como es hoy el masaje cardiaco para suplir temporalmente el latido del corazón y mantener viva a una víctima viene apenas de 1961, el marcapasos externo de 1965 y los trasplantes cardiacos comienzan su historia en 1967.

El corazón y la tecnología

Era necesario comprender al corazón para conocer sus afecciones y enfrentarlas. Resultó sorprendente que entre los principales enemigos del corazón estuvieran los elementos que bloquean, engrosan, endurecen y de otras formas disminuyen el flujo sanguíneo en las arterias que alimentan al propio músculo cardiaco, las coronarias. Siendo el músculo que más trabaja en el cuerpo, que no descansa desde antes de nuestro nacimiento hasta nuestra muerte, el corazón requiere una alimentación adecuada. La mala alimentación, el uso del tabaco, la contaminación ambiental y, sobre todo, la edad, aumentan el riesgo de sufrir un problema cardiaco. Aún así, el corazón puede sufrir muchas otras afecciones, y gran parte de la tecnología médica y farmacéutica de hoy en día busca tratarlas, pues con la caída de la incidencia de otras enfermedades asesinas, las enfermedades cardiacas son la principal causa de muerte en Estados Unidos, Inglaterra y Gales, y a mediados de 2007, un estudio indicó que para 2020 las enfermedades cardiovasculares serán la principal causa de muerte en todo el mundo. Curiosamente, aunque en total se están reduciendo las muertes por afecciones cardiacas, proporcionalmente están disminuyendo a una velocidad menor que otras, como el cáncer. Es decir, no es que haya más enfermedades cardiacas que antes, sino que otras causas de muerte están siendo atacadas con eficacia.

La cantidad de herramientas a nuestro alcance para enfrentar los problemas cardiacos es cada vez mayor: repuestos para válvulas cardiacas, procedimientos para facilitar la circulación en las coronarias (desde los bypass o desvíos que evitan las zonas dañadas de las arterias hasta los stents, fragmentos de tubo que mecánicamente las mantienen abiertas), trasplantes cardiacos y algunas opciones que parecen de ciencia ficción, como la cirugía cardiaca asistida por robots que empezó a usarse con éxito apenas en 2001. En este tipo de intervención, el cirujano, en lugar de colocarse tras el bisturí, se sitúa tras una consola informática que manipula directamente brazos robóticos que operan al paciente. Esto mejora de modo notable la capacidad del cirujano de realizar manobras delicadas e incisiones y puntadas muy precisos, además de que la cirugía puede realizarse de modo remoto, pues el cirujano lo ve todo mediante monitores de vídeo con excelente resolución y capacidad de ampliación y no necesita estar físicamente cerca del paciente.

La utilización de células madre como fuente de “piezas de recambio” es una de las áreas que más entusiasmo han generado en los últimos años, y desde principios del siglo XXI se han ido aplicando de modo cada vez más amplio para reparar problemas mecánicos cardiacos. Pero quizá la noticia más asombrosa se dio en 2007, cuando investigadores del instituto de tecnología Technion-Israel anunciaron la creación de tejido cardiaco capaz de latir y con su propio suministro de sangre a partir de células madre. Los investigadores “sembraron” un molde” de plástico tridimensional esponjoso con células madre embrionarias y las trataron de modo que crearan músculo cardiaco útil.

Pero la mejor forma de evitar los problemas cardiacos es, claro, tener un estilo de vida sano: control en el consumo de grasas, nada de tabaco, poco alcohol y algo de ejercicio. Poco tecnológico, quizá, pero eficaz.


España en el corazón

En 1801, finalmente, después de miles de años en los que el ser humano se atrevió a otros tipos de cirugía (incluidos avanzados sistemas romanos para la extracción de cataratas en los ojos), un casi olvidado cirujano catalán, Francisco Romero, realizó la primera cirugía cardiaca exitosa, con un corte al pericardio, la membrana que rodea al corazón. Cuando presentó su trabajo en la Sociedad de la Escuela de Medicina de París, su procedimiento se consideró demasiado agresivo y su trabajo no fue difundido durante muchos años.

Los autos beberán alcohol

La búsqueda de formas de energía alternativas a los hidrocarburos (que finalmente se agotarán tarde o temprano) debe cumplir los requisitos que caracterizan a las sustancias que van a sustituir, es decir, ser de producción continua y previsible (como lo son las reservas petroleras), ser altamente eficientes (gran rendimiento de energía en volúmenes razonablemente pequeños), ser almacenables (es decir, que se puedan guardar hasta que se necesitan) y además deben ser, idealmente, poco contaminantes y, sobre todo, ser renovables. Esta matriz de requisitos determina la verdadera viabilidad de una nueva fuente de energía, y deja fuera (al menos como sustituto de los hidrocarburos) a opciones como la energía eólica, la solar mediante paneles, e incluso las celdillas de combustible de hidrógeno.

No deja de ser curioso que en un panorama de preparación para la falta de petróleo en el que dominan avanzadas propuestas tecnológicas, turbinas, membranas de alto rendimiento y materiales propios de la era espacial, se haya venido instalando como candidata a sustituir al petróleo una sustancia que tiene al menos una parte de historia humilde (en aguardientes como el ron y la cerveza) aunque tenga también parientes en los más altos niveles (como los brandys de gran reserva, y los vinos de excelencia, incluido el champán): el alcohol etílico o etanol. Se trata de uno de muchos alcoholes que existen, cuya molécula está formada por 2 átomos de carbono, 6 de hidrógeno y uno de oxígeno, producto generalmente de la fermentación de los azúcares de distintos productos agrícolas con una levadura, fermentación que se da incluso en la naturaleza.

El alcohol etílico como bebida embriagante tiene una historia documentada de al menos 9 mil años, habiéndosele encontrado en restos de cerámica chinos de esa datación. Pero el contenido de alcohol de una fermentación así es bajo, como ocurre en los vinos y cervezas. Fue en el califato de los Abásidas que científicos árabes desarrollaron el arte de la destilación y abrieron la puerta a todas las bebidas “espirituosas” (es decir, del “espíritu” alcohólico de los líquidos fermentados). En el siglo XIX se consiguió además la producción artificial de etanol, que hoy se puede obtener también industrialmente del petróleo.

En 1840 el etanol pasó a ser el llamado “alcohol de lámpara” o “alcohol de quemar”, y los primeros automóviles Ford Modelo T de 1908 se podían adaptar para funcionar con etanol en lugar de gasolina. Sin embargo, la prohibición de las bebidas alcohólicas promovida por el puritanismo llevó a que los productores de alcohol para uso industrial fueran perseguidos junto con los destiladores de bebidas ilegales y los automóviles también dejaron de beber etanol. Pero la crisis petrolera de 1973 llevó al gobierno de Brasil (un país que no produce petróleo para satisfacer su consumo) a emprender un ambicioso programa en 1975 para sustituir a largo plazo los combustibles fósiles por etanol producto de la fermentación y destilación de la caña de azúcar (la parte que también se usa para producir ron). Brasil pidió a los fabricantes de automóviles que produjeran motores capaces de quemar “gasohol”, mezcla de 24% de alcohol y 76% de gasolina e incluso etanol puro. El éxito del programa, gracias al cual hoy el 30% del combustible de autos en Brasil es etanol de caña, fue objeto de atención por el mundo industrializado ante el aumento incesante de los precios del petróleo.

Sin embargo, las razones económicas de los países poderosos encontraron un fuerte apoyo en el cuidado del medio ambiente. El alcohol, a diferencia de la gasolina, se quema “limpiamente”, es decir, sin la producción de gases venenosos como monóxido de carbono, óxidos nitrosos y bióxido de azufre, además de que emite menos gases de invernadero. El etanol generado a partir de productos agrícolas, así, cumple todos los requisitos de un sustituto realmente viable de un producto del petróleo. En Estados Unidos, la producción de etanol fue rápidamente implementada y se espera que en breve alcance el 10% del consumo de gasolina para autos en el país que más combustibles consume. La producción de etanol en ese país, sin embargo, se realiza a partir de maíz, cuyo rendimiento es mucho menor que el de la caña de azúcar. La controversia se ha producido por diversos motivos, desde el temor de alguno de que se afecte la producción de alimentos y se dispare el precio del maíz hasta la previsión de que la producción a partir de maíz se puede ver sustituida muy rápidamente por la conseguida a partir de otros cultivos que rinden mucha más energía y son así económicamente más rentables y permitirán a los Estados Unidos cumplir sus objetivos de 7.500 millones de galones de biocombustible producidos en 2012.

Menos presionada por el consumo de gasolina que Estados Unidos, la Unión Europea se ha fijado la expectativa de que en el 2010 los biocombustibles (el bioetanol y el biodiesel) supongan el 6% del consumo total en los países de la unión. Algunos países, como Suecia, han adoptado calendarios más agresivos. A partir de un convenio entre los productores de automóviles y el gobierno suecos para que los primeros produjeran autos que consuman etanol y del segundo de adquirirlos. En 2004, el gobierno sueco aprobó una ley que obligaba a todas las gasolineras suecas a ofrecer a sus clientes una alternativa de combustible, lo cual favoreció que se optara por ofrecer bombas de etanol junto a las de gasolina y esto, a su vez, hizo que los suecos se sintieran más confiados en la adquisición de automóviles de etanol, que aumentó notablemente en 2005. Hoy, una quinta parte de los automóviles de la capital sueca, Estocolmo, queman etanol, y pronto su flota de autobuses será híbrida, alimentada exclusivamente por electricidad y alcohol etílico, etanol, este combustible limpio, renovable y que es hoy, para muchos, como lo dijera Henry Ford hace 100 años, “el combustible del futuro”... aunque el futuro se haya tardado en llegar.

El bioetanol en España

Según el Barómetro de biocarburantes del Observatorio de Energías Renovables España es el cuarto país europeo (detrás de Alemania, Suecia y Francia) en consumo de bioetanol, y en 2006 se había convertido en el primer productor europeo de este combustible con 240.000 toneladas. Además, una factoría de Ford produce automóviles que funcionan indistintamente con gasolina o bioetanol. Esto no se refleja en las carreteras españolas, sin embargo: la mayor parte del bioetanol y la casi totalidad de los automóviles con motores de etanol se exportan, especialmente a Suecia.