Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Un universo ordenado

Isaac Newton, casi desconocido como persona, es uno de los más grandes genios y uno de los seres humanos que mayor influencia ha ejercido en la historia humana.

El día de navidad de 1642 (4 de enero de 1642 en el calendario actual) nacía en el pequeño poblado de Woolsthorpe, condado de Lincolnshire, en la costa oriental inglesa, un niño prematuro, hijo póstumo de un terrateniente analfabeta. A los tres años fue entregado a su abuela mientras su madre se casaba de nuevo y fundaba otra familia. Rechazado por su madre, odiando a su padrastro y pasando por una infancia infeliz y conflictiva, no había nada, como suele decirse, que indicara que el pequeño Isaac albergaba un genio capaz de hacer la luz sobre las leyes del universo.

La vuelta de su madre al morir su segundo marido en 1653 hizo volver al todavía niño Isaac de la escuela para encargarse de las tierras familiares, pero fue todo un fracaso como agricultor y volvió al colegio, con objeto de prepararse para entrar a Cambridge. Alumno brillante pero sin alardes demasiado destacados, y siempre con problemas emocionales, terminó su educación a los 18 años y a los 19 marchó a Cambridge, dejando atrás a la única novia que se le conocería. La venerable institución a la que llegó el joven y atormentado estudiante estaba por entonces dominada aún por las tradiciones escolásticas y la reverencia a Aristóteles, que no apasionaban a Newton. En examen en 1664 sobre la geometría de Euclides mostró graves lagunas, al mismo tiempo que estudiaba vigorosamente por su cuenta a pensadores menos tradicionales como Descartes (cuyas matemáticas le absorbían) y Hobbes, y a astrónomos revolucionarios y “peligrosos” como Galileo, Copérnico y Kepler. Estos serían los personajes a los que Newton se referiría cuando dijo en 1675: “Si he visto más lejos que otros, ha sido por estar de pie sobre hombros de gigantes”.

Graduado sin honores ni distinciones especiales en 1665, Newton volvió a su pueblo cuando Cambridge cerró sus puertas a causa de la peste, para abrirlas de nuevo hasta 1667. El joven se dedicó a estudios que se convertirían en asombrosas aportaciones para la ciencia. En sólo dieciocho meses (anticipando en cierta medida el “anno mirabilis” o “año de las maravillas de Einstein”, que en 1905 publicó cuatro artículos que cambiaron el mundo), Isaac Newton descubrió las ley del inverso del cuadrado, desarrolló el cálculo infinitesimal, generalizó el teorema del binomio, estableció las bases de su teoría de la luz y el color y avanzó de modo significativo en su comprensión del movimiento de los planetas que devendría en las leyes de la gravitación. Al término de este período, el personaje que volvió a Cambridge cuando la universidad reabrió sus puertas era otro, quizá con más claridad en sus intereses, que consiguió una beca menor, finalizó su maestría un año después y en 1669, a los 26 años de edad, obtuvo la cátedra lucasiana de matemáticas (hoy ocupada por Stephen Hawking), que representaba la tranquilidad profesional y económica, y una avenida para dedicar gran cantidad de tiempo a pensar, descubrir y crear. Newton envía entonces al editor su obra sobre cálculo de ecuaciones con números infinitos, que abriría el camino para el cálculo diferencial e integral, base de las matemáticas actuales.

De 1670 a 1672 se ocupa principalmente de la luz, demostrando que la luz blanca está compuesta por todos los colores del espectro, y desarrolla la teoría del color que demostró que el color es una propiedad de la luz y no de los objetos que la reflejan, además de inventar el telescopio de reflexión, el más común telescopio óptico desde entonces. En 1675 publica su Hipótesis sobre la luz, a contracorriente de sus contemporáneos que sostenían otras ideas y atacaron con bastante violencia a Newton. Autor de la frase “el tacto es la capacidad de hacer una afirmación sin hacerse de un enemigo”, Newton no gustaba de enfrentamientos y publicaba sin mucha convicción, por lo cual usó la reacción contra su obra como motivo para no publicar más sus obras mayores, compromiso que sostuvo hasta 1687. Esto significó que la difusión de su obra se daría en comunicaciones privadas con otros estudiosos. En 1676 le comunicó a Henry Oldenburg por carta el teorema del binomio que había desarrollado 10 años atrás, estableciendo por ello correspondencia con el matemático alemán Leibnitz. Varios astrónomos revolucionarios como Edmond Halley conocieron los méritos de Newton en el conocimiento de los movimientos de los cuerpos celestes, y fue este último el que se esforzó por conseguir que Newton aceptara publicar su libro Philosophiae naturalis principia mathematica, mejor conocido como los Principia con los que estableció los nuevos cimientos de las matemáticas y la física.

En 1689, dos años después de la publicación de esta obra esencial, Newton obtuvo un escaño como miembro del Parlamento, en el que, dice la leyenda, su única intervención fue para pedir que abrieran una ventana, y se ocupó de la química, la hidrodinámica y la construcción de telescopios, además de disciplinas menos precisas como la alquimia, el ocultismo y los estudios literalistas bíblicos, y finalmente abandonó Cambridge para aceptar el puesto de director de la casa de moneda, fue hecho caballero por la reina Ana y después de una larga enfermedad murió en 1727, a los 85 años de edad.

Los últimos años de la vida del genio británico se vieron ocupados por la renovación del sistema monetario británico, una excentricidad cada vez mayor y una feroz controversia con Leibnitz sobre la paternidad genuina del cálculo diferencial e integral, un enfrentamiento amargo que no terminó siquiera con la muerte de los matemáticos, pues seguía presente a fines del siglo XVIII, recordándonos que esos hombres de pensamiento genial y visión amplísima sobre el universo no dejan, por ello, de ser humanos, con las mismas pasiones y penurias que cualquiera de nosotros.

Hoy en día, los historiadores de la ciencia aceptan que Leibnitz y Newton muy probablemente desarrollaron el concepto independientemente.

El síndrome de Asperger

Investigadores de las universidades de Cambridge y Oxford concluyeron en 2003 que, probablemente, los dos máximos genios conocidos, Isaac Newton y Albert Einstein, sufrieron una forma de síndrome de Asperger, una de las formas del autismo, caracterizada por una falta de habilidades sociales, obsesión con temas complejos y problemas de comunicación. Se sabe que Newton casi no hablaba, se obsesionaba tanto con el trabajo que solía olvidarse de comer y era tibio o incluso desagradable con sus pocos amigos. Si bien esto no vuelve genios a todos los pacientes de Asperger, sí les da esperanzas de encontrar su lugar bajo el sol.

Rarezas y sorpresas en el cielo

Uno de los primeros anuncios científicos de este año estuvo a cargo, de nuevo, de observaciones realizadas por el telescopio espacial Hubble. La astrónoma Duilia de Mello anunció que con el Hubble se habían descubierto inesperadas “burbujas azules”, cada una con un peso de decenas de miles de veces la masa de nuestro Sol, en el punto donde tres galaxias chocaron hace unos 200 millones de años. Acercándose, el Hubble vio que eran grupos de hasta 20.000 estrellas cada uno, y algunas de sólo 10 millones de años (nuestro Sol, por comparación, tiene una antigüedad de 4.600 millones de años). Hasta este momento, los astrónomos consideraban que el gas en los bordes de la galaxia no era lo suficientemente concentrado como para disparar la creación de estrellas, además de poder haber jugado un papel relevante en los primeros tiempos de nuestro universo. Es la última (hasta hoy) rareza que nos ofrece el universo en el que vivimos.

Al mirar al cielo, los que tenemos poca experiencia en la observación de cuanto ocurre sobre nuestras cabezas podemos extrañarnos –e incluso alarmarnos- al ver ciertos fenómenos que son, sin embargo, totalmente naturales. En su día, incluso cuando ya se podían predecir, los eclipses de sol y de luna eran dotados de significados mágicos, sobrenaturales y con frecuencia temibles, y más grave era la situación de los cometas, cuya aparición no es fácilmente predecible (salvo los casos excepcionales de cometas de apariciones periódicas en relativamente poco tiempo, como el Halley, que vuelve a pasar cerca del sol cada 75-76 años). En prácticamente todas las civilizaciones los cometas eran augurio de calamidades diversas.

No fue sino hasta que se inventó el telescopio y se desarrolló la comprensión del universo a partir de las ideas de Nicolás Copérnico que empezamos a entender genuinamente algunos aspectos del espacio que nos rodea, y con ello empezamos a encontrarnos con objetos que fueron, todos, rarezas en su momento. Las manchas del sol y las lunas de Júpiter, dos descubrimientos de Galileo, simplemente cambiaron de golpe y para siempre la idea del cosmos como un lugar que reflejara uno u otro esquema mitológico o religioso. Ideas falsas pero atractivas como la de la “música de los astros” y la relación geométrica entre las órbitas de los planetas quedaron atrás rápidamente. Entendimos que otros planetas pueden tener satélites, que nuestro sol es una estrella y que otras estrellas pueden tener planetas, que las estrellas se agrupan en galaxias de distintas formas y características y, sobre todo, vimos los enormes alcances de nuestra ignorancia, lo mucho que nos quedaba por saber sobre nuestro universo. Para seguir conociéndolo, a los telescopios de luz visible se añadieron otras herramientas como los radiotelescopios, los telescopios de infrarrojos y de microondas, los telescopios que huían de las distorsiones causadas por nuestra atmósfera para hacer observaciones más precisas desde una órbita alrededor de la Tierra.

Con todas estas herramientas la humanidad ha confirmado la visionaria afirmación realizada en 1927 por el brillante genetista y biólogo evolutivo J.B.S. Haldane: “No tengo dudas de que en realidad el futuro será muchísimo más sorprendente que cualquier cosa que yo pueda imaginar. Ahora, mi propia sospecha es que el universo no es sólo más extraño de lo que suponemos, sino que es más extraño de lo que podemos suponer”, y lo ha hecho encontrando asombrosas rarezas en el universo, objetos enormes, reales y que nos permiten hacernos muchas nuevas preguntas.

En 1950, se empezaron a descubrir fuentes de radio que no tenían un objeto visible correspondiente. Pero no fue sino hasta 1962 que se encontró la primera contraparte visible de estos extraños objetos, bautizados en 1964 como “cuásares”, objetos cuasi estelares. Siguió a esto la búsqueda de una explicación a su enorme potencia pese a su enorme lejanía cósmica, lo qeu se logró en 1970, y en 1979 se demostró mediante observación que las emisiones de los cuásares sufrían el efecto de “lente gravitacional” predicho por la relatividad einsteiniana. Hoy, hay consenso en considerar, salvo nuevos datos, que los cuásares son los discos de acreción o acumulación de materia que existen alrededor de los agujeros negros supermasivos presentes, al parecer, en todas las galaxias, o en la mayoría de ellas.

En 1967, en un observatorio británico, Jocelyn Bell y Antony Hewish detectaron en los rastros de datos del radiotelescopio una señal de radio que era perfectamente regular en su duración, el ciclo de su repetición y su procedencia. La primera idea que tuvieron fue que se trataba de ruido aleatorio, pero pronto vieron que no podía serlo y propusieron como otra explicación que la señal podría ser un radiofaro o una comunicación de una civilización extraterrestre, de modo que llamaron al emisor de la señal LGM-1, donde LGM son las siglas de Little Green Men, pequeños hombres verdes, tomándose un poco a chanza la posibilidad que ellos mismos sugerían. Pronto se determinó, sin embargo, que era otra cosa. Los astrónomos Thomas Gold y Fred Hoyle sugirieron que se trataba de una "estrella de neutrones" que giraba rápidamente. La idea de una estrella formada principalmente por neutrones, como resultado de la explosión de una estrella masiva en el cataclismo estelar que conocemos como supernova, había aparecido apenas en 1934. Los estudios demostraron, finalmente, que LGM-1 era efectivamente una estrella neutrónica girando rápidamente (una vez cada 1,377 segundos) y su movimiento era el responsable de la señal pulsante, por lo que se dio el nombre de pulsares a este tipo de estrellas que hoy sabemos que son la mayoría de las estrellas neutrónicas.

Y podemos estar muy seguros de que, al paso del tiempo, encontraremos rarezas que dejarán atrás los sueños de la ciencia ficción, en un universo extraño pero fascinante.

Una idea convertida en realidad

El objeto estelar más extraño es el agujero negro. La probabilidad de su existencia se propuso por primera vez en 1783, pero hasta que tuvimos los conocimientos de la gravedad relativista se pudo dar un debate y estudios por los más relevantes físicos del siglo XX para determinar si podía o no haber agujeros negros, y cómo se comportarían. Lo que era sólo la hipótesis de un objeto tremendamente extraño, tan masivo y denso que ni la luz podía escapar de él, se fue perfilando como algo que debía existir en nuestro universo y algo que casi con certeza exista. Hoy, aunque no es posible detectar directamente un agujero negro, tenemos evidencias suficientes para considerar que hay uno en el centro de las galaxias más grandes... incluida la nuestra.

Tengo mucho corazón

¿Tenemos dos formas distintas de sangre en nuestro cuerpo como dijo Galeno? ¿El cuerpo consume la sangre y el hígado la fabrica continuamente? ¿Las arterias pulsan debido a la “virtud pulsátil” en lugar de por los latidos del corazón? ¿El mejor remedio para casi cualquier enfermedad es la extracción de sangre? ¿El corazón es el asiento de la inteligencia, el movimiento y la sensación? ¿Es un órgano caliente y seco según la teoría de Hipócrates? ¿Tiene tres cámaras? ¿Es enfriado por el cerebro y los pulmones?

La respuesta a todas estas preguntas es, por supuesto, que no. La sangre venosa y la arterial son la misma, y la diferencia de su color se debe a la presencia o ausencia de oxígeno en sus moléculas de hemoglobina; el cuerpo no consume sangre, y el hígado no “fabrica” ni sangre ni ningún otro “humor”; las arterias laten debido a los latidos del corazón, no tienen capacidad de hacerlo sin él; extraer sangre no sólo no sirve como remedio, sino que reduce la capacidad de respuesta del cuerpo a las enfermedades; la inteligencia, los movimientos y las sensaciones son controlados por el sistema nervioso; las ideas de calor-frío y humedad-sequedad de la teoría de los humores de Hipócrates no tienen ninguna base real; el corazón tiene cuatro cámaras, no tres, dos ventrículos y dos aurículas; el cerebro controla el cuerpo y los pulmones oxigenan la sangre, pero el corazón no necesita ningún enfriamiento.

Sin embargo, la cultura occidental respondió que “sí” a todas esas preguntas durante casi dos mil años, cuando la aparición del método científico sustituyó la fe en la autoridad de los autores antiguos. Así, en 1508-1509, Leonardo Da Vinci dibujó un corazón con aurículas y ventrículos separados por válvulas. Leonardo y otros ponen las bases para que el inglés William Harvey enuncie su teoría de la circulación sanguínea en 1628, cuando escribe su tratado Sobre la circulación de la sangre. Sólo a partir de este momento se puede hablar de una medicina con bases científicas que se ocupa realmente de los problemas, afecciones y enfermedades del órgano cardiaco. En 1733 el británico Stephen Hales midió por primera vez la tensión arterial, en 1816 el francés René Laennec inventó el estetoscopio, en 1903 el holandés Willem Einthoven desarrolla el electrocardiógrafo y en 1938 el médico estadounidense Robert Gross realiza la primera cirugía cardiaca ampliamente difundida, abriendo paso a numerosos sistemas, inventos y procedimientos para enfrentar las crisis cardiacas, tratarls y, de ser posible, prevenirlas. Así, una idea tan común como es hoy el masaje cardiaco para suplir temporalmente el latido del corazón y mantener viva a una víctima viene apenas de 1961, el marcapasos externo de 1965 y los trasplantes cardiacos comienzan su historia en 1967.

El corazón y la tecnología

Era necesario comprender al corazón para conocer sus afecciones y enfrentarlas. Resultó sorprendente que entre los principales enemigos del corazón estuvieran los elementos que bloquean, engrosan, endurecen y de otras formas disminuyen el flujo sanguíneo en las arterias que alimentan al propio músculo cardiaco, las coronarias. Siendo el músculo que más trabaja en el cuerpo, que no descansa desde antes de nuestro nacimiento hasta nuestra muerte, el corazón requiere una alimentación adecuada. La mala alimentación, el uso del tabaco, la contaminación ambiental y, sobre todo, la edad, aumentan el riesgo de sufrir un problema cardiaco. Aún así, el corazón puede sufrir muchas otras afecciones, y gran parte de la tecnología médica y farmacéutica de hoy en día busca tratarlas, pues con la caída de la incidencia de otras enfermedades asesinas, las enfermedades cardiacas son la principal causa de muerte en Estados Unidos, Inglaterra y Gales, y a mediados de 2007, un estudio indicó que para 2020 las enfermedades cardiovasculares serán la principal causa de muerte en todo el mundo. Curiosamente, aunque en total se están reduciendo las muertes por afecciones cardiacas, proporcionalmente están disminuyendo a una velocidad menor que otras, como el cáncer. Es decir, no es que haya más enfermedades cardiacas que antes, sino que otras causas de muerte están siendo atacadas con eficacia.

La cantidad de herramientas a nuestro alcance para enfrentar los problemas cardiacos es cada vez mayor: repuestos para válvulas cardiacas, procedimientos para facilitar la circulación en las coronarias (desde los bypass o desvíos que evitan las zonas dañadas de las arterias hasta los stents, fragmentos de tubo que mecánicamente las mantienen abiertas), trasplantes cardiacos y algunas opciones que parecen de ciencia ficción, como la cirugía cardiaca asistida por robots que empezó a usarse con éxito apenas en 2001. En este tipo de intervención, el cirujano, en lugar de colocarse tras el bisturí, se sitúa tras una consola informática que manipula directamente brazos robóticos que operan al paciente. Esto mejora de modo notable la capacidad del cirujano de realizar manobras delicadas e incisiones y puntadas muy precisos, además de que la cirugía puede realizarse de modo remoto, pues el cirujano lo ve todo mediante monitores de vídeo con excelente resolución y capacidad de ampliación y no necesita estar físicamente cerca del paciente.

La utilización de células madre como fuente de “piezas de recambio” es una de las áreas que más entusiasmo han generado en los últimos años, y desde principios del siglo XXI se han ido aplicando de modo cada vez más amplio para reparar problemas mecánicos cardiacos. Pero quizá la noticia más asombrosa se dio en 2007, cuando investigadores del instituto de tecnología Technion-Israel anunciaron la creación de tejido cardiaco capaz de latir y con su propio suministro de sangre a partir de células madre. Los investigadores “sembraron” un molde” de plástico tridimensional esponjoso con células madre embrionarias y las trataron de modo que crearan músculo cardiaco útil.

Pero la mejor forma de evitar los problemas cardiacos es, claro, tener un estilo de vida sano: control en el consumo de grasas, nada de tabaco, poco alcohol y algo de ejercicio. Poco tecnológico, quizá, pero eficaz.


España en el corazón

En 1801, finalmente, después de miles de años en los que el ser humano se atrevió a otros tipos de cirugía (incluidos avanzados sistemas romanos para la extracción de cataratas en los ojos), un casi olvidado cirujano catalán, Francisco Romero, realizó la primera cirugía cardiaca exitosa, con un corte al pericardio, la membrana que rodea al corazón. Cuando presentó su trabajo en la Sociedad de la Escuela de Medicina de París, su procedimiento se consideró demasiado agresivo y su trabajo no fue difundido durante muchos años.

Los autos beberán alcohol

La búsqueda de formas de energía alternativas a los hidrocarburos (que finalmente se agotarán tarde o temprano) debe cumplir los requisitos que caracterizan a las sustancias que van a sustituir, es decir, ser de producción continua y previsible (como lo son las reservas petroleras), ser altamente eficientes (gran rendimiento de energía en volúmenes razonablemente pequeños), ser almacenables (es decir, que se puedan guardar hasta que se necesitan) y además deben ser, idealmente, poco contaminantes y, sobre todo, ser renovables. Esta matriz de requisitos determina la verdadera viabilidad de una nueva fuente de energía, y deja fuera (al menos como sustituto de los hidrocarburos) a opciones como la energía eólica, la solar mediante paneles, e incluso las celdillas de combustible de hidrógeno.

No deja de ser curioso que en un panorama de preparación para la falta de petróleo en el que dominan avanzadas propuestas tecnológicas, turbinas, membranas de alto rendimiento y materiales propios de la era espacial, se haya venido instalando como candidata a sustituir al petróleo una sustancia que tiene al menos una parte de historia humilde (en aguardientes como el ron y la cerveza) aunque tenga también parientes en los más altos niveles (como los brandys de gran reserva, y los vinos de excelencia, incluido el champán): el alcohol etílico o etanol. Se trata de uno de muchos alcoholes que existen, cuya molécula está formada por 2 átomos de carbono, 6 de hidrógeno y uno de oxígeno, producto generalmente de la fermentación de los azúcares de distintos productos agrícolas con una levadura, fermentación que se da incluso en la naturaleza.

El alcohol etílico como bebida embriagante tiene una historia documentada de al menos 9 mil años, habiéndosele encontrado en restos de cerámica chinos de esa datación. Pero el contenido de alcohol de una fermentación así es bajo, como ocurre en los vinos y cervezas. Fue en el califato de los Abásidas que científicos árabes desarrollaron el arte de la destilación y abrieron la puerta a todas las bebidas “espirituosas” (es decir, del “espíritu” alcohólico de los líquidos fermentados). En el siglo XIX se consiguió además la producción artificial de etanol, que hoy se puede obtener también industrialmente del petróleo.

En 1840 el etanol pasó a ser el llamado “alcohol de lámpara” o “alcohol de quemar”, y los primeros automóviles Ford Modelo T de 1908 se podían adaptar para funcionar con etanol en lugar de gasolina. Sin embargo, la prohibición de las bebidas alcohólicas promovida por el puritanismo llevó a que los productores de alcohol para uso industrial fueran perseguidos junto con los destiladores de bebidas ilegales y los automóviles también dejaron de beber etanol. Pero la crisis petrolera de 1973 llevó al gobierno de Brasil (un país que no produce petróleo para satisfacer su consumo) a emprender un ambicioso programa en 1975 para sustituir a largo plazo los combustibles fósiles por etanol producto de la fermentación y destilación de la caña de azúcar (la parte que también se usa para producir ron). Brasil pidió a los fabricantes de automóviles que produjeran motores capaces de quemar “gasohol”, mezcla de 24% de alcohol y 76% de gasolina e incluso etanol puro. El éxito del programa, gracias al cual hoy el 30% del combustible de autos en Brasil es etanol de caña, fue objeto de atención por el mundo industrializado ante el aumento incesante de los precios del petróleo.

Sin embargo, las razones económicas de los países poderosos encontraron un fuerte apoyo en el cuidado del medio ambiente. El alcohol, a diferencia de la gasolina, se quema “limpiamente”, es decir, sin la producción de gases venenosos como monóxido de carbono, óxidos nitrosos y bióxido de azufre, además de que emite menos gases de invernadero. El etanol generado a partir de productos agrícolas, así, cumple todos los requisitos de un sustituto realmente viable de un producto del petróleo. En Estados Unidos, la producción de etanol fue rápidamente implementada y se espera que en breve alcance el 10% del consumo de gasolina para autos en el país que más combustibles consume. La producción de etanol en ese país, sin embargo, se realiza a partir de maíz, cuyo rendimiento es mucho menor que el de la caña de azúcar. La controversia se ha producido por diversos motivos, desde el temor de alguno de que se afecte la producción de alimentos y se dispare el precio del maíz hasta la previsión de que la producción a partir de maíz se puede ver sustituida muy rápidamente por la conseguida a partir de otros cultivos que rinden mucha más energía y son así económicamente más rentables y permitirán a los Estados Unidos cumplir sus objetivos de 7.500 millones de galones de biocombustible producidos en 2012.

Menos presionada por el consumo de gasolina que Estados Unidos, la Unión Europea se ha fijado la expectativa de que en el 2010 los biocombustibles (el bioetanol y el biodiesel) supongan el 6% del consumo total en los países de la unión. Algunos países, como Suecia, han adoptado calendarios más agresivos. A partir de un convenio entre los productores de automóviles y el gobierno suecos para que los primeros produjeran autos que consuman etanol y del segundo de adquirirlos. En 2004, el gobierno sueco aprobó una ley que obligaba a todas las gasolineras suecas a ofrecer a sus clientes una alternativa de combustible, lo cual favoreció que se optara por ofrecer bombas de etanol junto a las de gasolina y esto, a su vez, hizo que los suecos se sintieran más confiados en la adquisición de automóviles de etanol, que aumentó notablemente en 2005. Hoy, una quinta parte de los automóviles de la capital sueca, Estocolmo, queman etanol, y pronto su flota de autobuses será híbrida, alimentada exclusivamente por electricidad y alcohol etílico, etanol, este combustible limpio, renovable y que es hoy, para muchos, como lo dijera Henry Ford hace 100 años, “el combustible del futuro”... aunque el futuro se haya tardado en llegar.

El bioetanol en España

Según el Barómetro de biocarburantes del Observatorio de Energías Renovables España es el cuarto país europeo (detrás de Alemania, Suecia y Francia) en consumo de bioetanol, y en 2006 se había convertido en el primer productor europeo de este combustible con 240.000 toneladas. Además, una factoría de Ford produce automóviles que funcionan indistintamente con gasolina o bioetanol. Esto no se refleja en las carreteras españolas, sin embargo: la mayor parte del bioetanol y la casi totalidad de los automóviles con motores de etanol se exportan, especialmente a Suecia.

Mercurio, el planeta infernal

Observado ya por los antiguos sumerios, que le dieron entre otros nombres del de Ubu-idim-gud-ud, el planeta Mercurio fue bautizado como lo conocemos por los romanos, que le dieron el nombre del veloz mensajero de los dioses con pies alados debido a la velocidad de su movimiento, cosa que ya había sido observada por los babilonios, que lo llamaron Nebu, como su dios mensajero respectivo. Y, efectivamente, Mercurio da una vuelta alrededor del Sol cada 88 días, lo que lo convierte en el más rápido de los planetas. Su cercanía a nuestra estrella le da además temperaturas medias de 340 grados centígrados en el ecuador y de 200 grados centígrados en el polo norte, con máximas de 700 y 380. Para comparar, el pan se hornea a 280 grados centígrados, y la máxima temperatura ambiente registrada en nuestro planeta ha sido de 58 grados centígrados, en El Aziz, Libia, en 1922. El radio medio del planeta es de 2.439,7 kilómetros, el 37% del nuestro; su superficie de 74,8 millones de kilómetros es la décima parte de la terrestre, y su gravedad es de sólo 0,37% de la terrestre, de modo que una persona de 50 kilogramos pesaría en Mercurio sólo 19. El “día” mercuriano es de 58 días y 15,5 horas, de modo que dura dos tercios de su año.

Los antiguos griegos lo consideraban dos planetas, Apolo cuando se le podía observar en el cielo matutino y Hermes (el equivalente de Nebu y Mercurio) cuando era visible en el cielo vespertino. Fue Pitágoras el primero que propuso que se trataba en realidad de un solo planeta. El planeta sería luego sujeto de las observaciones de Galileo y de numerosos astrónomos, pero su cercanía aparente al Sol desde nuestro planeta implica graves dificultades para su observación, que permanecen hasta hoy, cuando el más famoso telescopio, el Hubble, que nos ofrece incesantes maravillas desde su punto de vigía en órbita, no puede observar a Mercurio debido a las medidas de seguridad en vigor para impedir que se oriente hacia el Sol, cuyo brillo podría dañar los delicados sensores del instrumento.

Las observaciones desde la Tierra, sin embargo, son limitadas. Desde los años 60 Mercurio es observado no sólo mediante su luz visible, sino mediante radar y rayos X, lo que permite hacer mediciones de su temperatura, densidad, rotación y otras características, pero, como hoy lo sabemos sobre Marte, sólo la visita de sondas con sensores de vanguardia tecnológica puede disipar muchas de las dudas que tenemos sobre un planeta. Y Mercurio sólo había sido visitado por un dispositivo así en 1974 y 1975, cuando la nave espacial Mariner 10, de la NASA, pasó en tres ocasiones cerca de Mercurio, revelando, entre otras cosas, que era un planeta notablemente marcado por cráteres y que disponía de un campo magnético, algo que dudaban los astrónomos y cuyo origen aún es motivo de debate. Las imágenes adquiridas por esta sonda espacial, sin embargo, mostraron menos de la mitad de la superficie del planeta, debido a que los períodos orbitales de Mariner 10 coincidían prácticamente con el día mercuriano.

Las dificultades que implica el envío de una sonda a otros planetas del sistema solar tiene características especiales en el caso de Mercurio debido a la cercanía de su órbita al Sol. Las naves terrestres viajan más de 91 millones de kilómetros y utilizan la energía gravitacional del Sol para realizar sus órbitas, lo que exige una especial precisión. Si quisiéramos aterrizar en Mercurio, además, deberíamos hacerlo totalmente con los motores, pues la atmósfera del planeta es tan tenue que no permite el frenado utilizando el aire como lo hace, por ejemplo, el trasbordador espacial cada vez que vuelve de una misión.

La misión más reciente a Mercurio es conocida como Messenger, siglas un tanto artificiales del nombre en inglés “superficie, entorno espacial, geoquímica y medición de Mercurio”, y sus principales objetivo, además de obtener imágenes del 55% de la superficie mercuriana que no fotografió el Mariner 10, incluyen investigaciones sobre la gran densidad del planeta, su historia geológica, su campo magnético, su núcleo, los polos y el origen de su atmósfera.

Lanzada desde Cabo Cañaveral el 3 de agosto de 2004, la sonda Messenger pasó cerca de Venus en 2006 y 2007 hasta su llegada a Mercurio, el 19 de enero de 2008, pasando a sólo 200 kilómetros de su superficie. En este primer recorrido, la Messenger tomó más de mil fotografías de resolución mucho más alta que las anteriores, que poco a poco van siendo mostradas por la NASA, y que nos traen, como era de esperarse, sorpresas sobre el planeta más cálido de nuestro entorno, que se considera, a la luz de estas primeras nuevas visiones, un planeta totalmente nuevo. Ya el 21 de enero, algunas de las primeras imágenes mostradas sugieren la posibilidad de que haya flujos de lava solidificados en la superficie del planeta, que, de confirmarse y estudiarse con más detalle en los próximos encuentros, podrían dar claves sobre los procesos de formación de Mercurio. El Messenger tiene programadas otras dos citas con Mercurio, en octubre de 2008 y en septiembre de 2009, para finalmente situarse en órbita alrededor del planeta en marzo de 2011, cuando emprenderá estudios del planeta durante un año, bien protegida de las altas temperaturas del sol por un revolucionario escudo cerámico.

Sin embargo, en esta ocasión no pasarán más de tres décadas antes de que los aparatos humanos vuelvan. Apenas acaben las misiones previstas del Messenger, en 2013 se lanzará la sonda espacial BepiColombo, un esfuerzo conjunto de la Agencia Espacial Europea y Japón, que aportará el Orbitador Magnetosférico de Mercurio, y que estudiarán al planeta y su campo magnético más detalladamente que el Messenger. Destinada a asumir una órbita polar (es decir, de polo a polo en lugar de hacerlo sobre el ecuador), la misión BepiColombo llevará once instrumentos científicos además del orbitador japonés con objeto de estudiar a Mercurio durante un año completo a partir de su llegada, prevista para el 2019.

El Messenger en España

Cuando el Messenger empezaba a enviar sus imágenes, El Comercio de Gijón, diario del Grupo Correo, descubría que parte de la labor de controlar la sonda que visita Mercurio se lleva a cabo desde un piso en el barrio tradicional de Cimadevilla, en Gijón, donde la ingeniera Annette Mirantes vive con su familia y teletrabaja para APL, empresa contratada por la NASA, por medio de un ordenador portátil. Annette sigue además los pasos de la sonda a Plutón del proyecto “Nuevos Horizontes”. Y probablemente sus vecinos ni siquiera sabían hasta ahora qué hacía la estadounidense avecindada en el viejo barrio de pescadores.

Leonardo el científico

El “ejemplo de hombre del Renacimiento” que suele mencionarse es Leonardo Da Vinci, pintor, escultor, arquitecto, ingeniero, anatomista, naturalista, filósofo, creador del paracaídas, el helicóptero, el traje de buzo, el ala delta y muchos otros inventos, intuiciones e ideas. El primer problema, claro, es que Leonardo es el único hombre que dominó tal diversidad en el renacimiento. Sus coetáneos tenían dos, acaso tres oficios como Miguel Ángel (pintor, escultor y arquitecto) pero ninguno se acercaba a la pasión por el conocimiento de todo que dominó la vida de Leonardo. El segundo problema es que sus famosos inventos, así como sus dibujos de anatomía, de animales y vegetales, no proceden solamente de un genio natural que deriva sus ideas de la nada, sino que nacen de los elementos fundamentales de la ciencia, la observación, el postulado de hipótesis y la experimentación para confirmar o rechazar la hipótesis. Esto, la base del método científico, no existía ni siquiera como concepto entre 1452 y 1519, los años de vida de Leonardo di ser Piero da Vinci, antes de Galileo, antes de Copérnico y antes de que Sir Francis Bacon formulara las bases del nuevo método explícitamente y cerrara el ataúd de la escolástica.

Lo que hacía Leonardo Da Vinci formaría las bases de la ciencia moderna, aunque aún no recibía ese nombre, se conocía como filosofía natural. Algunas de sus áreas de interés se relacionaban con su oficio de pintor, aprendido en el taller de Verrochio, tal es el caso de la perspectiva, la anatomía y buena parte de su interés por plantas y animales, pues en la pintura de su época tales elementos cumplían una labor simbólica. Así, por ejemplo, un cuadro como la Madona Benois muestra a Jesús niño sosteniendo una flor, una crucífera, que es el símbolo de la pasión, lo cual da al cuadro una dimensión distinta, no es sólo una escena de infancia, está oscurecida por la conciencia que el bebé tiene del que supuestamente sería su destino. Pero más allá de los espacios de sus pinturas, por lo demás escasas, a Leonardo le preocupaba todo: los remolinos del agua, por qué el cielo es azul (asunto nada sencillo y que tardaría mucho en resolverse), las propiedades del aire, el vuelo de las aves, la distancia a las estrellas (que él supuso enorme, admitiendo que había estrellas muchísimo mayores que nuestro planeta), la taxonomía y la filogenia humana (llegando a proponer que en la descripción del hombre deben incluirse los animales de la especie, tales como el mono, el babuino y muchos otros similares, lo que ciertamente rondaba la herejía tanto como sus disecciones; la erosión provocada por los ríos, la teoría del color y muchos aspectos más de la realidad.

Esta pasión llevó a un problema que perseguiría a Leonardo: la gran cantidad de proyectos inacabados que soñó y proyectó en las más de tres mil páginas sobrevivientes de sus cuadernos. Esto le permitió, sin embargo, la singular posibilidad de tener una cosmovisión coherente del mundo, una idea general que evadía las contradicciones en tanto lo permitía el conocimiento de su tiempo, no pasemos por alto que Colón llegó a América cuando Leonardo contaba ya con 40 años de edad. Para tener esta cosmovisión, el factótum toscano partía de la observación continua, insistente y desprejuiciada de cuanto había a su alrededor. Llevaba siempre al cinto uno de sus cuadernos, donde escribía y dibujaba en todo lugar, igual abocetando su idea para un paracaídas de tela que anotando la lista de la compra. Su proyecto de aparato volador (del que aún no se ha podido comprobar si lo probó o no) era producto de su observación continua de las aves y de la forma en que se deslizaban por el aire, añadida a su convicción de que se podían entender las leyes que regían el aire si estudiábamos el agua, en lo que hoy llamaríamos “mecánica de fluidos”. De esa misma concepción nace su helicóptero, esa espiral que si giraba lo bastante rápido Leonardo esperaba que desplazara el aire como el tornillo de Arquímedes desplazaba al agua (las hélices son, finalmente, secciones de una espiral).

Y detrás de la observación, Leonardo colocaba la necesidad de la experiencia directa, de la experimentación, que debía realizarse cuidadosamente. Incluso Leonardo previó algunos de los problemas del método experimental, cuyos resultados pueden verse afectados por los prejuicios del experimentador, y estableció: Un experimento debe repetirse muchas veces para que no pueda ocurrir accidente alguno que obstruya o falsifique la prueba, ya que el experimento puede estar falseado tanto si el investigador trató de engañar como si no.

Las visiones de Leonardo no eran sino resultado del conocimiento que derivaba de sus observaciones y experiencias. Junto al diseño de su paracaídas, un joven Leonardo escribió en 1483: Si se provee a un hombre con una tela pegada de lino de 12 brazos de lado por 12 pies de alto, éste podrá saltar de grandes alturas sin sufrir heridas al caer. Hubo de llegar el 2000 para que se pusiera a prueba la idea, cuando el británico Adrian Nichols se lanzó desde un globo con un paracaídas de 85 kilogramos de peso construido según las especificaciones de Leonardo. Aunque por seguridad lo abandonó poco antes del aterrizaje y bajó en un ala moderna, el paracaídas de Leonardo aterrizó suavemente con todos sus aparatos de medición intactos. Tres años después, el campeón de ala delta Angelo D’Arrigo construyó un planeador según el diseño de Leonardo de 1510, y logró hacerlo volar y controlarlo exitosamente con los procedimientos indicados por su creador.

La experiencia le daba la razón dos veces más al hombre del Renacimiento.


Leonardo y las supersticiones, en sus propias palabras


Circulan libros llenos de afirmaciones referentes a la acción de los encantamientos y de los espíritus que hablan sin lengua y sin aquellos instrumentos orgánicos indispensables para la palabra; y no sólo afirman que los tales espíritus hablan, sino que les atribuyen la capacidad de transportar grandísimos pesos, de provocar lluvias y tempestades, y de convertir a los hombres en gatos, lobos y otras bestias, ¡por más que en calidad de bestias deberían, en primer lugar, contarse los que semejantes cosas afirman!
***
No me ocuparé de la fisiognomía ni de la quiromancia porque no hay verdad en ellas, simples quimeras sin fundamentos científicos.
***
¡Oh, investigadores del movimiento perpetuo, cuántos vanos proyectos fraguásteis en su búsqueda! Idos en compañía de los inventores de la fabricación del oro.
(De los Cuadernos de notas, recopilación de la obra escrita de Leonardo.)

Vencer el envejecimiento

Los seres unicelulares son, para todo efecto práctico, inmortales. Una ameba o un alga unicelular se reproducen subdividiéndose, y ambas células resultantes son igualmente jóvenes y capaces de realizar todas sus funciones vitales, incluida la de volver a reproducirse. Para estos seres, la muerte puede sobrevenir por un desastre de su entorno (como la falta de humedad), partículas venenosas, ataque de depredadores y otras formas, pero no por el envejecimiento.

Sin embargo, en un momento dado de la evolución, apareció el envejecimiento, la degradación por la edad. ¿Por qué envejecemos? Esta pregunta es todo un enigma al que se dedican los esfuerzos de numerosos científicos, porque en su respuesta puede estar el comienzo de otra mucho más importante, la respuesta a cómo podemos evitar, impedir, revertir o, al menos, ralentizar el envejecimiento. Y es que la aparición de la medicina con bases científicas ha provocado un bienvenido aumento en la expectativa de vida. En todo el mundo, la duración media de la vida humana a principios del siglo XX era de unos 35 años, y hoy la media mundial es de 67 años, con expectativas cercanas a los 80 en las naciones con mejor acceso a la sanidad, mejor nutrición, drenaje y agua limpia. Esto plantea serios problemas de atención médica a problemas propios de la edad y la necesidad de que esa vejez prolongada tenga una adecuada calidad de vida, de modo que sea un disfrute para el individuo y no una carga para su familia y la sociedad, máxime cuando las previsiones de la división de población de la ONU indican que para el año 2050 la población humana será de más de 9 mil millones de personas, de las cuales una cuarta parte tendrá más de 60 años, es decir, un incremento de los 673 millones de personas mayores de la actualidad a más de dos mil millones.

Existen dos hipótesis sobre el envejecimiento que están siendo exploradas por la ciencia. Según una de ellas, el envejecimiento es la acumulación de daños a nivel de células y a nivel de tejidos. Según la otra, el envejecimiento está genéticamente programado como un "suicidio" natural para despejar el camino a las nuevas generaciones una vez que el individuo se ha reproducido exitosamente. Existen evidencias que parecen apoyar ambas hipótesis, y sólo más estudios lograrán determinar cuál es la verdad. Entretanto, la lucha de la ciencia en el terreno práctico se orienta más hacia los síntomas y efectos del envejecimiento, tanto desde el punto de vista cosmético como del médico. Los expertos en el estudio del envejecimiento advierten sin embargo que ningún producto "antiedad" tiene bases científicas para sus afirmaciones y que sus efectos reales son nulos, y en ocasiones incluso perjudiciales. En resumen, que la industria cosmética no sabe lo que aún no sabe la ciencia. Y la ciencia hoy sólo sabe manejar los procesos y manifestaciones del envejecimiento, pero no el envejecimiento mismo. Las afirmaciones de que es posible ralentizar, detener o revertir el envejecimiento (muchas veces parte de diversas seudomedicinas o supuestos "tratamientos alternativos") se han hecho durante miles de años, y hoy son tan falsas como lo eran en el pasado. Los grandes promotores de propuestas "alternativas" envejecen al mismo ritmo que el resto de la población, y algunas recomendaciones sin bases científicas, como el consumo excesivo de beta caroteno, melatonina y otras sustancias o pócimas, pueden tener efectos adversos importantes.

Muchas de las promesas antienvejecimiento promueven algunos mitos y preconcepciones sobre la edad. Por ejemplo, la idea de que con la edad se pierde inevitablemente la capacidad de aprendizaje. Los estudios demuestran que, salvo en los casos en los que existe un problema fisiológico, la llamada tercera edad no tiene por qué excluir el aprendizaje de habilidades nuevas, tanto físicas como mentales. De hecho, con la excepción de quienes padecen mal de Alzheimer, las probabilidades de sufrir una enfermedad mental grave disminuyen con la edad en vez de aumentar. Si bien la edad aumenta ciertas formas de demencia o falta de memoria, esto ocurre únicamente en menos del 50% de las personas mayores. Y es que existe otra tendencia, también sin bases, a considerar que todas las personas mayores o ancianos son iguales, cuando en realidad son tan distintos como cualquier otro grupo de edad. Igualmente es falso que nuestro oído decaiga junto con la visión al envejecer. En la mayoría de los casos, los problemas de audición que se hacen evidentes en algunas personas mayores comenzaron mucho antes, frecuentemente debido al entorno de su trabajo. Así, culpar a la edad de la pérdida de audición puede ser injusto, cuando esto tiene sus orígenes, por ejemplo, en la no utilización de la protección auditiva adecuada y necesaria en muchos trabajos. Conforme ha habido mejores protecciones para los trabajadores, menores son los problemas de audición entre la población de mayor edad. Finalmente, el mito de que el envejecimiento equivale al fin de nuestra vida sexual ha sido derribado por numerosos estudios en los últimos años. Muchas veces, por el mismo desconocimiento de estos procesos, son las propias personas mayores las que perpetúan muchos mitos refiriéndose a sus problemas como si fueran producto únicamente de cumplir años y no de lo que han hecho, o dejado de hacer, durante la vida.

Ello no quiere decir que no se luche con éxito para paliar muchos efectos de la edad. La prevención de algunos efectos como la osteoporosis en las mujeres comienza en la juventud y sus beneficios son notables, por poner sólo un ejemplo. Una vida sana, sin excesos, con una alimentación adecuada, algo de ejercicio, un vaso de vino diario si gusta, y atención a las indicaciones del médico son un camino seguro para poder disfrutar de una vejez más sana, más prolongada y más activa junto con los nuevos medicamentos, prótesis y cambios en nuestro estilo de vida que ofrece la medicina especializada en la edad, la geriatría, son clave para cumplir con gusto muchos más años.


¿Los telómeros son la clave?


La investigadora de origen australiano Elizabeth Blackburn es la principal investigadora de los telómeros, a los que define como "cubiertas protectoras en los extremos de los cromosomas" y los asemeja a las puntas de las cintas de los zapatos: si se pierden, se deshilacha el tejido, y la telomerasa es la enzima que reconstruye los telómeros cuando se desgastan. Si no hay telomerasa suficiente, los telómeros se pierden y la célula envejece. Entre sus descubrimientos, la pérdida de telómeros se agrava con el estrés psicológico, lo que nos podría llevar a entender la relación mente-cuerpo en términos sólidamente científicos, sobre todo si realmente la telomerasa es la piedra de toque de nuestro envejecimiento.

Dengue, la amenaza incesante

2007 fue el año en el que se descubrió que los lineamientos de la OMS para identificar casos de dengue entre personas que hayan visitado ciertos países tropicales son insuficientes para detectar casos en principio benignos de la enfermedad.

Mosquito Aedes aegypti, principal vector del
dengue hemorrágico
(Foto GFDL de Muhammad Mahdi Karim,
vía Wikimedia Commons)
Centrándose en la forma más terrible del dengue, la de fiebre hemorrágica, y su principal síntoma, el sangrado, como su nombre lo indica, los lineamientos omiten a muchísimas personas que padecen la enfermedad, que pueden llegar a requerir hospitalización y que se ponen en riesgo al no ser tratadas, ya que una segunda infección de dengue aumenta el riesgo de padecer su forma más peligrosa. Diagnosticados incorrectamente como víctimas de una gripe o resfriado, estos pacientes corren el peligro de infectar a otras personas mediante mosquitos o productos de la sangre, al menos mientras presentan fiebre. Así, por ejemplo, uno de cada 1.300 donantes de sangre en Puerto Rico tenía una infección activa de dengue durante la epidemia de 2005. Sin embargo, entre los más de dos mil millones de habitantes de zonas donde el dengue es común, se informa de alrededor de un millón de casos al año, muchos menos, dicen los expertos, que los que realmente se presentan.

El dengue, en general poco conocido fuera de los trópicos, llamó la atención noticiosa en 2002, cuando Cuba enfrentó su peor epidemia de dengue en décadas y para combatirlo reclutó los esfuerzos de la población, incluyendo a 11.000 trabajadores que tenían la misión de fumigar todas las viviendas de La Habana y multar a quienes no se lo permitieran. La atención se debió no a las víctimas de la enfermedad, sino a que se convirtió en otra pieza del ajedrez político: las autoridades cubanas afirmaron que la epidemia había sido causada por los Estados Unidos y los disidentes cubanos aseguraron que se utilizaba la fumigación para envenenarlos. Ninguna afirmación fue probada a la larga.

El dengue es una enfermedad febril aguda causada por cuatro distintos tipos de arbovirus del genus Flavivirus y cuyo vector principal son los mosquitos Aedes aegypti y, en menor medida, Aedes albopictus, que también transmiten los virus de la fiebre amarilla y la hasta hace poco desconocida enfermedad de chikungunya. Como en otros casos, la hembra de este mosquito necesita sangre para madurar sus huevecillos, y al chupar sangre a sus víctimas les transfiere diversas enfermedades. La infección se presenta de pronto con un rápido aumento de la temperatura, escalofríos e intensos dolores en la zona lumbar, la nuca y los hombros, además de dolor muscular difuso y dolores en las articulaciones, que le han dado su nombre en inglés: "fiebre rompehuesos". En la mayoría de los casos hay conjuntivitis y una erupción parecida al sarampión. En los casos más graves, hay gastritis, dolores estomacales, vómito y diarrea. En los casos de fiebre hemorrágica, aparecen espontáneamente moratones en distintos lugares del cuerpo como los sitios de inyecciones, sangrado de las mucosas, vómitos de sangre o diarrea sanguinolenta. En los casos más riesgosos, los pacientes muestran alteraciones del pulso, baja tensión arterial, inquietud y piel fría y húmeda. El dengue suele presentarse en brotes epidémicos y puede ocasionar la muerte, como ocurrió en la epidemia del sureste asiático de 2005, donde hubo casi 17 mil muertes en un cuarto de millón de casos.

Considerada una amenaza creciente para los habitantes de los trópicos y para los visitantes de países como Tailandia, Brasil, Cuba y Puerto Rico, esta afección fue sujeto, en 2007, del primer análisis integral y multinacional de todos los interesados, revelando que el dengue comporta una carga epidemiológica, social y económica mucho mayor de lo que se calculaba en el pasado. Así, en octubre de 2007 se informaba que el profesor Donald Shepard, uno de los investigadores del estudio, señalaba: "Un episodio de dengue tiene un enorme impacto sobre el gobierno, los hogares y los empleadores".

En 2007, solamente, se presentaron brotes en Paraguay (con más de 16.000 casos y una decena de fallecimientos), en la frontera entre Brasil y Paraguay (45.000 casos estimados) y en los estados de Ceará, Pará, San Paulo y Rio de Janeiro con más de 70.000 casos y más de dos decenas de muertes, en Puerto Rico (más de 2.000 casos hasta agosto) y en la ciudad de Monterrey, la tercera en importancia de México.

Al tratarse de una infección viral, los antibióticos no tienen efecto sobre el dengue, y por tanto el único tratamiento actual es la terapia de apoyo, aumento en el consumo de líquidos y en ocasiones líquidos por vía intravenosa, transfusiones de plaquetas si el recuento disminuye sensiblemente o de glóbulos rojos en caso de hemorragias intensas. Los pacientes deben hospitalizarse, algo que no es sencillo en países ecoómicamente limitados, y aún no se ha desarrollado una vacuna.

Una inesperada posibilidad de combate del dengue y de otras enfermedades transmitidas por mosquitos proviene del campo lleno de promesas de la genética. Desde la década de 1990 los científicos demostraron que se podían introducir genes exógenos en el genoma de los mosquitos, y este descubrimiento permitió que en 2007 investigadores del Tecnológico de Virginia y la Universidad de California Irvine consiguieran que se expresara un gen de origen externo únicamente en las células germinales de mosquitos hembras. Esto permitiría que mosquitos con genes que impidieran que el virus se desarrollara en su interior se cruzaran con mosquitos salvajes, cortando la línea de transmisión hacia el ser humano.

Mientras eso se consigue, los países que sufren de enfermedades tropicales y carecen de medios económicos y tecnológicos para proteger a su población dependen de la ayuda y la solidaridad de los países desarrollados para disminuir las muertes y sufrimiento de millones de personas en todo el mundo y contener el regreso que experimenta esta enfermedad desde que se dieron por terminados los esfuerzos de erradicación del mosquito hace más de 30 años.

Recomendaciones para los viajeros

Si usted viaja a zonas tropicales, especialmente Florida, América desde México hasta Paraguay, el África subsahariana y el sudeste asiático y Oceanía, debe ocuparse de su protección personal contra el dengue y otras enfermedades propias de estos climas. No duerma sin mosquitero, aplíquese repelentes que contengan las sustancias conocidas como NNDB y DEET en todas las zonas de la piel expuestas (los mosquiteros nocturnos impregnados de DEET son una buena recomendación) y evite visitar áreas donde la enfermedad sea endémica. Si tiene cualquier síntoma poco después de su viaje, vaya al médico, aunque parezca una simple gripe, e informe al médico dónde ha estado.

Cocina: gusto y ciencia

En estas épocas, cuando nos reunimos con la familia a comer, que no es otra cosa que la celebración de la abundancia que disfrutamos y deseamos seguir disfrutando en el año nuevo, vale recordar que la estirpe humana controló el fuego hace apenas algunos miles de años. La capacidad de tener fuego daba seguridad en las noches y calor en clima frío, pero también permitió cocinar alimentos que, de otra forma, no podían aprovechar nuestros ancestros. Sus dientes y mandíbulas, evolucionados a partir de los de primates arborícolas que comían hojas suaves y frutas, no estaban diseñados para arrancar la carne de los huesos de grandes animales y su aparato digestivo tampoco podía tratar trozos de carne tragado sin masticar que es la forma en que los consumen depredadores como los lobos y grandes felinos. Pero la carne cocinada era fácil de masticar y tragar, y de ella nuestro aparato digestivo podía extraer muchos más nutrientes. Sin contar con que la carne asada en el fuego tiene un gusto mucho mejor que la carne cruda.

Para muchos paleoantropólogos, este paso que representó para nuestra especie la gran oportunidad de hacer evolucionar un cerebro complejo, que demanda grandes cantidades de nutrientes para formarse y mantenerse. El excedente proteínico y de grasas de la carne sería así el detonador de la inteligencia humana junto con el fósforo procedente del consumo de pescados y mariscos que tampoco habían estado en la dieta de los primeros humanos.

¿Por qué ocurre esto? Al cocinar la carne, las moléculas de proteína se "relajan" de su forma apretadamente enrollada en espiral alrededor de otras moléculas, separándose entre sí para después recombinarse con otras moléculas o coagularse formando paquetes que nuestro aparato digestivo puede aprovechar. Al mismo tiempo, la grasa responsable del sabor, se funde y dispersa por la carne, se evapora parte del agua que contiene la carne. Además, los aminoácidos y las azúcares de la carne expuestos a la mayor cantidad de calor (generalmente los de la superficie), experimentan la llamada Reacción Maillard, un proceso químico similar a la caramelización que crea el sabroso dorado de la carne y es responsable igualmente del tostado del pan y otros productos de masa, procesos como la fermentación de la cerveza y el whisky, y el tostado del café. Finalmente, el colágeno de la carne se funde convirtiéndose en gelatina.

Comer bien pasó pronto de significar “comer suficiente” para nutrirse a comer alimentos que proporcionaran placer al paladar, y en el 330 antes de nuestra era aparece el primer libro de cocina y guía gastronómica, el primer antecedente de la Guía Michelin, un poema didáctico y humorístico del escritor griego Arquestratos de Gela, intitulado Vida de lujos, que señala los alimentos más sabrosos, el orden de su consumo y dónde obtenerlos, con algunos detalles de su preparación. La gastronomía se volvió así parte esencial de la cultura, desde los platos más complicados y selectos hasta el humilde pan, presente en todas las culturas en formas muy distintas, desde el baozi chino hasta el lavash armenio, la pitta árabe, las arepas venezolanas y las tortillas o tortitas mexicanas.

El pan se puede definir, en todos los casos, como resultado de cocinar una mezcla de granos molidos y agua. Algunos llevan polvo de hornear (bicarbonato de sodio) o levaduras, que son hongos unicelulares que se alimentan de las azúcares que contiene la harina para fermentar la masa y hacer que el pan se levante y se vuelva esponjoso y delicado. Tanto el polvo de hornear como las levaduras liberan bióxido de carbono que crea las burbujas en la masa que se convierten en la textura del pan. Las burbujas de bióxido de carbono son contenidas por el gluten de la harina, que se hace flexible y fácil de estirar mediante el amasado, de modo que se llena con miles de burbujas de bióxido de carbono. Finalmente, el almidón de la masa libera azúcares y fortalece al gluten además de absorber agua durante el horneado.

Ciertamente, durante gran parte de la historia humana, no sabíamos lo que comíamos, y nos guiábamos sólo por el gusto y un cierto empirismo, además de las consejas populares, con frecuencia muy desacertadas, pues si bien en todo momento se tuvo claro que hay relación entre la alimentación y la salud, el tipo de relación y sus causas son conocimientos relativamente recientes. Así, por ejemplo, los romanos utilizaban como endulzante de su vino la “sapa”, un mosto de uva que se convertía en jarabe hirviéndolo. Cuando se le hervía en recipientes de plomo como lo sugerían muchos autores, se producía acetato de plomo, llamado también “azúcar de plomo”, un endulzante con todas las propiedades venenosas del plomo, que se mezclaba con la sapa. Esto, así como el uso medianamente extendido de tuberías de plomo para abastecer de agua a Roma, ha llevado a que algunos estudiosos sugieran que la locura de emperadores como Nerón y Calígula, el descenso en la natalidad en los últimos años del esplendor imperial, y las decisiones cuestionables que en su conjunto contribuyeron fuertemente a la decadencia del imperio romano, fueron producidas por saturnismo, nombre que se da al envenenamiento por plomo que, se sabe, es causante tanto de alteraciones neurológicas como de infertilidad. Situaciones así, de conocerlas, seguramente nos ayudarían a explicar la caída de muy diversas culturas.

La cultura gastronómica, que hoy parece estar al alza, se está beneficiando cada vez más de la investigación científica sobre los procesos fisicoquímicos que ocurren en nuestras cocinas, en el horno, en la cazuela o en la nevera. Algunos mitos han caído en el proceso, mientras que otros se han validado, pero al unirse la ciencia al arte en las cocinas, lo que seguramente mejorará será la parte realmente subjetiva del buen comer: el disfrute de su consumo, como lo hemos vivido en estas fechas festivas.

Geografía y alimentación


En la Alta Edad Media se fijaron las pautas de alimentación que hoy podemos seguir apreciando en Europa. La zona norte, con clima frío, abundante leña, espacios suficientes para mantener grandes hatos de ganado lechero y la dificultad de acceder al comercio exterior, creó la cocina de fogata encendida todo el día, asado en espita sobre las llamas y calderos suspendidos sobre el fuego donde se preparaban espesos potajes, salsas y sopas de prolongados tiempos de preparación, empleando como grasa generalmente la mantequilla. La zona del Mediterráneo, con su abundancia de olivos, escaso combustible, clima más benévolo y acceso a productos de oriente, generó una cocina más ligera, rápida de hacer, donde la grasa para cocinar es el aceite de oliva y las principales herramientas son la sartén y la cacerola. Vaya, la diferencia entre el pescado frito y la fabada.

La ciencia en 2007

Resumir la ciencia de todo un año es cada vez más difícil por la velocidad y diversidad de los avances, y ni siquiera los expertos saben si una noticia será o no trascendente en el futuro. Así, esta selección de algunas noticias prometedoras en distintos campos del conocimiento es, forzosamente, subjetiva y corre el riesgo de omitir lo que, en el futuro podría demostrar haber sido el punto más relevante de la ciencia este año.

Diversos equipos científicos consiguieron crear células madre pluripotentes a partir de células de la piel humana. Si estos conocimientos se convierten en técnicas comunes de laboratorio, habrá desaparecido una de las fuentes principales del debate que han emprendido diversas jerarquías religiosas contra quienes estudian las células madre procedentes de embriones humanos y pretenden utilizarlas para curar las más diversas enfermedades. En una noticia relacionada, científicos británicos consiguieron obtener tejido de una válvula cardiaca a partir de células madre procedentes de la médula ósea, con la esperanza de poder construir válvulas cardiacas para trasplantes a la medida de cada paciente.

Un grupo de astrónomos informó de la mayor explosión estelar, o supernova, jamás observada. Por primera vez, los científicos vieron la violenta muerta de una estrella entre 100 y 200 veces más grande que nuestro Sol, lo que ayudará a entender el desarrollo de las estrellas en los primeros tiempos del universo.

Un cráneo de alrededor de 36.000 años de antigüedad hallado en 1952 fue estudiado con las nuevas técnicas al alcance de la paleoantropología y demostró ser la primera evidencia fósil de una de las más viables hipótesis del origen del hombre, la que sitúa la aparición de nuestra especie en el África Subsahariana, de donde partió hace entre 65.000 y 25.000 años para poblar el planeta.

Los avances derivados de la secuenciación del genoma humano dominaron 2007. Por primera vez este año ha sido posible hacernos un sencillo estudio para determinar nuestros orígenes genéticos, algo antes inimaginable. Igualmente, el estudio de pequeñas variaciones genéticas llamadas polimorfismos nucleótidos únicos ha permitido estudiar a grupos de personas con y sin ciertas enfermedades, y saber qué variaciones genéticas, en su caso, se relacionan con alguna enfermedad, como los de la diabetes tipo 2 identificados en 2007. Hoy es fácil conocer las diferencias genéticas entre cada individuo, lo que abre la puerta para la medicina genómica personalizada, adaptada a las características de cada uno de nosotros, a nuestro potencial y limitaciones genéticos.

Un aspecto seguramente inolvidable del año que termina fueron las desafortunadas declaraciones del Premio Nobel James Watson referentes a cierta “inferioridad” de los africanos comparados con un “nosotros” indefinido. Los comentarios le costaron a Watson el rechazo y la jubilación anticipada, pero la ironía definitiva fue que, poco después, un análisis realizado al genoma del científico demostró que éste tenía un muy elevado 16% de genes africanos, lo que lo habría calificado, según muchas leyes raciales del pasado, como negro, o al menos un científico afroamericano.

Diez libros para navidad

Guía del cielo 2008, Pedro Velasco y Telmo Fernández, Espasa (Barcelona) 2007. Es común la publicación anual de almanaques astronómicos que sirven a los especialistas a estar al tanto de las fechas de eclipses, solsticios, lluvias de estrellas y otros fenómenos de su interés. Lo que hace muy especial a este almanaque es que está dirigido al público en general, tanto así que se presenta como una guía para la observación del cielo a simple vista, de modo que no hace falta ningún aparato para realizar una serie de observaciones astronómicas, como se hizo durante milenios antes de la invención del telescopio.

La historia de El origen de las especies de Charles Darwin, Janet Browne, Debate (Barcelona) 2007. Historiadora de la ciencia y una de las máximas expertas en Darwin, cuya correspondencia editó, Janet Browne aborda una verdadera biografía de este libro que, en más de un sentido, cambió el mundo. Desde la concepción de la idea por parte de Darwin hasta la publicación y el debate que la rodeó, en el que Darwin guardó silencio mientras Thomas H. Huxley actuaba como defensor público de la teoría de la evolución, llegando al debate actual de los creacionismos antidarwinistas, Janet Browne condensa la historia de un libro único.

Ciencia a la cazuela, Carmen Cambón, Soledad Martín y Eduardo Rodríguez, con un prólogo de Ferrán Adriá, Alianza Editorial, 2007. En medio del furor por la cocina que está viviendo gran parte del mundo, aparece este volumen dedicado a dar al público una introducción a la ciencia a través de la cocina. Así, los autores, especialistas en áreas como química, bioquímica y biología, explican clara y detalladamente los fenómenos que ocurren continuamente cuando cocinamos, y permiten ver la cocina como un laboratorio de física y de química, así como realizar prácticas y ver los principios en acción.

El viaje del hombre: una odisea genética, Spencer Wells, Océano, México-Madrid 2007. En sólo 60.000 años, los descendientes de un solo homínido que vivió en África, el verdadero “Adán" de la evolución, hemos cubierto el planeta y desarrollado una gran diversidad de tallas, colores y otros elementos externos que permiten que sobreviva la esencia misma de lo que es la humanidad. La epopeya de la evolución humana desde el punto de vista de la genética se convierte en el relato de un viaje apasionante, realizado, de una u otra manera, por todos nosotros.

El espejismo de Dios, Richard Dawkins, Espasa-Calpe, Madrid, 2007. En este libro, Richard Dawkins expone con rigor metodológico, lo que la ciencia, el conocimiento y la experiencia nos dicen acerca de la posibilidad de la existencia de alguna deidad en nuestro universo, y relata la contraposición que históricamente se ha desarrollado entre la ciencia y las religiones, el conocimiento y las creencias, resumiendo los argumentos del agnosticismo lógico. Los no creyentes encontrarán a un brillante coequipero en este libro, y los creyentes podrán entender esa forma distinta de ver el mundo de quienes no creen en ninguna deidad.

El ecologista escéptico, Bjorn Lomberg, Espasa-Calpe, Madrid, 2005. Este “clásico instantáneo” ha originado incesantes debates por poner en tela de juicio algunos de los supuestos más extendidos sobre el medio ambiente mundial. El autor, antiguo miembro de Greenpeace, afirma que se exagera sobre algunos aspectos del calentamiento global, la sobrepoblación, la disminución de los recursos energéticos, la deforestación, la pérdida de especies, la escasez de agua y otros problemas que carecen de un análisis sólido de los datos relevantes. Publicado en danés en 1998, es imprescindible para entender el debate ecológico actual.

El mundo y sus demonios, Carl Sagan, Planeta, 2005. Quinta edición del último libro de Carl Sagan publicado en vida del autor, cuyo subtítulo en inglés, “la ciencia como una vela en la oscuridad” define con exactitud el volumen y su vigencia once años después de su publicación. Más que ningún otro de sus libros, éste es una apasionada invitación a conocer y usar el método científico y el pensamiento crítico y cuestionador. El autor afirma: “La ciencia es más que un cuerpo de conocimiento, es una forma de pensar”, y considera fundamental que el público en general la conozca para no ser rehén de los que detentan la tecnología.

¡Bang!, Brian May, Patrick Moore, Chris Lintott, Ed. Crítica, Barcelona, 2007. No es frecuente tener un libro de cosmología firmado por una estrella de rock como Brian May, guitarrista de “Queen”, que estuvo a punto de doctorarse en astronomía y ha seguido promoviéndola. En este libro, los conocimientos de los dos conductores del programa mensual de la BBC The Sky at Night (El cielo de noche), escriben con el famoso músico un libro destinado a popularizar de la forma más clara y divertida, pero profunda y detallada, la historia de nuestro universo y de nuestro conocimiento sobre él.

La saga humana, Juan Luis Arsuaga, EDAF, Madrid, 2006. Complemento ideal de El viaje del hombre, este libro, el cuarto escrito por el codirector de los trabajos de excavación de Atapuerca, retoma el relato de la historia de la humanidad y sus ancestros y parientes, como el hombre de Neanderthal, y cómo era el mundo en las distintas épocas en las que vivieron, desde otra perspectiva, la de la paleoantropología y el conocimiento de las culturas que se han sucedido en el tiempo, todo en forma de un atractivo álbum de imágenes creadas con atención a su belleza tanto como a la veracidad de sus representaciones según la reconstrucción paleoantropológica.

Monstruos, Eduardo Angulo, 451 editores, Madrid, 2007. El público siempre ha querido leer relatos de monstruos, y así lo demuestran los “libros de maravillas” tan demandados en la Edad Media y el Renacimiento, donde se contaba la existencia de todo tipo de seres inverosímiles, humanos y animales de formas fabulosas. El avance de la ciencia, sin embargo, ha relegado a los monstruos al terreno de la llamada “criptozoología”, seudociencia que afirma estudiar animales cuya existencia no está demostrada. Raras veces la criptozoología es abordada por científicos capaces de separar los mitos y los hechos y arrojar luz sobre el conglomerado de creencias que se refieren, por igual, al monstruo del Lago Ness, al Yeti, al Bigfoot y al Kraken. Eduardo Angulo, profesor de biología en la Universidad del País Vasco, aborda la tarea con conocimiento de causa y pasión por estos seres míticos y por quienes se ocupan de ellos. Sin dejar de lado el rigor científico, Angulo relata con habilidad y gusto, involucrando al lector en las historias que se van desarrollando acerca de los monstruos que todavía la imaginación humana se plantea que puedan existir en este mundo tan explorado y en el que las maravillas de la biología no suelen ser tan espectaculares como un plesiosaurio sobreviviente de la extinción de hace 150 millones de años. El libro se complementa con una serie de magníficas ilustraciones que cuentan la visión humana de esos seres maravillosos que, incluso no existiendo en realidad, viven en los espacios de la más viva fantasía humana.

La biología de las sociedades

Desde las sencillas colonias coralinas hasta sociedades jerarquizadas como la de los lobos, unirse en algún tipo de sociedad parece una tendencia natural de la vida.

Todos nosotros somos, individualmente, la suma de los billones de células que componen nuestro cuerpo y que están diferenciadas para cumplir funciones específicas. Somos un buen ejemplo de que a los individuos les conviene vivir en sociedad.

La vida comenzó, según sabemos, con seres unicelulares que poblaron en solitario el planeta desde hace unos 4.500 millones de años, hasta hace unos 1.200 millones de años, cuando se dio el singular paso de los seres unicelulares a los multicelulares. Este revolucionario cambio lo conocemos por un alga roja que es el fósil multicelular más antiguo que hay hoy. Como esta transformación ocurrió en una época en la que los organismos prácticamente no tenían estructuras rígidas, el registro fósil es escaso y este paso sigue siendo un enigma para nosotros. Los científicos han propuesto varias hipótesis de cómo ocurrió, posibles explicaciones que no son excluyentes, sino que, probablemente, fueron distintos caminos que siguió la vida en distintos momentos para llegar a los seres complejos. Así, los seres multicelulares podrían provenir de la simbiosis entre seres unicelulares de distintas especies, colaborando y dividiéndose el trabajo, como ocurre en los líquenes, o bien podría ser que los seres unicelulares crearan compartimientos en el interior de sus células que se fueron convirtiendo asimismo en células, mientras que el tercer camino posible implica la unión de seres unicelulares de la misma especie, empezando como colonias del tipo de los corales, para que paulatinamente se diera la especialización de las células en distintas tareas vitales para la totalidad del organismo.

Muy pronto, los seres multicelulares descubrieron que ellos también podían unirse en sociedades o grupos, de modo que su complejidad como organismo se multiplicó en otro nivel: la asociación con otros seres de su propia especie o de otras especies, con grandes ventajas para la supervivencia pero que, al mismo tiempo, abren todo un nuevo abanico de posibilidades de conflicto. Para crear una sociedad no es necesario siquiera que los integrantes puedan identificarse individualmente, basta con que los demás los puedan identificar como miembros del grupo. Tal es el caso de las sociedades de insectos como las hormigas, las termitas o las abejas. Las señales químicas forman la identidad del grupo, y señales distintas o desconocidas pueden provocar el rechazo o, incluso, los ataques. En las sociedades de ratas esto se hace evidente con un peculiar experimento: se toma a una colonia de ratas y se divide en dos que no tienen contacto durante largo tiempo, de modo que el olor de cada grupo cambie de modo distinto. Al volverlas a reunir, no se reconocen como antiguas compañeras, sino que atacan a las del otro grupo como adversarios y competidores en la explotación de los recursos que necesitan para sobrevivir y reproducirse.

Las sociedades pueden dar cobijo a sus miembros si ocupan el lugar de presas, como ocurre en el caso de cebras, bisontes o búfalos, obligando, por la presión de selección, a que los depredadores se concentren en los animales más débiles. De una parte, esto implica la selección de los animales viejos o enfermos, dejando mayores recursos para los componentes sanos y jóvenes de la manada, y de otra exige mayores cuidados maternos para unas crías que son, también, bocado favorito de los depredadores. Esto se muestra claramente en sociedades muy complejas como las de babuinos y otros primates de la sabana. Al estar amenazados por el ataque de un depredador, como sería un leopardo, la banda de monos se organiza en una serie de círculos concéntricos: en el anillo exterior, los viejos y fuertes líderes de la banda, después los jóvenes machos y las hembras sin crías y, en el centro, protegidas al máximo, las hembras y las crías del grupo, que gozan de la mejor seguridad, pues resultará muy difícil que un depredador llegue hasta ellas. Otro caso diferente es el de las sociedades de cazadores o depredadores, como los lobos y los delfines, que utilizando complejas pautas de comportamiento, división del trabajo y relevos consiguen hacerse entre todos con grandes presas cuya cacería no se podría plantear un individuo por sí mismo.

Pero las sociedades desarrollan también un elemento que parecería ir a contracorriente de los intereses evolutivos de la especie, el comportamiento desinteresado al que conocemos como "altruismo". El altruismo ciertamente incrementa el bien de un individuo a costa del bien de otro que se "sacrifica" disminuyendo incluso sus propias posibilidades de supervivencia. Esto parece un contrasentido, pero no lo es en términos del grupo completo y de la supervivencia del mismo, de modo que resulta evolutivamente útil para la cohesión y fuerza del grupo, y en último caso para los propios individuos que hoy hacen un sacrificio pero mañana pueden beneficiarse del altruismo de otros si éste se ha vuelto parte de su comportamiento genéticamente determinado o condicionado. Comer menos para darle de comer a un miembro debilitado del grupo puede ser un involuntario seguro de vida para cuando nosotros suframos una enfermedad o herida, lo cual redunda en beneficios para todos.

El estudio de las complejas sociedades humanas acude, como referencia, a los estudios sobre las sociedades animales. Con el tiempo hemos aprendido que algunos comportamientos aparentemente complejos, como el avance de una columna de hormigas, o los movimientos de una bandada de aves o una mancha de peces, responden a reglas más sencillas de lo que suponíamos antes. Pero en general, la complejidad de la cultura sobrepuesta a nuestro sustrato genético hace que sigamos muy lejos de comprender en profundidad la vida social de los humanos. Pero lo indudablemente cierto es que la estudiamos en grupo, en esa sociedad de búsqueda del conocimiento que llamamos ciencia.

El cuidado de los ancianos

El cuidado de los ancianos existe en el linaje humano desde hace al menos 1,77 millones de años de antigüedad. En 2005 se halló en el Cáucaso el fósil de un individuo completamente desdentado de bastante más de 40 años de edad, una verdadera ancianidad en su especie. Los paleoantropólogos han determinado que perdió la dentadura años antes de morir y, por tanto, no podía haber masticado la carne y los vegetales fibrosos que, se sabe, componían la dieta de su grupo. Alguien, su tribu, clan o, si lo prefiere usted, manada, cuidó de él, moliendo o masticando sus alimentos y conservándolo en el grupo en vez de sacrificarlo como hacen, inadvertidamente, las manadas de presas. Una lección de casi dos millones de años sobre el valor de las personas mayores.