Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Mercurio, el planeta infernal

Observado ya por los antiguos sumerios, que le dieron entre otros nombres del de Ubu-idim-gud-ud, el planeta Mercurio fue bautizado como lo conocemos por los romanos, que le dieron el nombre del veloz mensajero de los dioses con pies alados debido a la velocidad de su movimiento, cosa que ya había sido observada por los babilonios, que lo llamaron Nebu, como su dios mensajero respectivo. Y, efectivamente, Mercurio da una vuelta alrededor del Sol cada 88 días, lo que lo convierte en el más rápido de los planetas. Su cercanía a nuestra estrella le da además temperaturas medias de 340 grados centígrados en el ecuador y de 200 grados centígrados en el polo norte, con máximas de 700 y 380. Para comparar, el pan se hornea a 280 grados centígrados, y la máxima temperatura ambiente registrada en nuestro planeta ha sido de 58 grados centígrados, en El Aziz, Libia, en 1922. El radio medio del planeta es de 2.439,7 kilómetros, el 37% del nuestro; su superficie de 74,8 millones de kilómetros es la décima parte de la terrestre, y su gravedad es de sólo 0,37% de la terrestre, de modo que una persona de 50 kilogramos pesaría en Mercurio sólo 19. El “día” mercuriano es de 58 días y 15,5 horas, de modo que dura dos tercios de su año.

Los antiguos griegos lo consideraban dos planetas, Apolo cuando se le podía observar en el cielo matutino y Hermes (el equivalente de Nebu y Mercurio) cuando era visible en el cielo vespertino. Fue Pitágoras el primero que propuso que se trataba en realidad de un solo planeta. El planeta sería luego sujeto de las observaciones de Galileo y de numerosos astrónomos, pero su cercanía aparente al Sol desde nuestro planeta implica graves dificultades para su observación, que permanecen hasta hoy, cuando el más famoso telescopio, el Hubble, que nos ofrece incesantes maravillas desde su punto de vigía en órbita, no puede observar a Mercurio debido a las medidas de seguridad en vigor para impedir que se oriente hacia el Sol, cuyo brillo podría dañar los delicados sensores del instrumento.

Las observaciones desde la Tierra, sin embargo, son limitadas. Desde los años 60 Mercurio es observado no sólo mediante su luz visible, sino mediante radar y rayos X, lo que permite hacer mediciones de su temperatura, densidad, rotación y otras características, pero, como hoy lo sabemos sobre Marte, sólo la visita de sondas con sensores de vanguardia tecnológica puede disipar muchas de las dudas que tenemos sobre un planeta. Y Mercurio sólo había sido visitado por un dispositivo así en 1974 y 1975, cuando la nave espacial Mariner 10, de la NASA, pasó en tres ocasiones cerca de Mercurio, revelando, entre otras cosas, que era un planeta notablemente marcado por cráteres y que disponía de un campo magnético, algo que dudaban los astrónomos y cuyo origen aún es motivo de debate. Las imágenes adquiridas por esta sonda espacial, sin embargo, mostraron menos de la mitad de la superficie del planeta, debido a que los períodos orbitales de Mariner 10 coincidían prácticamente con el día mercuriano.

Las dificultades que implica el envío de una sonda a otros planetas del sistema solar tiene características especiales en el caso de Mercurio debido a la cercanía de su órbita al Sol. Las naves terrestres viajan más de 91 millones de kilómetros y utilizan la energía gravitacional del Sol para realizar sus órbitas, lo que exige una especial precisión. Si quisiéramos aterrizar en Mercurio, además, deberíamos hacerlo totalmente con los motores, pues la atmósfera del planeta es tan tenue que no permite el frenado utilizando el aire como lo hace, por ejemplo, el trasbordador espacial cada vez que vuelve de una misión.

La misión más reciente a Mercurio es conocida como Messenger, siglas un tanto artificiales del nombre en inglés “superficie, entorno espacial, geoquímica y medición de Mercurio”, y sus principales objetivo, además de obtener imágenes del 55% de la superficie mercuriana que no fotografió el Mariner 10, incluyen investigaciones sobre la gran densidad del planeta, su historia geológica, su campo magnético, su núcleo, los polos y el origen de su atmósfera.

Lanzada desde Cabo Cañaveral el 3 de agosto de 2004, la sonda Messenger pasó cerca de Venus en 2006 y 2007 hasta su llegada a Mercurio, el 19 de enero de 2008, pasando a sólo 200 kilómetros de su superficie. En este primer recorrido, la Messenger tomó más de mil fotografías de resolución mucho más alta que las anteriores, que poco a poco van siendo mostradas por la NASA, y que nos traen, como era de esperarse, sorpresas sobre el planeta más cálido de nuestro entorno, que se considera, a la luz de estas primeras nuevas visiones, un planeta totalmente nuevo. Ya el 21 de enero, algunas de las primeras imágenes mostradas sugieren la posibilidad de que haya flujos de lava solidificados en la superficie del planeta, que, de confirmarse y estudiarse con más detalle en los próximos encuentros, podrían dar claves sobre los procesos de formación de Mercurio. El Messenger tiene programadas otras dos citas con Mercurio, en octubre de 2008 y en septiembre de 2009, para finalmente situarse en órbita alrededor del planeta en marzo de 2011, cuando emprenderá estudios del planeta durante un año, bien protegida de las altas temperaturas del sol por un revolucionario escudo cerámico.

Sin embargo, en esta ocasión no pasarán más de tres décadas antes de que los aparatos humanos vuelvan. Apenas acaben las misiones previstas del Messenger, en 2013 se lanzará la sonda espacial BepiColombo, un esfuerzo conjunto de la Agencia Espacial Europea y Japón, que aportará el Orbitador Magnetosférico de Mercurio, y que estudiarán al planeta y su campo magnético más detalladamente que el Messenger. Destinada a asumir una órbita polar (es decir, de polo a polo en lugar de hacerlo sobre el ecuador), la misión BepiColombo llevará once instrumentos científicos además del orbitador japonés con objeto de estudiar a Mercurio durante un año completo a partir de su llegada, prevista para el 2019.

El Messenger en España

Cuando el Messenger empezaba a enviar sus imágenes, El Comercio de Gijón, diario del Grupo Correo, descubría que parte de la labor de controlar la sonda que visita Mercurio se lleva a cabo desde un piso en el barrio tradicional de Cimadevilla, en Gijón, donde la ingeniera Annette Mirantes vive con su familia y teletrabaja para APL, empresa contratada por la NASA, por medio de un ordenador portátil. Annette sigue además los pasos de la sonda a Plutón del proyecto “Nuevos Horizontes”. Y probablemente sus vecinos ni siquiera sabían hasta ahora qué hacía la estadounidense avecindada en el viejo barrio de pescadores.

Leonardo el científico

El “ejemplo de hombre del Renacimiento” que suele mencionarse es Leonardo Da Vinci, pintor, escultor, arquitecto, ingeniero, anatomista, naturalista, filósofo, creador del paracaídas, el helicóptero, el traje de buzo, el ala delta y muchos otros inventos, intuiciones e ideas. El primer problema, claro, es que Leonardo es el único hombre que dominó tal diversidad en el renacimiento. Sus coetáneos tenían dos, acaso tres oficios como Miguel Ángel (pintor, escultor y arquitecto) pero ninguno se acercaba a la pasión por el conocimiento de todo que dominó la vida de Leonardo. El segundo problema es que sus famosos inventos, así como sus dibujos de anatomía, de animales y vegetales, no proceden solamente de un genio natural que deriva sus ideas de la nada, sino que nacen de los elementos fundamentales de la ciencia, la observación, el postulado de hipótesis y la experimentación para confirmar o rechazar la hipótesis. Esto, la base del método científico, no existía ni siquiera como concepto entre 1452 y 1519, los años de vida de Leonardo di ser Piero da Vinci, antes de Galileo, antes de Copérnico y antes de que Sir Francis Bacon formulara las bases del nuevo método explícitamente y cerrara el ataúd de la escolástica.

Lo que hacía Leonardo Da Vinci formaría las bases de la ciencia moderna, aunque aún no recibía ese nombre, se conocía como filosofía natural. Algunas de sus áreas de interés se relacionaban con su oficio de pintor, aprendido en el taller de Verrochio, tal es el caso de la perspectiva, la anatomía y buena parte de su interés por plantas y animales, pues en la pintura de su época tales elementos cumplían una labor simbólica. Así, por ejemplo, un cuadro como la Madona Benois muestra a Jesús niño sosteniendo una flor, una crucífera, que es el símbolo de la pasión, lo cual da al cuadro una dimensión distinta, no es sólo una escena de infancia, está oscurecida por la conciencia que el bebé tiene del que supuestamente sería su destino. Pero más allá de los espacios de sus pinturas, por lo demás escasas, a Leonardo le preocupaba todo: los remolinos del agua, por qué el cielo es azul (asunto nada sencillo y que tardaría mucho en resolverse), las propiedades del aire, el vuelo de las aves, la distancia a las estrellas (que él supuso enorme, admitiendo que había estrellas muchísimo mayores que nuestro planeta), la taxonomía y la filogenia humana (llegando a proponer que en la descripción del hombre deben incluirse los animales de la especie, tales como el mono, el babuino y muchos otros similares, lo que ciertamente rondaba la herejía tanto como sus disecciones; la erosión provocada por los ríos, la teoría del color y muchos aspectos más de la realidad.

Esta pasión llevó a un problema que perseguiría a Leonardo: la gran cantidad de proyectos inacabados que soñó y proyectó en las más de tres mil páginas sobrevivientes de sus cuadernos. Esto le permitió, sin embargo, la singular posibilidad de tener una cosmovisión coherente del mundo, una idea general que evadía las contradicciones en tanto lo permitía el conocimiento de su tiempo, no pasemos por alto que Colón llegó a América cuando Leonardo contaba ya con 40 años de edad. Para tener esta cosmovisión, el factótum toscano partía de la observación continua, insistente y desprejuiciada de cuanto había a su alrededor. Llevaba siempre al cinto uno de sus cuadernos, donde escribía y dibujaba en todo lugar, igual abocetando su idea para un paracaídas de tela que anotando la lista de la compra. Su proyecto de aparato volador (del que aún no se ha podido comprobar si lo probó o no) era producto de su observación continua de las aves y de la forma en que se deslizaban por el aire, añadida a su convicción de que se podían entender las leyes que regían el aire si estudiábamos el agua, en lo que hoy llamaríamos “mecánica de fluidos”. De esa misma concepción nace su helicóptero, esa espiral que si giraba lo bastante rápido Leonardo esperaba que desplazara el aire como el tornillo de Arquímedes desplazaba al agua (las hélices son, finalmente, secciones de una espiral).

Y detrás de la observación, Leonardo colocaba la necesidad de la experiencia directa, de la experimentación, que debía realizarse cuidadosamente. Incluso Leonardo previó algunos de los problemas del método experimental, cuyos resultados pueden verse afectados por los prejuicios del experimentador, y estableció: Un experimento debe repetirse muchas veces para que no pueda ocurrir accidente alguno que obstruya o falsifique la prueba, ya que el experimento puede estar falseado tanto si el investigador trató de engañar como si no.

Las visiones de Leonardo no eran sino resultado del conocimiento que derivaba de sus observaciones y experiencias. Junto al diseño de su paracaídas, un joven Leonardo escribió en 1483: Si se provee a un hombre con una tela pegada de lino de 12 brazos de lado por 12 pies de alto, éste podrá saltar de grandes alturas sin sufrir heridas al caer. Hubo de llegar el 2000 para que se pusiera a prueba la idea, cuando el británico Adrian Nichols se lanzó desde un globo con un paracaídas de 85 kilogramos de peso construido según las especificaciones de Leonardo. Aunque por seguridad lo abandonó poco antes del aterrizaje y bajó en un ala moderna, el paracaídas de Leonardo aterrizó suavemente con todos sus aparatos de medición intactos. Tres años después, el campeón de ala delta Angelo D’Arrigo construyó un planeador según el diseño de Leonardo de 1510, y logró hacerlo volar y controlarlo exitosamente con los procedimientos indicados por su creador.

La experiencia le daba la razón dos veces más al hombre del Renacimiento.


Leonardo y las supersticiones, en sus propias palabras


Circulan libros llenos de afirmaciones referentes a la acción de los encantamientos y de los espíritus que hablan sin lengua y sin aquellos instrumentos orgánicos indispensables para la palabra; y no sólo afirman que los tales espíritus hablan, sino que les atribuyen la capacidad de transportar grandísimos pesos, de provocar lluvias y tempestades, y de convertir a los hombres en gatos, lobos y otras bestias, ¡por más que en calidad de bestias deberían, en primer lugar, contarse los que semejantes cosas afirman!
***
No me ocuparé de la fisiognomía ni de la quiromancia porque no hay verdad en ellas, simples quimeras sin fundamentos científicos.
***
¡Oh, investigadores del movimiento perpetuo, cuántos vanos proyectos fraguásteis en su búsqueda! Idos en compañía de los inventores de la fabricación del oro.
(De los Cuadernos de notas, recopilación de la obra escrita de Leonardo.)

Vencer el envejecimiento

Los seres unicelulares son, para todo efecto práctico, inmortales. Una ameba o un alga unicelular se reproducen subdividiéndose, y ambas células resultantes son igualmente jóvenes y capaces de realizar todas sus funciones vitales, incluida la de volver a reproducirse. Para estos seres, la muerte puede sobrevenir por un desastre de su entorno (como la falta de humedad), partículas venenosas, ataque de depredadores y otras formas, pero no por el envejecimiento.

Sin embargo, en un momento dado de la evolución, apareció el envejecimiento, la degradación por la edad. ¿Por qué envejecemos? Esta pregunta es todo un enigma al que se dedican los esfuerzos de numerosos científicos, porque en su respuesta puede estar el comienzo de otra mucho más importante, la respuesta a cómo podemos evitar, impedir, revertir o, al menos, ralentizar el envejecimiento. Y es que la aparición de la medicina con bases científicas ha provocado un bienvenido aumento en la expectativa de vida. En todo el mundo, la duración media de la vida humana a principios del siglo XX era de unos 35 años, y hoy la media mundial es de 67 años, con expectativas cercanas a los 80 en las naciones con mejor acceso a la sanidad, mejor nutrición, drenaje y agua limpia. Esto plantea serios problemas de atención médica a problemas propios de la edad y la necesidad de que esa vejez prolongada tenga una adecuada calidad de vida, de modo que sea un disfrute para el individuo y no una carga para su familia y la sociedad, máxime cuando las previsiones de la división de población de la ONU indican que para el año 2050 la población humana será de más de 9 mil millones de personas, de las cuales una cuarta parte tendrá más de 60 años, es decir, un incremento de los 673 millones de personas mayores de la actualidad a más de dos mil millones.

Existen dos hipótesis sobre el envejecimiento que están siendo exploradas por la ciencia. Según una de ellas, el envejecimiento es la acumulación de daños a nivel de células y a nivel de tejidos. Según la otra, el envejecimiento está genéticamente programado como un "suicidio" natural para despejar el camino a las nuevas generaciones una vez que el individuo se ha reproducido exitosamente. Existen evidencias que parecen apoyar ambas hipótesis, y sólo más estudios lograrán determinar cuál es la verdad. Entretanto, la lucha de la ciencia en el terreno práctico se orienta más hacia los síntomas y efectos del envejecimiento, tanto desde el punto de vista cosmético como del médico. Los expertos en el estudio del envejecimiento advierten sin embargo que ningún producto "antiedad" tiene bases científicas para sus afirmaciones y que sus efectos reales son nulos, y en ocasiones incluso perjudiciales. En resumen, que la industria cosmética no sabe lo que aún no sabe la ciencia. Y la ciencia hoy sólo sabe manejar los procesos y manifestaciones del envejecimiento, pero no el envejecimiento mismo. Las afirmaciones de que es posible ralentizar, detener o revertir el envejecimiento (muchas veces parte de diversas seudomedicinas o supuestos "tratamientos alternativos") se han hecho durante miles de años, y hoy son tan falsas como lo eran en el pasado. Los grandes promotores de propuestas "alternativas" envejecen al mismo ritmo que el resto de la población, y algunas recomendaciones sin bases científicas, como el consumo excesivo de beta caroteno, melatonina y otras sustancias o pócimas, pueden tener efectos adversos importantes.

Muchas de las promesas antienvejecimiento promueven algunos mitos y preconcepciones sobre la edad. Por ejemplo, la idea de que con la edad se pierde inevitablemente la capacidad de aprendizaje. Los estudios demuestran que, salvo en los casos en los que existe un problema fisiológico, la llamada tercera edad no tiene por qué excluir el aprendizaje de habilidades nuevas, tanto físicas como mentales. De hecho, con la excepción de quienes padecen mal de Alzheimer, las probabilidades de sufrir una enfermedad mental grave disminuyen con la edad en vez de aumentar. Si bien la edad aumenta ciertas formas de demencia o falta de memoria, esto ocurre únicamente en menos del 50% de las personas mayores. Y es que existe otra tendencia, también sin bases, a considerar que todas las personas mayores o ancianos son iguales, cuando en realidad son tan distintos como cualquier otro grupo de edad. Igualmente es falso que nuestro oído decaiga junto con la visión al envejecer. En la mayoría de los casos, los problemas de audición que se hacen evidentes en algunas personas mayores comenzaron mucho antes, frecuentemente debido al entorno de su trabajo. Así, culpar a la edad de la pérdida de audición puede ser injusto, cuando esto tiene sus orígenes, por ejemplo, en la no utilización de la protección auditiva adecuada y necesaria en muchos trabajos. Conforme ha habido mejores protecciones para los trabajadores, menores son los problemas de audición entre la población de mayor edad. Finalmente, el mito de que el envejecimiento equivale al fin de nuestra vida sexual ha sido derribado por numerosos estudios en los últimos años. Muchas veces, por el mismo desconocimiento de estos procesos, son las propias personas mayores las que perpetúan muchos mitos refiriéndose a sus problemas como si fueran producto únicamente de cumplir años y no de lo que han hecho, o dejado de hacer, durante la vida.

Ello no quiere decir que no se luche con éxito para paliar muchos efectos de la edad. La prevención de algunos efectos como la osteoporosis en las mujeres comienza en la juventud y sus beneficios son notables, por poner sólo un ejemplo. Una vida sana, sin excesos, con una alimentación adecuada, algo de ejercicio, un vaso de vino diario si gusta, y atención a las indicaciones del médico son un camino seguro para poder disfrutar de una vejez más sana, más prolongada y más activa junto con los nuevos medicamentos, prótesis y cambios en nuestro estilo de vida que ofrece la medicina especializada en la edad, la geriatría, son clave para cumplir con gusto muchos más años.


¿Los telómeros son la clave?


La investigadora de origen australiano Elizabeth Blackburn es la principal investigadora de los telómeros, a los que define como "cubiertas protectoras en los extremos de los cromosomas" y los asemeja a las puntas de las cintas de los zapatos: si se pierden, se deshilacha el tejido, y la telomerasa es la enzima que reconstruye los telómeros cuando se desgastan. Si no hay telomerasa suficiente, los telómeros se pierden y la célula envejece. Entre sus descubrimientos, la pérdida de telómeros se agrava con el estrés psicológico, lo que nos podría llevar a entender la relación mente-cuerpo en términos sólidamente científicos, sobre todo si realmente la telomerasa es la piedra de toque de nuestro envejecimiento.

Dengue, la amenaza incesante

2007 fue el año en el que se descubrió que los lineamientos de la OMS para identificar casos de dengue entre personas que hayan visitado ciertos países tropicales son insuficientes para detectar casos en principio benignos de la enfermedad.

Mosquito Aedes aegypti, principal vector del
dengue hemorrágico
(Foto GFDL de Muhammad Mahdi Karim,
vía Wikimedia Commons)
Centrándose en la forma más terrible del dengue, la de fiebre hemorrágica, y su principal síntoma, el sangrado, como su nombre lo indica, los lineamientos omiten a muchísimas personas que padecen la enfermedad, que pueden llegar a requerir hospitalización y que se ponen en riesgo al no ser tratadas, ya que una segunda infección de dengue aumenta el riesgo de padecer su forma más peligrosa. Diagnosticados incorrectamente como víctimas de una gripe o resfriado, estos pacientes corren el peligro de infectar a otras personas mediante mosquitos o productos de la sangre, al menos mientras presentan fiebre. Así, por ejemplo, uno de cada 1.300 donantes de sangre en Puerto Rico tenía una infección activa de dengue durante la epidemia de 2005. Sin embargo, entre los más de dos mil millones de habitantes de zonas donde el dengue es común, se informa de alrededor de un millón de casos al año, muchos menos, dicen los expertos, que los que realmente se presentan.

El dengue, en general poco conocido fuera de los trópicos, llamó la atención noticiosa en 2002, cuando Cuba enfrentó su peor epidemia de dengue en décadas y para combatirlo reclutó los esfuerzos de la población, incluyendo a 11.000 trabajadores que tenían la misión de fumigar todas las viviendas de La Habana y multar a quienes no se lo permitieran. La atención se debió no a las víctimas de la enfermedad, sino a que se convirtió en otra pieza del ajedrez político: las autoridades cubanas afirmaron que la epidemia había sido causada por los Estados Unidos y los disidentes cubanos aseguraron que se utilizaba la fumigación para envenenarlos. Ninguna afirmación fue probada a la larga.

El dengue es una enfermedad febril aguda causada por cuatro distintos tipos de arbovirus del genus Flavivirus y cuyo vector principal son los mosquitos Aedes aegypti y, en menor medida, Aedes albopictus, que también transmiten los virus de la fiebre amarilla y la hasta hace poco desconocida enfermedad de chikungunya. Como en otros casos, la hembra de este mosquito necesita sangre para madurar sus huevecillos, y al chupar sangre a sus víctimas les transfiere diversas enfermedades. La infección se presenta de pronto con un rápido aumento de la temperatura, escalofríos e intensos dolores en la zona lumbar, la nuca y los hombros, además de dolor muscular difuso y dolores en las articulaciones, que le han dado su nombre en inglés: "fiebre rompehuesos". En la mayoría de los casos hay conjuntivitis y una erupción parecida al sarampión. En los casos más graves, hay gastritis, dolores estomacales, vómito y diarrea. En los casos de fiebre hemorrágica, aparecen espontáneamente moratones en distintos lugares del cuerpo como los sitios de inyecciones, sangrado de las mucosas, vómitos de sangre o diarrea sanguinolenta. En los casos más riesgosos, los pacientes muestran alteraciones del pulso, baja tensión arterial, inquietud y piel fría y húmeda. El dengue suele presentarse en brotes epidémicos y puede ocasionar la muerte, como ocurrió en la epidemia del sureste asiático de 2005, donde hubo casi 17 mil muertes en un cuarto de millón de casos.

Considerada una amenaza creciente para los habitantes de los trópicos y para los visitantes de países como Tailandia, Brasil, Cuba y Puerto Rico, esta afección fue sujeto, en 2007, del primer análisis integral y multinacional de todos los interesados, revelando que el dengue comporta una carga epidemiológica, social y económica mucho mayor de lo que se calculaba en el pasado. Así, en octubre de 2007 se informaba que el profesor Donald Shepard, uno de los investigadores del estudio, señalaba: "Un episodio de dengue tiene un enorme impacto sobre el gobierno, los hogares y los empleadores".

En 2007, solamente, se presentaron brotes en Paraguay (con más de 16.000 casos y una decena de fallecimientos), en la frontera entre Brasil y Paraguay (45.000 casos estimados) y en los estados de Ceará, Pará, San Paulo y Rio de Janeiro con más de 70.000 casos y más de dos decenas de muertes, en Puerto Rico (más de 2.000 casos hasta agosto) y en la ciudad de Monterrey, la tercera en importancia de México.

Al tratarse de una infección viral, los antibióticos no tienen efecto sobre el dengue, y por tanto el único tratamiento actual es la terapia de apoyo, aumento en el consumo de líquidos y en ocasiones líquidos por vía intravenosa, transfusiones de plaquetas si el recuento disminuye sensiblemente o de glóbulos rojos en caso de hemorragias intensas. Los pacientes deben hospitalizarse, algo que no es sencillo en países ecoómicamente limitados, y aún no se ha desarrollado una vacuna.

Una inesperada posibilidad de combate del dengue y de otras enfermedades transmitidas por mosquitos proviene del campo lleno de promesas de la genética. Desde la década de 1990 los científicos demostraron que se podían introducir genes exógenos en el genoma de los mosquitos, y este descubrimiento permitió que en 2007 investigadores del Tecnológico de Virginia y la Universidad de California Irvine consiguieran que se expresara un gen de origen externo únicamente en las células germinales de mosquitos hembras. Esto permitiría que mosquitos con genes que impidieran que el virus se desarrollara en su interior se cruzaran con mosquitos salvajes, cortando la línea de transmisión hacia el ser humano.

Mientras eso se consigue, los países que sufren de enfermedades tropicales y carecen de medios económicos y tecnológicos para proteger a su población dependen de la ayuda y la solidaridad de los países desarrollados para disminuir las muertes y sufrimiento de millones de personas en todo el mundo y contener el regreso que experimenta esta enfermedad desde que se dieron por terminados los esfuerzos de erradicación del mosquito hace más de 30 años.

Recomendaciones para los viajeros

Si usted viaja a zonas tropicales, especialmente Florida, América desde México hasta Paraguay, el África subsahariana y el sudeste asiático y Oceanía, debe ocuparse de su protección personal contra el dengue y otras enfermedades propias de estos climas. No duerma sin mosquitero, aplíquese repelentes que contengan las sustancias conocidas como NNDB y DEET en todas las zonas de la piel expuestas (los mosquiteros nocturnos impregnados de DEET son una buena recomendación) y evite visitar áreas donde la enfermedad sea endémica. Si tiene cualquier síntoma poco después de su viaje, vaya al médico, aunque parezca una simple gripe, e informe al médico dónde ha estado.

Cocina: gusto y ciencia

En estas épocas, cuando nos reunimos con la familia a comer, que no es otra cosa que la celebración de la abundancia que disfrutamos y deseamos seguir disfrutando en el año nuevo, vale recordar que la estirpe humana controló el fuego hace apenas algunos miles de años. La capacidad de tener fuego daba seguridad en las noches y calor en clima frío, pero también permitió cocinar alimentos que, de otra forma, no podían aprovechar nuestros ancestros. Sus dientes y mandíbulas, evolucionados a partir de los de primates arborícolas que comían hojas suaves y frutas, no estaban diseñados para arrancar la carne de los huesos de grandes animales y su aparato digestivo tampoco podía tratar trozos de carne tragado sin masticar que es la forma en que los consumen depredadores como los lobos y grandes felinos. Pero la carne cocinada era fácil de masticar y tragar, y de ella nuestro aparato digestivo podía extraer muchos más nutrientes. Sin contar con que la carne asada en el fuego tiene un gusto mucho mejor que la carne cruda.

Para muchos paleoantropólogos, este paso que representó para nuestra especie la gran oportunidad de hacer evolucionar un cerebro complejo, que demanda grandes cantidades de nutrientes para formarse y mantenerse. El excedente proteínico y de grasas de la carne sería así el detonador de la inteligencia humana junto con el fósforo procedente del consumo de pescados y mariscos que tampoco habían estado en la dieta de los primeros humanos.

¿Por qué ocurre esto? Al cocinar la carne, las moléculas de proteína se "relajan" de su forma apretadamente enrollada en espiral alrededor de otras moléculas, separándose entre sí para después recombinarse con otras moléculas o coagularse formando paquetes que nuestro aparato digestivo puede aprovechar. Al mismo tiempo, la grasa responsable del sabor, se funde y dispersa por la carne, se evapora parte del agua que contiene la carne. Además, los aminoácidos y las azúcares de la carne expuestos a la mayor cantidad de calor (generalmente los de la superficie), experimentan la llamada Reacción Maillard, un proceso químico similar a la caramelización que crea el sabroso dorado de la carne y es responsable igualmente del tostado del pan y otros productos de masa, procesos como la fermentación de la cerveza y el whisky, y el tostado del café. Finalmente, el colágeno de la carne se funde convirtiéndose en gelatina.

Comer bien pasó pronto de significar “comer suficiente” para nutrirse a comer alimentos que proporcionaran placer al paladar, y en el 330 antes de nuestra era aparece el primer libro de cocina y guía gastronómica, el primer antecedente de la Guía Michelin, un poema didáctico y humorístico del escritor griego Arquestratos de Gela, intitulado Vida de lujos, que señala los alimentos más sabrosos, el orden de su consumo y dónde obtenerlos, con algunos detalles de su preparación. La gastronomía se volvió así parte esencial de la cultura, desde los platos más complicados y selectos hasta el humilde pan, presente en todas las culturas en formas muy distintas, desde el baozi chino hasta el lavash armenio, la pitta árabe, las arepas venezolanas y las tortillas o tortitas mexicanas.

El pan se puede definir, en todos los casos, como resultado de cocinar una mezcla de granos molidos y agua. Algunos llevan polvo de hornear (bicarbonato de sodio) o levaduras, que son hongos unicelulares que se alimentan de las azúcares que contiene la harina para fermentar la masa y hacer que el pan se levante y se vuelva esponjoso y delicado. Tanto el polvo de hornear como las levaduras liberan bióxido de carbono que crea las burbujas en la masa que se convierten en la textura del pan. Las burbujas de bióxido de carbono son contenidas por el gluten de la harina, que se hace flexible y fácil de estirar mediante el amasado, de modo que se llena con miles de burbujas de bióxido de carbono. Finalmente, el almidón de la masa libera azúcares y fortalece al gluten además de absorber agua durante el horneado.

Ciertamente, durante gran parte de la historia humana, no sabíamos lo que comíamos, y nos guiábamos sólo por el gusto y un cierto empirismo, además de las consejas populares, con frecuencia muy desacertadas, pues si bien en todo momento se tuvo claro que hay relación entre la alimentación y la salud, el tipo de relación y sus causas son conocimientos relativamente recientes. Así, por ejemplo, los romanos utilizaban como endulzante de su vino la “sapa”, un mosto de uva que se convertía en jarabe hirviéndolo. Cuando se le hervía en recipientes de plomo como lo sugerían muchos autores, se producía acetato de plomo, llamado también “azúcar de plomo”, un endulzante con todas las propiedades venenosas del plomo, que se mezclaba con la sapa. Esto, así como el uso medianamente extendido de tuberías de plomo para abastecer de agua a Roma, ha llevado a que algunos estudiosos sugieran que la locura de emperadores como Nerón y Calígula, el descenso en la natalidad en los últimos años del esplendor imperial, y las decisiones cuestionables que en su conjunto contribuyeron fuertemente a la decadencia del imperio romano, fueron producidas por saturnismo, nombre que se da al envenenamiento por plomo que, se sabe, es causante tanto de alteraciones neurológicas como de infertilidad. Situaciones así, de conocerlas, seguramente nos ayudarían a explicar la caída de muy diversas culturas.

La cultura gastronómica, que hoy parece estar al alza, se está beneficiando cada vez más de la investigación científica sobre los procesos fisicoquímicos que ocurren en nuestras cocinas, en el horno, en la cazuela o en la nevera. Algunos mitos han caído en el proceso, mientras que otros se han validado, pero al unirse la ciencia al arte en las cocinas, lo que seguramente mejorará será la parte realmente subjetiva del buen comer: el disfrute de su consumo, como lo hemos vivido en estas fechas festivas.

Geografía y alimentación


En la Alta Edad Media se fijaron las pautas de alimentación que hoy podemos seguir apreciando en Europa. La zona norte, con clima frío, abundante leña, espacios suficientes para mantener grandes hatos de ganado lechero y la dificultad de acceder al comercio exterior, creó la cocina de fogata encendida todo el día, asado en espita sobre las llamas y calderos suspendidos sobre el fuego donde se preparaban espesos potajes, salsas y sopas de prolongados tiempos de preparación, empleando como grasa generalmente la mantequilla. La zona del Mediterráneo, con su abundancia de olivos, escaso combustible, clima más benévolo y acceso a productos de oriente, generó una cocina más ligera, rápida de hacer, donde la grasa para cocinar es el aceite de oliva y las principales herramientas son la sartén y la cacerola. Vaya, la diferencia entre el pescado frito y la fabada.

La ciencia en 2007

Resumir la ciencia de todo un año es cada vez más difícil por la velocidad y diversidad de los avances, y ni siquiera los expertos saben si una noticia será o no trascendente en el futuro. Así, esta selección de algunas noticias prometedoras en distintos campos del conocimiento es, forzosamente, subjetiva y corre el riesgo de omitir lo que, en el futuro podría demostrar haber sido el punto más relevante de la ciencia este año.

Diversos equipos científicos consiguieron crear células madre pluripotentes a partir de células de la piel humana. Si estos conocimientos se convierten en técnicas comunes de laboratorio, habrá desaparecido una de las fuentes principales del debate que han emprendido diversas jerarquías religiosas contra quienes estudian las células madre procedentes de embriones humanos y pretenden utilizarlas para curar las más diversas enfermedades. En una noticia relacionada, científicos británicos consiguieron obtener tejido de una válvula cardiaca a partir de células madre procedentes de la médula ósea, con la esperanza de poder construir válvulas cardiacas para trasplantes a la medida de cada paciente.

Un grupo de astrónomos informó de la mayor explosión estelar, o supernova, jamás observada. Por primera vez, los científicos vieron la violenta muerta de una estrella entre 100 y 200 veces más grande que nuestro Sol, lo que ayudará a entender el desarrollo de las estrellas en los primeros tiempos del universo.

Un cráneo de alrededor de 36.000 años de antigüedad hallado en 1952 fue estudiado con las nuevas técnicas al alcance de la paleoantropología y demostró ser la primera evidencia fósil de una de las más viables hipótesis del origen del hombre, la que sitúa la aparición de nuestra especie en el África Subsahariana, de donde partió hace entre 65.000 y 25.000 años para poblar el planeta.

Los avances derivados de la secuenciación del genoma humano dominaron 2007. Por primera vez este año ha sido posible hacernos un sencillo estudio para determinar nuestros orígenes genéticos, algo antes inimaginable. Igualmente, el estudio de pequeñas variaciones genéticas llamadas polimorfismos nucleótidos únicos ha permitido estudiar a grupos de personas con y sin ciertas enfermedades, y saber qué variaciones genéticas, en su caso, se relacionan con alguna enfermedad, como los de la diabetes tipo 2 identificados en 2007. Hoy es fácil conocer las diferencias genéticas entre cada individuo, lo que abre la puerta para la medicina genómica personalizada, adaptada a las características de cada uno de nosotros, a nuestro potencial y limitaciones genéticos.

Un aspecto seguramente inolvidable del año que termina fueron las desafortunadas declaraciones del Premio Nobel James Watson referentes a cierta “inferioridad” de los africanos comparados con un “nosotros” indefinido. Los comentarios le costaron a Watson el rechazo y la jubilación anticipada, pero la ironía definitiva fue que, poco después, un análisis realizado al genoma del científico demostró que éste tenía un muy elevado 16% de genes africanos, lo que lo habría calificado, según muchas leyes raciales del pasado, como negro, o al menos un científico afroamericano.

Diez libros para navidad

Guía del cielo 2008, Pedro Velasco y Telmo Fernández, Espasa (Barcelona) 2007. Es común la publicación anual de almanaques astronómicos que sirven a los especialistas a estar al tanto de las fechas de eclipses, solsticios, lluvias de estrellas y otros fenómenos de su interés. Lo que hace muy especial a este almanaque es que está dirigido al público en general, tanto así que se presenta como una guía para la observación del cielo a simple vista, de modo que no hace falta ningún aparato para realizar una serie de observaciones astronómicas, como se hizo durante milenios antes de la invención del telescopio.

La historia de El origen de las especies de Charles Darwin, Janet Browne, Debate (Barcelona) 2007. Historiadora de la ciencia y una de las máximas expertas en Darwin, cuya correspondencia editó, Janet Browne aborda una verdadera biografía de este libro que, en más de un sentido, cambió el mundo. Desde la concepción de la idea por parte de Darwin hasta la publicación y el debate que la rodeó, en el que Darwin guardó silencio mientras Thomas H. Huxley actuaba como defensor público de la teoría de la evolución, llegando al debate actual de los creacionismos antidarwinistas, Janet Browne condensa la historia de un libro único.

Ciencia a la cazuela, Carmen Cambón, Soledad Martín y Eduardo Rodríguez, con un prólogo de Ferrán Adriá, Alianza Editorial, 2007. En medio del furor por la cocina que está viviendo gran parte del mundo, aparece este volumen dedicado a dar al público una introducción a la ciencia a través de la cocina. Así, los autores, especialistas en áreas como química, bioquímica y biología, explican clara y detalladamente los fenómenos que ocurren continuamente cuando cocinamos, y permiten ver la cocina como un laboratorio de física y de química, así como realizar prácticas y ver los principios en acción.

El viaje del hombre: una odisea genética, Spencer Wells, Océano, México-Madrid 2007. En sólo 60.000 años, los descendientes de un solo homínido que vivió en África, el verdadero “Adán" de la evolución, hemos cubierto el planeta y desarrollado una gran diversidad de tallas, colores y otros elementos externos que permiten que sobreviva la esencia misma de lo que es la humanidad. La epopeya de la evolución humana desde el punto de vista de la genética se convierte en el relato de un viaje apasionante, realizado, de una u otra manera, por todos nosotros.

El espejismo de Dios, Richard Dawkins, Espasa-Calpe, Madrid, 2007. En este libro, Richard Dawkins expone con rigor metodológico, lo que la ciencia, el conocimiento y la experiencia nos dicen acerca de la posibilidad de la existencia de alguna deidad en nuestro universo, y relata la contraposición que históricamente se ha desarrollado entre la ciencia y las religiones, el conocimiento y las creencias, resumiendo los argumentos del agnosticismo lógico. Los no creyentes encontrarán a un brillante coequipero en este libro, y los creyentes podrán entender esa forma distinta de ver el mundo de quienes no creen en ninguna deidad.

El ecologista escéptico, Bjorn Lomberg, Espasa-Calpe, Madrid, 2005. Este “clásico instantáneo” ha originado incesantes debates por poner en tela de juicio algunos de los supuestos más extendidos sobre el medio ambiente mundial. El autor, antiguo miembro de Greenpeace, afirma que se exagera sobre algunos aspectos del calentamiento global, la sobrepoblación, la disminución de los recursos energéticos, la deforestación, la pérdida de especies, la escasez de agua y otros problemas que carecen de un análisis sólido de los datos relevantes. Publicado en danés en 1998, es imprescindible para entender el debate ecológico actual.

El mundo y sus demonios, Carl Sagan, Planeta, 2005. Quinta edición del último libro de Carl Sagan publicado en vida del autor, cuyo subtítulo en inglés, “la ciencia como una vela en la oscuridad” define con exactitud el volumen y su vigencia once años después de su publicación. Más que ningún otro de sus libros, éste es una apasionada invitación a conocer y usar el método científico y el pensamiento crítico y cuestionador. El autor afirma: “La ciencia es más que un cuerpo de conocimiento, es una forma de pensar”, y considera fundamental que el público en general la conozca para no ser rehén de los que detentan la tecnología.

¡Bang!, Brian May, Patrick Moore, Chris Lintott, Ed. Crítica, Barcelona, 2007. No es frecuente tener un libro de cosmología firmado por una estrella de rock como Brian May, guitarrista de “Queen”, que estuvo a punto de doctorarse en astronomía y ha seguido promoviéndola. En este libro, los conocimientos de los dos conductores del programa mensual de la BBC The Sky at Night (El cielo de noche), escriben con el famoso músico un libro destinado a popularizar de la forma más clara y divertida, pero profunda y detallada, la historia de nuestro universo y de nuestro conocimiento sobre él.

La saga humana, Juan Luis Arsuaga, EDAF, Madrid, 2006. Complemento ideal de El viaje del hombre, este libro, el cuarto escrito por el codirector de los trabajos de excavación de Atapuerca, retoma el relato de la historia de la humanidad y sus ancestros y parientes, como el hombre de Neanderthal, y cómo era el mundo en las distintas épocas en las que vivieron, desde otra perspectiva, la de la paleoantropología y el conocimiento de las culturas que se han sucedido en el tiempo, todo en forma de un atractivo álbum de imágenes creadas con atención a su belleza tanto como a la veracidad de sus representaciones según la reconstrucción paleoantropológica.

Monstruos, Eduardo Angulo, 451 editores, Madrid, 2007. El público siempre ha querido leer relatos de monstruos, y así lo demuestran los “libros de maravillas” tan demandados en la Edad Media y el Renacimiento, donde se contaba la existencia de todo tipo de seres inverosímiles, humanos y animales de formas fabulosas. El avance de la ciencia, sin embargo, ha relegado a los monstruos al terreno de la llamada “criptozoología”, seudociencia que afirma estudiar animales cuya existencia no está demostrada. Raras veces la criptozoología es abordada por científicos capaces de separar los mitos y los hechos y arrojar luz sobre el conglomerado de creencias que se refieren, por igual, al monstruo del Lago Ness, al Yeti, al Bigfoot y al Kraken. Eduardo Angulo, profesor de biología en la Universidad del País Vasco, aborda la tarea con conocimiento de causa y pasión por estos seres míticos y por quienes se ocupan de ellos. Sin dejar de lado el rigor científico, Angulo relata con habilidad y gusto, involucrando al lector en las historias que se van desarrollando acerca de los monstruos que todavía la imaginación humana se plantea que puedan existir en este mundo tan explorado y en el que las maravillas de la biología no suelen ser tan espectaculares como un plesiosaurio sobreviviente de la extinción de hace 150 millones de años. El libro se complementa con una serie de magníficas ilustraciones que cuentan la visión humana de esos seres maravillosos que, incluso no existiendo en realidad, viven en los espacios de la más viva fantasía humana.

La biología de las sociedades

Desde las sencillas colonias coralinas hasta sociedades jerarquizadas como la de los lobos, unirse en algún tipo de sociedad parece una tendencia natural de la vida.

Todos nosotros somos, individualmente, la suma de los billones de células que componen nuestro cuerpo y que están diferenciadas para cumplir funciones específicas. Somos un buen ejemplo de que a los individuos les conviene vivir en sociedad.

La vida comenzó, según sabemos, con seres unicelulares que poblaron en solitario el planeta desde hace unos 4.500 millones de años, hasta hace unos 1.200 millones de años, cuando se dio el singular paso de los seres unicelulares a los multicelulares. Este revolucionario cambio lo conocemos por un alga roja que es el fósil multicelular más antiguo que hay hoy. Como esta transformación ocurrió en una época en la que los organismos prácticamente no tenían estructuras rígidas, el registro fósil es escaso y este paso sigue siendo un enigma para nosotros. Los científicos han propuesto varias hipótesis de cómo ocurrió, posibles explicaciones que no son excluyentes, sino que, probablemente, fueron distintos caminos que siguió la vida en distintos momentos para llegar a los seres complejos. Así, los seres multicelulares podrían provenir de la simbiosis entre seres unicelulares de distintas especies, colaborando y dividiéndose el trabajo, como ocurre en los líquenes, o bien podría ser que los seres unicelulares crearan compartimientos en el interior de sus células que se fueron convirtiendo asimismo en células, mientras que el tercer camino posible implica la unión de seres unicelulares de la misma especie, empezando como colonias del tipo de los corales, para que paulatinamente se diera la especialización de las células en distintas tareas vitales para la totalidad del organismo.

Muy pronto, los seres multicelulares descubrieron que ellos también podían unirse en sociedades o grupos, de modo que su complejidad como organismo se multiplicó en otro nivel: la asociación con otros seres de su propia especie o de otras especies, con grandes ventajas para la supervivencia pero que, al mismo tiempo, abren todo un nuevo abanico de posibilidades de conflicto. Para crear una sociedad no es necesario siquiera que los integrantes puedan identificarse individualmente, basta con que los demás los puedan identificar como miembros del grupo. Tal es el caso de las sociedades de insectos como las hormigas, las termitas o las abejas. Las señales químicas forman la identidad del grupo, y señales distintas o desconocidas pueden provocar el rechazo o, incluso, los ataques. En las sociedades de ratas esto se hace evidente con un peculiar experimento: se toma a una colonia de ratas y se divide en dos que no tienen contacto durante largo tiempo, de modo que el olor de cada grupo cambie de modo distinto. Al volverlas a reunir, no se reconocen como antiguas compañeras, sino que atacan a las del otro grupo como adversarios y competidores en la explotación de los recursos que necesitan para sobrevivir y reproducirse.

Las sociedades pueden dar cobijo a sus miembros si ocupan el lugar de presas, como ocurre en el caso de cebras, bisontes o búfalos, obligando, por la presión de selección, a que los depredadores se concentren en los animales más débiles. De una parte, esto implica la selección de los animales viejos o enfermos, dejando mayores recursos para los componentes sanos y jóvenes de la manada, y de otra exige mayores cuidados maternos para unas crías que son, también, bocado favorito de los depredadores. Esto se muestra claramente en sociedades muy complejas como las de babuinos y otros primates de la sabana. Al estar amenazados por el ataque de un depredador, como sería un leopardo, la banda de monos se organiza en una serie de círculos concéntricos: en el anillo exterior, los viejos y fuertes líderes de la banda, después los jóvenes machos y las hembras sin crías y, en el centro, protegidas al máximo, las hembras y las crías del grupo, que gozan de la mejor seguridad, pues resultará muy difícil que un depredador llegue hasta ellas. Otro caso diferente es el de las sociedades de cazadores o depredadores, como los lobos y los delfines, que utilizando complejas pautas de comportamiento, división del trabajo y relevos consiguen hacerse entre todos con grandes presas cuya cacería no se podría plantear un individuo por sí mismo.

Pero las sociedades desarrollan también un elemento que parecería ir a contracorriente de los intereses evolutivos de la especie, el comportamiento desinteresado al que conocemos como "altruismo". El altruismo ciertamente incrementa el bien de un individuo a costa del bien de otro que se "sacrifica" disminuyendo incluso sus propias posibilidades de supervivencia. Esto parece un contrasentido, pero no lo es en términos del grupo completo y de la supervivencia del mismo, de modo que resulta evolutivamente útil para la cohesión y fuerza del grupo, y en último caso para los propios individuos que hoy hacen un sacrificio pero mañana pueden beneficiarse del altruismo de otros si éste se ha vuelto parte de su comportamiento genéticamente determinado o condicionado. Comer menos para darle de comer a un miembro debilitado del grupo puede ser un involuntario seguro de vida para cuando nosotros suframos una enfermedad o herida, lo cual redunda en beneficios para todos.

El estudio de las complejas sociedades humanas acude, como referencia, a los estudios sobre las sociedades animales. Con el tiempo hemos aprendido que algunos comportamientos aparentemente complejos, como el avance de una columna de hormigas, o los movimientos de una bandada de aves o una mancha de peces, responden a reglas más sencillas de lo que suponíamos antes. Pero en general, la complejidad de la cultura sobrepuesta a nuestro sustrato genético hace que sigamos muy lejos de comprender en profundidad la vida social de los humanos. Pero lo indudablemente cierto es que la estudiamos en grupo, en esa sociedad de búsqueda del conocimiento que llamamos ciencia.

El cuidado de los ancianos

El cuidado de los ancianos existe en el linaje humano desde hace al menos 1,77 millones de años de antigüedad. En 2005 se halló en el Cáucaso el fósil de un individuo completamente desdentado de bastante más de 40 años de edad, una verdadera ancianidad en su especie. Los paleoantropólogos han determinado que perdió la dentadura años antes de morir y, por tanto, no podía haber masticado la carne y los vegetales fibrosos que, se sabe, componían la dieta de su grupo. Alguien, su tribu, clan o, si lo prefiere usted, manada, cuidó de él, moliendo o masticando sus alimentos y conservándolo en el grupo en vez de sacrificarlo como hacen, inadvertidamente, las manadas de presas. Una lección de casi dos millones de años sobre el valor de las personas mayores.

Usted también es científico

La idea de que “la ciencia es difícil” está tan difundida que no nos damos cuenta de que todos nosotros aplicamos el método de la ciencia a nuestra vida diaria.

Quizá la culpa sea de las matemáticas. Ya sea por deficiencias en nuestros sistemas educativos o por alguna cuestión inherente al común de los seres humanos, para la mayoría de nosotros resulta difícil manejar el nivel de abstracción matemática a niveles por encima de la trigonometría y la geometría analítica, y este rechazo a una asignatura difícil se ha trasladado hacia toda la actividad científica porque, en mayor o menor medida, la ciencia utiliza como lenguaje precisamente las matemáticas. La conclusión a la que llegan muchas personas es que la ciencia es en sí una práctica difícil y los científicos personajes que hablan en un idioma poco comprensible para la mayoría de nosotros, aunque, por otro lado, lo mismo se podría decir del fútbol de alto nivel, de su práctica y de su lenguaje especializado. Pero, en realidad, las bases de la ciencia son algo que usamos día a día todos nosotros. Aplicamos sus métodos, razonamientos y procedimientos para enfrentar el mundo que nos rodea y superar sus desafíos. Ciertamente no podemos aspirar al premio nobel, pero también podemos jugar al fútbol sin aspirar al balón de oro.

La ciencia no es sino un método de adquirir conocimiento sobre el mundo que nos rodea, y no ha sido en modo alguno el único empleado por el ser humano. Para entender su valor, vale la pena recordar que el método científico sustituyó a las intuiciones, de la escolástica, que consideraba verdad, a modo de dogma, cuanto hubieran dicho o escrito los clásicos griegos y la Biblia, y pretendía llegar al conocimiento solamente mediante un razonamiento intuitivo apoyado en la autoridad de los grandes autores y en las verdades aceptadas. Así, una pregunta como “¿cuántas patas tiene una mosca?” se resolvería, antes del método científico, es decir antes del renacimiento, buscando fuentes de autoridad que mencionaran este dato. Así, daríamos con la famosa afirmación de Aristóteles de que las moscas tienen ocho patas. Si encontráramos algún otro autor que dijera lo contrario, deberíamos razonar dialécticamente y acudir a nuestra intuición o sentido común para resolver la contradicción. Pero, como ningún autor decía lo contrario, la humanidad occidental vivió cientos y cientos de años convencida de que las moscas tenían ocho patas. Si además el hecho podía sustentarse en la Biblia, quedaba convertido en verdad religiosa, y si alguien osaba contarle las patas a una mosca y veía que sólo tenía seis, lo más conveniente para su integridad y la de su hacienda habría sido concluir que esa mosca había perdido dos patas y declarar que dicho animalillo tenía, como dijo Aristóteles, ocho patas.

Evidentemente, en este método no importa tanto la verdad como la opinión compartida o generalizada, es decir, la creencia más aceptada, y la observación del mundo se veía siempre filtrada por lo previamente dicho por las autoridades y libros importantes. Este método fue el que se sustituyó por una serie de procedimientos nacidos para conocer la realidad directamente, y que hoy conocemos como el “método científico”.

Supongamos que tenemos un aparato desconocido del que no tenemos el manual (o, simplemente, no estamos por la labor de leer el manual, que es lo más frecuente). Para enfrentarlo, lo primero que haremos será observarlo y buscar aspectos de él que tengan similitud con otros aparatos de nuestra experiencia. Si tiene un botón con un círculo (O) y una línea vertical (|), lo reconoceremos como un interruptor de alimentación, y podemos concluir con cierta certeza que con él podemos encender o apagar el aparato. Veremos si tiene compartimiento para pilas, y en caso afirmativo comprobaremos que estén en buenas condiciones, o bien si tiene cable de alimentación, y si está enchufado correctamente. Con base en esas observaciones, podemos emitir una conjetura razonable, una hipótesis: que al pulsar el interruptor, el aparato se encenderá. A continuación, podemos poner a prueba nuestra hipótesis o experimentar: pulsamos el botón y vemos qué pasa. Si se enciende, podemos concluir que efectivamente ese botón es el encendido y, sobre todo, podemos predecir que en el futuro pulsarlo alternará al aparato entre los estados de encendido y apagado, si todos los demás elementos se mantienen iguales.

Todo ello es, sin más, ciencia pura. La observación sustentada en la experiencia, la hipótesis, la experimentación y la predicción son elementos comunes en la ciencia, aunque haya algunas disciplinas, como el estudio de la astronomía y la cosmología, que no se prestan a la experimentación, y que deben someter a prueba sus hipótesis echando mano de observaciones abundantes y modelos matemáticos. Pero ni siquiera en el pasado los seres humanos se atuvieron a métodos no científicos. Así, aunque la actividad agrícola o ganadera podían tener elementos no científicos, la experiencia pasada y la observación de los hechos eran fundamentales, ya que de ellos dependía la supervivencia del grupo. La astronomía, la botánica y la genética tienen sus fundamentos en las labores humanas destinadas a la alimentación.

Definir las cuestiones, obtener información sobre ellas mediante la observación directa o indirecta, crear hipótesis, experimentar, analizar e interpretar los resultados para confirmar o desechar las hipótesis y reiniciar el ciclo a la luz de los nuevos conocimientos no es sino lo que hacen los científicos en todos los laboratorios del mundo. Es lo que hacemos al aplicar nuestro conocimiento en la cocina, en la conducción de autos o en el aprendizaje de nuevas habilidades y capacidades para nuestra vida. Es precisamente por ello, porque es un método adecuado, que nos permite obtener conocimientos certeros, que el método científico funciona efectivamente para ir conociendo nuestro mundo, eso que hacemos todos.

La replicación en ciencia

Las conclusiones a las que llegan los científicos, sobre todo cuando son en extremo revolucionarias, son puestas a prueba por otros científicos. Es por ello que los artículos o papers científicos son tan tremendamente detallados en cuanto a los pasos dados, se trata de que su experiencia pueda ser replicada por cualquiera que lo desee. Porque, pese al cuidado que se pueda tener, cualquiera, científico o no, puede hacer una observación equivocada, un experimento no válido o interpretar incorrectamente los datos. Pero al ser una labor colectiva, la ciencia, como ninguna otra disciplina, está sujeta a su constante autocorrección y afinación por parte de las demás personas que se ocupan de su estudio, algo que sin duda a veces convendría que ocurriera en otras facetas de nuestra vida.

Ir y venir de la estación espacial

Europa da los toques finales a la nave espacial que tendrá la misión de abastecer a la Estación Espacial Internacional, como la nave espacial automática más potente jamás construida.

Quizá la presencia majestuosa de la Estación Espacial Internacional (ISS) nos haga pensar que los seres humanos estamos colonizando el espacio. Pero no es verdad. Aunque desde la superficie de nuestro planeta nos asombremos del portento no sólo tecnológico, sino también diplomático y político que conforma esa estación espacial nuestra, de todos, a diferencia de las anteriores que fueron estadounidenses, rusas o soviéticas, sigue siendo un apéndice de la superficie, dependiendo de ella para casi todas sus necesidades.

El espacio se colonizará realmente cuando en nuestras estaciones y naves espaciales podamos producir alimentos, obtener oxígeno y agua, reciclar nuestros desechos y estabilizar lo que se conoce como un ecosistema cerrado y, por tanto, autosuficiente, un sistema que sólo necesita la energía del sol, como nuestro planeta o los más cuidados acuarios donde las plantas utilizan la energía solar para separar el bióxido de carbono en oxígeno respirable y en carbono como materia prima para alimentos. Mientras ello no ocurra, nuestro planeta sigue siendo único, y de él dependen los alimentos, el oxígeno, el agua y todos los bienes (desde ropa y jabón hasta medicamentos e instrumentos científicos) de la Estación Espacial.

El desafío es llevar, de la forma más eficaz y económica, lo necesario a nuestro emplazamiento en el espacio: la posición orbital que ocupa la ISS. Y es que ya cuando las superpotencias estaban empeñadas en la carrera por llegar a la Luna, muchos estudiosos y visionarios advirtieron que el recurso más valioso que nos ofrecía el espacio era, precisamente, el espacio, con su casi vacío y su libertad de la atracción gravitatoria (esto no es exacto, pero la descripción es útil). Estos elementos abren posibilidades amplísimas para la investigación científica y el desarrollo tecnológico e industrial. Ir a la Luna era un logro impresionante, pero el costo y el riesgo (que en la misión del Apolo 13 estuvo a punto de terminar en tragedia) dejaron muy pronto de hacer razonable continuar con los viajes lunares, sobre todo cuando el espacio estaba tan cerca, apenas a unos cientos de kilómetros sobre la superficie terrestre. Para ir y volver a esa altura se diseñaron los transbordadores espaciales, de accidentada historia, y la Estación Espacial Internacional, la más reciente nave continuamente habitada que viaja a una altura media de 400 kilómetros sobre la superficie terrestre a una velocidad media de 27.800 kilómetros por hora, con lo cual da la vuelta a la tierra casi 16 veces al día. Esta estación sería el resultado, en cierto modo forzado, de la fusión de proyectos que no eran viables hacer de modo independiente por parte de los países que los emprendieron: la estación Freedom de Estados Unidos, el módulo experimental japonés Kibo, la estación Mir 2 de Rusia y la estación Colón de la Agencia Espacial Europea.

Al cumplirse (sin casi atención mediática) siete años de habitación continua de la ISS el pasado 2 de noviembre, la ISS ha recibido servicio de transporte de personas y bienes fundamentalmente por parte de las naves Soyuz y Progreso rusas, y los transbordadores orbitales espaciales estadounidenses. A partir de 2008, parte de esa tarea será asumida por el ATV, siglas en inglés de “vehículo automatizado de transferencia", nave capaz de llevar hasta 9 toneladas de carga a la ISS guiada únicamente por un sistema automatizado de extraordinaria precisión. El ATV se mantendrá integrado como almacén presurizado de la estación durante seis meses, al cabo de los cuales volverá a la tierra con 6,5 toneladas de desperdicios generados por la habitación humana de la estación y se autodestruirá en una flamígera reentrada a la atmósfera sobre el Océano Pacífico. Los planes actuales contemplan la construcción y puesta en funcionamiento de hasta 7 ATV, lo que resolvería gran parte de las necesidades materiales de la estación espacial durante otros tantos años.

El ATV puede llevar de 1.500 a 5.000 kilogramos de carga seca (bienes de reabastecimiento, alimentos, materiales científicos, etc.), hasta 840 kilogramos de agua, hasta 100 kilogramos de gases (nitrógeno, oxígeno y aire), y hasta 4.700 kilogramos de combustible para reabastecer a la estación y para sus propias maniobras de acoplamiento, desacoplamiento y reentrada. Aunque la estación cuenta con avanzados sistemas de reciclaje de agua y gases (de otro modo las necesidades de los habitantes de la estación serían imposibles de abastecer desde la Tierra), el agua y los gases que llevará el ATV sustituyen las partes perdidas por la ineficiencia que aún sufren tales sistemas.

El primer vuelo operativo del ATV se llevará a cabo a principios de 2008, tentativamente en el mismo mes de enero, a cargo de la nave bautizada "Jules Verne” en homenaje al escritor y visionario francés. Este ATV ya está siendo puesto a punto en Noordwijk, en el sur de Holanda, en el cuartel general del centro europeo de investigación y tecnología espacial de la ESA. Una de las últimas interrogantes expetimentales se disipó en octubre, cuando un cohete Ariane 5 en órbita probó la secuencia de encendido del ATV, simulando el reencendido que deberá realizar el ATV una vez que esté en órbita a bordo del cohete Ariane para ajustar su órbita y dirigirse a la estación.

El proyecto ATV costará alrededor de 1.300 millones de euros, con los que, además de superar uno de los mayores desafíos de la Agencia Espacial Europea, será la bisagra fundamental para cubrir el hueco que dejará la retirada de los transbordadores espaciales, dado que un reemplazo para ellos aún está lejano en el tiempo para la siempre asediada NASA. El ATV y las naves rusas serán así las líneas vitales de materiales y personal de reemplazo para garantizar que la estación espacial europea cumpla con sus objetivos.

Los datos del camión espacial europeo

Comparado frecuentemente con un autobús londinense de dos pisos por tener dimensiones similares, el ATV es un cilindro de 10,3 metros de largo con un diámetro de 4,5 metros, lo que le da un volumen de 48 metros cúbicos que estarán presurizados al estar unido a la estación espacial, casi tres veces la capacidad de las naves rusas de carga Progreso-M. El ATV está formado de dos módulos, el primero, de servicio, es el encargado de la propulsión, con cuatro motores principales y 28 pequeños motores auxiliares para realizar con exactitud la delicada tarea de acoplarse con la estación, tarea que está a cargo del segundo módulo. Todo el conjunto será lanzado desde el puerto espacial europeo de la Guayana Francesa por un cohete Ariane 5.

Nueva vacuna contra un antiguo virus

El herpes zóster, una dolorosa afección que aumenta entre los mayores de 65 años de edad, tiene hoy una nueva arma para su control.

Varicella zoster, el virus de la varicela y también
causante del herpes zoster
(Foto D.P. de CDC/Dr. Erskine Palmer/B.G. Partin,
vía Wikimedia Commons)
Un ataque de herpes zóster, también conocido como “culebrilla”, dura de dos a cuatro semanas y comienza habitualmente con sensibilidad a la luz, dolor de cabeza, fiebre y malestar general. Estos síntomas pueden anunciar también una migraña o varios tipos de infecciones, y por ello el paciente puede verse sujeto a diversos diagnósticos equivocados que retrasan el tratamiento correcto de la afección. En un plazo de aproximadamente una semana se presenta un dolor extremo en los nervios afectados, donde se presenta, en la mayoría de los casos, una erupción que formará dolorosas vesículas llenas de un líquido seroso, y que luego se llenan de sangre para formar costra en un plazo de 10 días más mientras el dolor cede lentamente. Además, puede haber síntomas tan preocupantes como la pérdida de la audición, ceguera, encefalitis, neumonía y, en muy pocos casos, llevar a la muerte del paciente.

Una vez que ha desaparecido la erupción, aproximadamente uno de cada cinco pacientes desarrolla una neuralgia postherpética (NPH), un atroz dolor constante y debilitante que no siempre responde al tratamiento y que puede alterar radicalmente la vida ordinaria del paciente durante meses o, incluso, años.

El responsable de este cuadro sin duda preocupante es el virus Varicella zoster, o virus del herpes humano, muy conocido por ser el responsable de la varicela, esa común enfermedad que adquieren, padecen y superan prácticamente todos los niños. La varicela es más benigna en los pacientes de menor edad, y casi nunca tiene secuelas graves, comenzando con síntomas gripales que evolucionan hacia dos o tres oleadas de erupciones con picor que forman pequeñas llagas abiertas que, habitualmente, sanan sin dejar cicatriz. El principal peligro de la varicela es el contagio a mujeres embarazadas, ya que el virus puede dañar gravemente a los fetos de menos de 20 semanas de desarrollo, provocando una variedad de malformaciones y desórdenes que pueden ser sumamente severos. El tratamiento de los síntomas de la varicela implica, según decisión del médico, el uso de un poco de bicarbonato de sodio en la bañera y el uso de antihistamínicos para paliar el prurito, parecetamol e ibuprofeno (pero nunca, nunca, aspirina ni medicamentos que la contengan), una buena higiene de la piel para evitar infecciones secundarias y la varicela desaparece al cabo de unos veinta días, pero su agente causante, el virus del herpes humano, no lo hace.

Así como la ciencia ha descubierto diversos antibióticos para luchar contra infecciones causadas por bacterias y otros organismos unicelulares, la lucha contra los virus es una historia totalmente distinta. Los antibióticos son absolutamente inútiles contra los virus (razón por la que no se recomienda el uso de antibióticos en episodios de gripe, que es ocasionada por un virus). Para evitar las infecciones virales hemos acudido, principalmente, a las vacunas, que al darle al cuerpo una forma debilitada del virus le estimula a producir defensas contra dicho virus, de modo que al producirse una infección sea el propio cuerpo el que enfrenta a los virus. En el caso de la varicela, la vacuna apenas se puso a disposición de la práctica médica en 1995, pero la protección que ofrece no es permanente, y la vacuna debe volver a administrarse cada diez años.

El virus del herpes humano es eliminado de nuestro cuerpo por las defensas excepto en los ganglios adyacentes a la columna vertebral, y de la base del cráneo, donde permanece en estado latente. Si estos virus se reactivan, por motivos que aún no conocemos, recorren los nervios en una migración hacia la piel donde comienzan a presentar los síntomas del herpes zóster. Curiosamente, las personas que por alguna causa no hayan padecido jamás la varicela son inmune a esta forma más agresiva de la infección viral. El herpes zóster puede ser padecido por personas jóvenes, pero principalmente afecta a personas mayores de 65 años de edad, aunque puede ser padecido por personas jóvenes. Las armas del médico en ese caso están muy limitadas: algunos antivirales que inhiben la replicación del ADN del virus son el principal tratamiento, junto con diversos medicamentos que disminuyen la severidad de los episodios. El tratamiento temprano con aciclovir reduce la duración del ataque y, sobre todo, evita los más graves síntomas y la gravedad de la neuralgia postherpética, si ésta llega a presentarse. El tratamiento puede incluir además reposo en cama, lociones tópicas para calmar la erupción, aplicación de compresas frías en las zonas cutáneas afectadas, esteroides e incluso antidepresivos, si los efectos del ataque se reflejan muy notablemente en el estado de ánimo del paciente.

En 2006, finalmente, se aprobó para su utilización una vacuna derivada de la que se utiliza contra la varicela. En un estudio en el que se administró la vacuna a 38.000 pacientes se demostró que evitaba la mitad de los casos y, principalmente, se reducían los casos de neuralgia postherpética en dos tercios. Así, aunque la vacuna no es tan efectiva como lo son otras que utilizamos, su utilidad puede ser grande en cuanto a la cantidad de sufrimiento que puede evitar. Sin embargo, y pese a que ya se está administrando en lugares como el Reino Unido, se trata de una vacuna costosa (entre 100 y 200 euros) de la que aún no se conocen sus posibles efectos secundarios indeseables retardados, y tampoco se sabe durante cuánto tiempo estarán protegidos quienes se vacunan. En términos generales se recomienda sólo para personas de más de 60 años que no tengan alergia a ningún componente de la vacuna, que no tengan debilitado el sistema inmune por alguna otra afección, que no tengan un historial de cáncer de médula ósea o sistema linfático y que no tengan tuberculosis activa y sin tratar. Pese a todas las advertencias y conocimiento aún escaso de la vacuna, algunas personas, especialmente quienes ya han sido víctimas de un ataque de herpes zóster, consideran que conviene vacunarse, sin duda alguna.

La exposición como factor de protección

Una importante observación realizada en el estado de Massachusets, en los EE.UU., fue que la incidencia de herpes zóster aumentó hasta casi duplicarse desde que se empezó a incrementar la vacunación infantil contra la varicela, de 1999 a 2003, confirmando que los adultos mejoraban su protección inmune contra el herpes zóster si estaban expuestos a niños con varicela. Quizá una de las mejores formas de mejorar la efectividad de la vacuna contra el herpes zóster sea disminuir el uso de la vacuna contra la varicela, una paradoja que presenta difíciles aristas éticas y una elección compleja que tarde o temprano deberán tomar las autoridades sanitarias.

Un mundo sin petróleo

Más lentamente de lo deseable, nos empezamos a preparar para un mundo sin petróleo, en el que la energía deberá provenir de otras fuentes, con sus ventajas y sus desventajas.

Los problemas de una economía basada en el petróleo se exhiben con gran frecuencia, en las cifras de contaminación, en los accidentes que involucran a buques petroleros, en el poder excesivo de las empresas petroleras. Sin embargo siguen siendo grandes las ventajas del petróleo: es abundante, es barato y produce muchísimos componentes de gran utilidad. Un barril de petróleo (159 litros) contiene entre 5% y 30% de componentes que se convierten en gasolina, y en casos extremos hasta el 50% del barril se puede transformar en gasolina con distintos métodos. El resto del petróleo rinde aceites lubricantes, querosenos, combustible de aviones, diesel, aceite para quemar y una gran variedad de sustancias que se utilizan en la creación de plásticos: etileno, propileno, benceno, tolueno y diversos xilenos. Estas palabras solas no significan mucho para la mayoría de nosotros, pero adquieren sentido cuando hablamos de polietileno, cloruro de polivinilo (PVC), acrílico, poliestireno, resinas epóxicas, nylon, poliuretano o poliéster. Son todos materiales que en distintas formas definen la vida contemporánea.

Sin embargo, promovamos mucho o poco la sustitución del petróleo por otras fuentes de energía, el hecho es que el petróleo es un recurso que se agotará tarde o temprano, casi ciertamente en este mismo siglo, de modo que la búsqueda de fuentes alternativas de energía es cada vez más una prioridad. Idealmente, estas fuentes alternativas serán más limpias, más baratas y más accesibles, pero de momento cada una tiene desventajas que deben superarse. La energía solar, siendo gratuita, exige todavía un costo muy elevado en equipo de instalación, por lo que el coste de utilizarla sigue siendo más alto que el de otras alternativas cuando se utiliza para la generación de energía eléctrica, aunque es cada vez más competitiva, pero aplicada en automóviles ofrece poca velocidad y potencia.

Una de las más interesantes opciones actuales para los automóviles es el hidrógeno. Este elemento es un portador de energía de gran capacidad, lo que quiere decir que podemos tomar energía producida por presas hidroeléctricas, carbón, mareas o paneles solares y almacenarla en hidrógeno para llevarlo a donde se necesite. El hidrógeno no existe en nuestro planeta en forma de gas libre, de modo que para poder utilizarlo debemos aislarlo a partir de otros compuestos que lo contienen, por ejemplo el agua, la biomasa o las moléculas de aire. Actualmente se estudia a diversas bacterias y algas que emiten hidrógeno como producto de su metabolismo.

La celdilla de combustible
Del mismo modo en que la electricidad es un portador de energía (que se toma de la combustión, del movimiento del agua en una presa hidroeléctrica, del calor de la tierra, etc.) y para poder aprovecharla debemos convertirla en calor, movimiento u otras formas de trabajo mediante resistencias y motores, la energía que se puede almacenar en el hidrógeno se utiliza mediante las celdillas de combustible. Actualmente, varios países, instituciones educativas y empresas privadas investigan la forma de tener celdillas de combustible eficientes y que resulten prácticas y económicamente viables en un plazo de una década o poco más.

Por estos días, un importante fabricante de automóviles de los Estados Unidos, General Motors, está haciendo la primera prueba importante de automóviles impulsados por celdillas eléctricas distribuyendo un centenar de autos de hidrógeno en los Estados Unidos, Alemania, Corea del Sur, China y Japón. El motivo por el que se han elegido estos países es, principalmente, que cuentan con instalaciones donde las personas que los utilizarán pueden reabastecerse de hidrógeno. Dado que es la primera prueba a gran escala, se ha buscado sobre todo que los vehículos, cuyo exterior es el de un conocido monovolumen, queden en manos de personalidades famosas, políticos, mandos militares y otras personas con influencia, pero también incluirá a personas comunes.

La celdilla de combustible es un dispositivo de conversión de energía electroquímica que toma el hidrógeno, lo combina con oxígeno y produce una reacción química que genera electricidad en forma de voltaje de corriendte directa y, como único subproducto, agua pura, la unión de dos moléculas de hidrógeno y una de oxígeno. El problema en el que trabajan numerosos investigadores es lograr una forma de celdilla que sea práctica y económicamente viable. Hay al menos media docena de tipos de celdilla de combustible en los laboratorios hoy en día.

La celdilla de combustible de membrana de intercambio de polímeros es la más prometedora para los automóviles. Está formada, de un ánodo o extremo negativo y un cátodo o extremo positivo, una membrana de intercambio de protones que tiene el aspecto del film de cocina y un catalizador que facilita la reacción del hidrógeno y el oxígeno, y aunque puede estar formado de partículas de materiales tan costosos como el platino, utiliza poca cantidad de este material y no se desgasta, ya que sólo facilita la reacción sin aportar materiales a ella. Se introduce hidrógeno a presión del lado del ánodo, que al pasar por el catalizador se separa en dos iones de hidrógeno (que no son sino dos protones libres) y dos electrones. Los electrones pasan al circuito externo, en forma de corriente eléctrica. El oxígeno a presión, que entra por el lado del cátodo, se separa y cada uno de sus átomos atrae a dos moléculas de hidrógeno y a dos electrones del circuito para crear una molécula de agua. Una sola celdilla de éstas produce poca corriente, pero apiladas en grandes cantidades se pueden generar importantes voltajes, con una eficiencia energética de hasta un 64% comparada con la eficiencia de 20% de la gasolina, es decir, un auto de hidrógeno puede utilizar para moverse el 64% de la energía contenida en el hidrógeno, mientras que uno de gasolina sólo usa el 20% en esa tarea, y el resto se disipa como calor. Esta eficiencia podría crecer en el futuro, con nuevas investigaciones y mayor voluntad social y política de frente al agotamiento del petróleo.

Una innovación… del siglo XIX

Contrariamente a lo que podríamos pensar, la celdilla de combustible no es un invento moderno. Sus bases teóricas fueron descubiertas por el científico alemán Christian Friedrich Schönbein in 1838, base sobre la cual fueron creadas en la práctica por Sir William Grove y anunciadas en la Academia Francesa en 1839. 50 años después, Ludwig Mond y Charles Langer intentaron utilizarla para producir electricidad, y en la década de 1960 sus principios fueron empleados en las baterías de las cápsulas espaciales Géminis.