Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Cocina: gusto y ciencia

En estas épocas, cuando nos reunimos con la familia a comer, que no es otra cosa que la celebración de la abundancia que disfrutamos y deseamos seguir disfrutando en el año nuevo, vale recordar que la estirpe humana controló el fuego hace apenas algunos miles de años. La capacidad de tener fuego daba seguridad en las noches y calor en clima frío, pero también permitió cocinar alimentos que, de otra forma, no podían aprovechar nuestros ancestros. Sus dientes y mandíbulas, evolucionados a partir de los de primates arborícolas que comían hojas suaves y frutas, no estaban diseñados para arrancar la carne de los huesos de grandes animales y su aparato digestivo tampoco podía tratar trozos de carne tragado sin masticar que es la forma en que los consumen depredadores como los lobos y grandes felinos. Pero la carne cocinada era fácil de masticar y tragar, y de ella nuestro aparato digestivo podía extraer muchos más nutrientes. Sin contar con que la carne asada en el fuego tiene un gusto mucho mejor que la carne cruda.

Para muchos paleoantropólogos, este paso que representó para nuestra especie la gran oportunidad de hacer evolucionar un cerebro complejo, que demanda grandes cantidades de nutrientes para formarse y mantenerse. El excedente proteínico y de grasas de la carne sería así el detonador de la inteligencia humana junto con el fósforo procedente del consumo de pescados y mariscos que tampoco habían estado en la dieta de los primeros humanos.

¿Por qué ocurre esto? Al cocinar la carne, las moléculas de proteína se "relajan" de su forma apretadamente enrollada en espiral alrededor de otras moléculas, separándose entre sí para después recombinarse con otras moléculas o coagularse formando paquetes que nuestro aparato digestivo puede aprovechar. Al mismo tiempo, la grasa responsable del sabor, se funde y dispersa por la carne, se evapora parte del agua que contiene la carne. Además, los aminoácidos y las azúcares de la carne expuestos a la mayor cantidad de calor (generalmente los de la superficie), experimentan la llamada Reacción Maillard, un proceso químico similar a la caramelización que crea el sabroso dorado de la carne y es responsable igualmente del tostado del pan y otros productos de masa, procesos como la fermentación de la cerveza y el whisky, y el tostado del café. Finalmente, el colágeno de la carne se funde convirtiéndose en gelatina.

Comer bien pasó pronto de significar “comer suficiente” para nutrirse a comer alimentos que proporcionaran placer al paladar, y en el 330 antes de nuestra era aparece el primer libro de cocina y guía gastronómica, el primer antecedente de la Guía Michelin, un poema didáctico y humorístico del escritor griego Arquestratos de Gela, intitulado Vida de lujos, que señala los alimentos más sabrosos, el orden de su consumo y dónde obtenerlos, con algunos detalles de su preparación. La gastronomía se volvió así parte esencial de la cultura, desde los platos más complicados y selectos hasta el humilde pan, presente en todas las culturas en formas muy distintas, desde el baozi chino hasta el lavash armenio, la pitta árabe, las arepas venezolanas y las tortillas o tortitas mexicanas.

El pan se puede definir, en todos los casos, como resultado de cocinar una mezcla de granos molidos y agua. Algunos llevan polvo de hornear (bicarbonato de sodio) o levaduras, que son hongos unicelulares que se alimentan de las azúcares que contiene la harina para fermentar la masa y hacer que el pan se levante y se vuelva esponjoso y delicado. Tanto el polvo de hornear como las levaduras liberan bióxido de carbono que crea las burbujas en la masa que se convierten en la textura del pan. Las burbujas de bióxido de carbono son contenidas por el gluten de la harina, que se hace flexible y fácil de estirar mediante el amasado, de modo que se llena con miles de burbujas de bióxido de carbono. Finalmente, el almidón de la masa libera azúcares y fortalece al gluten además de absorber agua durante el horneado.

Ciertamente, durante gran parte de la historia humana, no sabíamos lo que comíamos, y nos guiábamos sólo por el gusto y un cierto empirismo, además de las consejas populares, con frecuencia muy desacertadas, pues si bien en todo momento se tuvo claro que hay relación entre la alimentación y la salud, el tipo de relación y sus causas son conocimientos relativamente recientes. Así, por ejemplo, los romanos utilizaban como endulzante de su vino la “sapa”, un mosto de uva que se convertía en jarabe hirviéndolo. Cuando se le hervía en recipientes de plomo como lo sugerían muchos autores, se producía acetato de plomo, llamado también “azúcar de plomo”, un endulzante con todas las propiedades venenosas del plomo, que se mezclaba con la sapa. Esto, así como el uso medianamente extendido de tuberías de plomo para abastecer de agua a Roma, ha llevado a que algunos estudiosos sugieran que la locura de emperadores como Nerón y Calígula, el descenso en la natalidad en los últimos años del esplendor imperial, y las decisiones cuestionables que en su conjunto contribuyeron fuertemente a la decadencia del imperio romano, fueron producidas por saturnismo, nombre que se da al envenenamiento por plomo que, se sabe, es causante tanto de alteraciones neurológicas como de infertilidad. Situaciones así, de conocerlas, seguramente nos ayudarían a explicar la caída de muy diversas culturas.

La cultura gastronómica, que hoy parece estar al alza, se está beneficiando cada vez más de la investigación científica sobre los procesos fisicoquímicos que ocurren en nuestras cocinas, en el horno, en la cazuela o en la nevera. Algunos mitos han caído en el proceso, mientras que otros se han validado, pero al unirse la ciencia al arte en las cocinas, lo que seguramente mejorará será la parte realmente subjetiva del buen comer: el disfrute de su consumo, como lo hemos vivido en estas fechas festivas.

Geografía y alimentación


En la Alta Edad Media se fijaron las pautas de alimentación que hoy podemos seguir apreciando en Europa. La zona norte, con clima frío, abundante leña, espacios suficientes para mantener grandes hatos de ganado lechero y la dificultad de acceder al comercio exterior, creó la cocina de fogata encendida todo el día, asado en espita sobre las llamas y calderos suspendidos sobre el fuego donde se preparaban espesos potajes, salsas y sopas de prolongados tiempos de preparación, empleando como grasa generalmente la mantequilla. La zona del Mediterráneo, con su abundancia de olivos, escaso combustible, clima más benévolo y acceso a productos de oriente, generó una cocina más ligera, rápida de hacer, donde la grasa para cocinar es el aceite de oliva y las principales herramientas son la sartén y la cacerola. Vaya, la diferencia entre el pescado frito y la fabada.

La ciencia en 2007

Resumir la ciencia de todo un año es cada vez más difícil por la velocidad y diversidad de los avances, y ni siquiera los expertos saben si una noticia será o no trascendente en el futuro. Así, esta selección de algunas noticias prometedoras en distintos campos del conocimiento es, forzosamente, subjetiva y corre el riesgo de omitir lo que, en el futuro podría demostrar haber sido el punto más relevante de la ciencia este año.

Diversos equipos científicos consiguieron crear células madre pluripotentes a partir de células de la piel humana. Si estos conocimientos se convierten en técnicas comunes de laboratorio, habrá desaparecido una de las fuentes principales del debate que han emprendido diversas jerarquías religiosas contra quienes estudian las células madre procedentes de embriones humanos y pretenden utilizarlas para curar las más diversas enfermedades. En una noticia relacionada, científicos británicos consiguieron obtener tejido de una válvula cardiaca a partir de células madre procedentes de la médula ósea, con la esperanza de poder construir válvulas cardiacas para trasplantes a la medida de cada paciente.

Un grupo de astrónomos informó de la mayor explosión estelar, o supernova, jamás observada. Por primera vez, los científicos vieron la violenta muerta de una estrella entre 100 y 200 veces más grande que nuestro Sol, lo que ayudará a entender el desarrollo de las estrellas en los primeros tiempos del universo.

Un cráneo de alrededor de 36.000 años de antigüedad hallado en 1952 fue estudiado con las nuevas técnicas al alcance de la paleoantropología y demostró ser la primera evidencia fósil de una de las más viables hipótesis del origen del hombre, la que sitúa la aparición de nuestra especie en el África Subsahariana, de donde partió hace entre 65.000 y 25.000 años para poblar el planeta.

Los avances derivados de la secuenciación del genoma humano dominaron 2007. Por primera vez este año ha sido posible hacernos un sencillo estudio para determinar nuestros orígenes genéticos, algo antes inimaginable. Igualmente, el estudio de pequeñas variaciones genéticas llamadas polimorfismos nucleótidos únicos ha permitido estudiar a grupos de personas con y sin ciertas enfermedades, y saber qué variaciones genéticas, en su caso, se relacionan con alguna enfermedad, como los de la diabetes tipo 2 identificados en 2007. Hoy es fácil conocer las diferencias genéticas entre cada individuo, lo que abre la puerta para la medicina genómica personalizada, adaptada a las características de cada uno de nosotros, a nuestro potencial y limitaciones genéticos.

Un aspecto seguramente inolvidable del año que termina fueron las desafortunadas declaraciones del Premio Nobel James Watson referentes a cierta “inferioridad” de los africanos comparados con un “nosotros” indefinido. Los comentarios le costaron a Watson el rechazo y la jubilación anticipada, pero la ironía definitiva fue que, poco después, un análisis realizado al genoma del científico demostró que éste tenía un muy elevado 16% de genes africanos, lo que lo habría calificado, según muchas leyes raciales del pasado, como negro, o al menos un científico afroamericano.

Diez libros para navidad

Guía del cielo 2008, Pedro Velasco y Telmo Fernández, Espasa (Barcelona) 2007. Es común la publicación anual de almanaques astronómicos que sirven a los especialistas a estar al tanto de las fechas de eclipses, solsticios, lluvias de estrellas y otros fenómenos de su interés. Lo que hace muy especial a este almanaque es que está dirigido al público en general, tanto así que se presenta como una guía para la observación del cielo a simple vista, de modo que no hace falta ningún aparato para realizar una serie de observaciones astronómicas, como se hizo durante milenios antes de la invención del telescopio.

La historia de El origen de las especies de Charles Darwin, Janet Browne, Debate (Barcelona) 2007. Historiadora de la ciencia y una de las máximas expertas en Darwin, cuya correspondencia editó, Janet Browne aborda una verdadera biografía de este libro que, en más de un sentido, cambió el mundo. Desde la concepción de la idea por parte de Darwin hasta la publicación y el debate que la rodeó, en el que Darwin guardó silencio mientras Thomas H. Huxley actuaba como defensor público de la teoría de la evolución, llegando al debate actual de los creacionismos antidarwinistas, Janet Browne condensa la historia de un libro único.

Ciencia a la cazuela, Carmen Cambón, Soledad Martín y Eduardo Rodríguez, con un prólogo de Ferrán Adriá, Alianza Editorial, 2007. En medio del furor por la cocina que está viviendo gran parte del mundo, aparece este volumen dedicado a dar al público una introducción a la ciencia a través de la cocina. Así, los autores, especialistas en áreas como química, bioquímica y biología, explican clara y detalladamente los fenómenos que ocurren continuamente cuando cocinamos, y permiten ver la cocina como un laboratorio de física y de química, así como realizar prácticas y ver los principios en acción.

El viaje del hombre: una odisea genética, Spencer Wells, Océano, México-Madrid 2007. En sólo 60.000 años, los descendientes de un solo homínido que vivió en África, el verdadero “Adán" de la evolución, hemos cubierto el planeta y desarrollado una gran diversidad de tallas, colores y otros elementos externos que permiten que sobreviva la esencia misma de lo que es la humanidad. La epopeya de la evolución humana desde el punto de vista de la genética se convierte en el relato de un viaje apasionante, realizado, de una u otra manera, por todos nosotros.

El espejismo de Dios, Richard Dawkins, Espasa-Calpe, Madrid, 2007. En este libro, Richard Dawkins expone con rigor metodológico, lo que la ciencia, el conocimiento y la experiencia nos dicen acerca de la posibilidad de la existencia de alguna deidad en nuestro universo, y relata la contraposición que históricamente se ha desarrollado entre la ciencia y las religiones, el conocimiento y las creencias, resumiendo los argumentos del agnosticismo lógico. Los no creyentes encontrarán a un brillante coequipero en este libro, y los creyentes podrán entender esa forma distinta de ver el mundo de quienes no creen en ninguna deidad.

El ecologista escéptico, Bjorn Lomberg, Espasa-Calpe, Madrid, 2005. Este “clásico instantáneo” ha originado incesantes debates por poner en tela de juicio algunos de los supuestos más extendidos sobre el medio ambiente mundial. El autor, antiguo miembro de Greenpeace, afirma que se exagera sobre algunos aspectos del calentamiento global, la sobrepoblación, la disminución de los recursos energéticos, la deforestación, la pérdida de especies, la escasez de agua y otros problemas que carecen de un análisis sólido de los datos relevantes. Publicado en danés en 1998, es imprescindible para entender el debate ecológico actual.

El mundo y sus demonios, Carl Sagan, Planeta, 2005. Quinta edición del último libro de Carl Sagan publicado en vida del autor, cuyo subtítulo en inglés, “la ciencia como una vela en la oscuridad” define con exactitud el volumen y su vigencia once años después de su publicación. Más que ningún otro de sus libros, éste es una apasionada invitación a conocer y usar el método científico y el pensamiento crítico y cuestionador. El autor afirma: “La ciencia es más que un cuerpo de conocimiento, es una forma de pensar”, y considera fundamental que el público en general la conozca para no ser rehén de los que detentan la tecnología.

¡Bang!, Brian May, Patrick Moore, Chris Lintott, Ed. Crítica, Barcelona, 2007. No es frecuente tener un libro de cosmología firmado por una estrella de rock como Brian May, guitarrista de “Queen”, que estuvo a punto de doctorarse en astronomía y ha seguido promoviéndola. En este libro, los conocimientos de los dos conductores del programa mensual de la BBC The Sky at Night (El cielo de noche), escriben con el famoso músico un libro destinado a popularizar de la forma más clara y divertida, pero profunda y detallada, la historia de nuestro universo y de nuestro conocimiento sobre él.

La saga humana, Juan Luis Arsuaga, EDAF, Madrid, 2006. Complemento ideal de El viaje del hombre, este libro, el cuarto escrito por el codirector de los trabajos de excavación de Atapuerca, retoma el relato de la historia de la humanidad y sus ancestros y parientes, como el hombre de Neanderthal, y cómo era el mundo en las distintas épocas en las que vivieron, desde otra perspectiva, la de la paleoantropología y el conocimiento de las culturas que se han sucedido en el tiempo, todo en forma de un atractivo álbum de imágenes creadas con atención a su belleza tanto como a la veracidad de sus representaciones según la reconstrucción paleoantropológica.

Monstruos, Eduardo Angulo, 451 editores, Madrid, 2007. El público siempre ha querido leer relatos de monstruos, y así lo demuestran los “libros de maravillas” tan demandados en la Edad Media y el Renacimiento, donde se contaba la existencia de todo tipo de seres inverosímiles, humanos y animales de formas fabulosas. El avance de la ciencia, sin embargo, ha relegado a los monstruos al terreno de la llamada “criptozoología”, seudociencia que afirma estudiar animales cuya existencia no está demostrada. Raras veces la criptozoología es abordada por científicos capaces de separar los mitos y los hechos y arrojar luz sobre el conglomerado de creencias que se refieren, por igual, al monstruo del Lago Ness, al Yeti, al Bigfoot y al Kraken. Eduardo Angulo, profesor de biología en la Universidad del País Vasco, aborda la tarea con conocimiento de causa y pasión por estos seres míticos y por quienes se ocupan de ellos. Sin dejar de lado el rigor científico, Angulo relata con habilidad y gusto, involucrando al lector en las historias que se van desarrollando acerca de los monstruos que todavía la imaginación humana se plantea que puedan existir en este mundo tan explorado y en el que las maravillas de la biología no suelen ser tan espectaculares como un plesiosaurio sobreviviente de la extinción de hace 150 millones de años. El libro se complementa con una serie de magníficas ilustraciones que cuentan la visión humana de esos seres maravillosos que, incluso no existiendo en realidad, viven en los espacios de la más viva fantasía humana.

La biología de las sociedades

Desde las sencillas colonias coralinas hasta sociedades jerarquizadas como la de los lobos, unirse en algún tipo de sociedad parece una tendencia natural de la vida.

Todos nosotros somos, individualmente, la suma de los billones de células que componen nuestro cuerpo y que están diferenciadas para cumplir funciones específicas. Somos un buen ejemplo de que a los individuos les conviene vivir en sociedad.

La vida comenzó, según sabemos, con seres unicelulares que poblaron en solitario el planeta desde hace unos 4.500 millones de años, hasta hace unos 1.200 millones de años, cuando se dio el singular paso de los seres unicelulares a los multicelulares. Este revolucionario cambio lo conocemos por un alga roja que es el fósil multicelular más antiguo que hay hoy. Como esta transformación ocurrió en una época en la que los organismos prácticamente no tenían estructuras rígidas, el registro fósil es escaso y este paso sigue siendo un enigma para nosotros. Los científicos han propuesto varias hipótesis de cómo ocurrió, posibles explicaciones que no son excluyentes, sino que, probablemente, fueron distintos caminos que siguió la vida en distintos momentos para llegar a los seres complejos. Así, los seres multicelulares podrían provenir de la simbiosis entre seres unicelulares de distintas especies, colaborando y dividiéndose el trabajo, como ocurre en los líquenes, o bien podría ser que los seres unicelulares crearan compartimientos en el interior de sus células que se fueron convirtiendo asimismo en células, mientras que el tercer camino posible implica la unión de seres unicelulares de la misma especie, empezando como colonias del tipo de los corales, para que paulatinamente se diera la especialización de las células en distintas tareas vitales para la totalidad del organismo.

Muy pronto, los seres multicelulares descubrieron que ellos también podían unirse en sociedades o grupos, de modo que su complejidad como organismo se multiplicó en otro nivel: la asociación con otros seres de su propia especie o de otras especies, con grandes ventajas para la supervivencia pero que, al mismo tiempo, abren todo un nuevo abanico de posibilidades de conflicto. Para crear una sociedad no es necesario siquiera que los integrantes puedan identificarse individualmente, basta con que los demás los puedan identificar como miembros del grupo. Tal es el caso de las sociedades de insectos como las hormigas, las termitas o las abejas. Las señales químicas forman la identidad del grupo, y señales distintas o desconocidas pueden provocar el rechazo o, incluso, los ataques. En las sociedades de ratas esto se hace evidente con un peculiar experimento: se toma a una colonia de ratas y se divide en dos que no tienen contacto durante largo tiempo, de modo que el olor de cada grupo cambie de modo distinto. Al volverlas a reunir, no se reconocen como antiguas compañeras, sino que atacan a las del otro grupo como adversarios y competidores en la explotación de los recursos que necesitan para sobrevivir y reproducirse.

Las sociedades pueden dar cobijo a sus miembros si ocupan el lugar de presas, como ocurre en el caso de cebras, bisontes o búfalos, obligando, por la presión de selección, a que los depredadores se concentren en los animales más débiles. De una parte, esto implica la selección de los animales viejos o enfermos, dejando mayores recursos para los componentes sanos y jóvenes de la manada, y de otra exige mayores cuidados maternos para unas crías que son, también, bocado favorito de los depredadores. Esto se muestra claramente en sociedades muy complejas como las de babuinos y otros primates de la sabana. Al estar amenazados por el ataque de un depredador, como sería un leopardo, la banda de monos se organiza en una serie de círculos concéntricos: en el anillo exterior, los viejos y fuertes líderes de la banda, después los jóvenes machos y las hembras sin crías y, en el centro, protegidas al máximo, las hembras y las crías del grupo, que gozan de la mejor seguridad, pues resultará muy difícil que un depredador llegue hasta ellas. Otro caso diferente es el de las sociedades de cazadores o depredadores, como los lobos y los delfines, que utilizando complejas pautas de comportamiento, división del trabajo y relevos consiguen hacerse entre todos con grandes presas cuya cacería no se podría plantear un individuo por sí mismo.

Pero las sociedades desarrollan también un elemento que parecería ir a contracorriente de los intereses evolutivos de la especie, el comportamiento desinteresado al que conocemos como "altruismo". El altruismo ciertamente incrementa el bien de un individuo a costa del bien de otro que se "sacrifica" disminuyendo incluso sus propias posibilidades de supervivencia. Esto parece un contrasentido, pero no lo es en términos del grupo completo y de la supervivencia del mismo, de modo que resulta evolutivamente útil para la cohesión y fuerza del grupo, y en último caso para los propios individuos que hoy hacen un sacrificio pero mañana pueden beneficiarse del altruismo de otros si éste se ha vuelto parte de su comportamiento genéticamente determinado o condicionado. Comer menos para darle de comer a un miembro debilitado del grupo puede ser un involuntario seguro de vida para cuando nosotros suframos una enfermedad o herida, lo cual redunda en beneficios para todos.

El estudio de las complejas sociedades humanas acude, como referencia, a los estudios sobre las sociedades animales. Con el tiempo hemos aprendido que algunos comportamientos aparentemente complejos, como el avance de una columna de hormigas, o los movimientos de una bandada de aves o una mancha de peces, responden a reglas más sencillas de lo que suponíamos antes. Pero en general, la complejidad de la cultura sobrepuesta a nuestro sustrato genético hace que sigamos muy lejos de comprender en profundidad la vida social de los humanos. Pero lo indudablemente cierto es que la estudiamos en grupo, en esa sociedad de búsqueda del conocimiento que llamamos ciencia.

El cuidado de los ancianos

El cuidado de los ancianos existe en el linaje humano desde hace al menos 1,77 millones de años de antigüedad. En 2005 se halló en el Cáucaso el fósil de un individuo completamente desdentado de bastante más de 40 años de edad, una verdadera ancianidad en su especie. Los paleoantropólogos han determinado que perdió la dentadura años antes de morir y, por tanto, no podía haber masticado la carne y los vegetales fibrosos que, se sabe, componían la dieta de su grupo. Alguien, su tribu, clan o, si lo prefiere usted, manada, cuidó de él, moliendo o masticando sus alimentos y conservándolo en el grupo en vez de sacrificarlo como hacen, inadvertidamente, las manadas de presas. Una lección de casi dos millones de años sobre el valor de las personas mayores.

Usted también es científico

La idea de que “la ciencia es difícil” está tan difundida que no nos damos cuenta de que todos nosotros aplicamos el método de la ciencia a nuestra vida diaria.

Quizá la culpa sea de las matemáticas. Ya sea por deficiencias en nuestros sistemas educativos o por alguna cuestión inherente al común de los seres humanos, para la mayoría de nosotros resulta difícil manejar el nivel de abstracción matemática a niveles por encima de la trigonometría y la geometría analítica, y este rechazo a una asignatura difícil se ha trasladado hacia toda la actividad científica porque, en mayor o menor medida, la ciencia utiliza como lenguaje precisamente las matemáticas. La conclusión a la que llegan muchas personas es que la ciencia es en sí una práctica difícil y los científicos personajes que hablan en un idioma poco comprensible para la mayoría de nosotros, aunque, por otro lado, lo mismo se podría decir del fútbol de alto nivel, de su práctica y de su lenguaje especializado. Pero, en realidad, las bases de la ciencia son algo que usamos día a día todos nosotros. Aplicamos sus métodos, razonamientos y procedimientos para enfrentar el mundo que nos rodea y superar sus desafíos. Ciertamente no podemos aspirar al premio nobel, pero también podemos jugar al fútbol sin aspirar al balón de oro.

La ciencia no es sino un método de adquirir conocimiento sobre el mundo que nos rodea, y no ha sido en modo alguno el único empleado por el ser humano. Para entender su valor, vale la pena recordar que el método científico sustituyó a las intuiciones, de la escolástica, que consideraba verdad, a modo de dogma, cuanto hubieran dicho o escrito los clásicos griegos y la Biblia, y pretendía llegar al conocimiento solamente mediante un razonamiento intuitivo apoyado en la autoridad de los grandes autores y en las verdades aceptadas. Así, una pregunta como “¿cuántas patas tiene una mosca?” se resolvería, antes del método científico, es decir antes del renacimiento, buscando fuentes de autoridad que mencionaran este dato. Así, daríamos con la famosa afirmación de Aristóteles de que las moscas tienen ocho patas. Si encontráramos algún otro autor que dijera lo contrario, deberíamos razonar dialécticamente y acudir a nuestra intuición o sentido común para resolver la contradicción. Pero, como ningún autor decía lo contrario, la humanidad occidental vivió cientos y cientos de años convencida de que las moscas tenían ocho patas. Si además el hecho podía sustentarse en la Biblia, quedaba convertido en verdad religiosa, y si alguien osaba contarle las patas a una mosca y veía que sólo tenía seis, lo más conveniente para su integridad y la de su hacienda habría sido concluir que esa mosca había perdido dos patas y declarar que dicho animalillo tenía, como dijo Aristóteles, ocho patas.

Evidentemente, en este método no importa tanto la verdad como la opinión compartida o generalizada, es decir, la creencia más aceptada, y la observación del mundo se veía siempre filtrada por lo previamente dicho por las autoridades y libros importantes. Este método fue el que se sustituyó por una serie de procedimientos nacidos para conocer la realidad directamente, y que hoy conocemos como el “método científico”.

Supongamos que tenemos un aparato desconocido del que no tenemos el manual (o, simplemente, no estamos por la labor de leer el manual, que es lo más frecuente). Para enfrentarlo, lo primero que haremos será observarlo y buscar aspectos de él que tengan similitud con otros aparatos de nuestra experiencia. Si tiene un botón con un círculo (O) y una línea vertical (|), lo reconoceremos como un interruptor de alimentación, y podemos concluir con cierta certeza que con él podemos encender o apagar el aparato. Veremos si tiene compartimiento para pilas, y en caso afirmativo comprobaremos que estén en buenas condiciones, o bien si tiene cable de alimentación, y si está enchufado correctamente. Con base en esas observaciones, podemos emitir una conjetura razonable, una hipótesis: que al pulsar el interruptor, el aparato se encenderá. A continuación, podemos poner a prueba nuestra hipótesis o experimentar: pulsamos el botón y vemos qué pasa. Si se enciende, podemos concluir que efectivamente ese botón es el encendido y, sobre todo, podemos predecir que en el futuro pulsarlo alternará al aparato entre los estados de encendido y apagado, si todos los demás elementos se mantienen iguales.

Todo ello es, sin más, ciencia pura. La observación sustentada en la experiencia, la hipótesis, la experimentación y la predicción son elementos comunes en la ciencia, aunque haya algunas disciplinas, como el estudio de la astronomía y la cosmología, que no se prestan a la experimentación, y que deben someter a prueba sus hipótesis echando mano de observaciones abundantes y modelos matemáticos. Pero ni siquiera en el pasado los seres humanos se atuvieron a métodos no científicos. Así, aunque la actividad agrícola o ganadera podían tener elementos no científicos, la experiencia pasada y la observación de los hechos eran fundamentales, ya que de ellos dependía la supervivencia del grupo. La astronomía, la botánica y la genética tienen sus fundamentos en las labores humanas destinadas a la alimentación.

Definir las cuestiones, obtener información sobre ellas mediante la observación directa o indirecta, crear hipótesis, experimentar, analizar e interpretar los resultados para confirmar o desechar las hipótesis y reiniciar el ciclo a la luz de los nuevos conocimientos no es sino lo que hacen los científicos en todos los laboratorios del mundo. Es lo que hacemos al aplicar nuestro conocimiento en la cocina, en la conducción de autos o en el aprendizaje de nuevas habilidades y capacidades para nuestra vida. Es precisamente por ello, porque es un método adecuado, que nos permite obtener conocimientos certeros, que el método científico funciona efectivamente para ir conociendo nuestro mundo, eso que hacemos todos.

La replicación en ciencia

Las conclusiones a las que llegan los científicos, sobre todo cuando son en extremo revolucionarias, son puestas a prueba por otros científicos. Es por ello que los artículos o papers científicos son tan tremendamente detallados en cuanto a los pasos dados, se trata de que su experiencia pueda ser replicada por cualquiera que lo desee. Porque, pese al cuidado que se pueda tener, cualquiera, científico o no, puede hacer una observación equivocada, un experimento no válido o interpretar incorrectamente los datos. Pero al ser una labor colectiva, la ciencia, como ninguna otra disciplina, está sujeta a su constante autocorrección y afinación por parte de las demás personas que se ocupan de su estudio, algo que sin duda a veces convendría que ocurriera en otras facetas de nuestra vida.

Ir y venir de la estación espacial

Europa da los toques finales a la nave espacial que tendrá la misión de abastecer a la Estación Espacial Internacional, como la nave espacial automática más potente jamás construida.

Quizá la presencia majestuosa de la Estación Espacial Internacional (ISS) nos haga pensar que los seres humanos estamos colonizando el espacio. Pero no es verdad. Aunque desde la superficie de nuestro planeta nos asombremos del portento no sólo tecnológico, sino también diplomático y político que conforma esa estación espacial nuestra, de todos, a diferencia de las anteriores que fueron estadounidenses, rusas o soviéticas, sigue siendo un apéndice de la superficie, dependiendo de ella para casi todas sus necesidades.

El espacio se colonizará realmente cuando en nuestras estaciones y naves espaciales podamos producir alimentos, obtener oxígeno y agua, reciclar nuestros desechos y estabilizar lo que se conoce como un ecosistema cerrado y, por tanto, autosuficiente, un sistema que sólo necesita la energía del sol, como nuestro planeta o los más cuidados acuarios donde las plantas utilizan la energía solar para separar el bióxido de carbono en oxígeno respirable y en carbono como materia prima para alimentos. Mientras ello no ocurra, nuestro planeta sigue siendo único, y de él dependen los alimentos, el oxígeno, el agua y todos los bienes (desde ropa y jabón hasta medicamentos e instrumentos científicos) de la Estación Espacial.

El desafío es llevar, de la forma más eficaz y económica, lo necesario a nuestro emplazamiento en el espacio: la posición orbital que ocupa la ISS. Y es que ya cuando las superpotencias estaban empeñadas en la carrera por llegar a la Luna, muchos estudiosos y visionarios advirtieron que el recurso más valioso que nos ofrecía el espacio era, precisamente, el espacio, con su casi vacío y su libertad de la atracción gravitatoria (esto no es exacto, pero la descripción es útil). Estos elementos abren posibilidades amplísimas para la investigación científica y el desarrollo tecnológico e industrial. Ir a la Luna era un logro impresionante, pero el costo y el riesgo (que en la misión del Apolo 13 estuvo a punto de terminar en tragedia) dejaron muy pronto de hacer razonable continuar con los viajes lunares, sobre todo cuando el espacio estaba tan cerca, apenas a unos cientos de kilómetros sobre la superficie terrestre. Para ir y volver a esa altura se diseñaron los transbordadores espaciales, de accidentada historia, y la Estación Espacial Internacional, la más reciente nave continuamente habitada que viaja a una altura media de 400 kilómetros sobre la superficie terrestre a una velocidad media de 27.800 kilómetros por hora, con lo cual da la vuelta a la tierra casi 16 veces al día. Esta estación sería el resultado, en cierto modo forzado, de la fusión de proyectos que no eran viables hacer de modo independiente por parte de los países que los emprendieron: la estación Freedom de Estados Unidos, el módulo experimental japonés Kibo, la estación Mir 2 de Rusia y la estación Colón de la Agencia Espacial Europea.

Al cumplirse (sin casi atención mediática) siete años de habitación continua de la ISS el pasado 2 de noviembre, la ISS ha recibido servicio de transporte de personas y bienes fundamentalmente por parte de las naves Soyuz y Progreso rusas, y los transbordadores orbitales espaciales estadounidenses. A partir de 2008, parte de esa tarea será asumida por el ATV, siglas en inglés de “vehículo automatizado de transferencia", nave capaz de llevar hasta 9 toneladas de carga a la ISS guiada únicamente por un sistema automatizado de extraordinaria precisión. El ATV se mantendrá integrado como almacén presurizado de la estación durante seis meses, al cabo de los cuales volverá a la tierra con 6,5 toneladas de desperdicios generados por la habitación humana de la estación y se autodestruirá en una flamígera reentrada a la atmósfera sobre el Océano Pacífico. Los planes actuales contemplan la construcción y puesta en funcionamiento de hasta 7 ATV, lo que resolvería gran parte de las necesidades materiales de la estación espacial durante otros tantos años.

El ATV puede llevar de 1.500 a 5.000 kilogramos de carga seca (bienes de reabastecimiento, alimentos, materiales científicos, etc.), hasta 840 kilogramos de agua, hasta 100 kilogramos de gases (nitrógeno, oxígeno y aire), y hasta 4.700 kilogramos de combustible para reabastecer a la estación y para sus propias maniobras de acoplamiento, desacoplamiento y reentrada. Aunque la estación cuenta con avanzados sistemas de reciclaje de agua y gases (de otro modo las necesidades de los habitantes de la estación serían imposibles de abastecer desde la Tierra), el agua y los gases que llevará el ATV sustituyen las partes perdidas por la ineficiencia que aún sufren tales sistemas.

El primer vuelo operativo del ATV se llevará a cabo a principios de 2008, tentativamente en el mismo mes de enero, a cargo de la nave bautizada "Jules Verne” en homenaje al escritor y visionario francés. Este ATV ya está siendo puesto a punto en Noordwijk, en el sur de Holanda, en el cuartel general del centro europeo de investigación y tecnología espacial de la ESA. Una de las últimas interrogantes expetimentales se disipó en octubre, cuando un cohete Ariane 5 en órbita probó la secuencia de encendido del ATV, simulando el reencendido que deberá realizar el ATV una vez que esté en órbita a bordo del cohete Ariane para ajustar su órbita y dirigirse a la estación.

El proyecto ATV costará alrededor de 1.300 millones de euros, con los que, además de superar uno de los mayores desafíos de la Agencia Espacial Europea, será la bisagra fundamental para cubrir el hueco que dejará la retirada de los transbordadores espaciales, dado que un reemplazo para ellos aún está lejano en el tiempo para la siempre asediada NASA. El ATV y las naves rusas serán así las líneas vitales de materiales y personal de reemplazo para garantizar que la estación espacial europea cumpla con sus objetivos.

Los datos del camión espacial europeo

Comparado frecuentemente con un autobús londinense de dos pisos por tener dimensiones similares, el ATV es un cilindro de 10,3 metros de largo con un diámetro de 4,5 metros, lo que le da un volumen de 48 metros cúbicos que estarán presurizados al estar unido a la estación espacial, casi tres veces la capacidad de las naves rusas de carga Progreso-M. El ATV está formado de dos módulos, el primero, de servicio, es el encargado de la propulsión, con cuatro motores principales y 28 pequeños motores auxiliares para realizar con exactitud la delicada tarea de acoplarse con la estación, tarea que está a cargo del segundo módulo. Todo el conjunto será lanzado desde el puerto espacial europeo de la Guayana Francesa por un cohete Ariane 5.

Nueva vacuna contra un antiguo virus

El herpes zóster, una dolorosa afección que aumenta entre los mayores de 65 años de edad, tiene hoy una nueva arma para su control.

Varicella zoster, el virus de la varicela y también
causante del herpes zoster
(Foto D.P. de CDC/Dr. Erskine Palmer/B.G. Partin,
vía Wikimedia Commons)
Un ataque de herpes zóster, también conocido como “culebrilla”, dura de dos a cuatro semanas y comienza habitualmente con sensibilidad a la luz, dolor de cabeza, fiebre y malestar general. Estos síntomas pueden anunciar también una migraña o varios tipos de infecciones, y por ello el paciente puede verse sujeto a diversos diagnósticos equivocados que retrasan el tratamiento correcto de la afección. En un plazo de aproximadamente una semana se presenta un dolor extremo en los nervios afectados, donde se presenta, en la mayoría de los casos, una erupción que formará dolorosas vesículas llenas de un líquido seroso, y que luego se llenan de sangre para formar costra en un plazo de 10 días más mientras el dolor cede lentamente. Además, puede haber síntomas tan preocupantes como la pérdida de la audición, ceguera, encefalitis, neumonía y, en muy pocos casos, llevar a la muerte del paciente.

Una vez que ha desaparecido la erupción, aproximadamente uno de cada cinco pacientes desarrolla una neuralgia postherpética (NPH), un atroz dolor constante y debilitante que no siempre responde al tratamiento y que puede alterar radicalmente la vida ordinaria del paciente durante meses o, incluso, años.

El responsable de este cuadro sin duda preocupante es el virus Varicella zoster, o virus del herpes humano, muy conocido por ser el responsable de la varicela, esa común enfermedad que adquieren, padecen y superan prácticamente todos los niños. La varicela es más benigna en los pacientes de menor edad, y casi nunca tiene secuelas graves, comenzando con síntomas gripales que evolucionan hacia dos o tres oleadas de erupciones con picor que forman pequeñas llagas abiertas que, habitualmente, sanan sin dejar cicatriz. El principal peligro de la varicela es el contagio a mujeres embarazadas, ya que el virus puede dañar gravemente a los fetos de menos de 20 semanas de desarrollo, provocando una variedad de malformaciones y desórdenes que pueden ser sumamente severos. El tratamiento de los síntomas de la varicela implica, según decisión del médico, el uso de un poco de bicarbonato de sodio en la bañera y el uso de antihistamínicos para paliar el prurito, parecetamol e ibuprofeno (pero nunca, nunca, aspirina ni medicamentos que la contengan), una buena higiene de la piel para evitar infecciones secundarias y la varicela desaparece al cabo de unos veinta días, pero su agente causante, el virus del herpes humano, no lo hace.

Así como la ciencia ha descubierto diversos antibióticos para luchar contra infecciones causadas por bacterias y otros organismos unicelulares, la lucha contra los virus es una historia totalmente distinta. Los antibióticos son absolutamente inútiles contra los virus (razón por la que no se recomienda el uso de antibióticos en episodios de gripe, que es ocasionada por un virus). Para evitar las infecciones virales hemos acudido, principalmente, a las vacunas, que al darle al cuerpo una forma debilitada del virus le estimula a producir defensas contra dicho virus, de modo que al producirse una infección sea el propio cuerpo el que enfrenta a los virus. En el caso de la varicela, la vacuna apenas se puso a disposición de la práctica médica en 1995, pero la protección que ofrece no es permanente, y la vacuna debe volver a administrarse cada diez años.

El virus del herpes humano es eliminado de nuestro cuerpo por las defensas excepto en los ganglios adyacentes a la columna vertebral, y de la base del cráneo, donde permanece en estado latente. Si estos virus se reactivan, por motivos que aún no conocemos, recorren los nervios en una migración hacia la piel donde comienzan a presentar los síntomas del herpes zóster. Curiosamente, las personas que por alguna causa no hayan padecido jamás la varicela son inmune a esta forma más agresiva de la infección viral. El herpes zóster puede ser padecido por personas jóvenes, pero principalmente afecta a personas mayores de 65 años de edad, aunque puede ser padecido por personas jóvenes. Las armas del médico en ese caso están muy limitadas: algunos antivirales que inhiben la replicación del ADN del virus son el principal tratamiento, junto con diversos medicamentos que disminuyen la severidad de los episodios. El tratamiento temprano con aciclovir reduce la duración del ataque y, sobre todo, evita los más graves síntomas y la gravedad de la neuralgia postherpética, si ésta llega a presentarse. El tratamiento puede incluir además reposo en cama, lociones tópicas para calmar la erupción, aplicación de compresas frías en las zonas cutáneas afectadas, esteroides e incluso antidepresivos, si los efectos del ataque se reflejan muy notablemente en el estado de ánimo del paciente.

En 2006, finalmente, se aprobó para su utilización una vacuna derivada de la que se utiliza contra la varicela. En un estudio en el que se administró la vacuna a 38.000 pacientes se demostró que evitaba la mitad de los casos y, principalmente, se reducían los casos de neuralgia postherpética en dos tercios. Así, aunque la vacuna no es tan efectiva como lo son otras que utilizamos, su utilidad puede ser grande en cuanto a la cantidad de sufrimiento que puede evitar. Sin embargo, y pese a que ya se está administrando en lugares como el Reino Unido, se trata de una vacuna costosa (entre 100 y 200 euros) de la que aún no se conocen sus posibles efectos secundarios indeseables retardados, y tampoco se sabe durante cuánto tiempo estarán protegidos quienes se vacunan. En términos generales se recomienda sólo para personas de más de 60 años que no tengan alergia a ningún componente de la vacuna, que no tengan debilitado el sistema inmune por alguna otra afección, que no tengan un historial de cáncer de médula ósea o sistema linfático y que no tengan tuberculosis activa y sin tratar. Pese a todas las advertencias y conocimiento aún escaso de la vacuna, algunas personas, especialmente quienes ya han sido víctimas de un ataque de herpes zóster, consideran que conviene vacunarse, sin duda alguna.

La exposición como factor de protección

Una importante observación realizada en el estado de Massachusets, en los EE.UU., fue que la incidencia de herpes zóster aumentó hasta casi duplicarse desde que se empezó a incrementar la vacunación infantil contra la varicela, de 1999 a 2003, confirmando que los adultos mejoraban su protección inmune contra el herpes zóster si estaban expuestos a niños con varicela. Quizá una de las mejores formas de mejorar la efectividad de la vacuna contra el herpes zóster sea disminuir el uso de la vacuna contra la varicela, una paradoja que presenta difíciles aristas éticas y una elección compleja que tarde o temprano deberán tomar las autoridades sanitarias.

Un mundo sin petróleo

Más lentamente de lo deseable, nos empezamos a preparar para un mundo sin petróleo, en el que la energía deberá provenir de otras fuentes, con sus ventajas y sus desventajas.

Los problemas de una economía basada en el petróleo se exhiben con gran frecuencia, en las cifras de contaminación, en los accidentes que involucran a buques petroleros, en el poder excesivo de las empresas petroleras. Sin embargo siguen siendo grandes las ventajas del petróleo: es abundante, es barato y produce muchísimos componentes de gran utilidad. Un barril de petróleo (159 litros) contiene entre 5% y 30% de componentes que se convierten en gasolina, y en casos extremos hasta el 50% del barril se puede transformar en gasolina con distintos métodos. El resto del petróleo rinde aceites lubricantes, querosenos, combustible de aviones, diesel, aceite para quemar y una gran variedad de sustancias que se utilizan en la creación de plásticos: etileno, propileno, benceno, tolueno y diversos xilenos. Estas palabras solas no significan mucho para la mayoría de nosotros, pero adquieren sentido cuando hablamos de polietileno, cloruro de polivinilo (PVC), acrílico, poliestireno, resinas epóxicas, nylon, poliuretano o poliéster. Son todos materiales que en distintas formas definen la vida contemporánea.

Sin embargo, promovamos mucho o poco la sustitución del petróleo por otras fuentes de energía, el hecho es que el petróleo es un recurso que se agotará tarde o temprano, casi ciertamente en este mismo siglo, de modo que la búsqueda de fuentes alternativas de energía es cada vez más una prioridad. Idealmente, estas fuentes alternativas serán más limpias, más baratas y más accesibles, pero de momento cada una tiene desventajas que deben superarse. La energía solar, siendo gratuita, exige todavía un costo muy elevado en equipo de instalación, por lo que el coste de utilizarla sigue siendo más alto que el de otras alternativas cuando se utiliza para la generación de energía eléctrica, aunque es cada vez más competitiva, pero aplicada en automóviles ofrece poca velocidad y potencia.

Una de las más interesantes opciones actuales para los automóviles es el hidrógeno. Este elemento es un portador de energía de gran capacidad, lo que quiere decir que podemos tomar energía producida por presas hidroeléctricas, carbón, mareas o paneles solares y almacenarla en hidrógeno para llevarlo a donde se necesite. El hidrógeno no existe en nuestro planeta en forma de gas libre, de modo que para poder utilizarlo debemos aislarlo a partir de otros compuestos que lo contienen, por ejemplo el agua, la biomasa o las moléculas de aire. Actualmente se estudia a diversas bacterias y algas que emiten hidrógeno como producto de su metabolismo.

La celdilla de combustible
Del mismo modo en que la electricidad es un portador de energía (que se toma de la combustión, del movimiento del agua en una presa hidroeléctrica, del calor de la tierra, etc.) y para poder aprovecharla debemos convertirla en calor, movimiento u otras formas de trabajo mediante resistencias y motores, la energía que se puede almacenar en el hidrógeno se utiliza mediante las celdillas de combustible. Actualmente, varios países, instituciones educativas y empresas privadas investigan la forma de tener celdillas de combustible eficientes y que resulten prácticas y económicamente viables en un plazo de una década o poco más.

Por estos días, un importante fabricante de automóviles de los Estados Unidos, General Motors, está haciendo la primera prueba importante de automóviles impulsados por celdillas eléctricas distribuyendo un centenar de autos de hidrógeno en los Estados Unidos, Alemania, Corea del Sur, China y Japón. El motivo por el que se han elegido estos países es, principalmente, que cuentan con instalaciones donde las personas que los utilizarán pueden reabastecerse de hidrógeno. Dado que es la primera prueba a gran escala, se ha buscado sobre todo que los vehículos, cuyo exterior es el de un conocido monovolumen, queden en manos de personalidades famosas, políticos, mandos militares y otras personas con influencia, pero también incluirá a personas comunes.

La celdilla de combustible es un dispositivo de conversión de energía electroquímica que toma el hidrógeno, lo combina con oxígeno y produce una reacción química que genera electricidad en forma de voltaje de corriendte directa y, como único subproducto, agua pura, la unión de dos moléculas de hidrógeno y una de oxígeno. El problema en el que trabajan numerosos investigadores es lograr una forma de celdilla que sea práctica y económicamente viable. Hay al menos media docena de tipos de celdilla de combustible en los laboratorios hoy en día.

La celdilla de combustible de membrana de intercambio de polímeros es la más prometedora para los automóviles. Está formada, de un ánodo o extremo negativo y un cátodo o extremo positivo, una membrana de intercambio de protones que tiene el aspecto del film de cocina y un catalizador que facilita la reacción del hidrógeno y el oxígeno, y aunque puede estar formado de partículas de materiales tan costosos como el platino, utiliza poca cantidad de este material y no se desgasta, ya que sólo facilita la reacción sin aportar materiales a ella. Se introduce hidrógeno a presión del lado del ánodo, que al pasar por el catalizador se separa en dos iones de hidrógeno (que no son sino dos protones libres) y dos electrones. Los electrones pasan al circuito externo, en forma de corriente eléctrica. El oxígeno a presión, que entra por el lado del cátodo, se separa y cada uno de sus átomos atrae a dos moléculas de hidrógeno y a dos electrones del circuito para crear una molécula de agua. Una sola celdilla de éstas produce poca corriente, pero apiladas en grandes cantidades se pueden generar importantes voltajes, con una eficiencia energética de hasta un 64% comparada con la eficiencia de 20% de la gasolina, es decir, un auto de hidrógeno puede utilizar para moverse el 64% de la energía contenida en el hidrógeno, mientras que uno de gasolina sólo usa el 20% en esa tarea, y el resto se disipa como calor. Esta eficiencia podría crecer en el futuro, con nuevas investigaciones y mayor voluntad social y política de frente al agotamiento del petróleo.

Una innovación… del siglo XIX

Contrariamente a lo que podríamos pensar, la celdilla de combustible no es un invento moderno. Sus bases teóricas fueron descubiertas por el científico alemán Christian Friedrich Schönbein in 1838, base sobre la cual fueron creadas en la práctica por Sir William Grove y anunciadas en la Academia Francesa en 1839. 50 años después, Ludwig Mond y Charles Langer intentaron utilizarla para producir electricidad, y en la década de 1960 sus principios fueron empleados en las baterías de las cápsulas espaciales Géminis.

María Sklodowska Curie: Dar la vida por el conocimiento

Dos premios Nobel, una pasión ardiente por saber y un compromiso llevado a sus últimas consecuencias son las señas de identidad de la mayor científica del siglo XX.

Marie Curie en su laboratorio
(Foto D.P. vía Wikimedia Commons)
Para una chica de fines del siglo XIX no era lo más común decir soñar con ser una investigadora científica. No era común, tampoco, declararse agnóstica en la adolescencia renunciando al catolicismo que era definitorio de su cultura, la polaca, ni que dejara de dormir o comer concentrada en sus estudios, y menos aún que se implicara políticamente en los proyectos revolucionarios estudiantiles contra la Rusia zarista. Parecería, por momentos, que tal retrato correspondería a una feminista innovadora de la segunda mitad del siglo veinte. Pero nada de lo que conformó la vida de María Sklodowska era común desde que nació el 7 de noviembre de 1867 como hija menor de dos profesores de escuela militantes de la educación como motor del cambio, que la impulsaron a romper los moldes, a ser independiente en la ciencia y la política, a cambiarse para cambiar el mundo.

Habiendo sido rechazada en la universidad por ser mujer, a pesar de sus excepcionales resultados académicos, María y su hermana Bronya acordaron apoyarse para sus estudios, tocando primero a Bronya partir a París. María trabajó como institutriz de los hijos del dueño de una plantación de remolacha, ocupándose en su tiempo libre de enseñar a leer a los hijos de los campesinos, aún a riesgo de ser castigada por los ocupantes rusos en caso de ser descubierta. Finalmente, en 1891, pudo ir a París y matricularse en la Sorbona, consiguiendo en sólo tres años sus títulos en matemáticas y ciencias físicas, y conociendo al profesor Pierre Curie, con quien se casó en 1895.

La época en que vivían los Curie era la más emocionante en el mundo de la física. Día a día se iba conformando y modificando una comprensión sobre la composición fundamental de la materia que superaba ampliamente todo lo conseguido en la historia humana anterior: formas de radiación recién descubiertas exigían explicación para ser parte de una visión integral y ordenada de la materia: los rayos X, la radioactividad, los nuevos modelos del átomo, conocimientos originales, elementos antes desconocidos, nuevas dudas y nuevas preguntas electrizaban el ambiente en el que María, ahora Marie, y Pierre Curie emprendieron sus investigaciones. No contaban con laboratorios, financiamiento, ni apoyo moral para estimularlos. Daban clases en abundancia para financiar sus experimentos, desarrollando como requisito previo novedosas técnicas químicas como las que ideó Marie para separar el elemento radio de los minerales radiactivos y tener cantidades suficientes para estudiarlo, caracterizarlo y darle un sitio en la tabla periódica de los elementos introducida apenas en 1869 por Dmitri Mendeleev.

Marie empezó a trabajar en la radioactividad como su proyecto para alcanzar el doctorado en física, y en julio de 1898 los Curie publicaron un artículo dando cuenta del descubrimiento del polonio, el altamente radiactivo elemento 84 de la tabla periódica. En diciembre de ese año publicaban el descubrimiento de otro elemento también radiactivo, el radio, número 88. Cabe notar que, dado que Polonia no existía como país, dividida entre Rusia, Prusia y Austria, la activista política que vivía dentro de Marie Curie pensó que al darle a su descubrimiento el nombre de su tierra, llamaría la atención sobre la falta de independencia que sufrían los polacos. Sería el primer elemento que recibiera nombre por motivos puramente políticos.

Para llegar a estos descubrimientos, Marie había observado que el mineral radiactivo presentaba un comportamiento curioso: de él se extraían el uranio y el torio, dos sustancias radiactivas, pero el material restante, sin esos dos elementos, era más radiactivo que antes, lo que indicaba claramente que contenía otro u otros elementos, aún desconocidos, responsable de esa radiactividad. Sin embargo, los resultados de 1898 necesitaban sustentarse en muestras más abundantes de ambos elementos, y para tenerlas, los Curie tuvieron que procesar toneladas y toneladas de mineral de pechblenda del que extrajeron los elementos que buscaban. Ahora, al menos, tenían el apoyo de algunos empresarios e instituciones científicas para la ingente tarea que, por ejemplo, implicaba procesar una tonelada métrica de mineral como la pechblenda para obtener apenas 100 millonésimas de gramo de polonio. Pero confirmaron sus descubrimientos y Marie Curie alcanzó el doctorado en 1903, como primera mujer en conseguirlo en Francia. Ese mismo año, fue también la primera mujer en obtener el Premio Nobel, cuando la pareja fue nombrada ganadora del premio de física. Gracias a ello, Pierre fue nombrado profesor en la Sorbona y María fue contratada como jefe de laboratorio.

La alegría compartida duró poco, pues en 1906 Pierre murió en un accidente callejero. María pronto se convirtió en la primera mujer profesora de la Sorbona, además de continuar con su trabajo de laboratorio y de fundar el Instituto del Radio en memoria de su esposo. Lo que no consiguió, sin embargo, fue ser la primera mujer admitida como miembro en la Academia Francesa, pues fue rechazada por un voto. Como respuesta, la Academia Sueca le concedió en 1911 el Premio Nobel de Química, convirtiéndola, hasta hoy, en la única persona que ha obtenido dos premios Nobel en dos ramas distintas de la ciencia.

Durante la Primera Guerra Mundial, María Curie usó su influencia para crear una flotilla de 20 estaciones móviles de rayos X y 200 estacionarias, salvando numerosas vidas, apoyada por su hija, la también física Irene Curie, y creó las primeras formas de radioterapia para destruir tejidos enfermos. De vuelta a la paz, continuó promoviendo el Instituto del Radio, obteniendo financiamiento y apoyo para seguir el trabajo científico con su familia. Sin embargo ya no vio cómo se concedía en 1935 el premio Nobel de física a su hija Irene y al marido de ésta, Frédéric Joliot, por el descubrimiento de la radiactividad artificial. Enferma desde 1920 de anemia aplástica, con toda seguridad debida a su continuada exposición a la radiación, falleció en 1934.

La profesora militante

María Curie escribió sobre el grupo de jóvenes de Varsovia que buscaban autoeducarse a pesar de la represión de los ocupantes: "El propósito inmediato era trabajar en la educación de uno mismo y darle los medios para educarse a los trabajadores y los campesinos. De acuerdo con este programa, acordamos entre nosotros dar cursos por las noches, cada uno enseñando lo que mejor conocía. No es necesario decir que ésta era una organización sercreta, lo que lo hacía todo extremadamente difícil."

Del telescopio al conjunto de un kilómetro cuadrado

Hasta el siglo XVII no pudimos ver el universo más que con nuestros limitados ojos. Hoy, podemos escudriñar incluso los límites del universo con nuestros telescopios.

Contra lo que se cree, Galileo inventó el telescopio, aunque ciertamente, basado en lo que escuchó en Venecia en 1609 sobre un telescopio creado por algún belga, construyó varios telescopios sucesivamente mejores en un esfuerzo sin paralelo que, para el año siguiente, le permitieron ver los primeros satélites de Júpiter, las manchas del sol, las fases de Venus y las montañas y valles de la Luna, alterando para siempre la percepción humana sobre el cosmos y el lugar de nuestro planeta en el orden mayor de las cosas, demostrando que la concepción de Copérnico era una descripción más acertada que la de Ptolomeo y ocasionando la furia de la iglesia.

El "belga" del que oyó hablar Galileo fue quizá uno de los tres holandeses que pueden haber inventado el telescopio: Hans Lippershey y Zacharias Janssen de Middelburg o Jacob Metius (también llamado Adriaanszoon) de Alkmaar. Una vez que las lentes de vidrio se popularizaron en Europa hacia el siglo XIV, el concepto de telescopio no estaba muy lejos, sólo era necesario combinar una lente cóncava y una convexa para hacer la magia de que las cosas lejanas se vieran cercanas. Si se conocían los telescopios antes de principios del siglo XVII, resulta irrelevante: Galileo fue el primero en usarlos para ver el universo. Al telescopio de lentes de Galileo siguió otro sugerido por Kepler, con mayor ángulo de visión y que permitió a Christiaan Huygens descubrir Titán, el satélite de Saturno.

Estos telescopios tenían dos lentes que refractaban la luz para obtener la visión aumentada de su nombre (del griego tele, lejos y skopein, mirar o ver), es decir, son telescopios refractantes. Pronto apareció otro telescopio que empleaba espejos para ver, perfeccionada teóricamente por Sir Isaac Newton, por lo su tipo se conoce como "telescopio newtoniano". Unos y otros amplificaban la luz visible, aunque en cuanto hubo materiales fotográficos adecuados, también se pudieron utilizar para estudiar las frecuencias infrarrojas y ultravioletas, lo que permitió profundizar más en el aspecto y composición de los cuerpos celestes. Los telescopios ópticos sufren, todos, de una serie de aberraciones e imprecisiones debidas a la composición de la luz y a su comportamiento al difractarse o reflejarse, y gran parte de los esfuerzos tecnológicos han estado orientados a reducir estos defectos para tener observaciones más fiables.

Los telescopios ópticos científicos, como el Gran Telescopio de Canarias, el William Herschel o el Isaac Newton, pertenecientes al Observatorio Roque de los Muchachos, o el IAC-80 del observatorio del Teide y los telescopios de 0,9 m y de 1,5 m del Observ atorio de Sierra Nevada, suelen ser reflejantes, que son más precisos y eficientes, y técnicamente más fáciles de fabricar y manipular, y los mayores tienen espejos primarios de entre 6 y 11 metros de diámetro. Las observaciones no son realizadas con el ojo humano, sino que se registran ya sea en placas fotográficas sensibles a diversas partes del espectro electromagnético, espectrógrafos y detectores electrónicos como los CCD, cuyos principios son utilizados igualmente en los sensores electrónicos de las cámaras digitales fotográficas y de vídeo. Desafortunadamentem la atmósfera terrestre altera, difracta y distorsiona en alguna medida todos los rayos de luz que pasan por ella, ocasionando un grave problema para los observatorios, que deben utilizar distintos sistemas para tratar de eliminar los efectos de la atmósfera.

Además de los telescopios ópticos, el ser humano escudriña el cosmos con los llamados radiotelescopios desde 1930, cuando accidentalmente se descubrió una fuente de señales de radio procedentes de la constelación de Sagitario que interferían con la radio de onda corta en transmisiones transatlánticas. Los radiotelescopios no son sino antenas de radio direccionales que se utilizan para "escuchar" distintas frecuencias del espectro electromagnético. Los más conocidos de esta variedad son los grandes telescopios parabólicos cuyo receptor se ubica en el foco de la parábola. Los radiotelescopios nos permiten conocer otra visión del universo, detectando grandes fuentes de energía como los pulsares o cuásares y, en cierta forma, mirando al interior de las galaxias para informarnos de su composición.

Como ejemplos de radiotelescopios tenemos, en España, el radiotelescopio de 30 metros que se encuentra en el Pico Veleta de la Sierra Nevada, el imponente radiotelescopio de 40 metros recientemente inaugurado en el Centro Astronómico de Yebes. El más conocido radiotelescopio del mundo es, probablemente, el de Arecibo, en Puerto Rico, que aprovechó un cráter natural para tender una enorme antena de 305 metros, y que ha aparecido en al menos dos películas, una de 007 y la otra Contacto, basada en la novela del astrónomo Carl Sagan.

Una de las ventajas de los radiotelescopios es que se pueden formar en grandes grupos o matrices para detectar señales de radio de una amplitud mayor que la del plato del radiotelescopio, del mismo modo en que podemos usar muchos espejos pequeños para formar la imagen de un objeto muy grande. A principios de octubre se informó de planes para crear un conjunto de radiotelescopios que cubrirá un kilómetro cuadrado, el Square Kilometer Array o SKA, que será capaz de estudiar el componente gaseoso de nuestro universo cuando era joven y detectar las ondas de radio que quedan de esas primeras etapas, permitiéndonos aprender más sobre el origen y evolución de nuestro universo. Un radiotelescopio más grnde es más sensible, lo que le permite percibir señales más débiles emitidas por objetos más lejanos o más tenues. Está aún por decidirse qué tipo de radiotelescopios individuales conformarán el SKA, e incluso aún no se sabe si se situará finalmente en Australia o en Sudáfrica. Con una fecha de inicio de la construcción prevista para 2012, el proyecto de 1.500 millones de euros incorpora actualmente a astrónomos e ingenieros de 17 países que esperan que el SKA empiece a realizar observaciones en el año 2020.

Hubble: el ojo en órbita

Los telescopios ópticos son muy sensibles a las fuentes de luz situadas en sus cercanías, de modo que un telescopio ubicado muy cerca de una gran ciudad sufrirá una importante disminución en sus capacidades debido a la contaminación lumínica provocada por el resplandor de las luces de la ciudad en el cielo. El más famoso telescopio óptico de los últimos años, el Hubble, consigue evitar estos dos problemas al encontrarse en órbita, y gracias a ello nos ha permitido una vista espectacular del universo gracias a su espejo de sólo 2,4 metros de diámetro.

Plástico y nanotecnología: materiales para el futuro

El desarrollo de los plásticos cambió todo lo que el ser humano puede hacer. Y pese a sus problemas, estos materiales siguen ofreciéndonos sorpresas al unirse a la tecnología punta.



Era 1855 cuando el británico Alexander Parkes desarrolló el primer material que puede considerarse un plástico: la parkesina, un celuloide de origen natural que presentó en público en la Exposición Internacional de Londres en 1862. No deja de ser ligeramente irónico que el plástico se considere la encarnación de la artificialidad cuando sus orígenes fueron tales, pero los plásticos artificiales son los que efectivamente revolucionaron la vida humana. En 1907, Leo Hendrik Baekeland, químico belga trasplantado a los Estados Unidos, desarrolló el primer plástico artificial al que bautizó con su nombre: bakelita, resultado de la mezcla de fenol y formaldehído. La bakelita pronto se popularizó en muchas aplicaciones diversas gracias a su maleabilidad, su plasticidad, especialmente en la forma de ese aislante marrón oscuro que se usó en los adminículos eléctricos hasta la década de 1960 y sus parientes químicos, otras resinas fenólicas, incluso han ido al espacio recientemente.

Los plásticos son polímeros, es decir, sus moléculas están formadas por largas cadenas repetitivas de unidades estructural llamadas monómeros y conectadas entre sí por enlaces químicos covalentes. Entre los polímeros naturales tenemos la goma obtenida del árbol del hule, el caucho, y el propio ADN de nuestro material genético. Los plásticos, como el celuloide inventado en 1870 que se volvió la materia prima fundamental del cine y la fotografía hasta la llegada del acetato en 1952 y ahora del poliéster, hasta el nylon de las medias femeninas, desde envases hasta piezas de recambio para el cuerpo humano, desde componentes de automóviles hasta partes de robots lanzados al espacio para explorar otros planetas, el mundo de hoy sería totalmente imposible sin los plásticos y su desarrollo incesante en la industria. Pero aunque la ciencia de los polímeros y la industria de los plásticos nos han dado numerosos materiales con capacidades asombrosas, es natural siempre esperar más, o soñar con materiales de asombrosas capacidades.

Mientras más sabemos sobre los plásticos, más posibilidades ofrecen y se hace claro que hay más por saber de lo que imaginábamos. Una de las áreas donde se ha esperado que nuestros conocimientos sobre polímeros resulten muy útiles es la nanotecnología, la rama que se ocupa de la comprensión de las cosas a nivel atómico y molecular ("nano" significa una milmillonésima de metro) y la fabricación de materiales o dispositivos manipulando estos elementos. Se han creado así pequeños elementos constructivos: nanoalambres, nanohojas, nanotubos y diversas nanopartículas que tienen propiedades mecánicas singulares e impresionantes a esas escalas diminutas, pero los científicos se han debido enfrentar al obstáculo que representa el conseguir que tales características se mantengan al crear objetos macroscópicos con tales elementos. Por ejemplo, según el sitio en línea Nanowerk, si se consigue transferir al mundo práctico las extraordinarias propiedades mecánicas de ciertos nanocomponentes como la resistencia a la fractura, podríamos crear materiales mucho más resistentes, ligeros y flexibles, lo que puede revolucionar todos los aspectos de nuestra vida. En palabras del doctor Nicholas A. Kotov, investigador de la Universidad de Michigan, Estados Unidos, "los elementos constructivos a nanoescala son excepcionalmente fuertes en lo individual porque están cerca de ser los materiales ideales libres de defectos".

Lo que ha hecho el doctor Kotov junto con los grupos de investigación de Ellern Arruda y Toni Waas en la misma universidad ha sido conseguir un nuevo plástico fuerte como el acero y a la vez transparente. Lo que han conseguido es transferir "casi de modo ideal", dice Kotov, la tensión entre nanohojas y una matriz de polímeros. Para ello, los investigadores crearon primero una máquina que desarrollaron desde cero y que "construye" materiales colocando una capa a nanoescala tras otra. La inspiración para su idea fue la madreperla, esa cubierta iridiscente de las conchas de muchos moluscos, y el material de que están hechas las perlas, que se forma capa a capa con las secreciones de la ostra o el mejillón, y que es uno de los materiales naturales más resistentes basados en minerales.

La máquina de los investigadores de Michigan es un brazo robótico que se mueve sobre una rueda de recipientes sosteniendo una pieza de cristal más o menos del tamaño de un portaobjetos de microscopio. El brazo introduce el vidrio en una solución de polímeros con propiedades adhesivas, alcohol polivinílico,y después en un líquido con una dispersión de nanohojas de cerámica. Una vez secas esas dos capas, el proceso se repite permitiendo que las capas de nanoadhesivo y nanohojas formaran capas unidas mediante enlaces de hidrógeno de gran resistencia, lo que los científicos han llamado "el efecto velcro". Al cabo de unas 300 veces, la capa es apenas tan espesa como la película plástica en la que se envasan los alimentos.Sin embargo, es extremadamente resistenet debido tanto al efecto velcro como al hecho de que las nanohojas se disponen en capas apiladas, en un patrón alterno que los científicos dicen es como el de los ladrillos y el cemento, donde cada hilera sirve para volver irrelevante cualquier imperfección de la anterior.

El plástico resultante podría ser utilizado por igual en dispositivos microelectromecánicos, sensores biomédicos, válvulas de recambio para trasplantes, aviones robóticos y protección antibalas para policías y soldados. Un supermaterial fuerte, como el acero pero más ligero y transparente que promete ser el primero de una larga serie de nuevos materiales.

La indeseable permanencia

Una notable característica de muchos plásticos es su durabilidad y estabilidad al paso del tiempo y ante diversas sustancias, que los hace ideales, por ejemplo, para sustituir huesos de la pierna sin temor a que se degraden. Pero eso se convierte en un grave problema cuando enviamos los plásticos a los vertederos. La lenta descomposición de los plásticos ha sido objeto de afirmaciones no debidamente demostradas, y así se afirma que las bolsas de plástico tardan desde 20 hasta 1.000 años en degradarse, cifra que varía sin motivo aparente. Al paso del tiempo, las soluciones han ido desde la creación de bacterias capaces de digerir el plástico hasta el diseño de nuevos plásticos que se descomponen ante elementos como la luz solar, ideales para tirar la basura. Lo que difícilmente ocurrirá es que dejemos de hacer y usar los plásticos, una gran oportunidad para quien descubra qué hacer con ellos cuando van a la basura.

El "big bang" de la vida en la Tierra

La historia de la evolución de la vida está todavía escribiéndose, pero uno de sus capítulos sigue siendo especialmente apasionante: el del surgimiento súbito de la vida como la conocemos hoy.

Los tiempos geológicos son difíciles de comprender para seres como nosotros, que vivimos, salvo excepciones, menos de cien años. Una persona de 79 años habrá vivido unos dos mil quinientos millones de segundos, mientras que la Tierra, nuestro planeta, tiene una edad de unos 5 mil millones de años. Cada año de nuestro planeta equivale a medio segundo de la vida de una persona de 79 años.

La vida aparece en nuestro planeta hace aproximadamente 3.800 millones de años, y los primeros microfósiles de bacterias que datan de 300 millones de años después. A partir de allí, la vida siguió un lento proceso y las bacterias dominaron durante más de mil millones de años, hasta que aparecieron formas más complejas. Pero hace entre 543 y 490 millones de años, en un tiempo relativamente breve, el período cámbrico, la vida experimenta una serie de saltos asombrosos. En menos de 50 millones de años, equivalentes a nueve meses y medio de la vida de una persona de 79 años, y especialmente en un período de sólo 10 millones de años, apareció en el planeta una enorme diversidad de seres vivos de complejidad sin precedentes, comparados con los que durante tanto tiempo habían ocupado al joven planeta Tierra. El cambio más notable fue la aparición de seres ya no formados por una única célula o por colonias de células que seguían siendo individuos, sino seres formados por muchas células. Los fósiles de estos primeros seres multicelulares invitan a dejar volar la imaginación: frondas con aspecto de plumas, bolsas y discos que no tienen aún ni cabeza, ni sistemas nerviosos, o aparatos circulatorios o digestivos. Como si la vida estuviera lentamente aprendiendo a organizarse, probando nuevas formas de sobrevivir con éxito y competir en un medio que cambiaba rápidamente, también. Esta aparente intencionalidad de la vida es una de las características sin duda más llamativas de la evolución, aunque en realidad se trata de una serie de cambios no intencionales, donde las variaciones aleatorias son seleccionadas por el medio.

No hay modo de saber qué elementos dispararon la llamada "explosión cámbrica", la súbita (en términos geológicos) aparición de gran variedad de formas de vida animal. Toda la tierra se concentraba en el megacontinente Gondwana, que se empezaba a separar en continentes más pequeños, y la vida se desarrollaba en un gigantesco océano en el cual empezaba a haber oxígeno en cantidades importantes, aspecto que los científicos consideran al menos uno de los disparadores de la multiplicación de las formas de vida en este tiempo, cuando surgieron prácticamente todos los fila (plural de filum) modernos de animales multicelulares con caparazones o partes duras y simetría bilateral, es decir, un lado izquierdo que es, al menos exteriormente, una imagen en espejo del derecho. El ejemplo más conocido de estos animales fueron, los trilobites, esos artrópodos marinos que aparecen en todas las representaciones de la vida primitiva en nuestro mundo y de los que hubo decenas de familias por todo el planeta y que sobrevivieron mucho más allá del cámbrico.

Los animales vertebrados somos un solo filum que incluye peces, reptiles, aves y mamíferos, diseñados sobre el mismo patrón: una columna vertebral como base de un esqueleto con músculos, una cabeza en un extremo y cuatro extremidades o apéndices principales. Todos los demás 37 fila animales (como los artrópodos, moluscos, gusanos planos, redondos y segmentados, etc.) con los que convivimos, salvo uno, aparecieron en el período cámbrico. Pero si bien ésos sobrevivieron, fue a partir de docenas y docenas de fila que aparecieron en lo que los biólogos evolutivos llaman una radiación, es decir, que las nuevas formas cambiaban en distintos sentidos, apartándose rápidamente de sus antecesores. La diversidad cámbrica fue mucho mayor que la que vemos hoy en día en nuestro planeta. Hubo criaturas con cinco ojos, con bocas circulares, etc. La vida experimentó con simetrías distintas a la bilateral, como la radial (de la cual sobreviven seres como las estrellas y los erizos de mar), con números pares o impares de extremidades, o sin ellas, animales con aspectos tan singulares que llevan nombres como "anomalocaris" (que hace referencia a su anormalidad) o "hallucigenia", el alucinante animal que camina sobre más de una docena de tentáculos, así como el pez más viejo conocido, el "millokunmingia" y las primeras "expediciones" de la vida animal a tierra firme.

Pero si la vida parecía explorar sus posibles avenidas de desarrollo, también en el período cámbrico ocurrieron al menos cuatro extinciones masivas, si se permite la metáfora, como si se borrara la pizarra para empezar de nuevo con otro grupo de ideas o experimentos para la vida, haciendo desaparecer grupos completos de animales. Entre las explicaciones que pueden darse a esta desaparición están la glaciación que siguió al cámbrico y la disminución del oxígeno en las aguas marinas. En la más importante de las extinciones cámbricas desapareció la mitad de todas las familias animales que existían, quedando sólo los elementos esenciales con los que la evolución habría de construir la vida en los millones de años siguientes.

La enorme diversidad de la vida en la explosión cámbrica nos permite imaginar que la vida podría ser radicalmente distinta en la Tierra si hubiera variado alguno de los elementos fortuitos que decidieron qué tipos de animales sobrevivirían y cuáles no. Ciertamente, la selección natural es la herramienta principal que impulsa la evolución, pero hay también un elemento azaroso, aleatorio, que nos recuerda que somos, ante todo, un accidente afortunado.

¿La extinción es necesaria?

Aunque ciertos grupos de personas preocupadas por el medio ambiente parecen creer que hubo alguna época pasada en la que no se extinguían especies y el equilibrio ecológico era total, esto no es así. El equilibrio ecológico es dinámico, adaptable y flexible, si no lo fuera, cualquier perturbación implicaría su derrumbamiento total. En realidad, y sin que esto sea un argumento para defender el abuso de nuestro medio ambiente, el 99,9% de todas las especies que han existido se han extinguido, muchas veces en extinciones masivas y aterradoras, como la pérmica, hace 230 millones de años, que acabó con el 95% de todas las especies marinas y la mitad de las familias animales, o la de los dinosaurios. Y en realidad aún no sabemos si tales fenómenos son, o deben considerarse, parte normal del desarrollo de la vida en nuestro mundo, los puntos críticos de un ciclo que aún es un misterio.

Darwin, el genio apacible


Cambió el modo de pensar que tenemos sobre nosotros mismos y todo el mundo vivo, y desafió creencias milenarias armado sólo de datos, hechos y pruebas.

El mundo en el que nación Charles Robert Darwin en 1809 en Shrewsbury, Inglaterra, quinto hijo del médico Robert Waring Darwin y su esposa Susannah Wedgwood apenas se preparaba para el esplendor inglés bajo la férrea mano de la reina Victoria. Retratado en 1816 abrazando una maceta de flores amarillas, no mostraba ser el genio que celebran la ciencia y el conocimiento, ni el adversario odioso de algunas tendencias religiosas. Después de abandonar la carrera de medicina con el disgusto de su padre, cuando en 1828 empezó a estudiar para ser ministro de la iglesia anglicana, se hizo claro que su vocación sacerdotal tampoco era abundante y tomó otros caminos, como amigo y alumno de John Stevens Henlow, profesor de biología, y luego con Adam Sedgwick, profesor de geología. No deja de ser curioso que, con Henlow, estudiara entusiasta los escritos de William Paley, defensor del argumento del diseño divino en la naturaleza, y que el propio Henlow fuera quien le consiguiera el puesto de "naturalista de a bordo sin salario" en el bergantín de diez cañones HMS Beagle, cuya misión era levantar los planos hidrográficos de la parte sur de la costa sudamericana para luego realizar una circunnavegación planeada para dos años que, al final, se prolongarían hasta cinco.

Aunque ya Anaximandro, en el siglo VI antes de nuestra era, habló de la transmutación de las especies y de ancestros comunes, las ideas religiosas predominaron y sólo a fines del siglo XVIII hubo suficientes evidencias, en el registro fósil, en la geología y en la clasificación de los animales, como para plantearse de nuevo que las especies no permanecían, sino evolucionaban, que en el pasado hubo seres que hoy no existen y no se encontraban rastros de los que hoy sí conviven con nosotros. La idea de la evolución requirió, por supuesto, una explicación, y la más conocida anets de Darwin fue la de Lamarck, que consideraba que las experiencias vitales se reflejaban en la herencia, y así un animal que estire mucho el cuello para comer hojas de los árboles tendrá hijos de cuello cada vez más largo, hasta que sean jirafas.

Darwin fue al viaje del Beagle como geólogo, botánico, zoólogo y científico en general, algo que no era muy común en los barcos de la época, y realmente había sido invitado para acompañar al capitán, que temía que la soledad y la compañía de los marineros lo llevaran al suicidio como a un colega suyo. En el largo viaje, Darwin encontró, describió y recopiló fósiles, distintas especies de animales y plantas, anotando sus variaciones y, sobre todo, haciéndose preguntas sobre el "misterio de misterios", el origen de las distintas especies. El material que llevó consigo al volver a casa en 1836 fue estudiado por Darwin paciente y cuidadosamente hasta que en 1842 se "atrevió" a especular sobre los mecanismos de la evolución, hizo el primer boceto de sus conclusiones en 1844, consciente de las implicaciones que tenía el rumbo de sus estudios, y siguió confirmándolas y sometiéndolas a prueba con los datos de la realidad hasta que en 1859 finalmente publicó El origen de las especies por medio de la selección natural. Darwin no era el único que trabajaba sobre el tema. Como en otros casos, el conocimiento de la biología estaba maduro para llegar a una explicación científica y comprobable de la evolución de las especies, y Alfred Russell Wallace llegó a la misma idea de modo independiente y se lo escribió a Darwin a principios de la década de 1840. Pero aunque Wallace tuvo la inspiración genial, no tenía lo fundamental, las pruebas de las que disponía Darwin. La teoría que planteaba era muy sencilla: en cada generación nacen más individuos de los que sobreviven, y tales individuos son ligeramente distintos unos de otros, de modo que hay una competencia para sobrevivir, en la que los mejor adaptados a su entorno serán seleccionados naturalmente para tener más probabilidades de prevalecer y reproducirse, y al paso del tiempo los cambios se pueden acumular para dar origen a nuevas especies más aptas para sobrevivir en su entorno.

La publicación de El origen de las especies fue una descarga eléctrica en el mundo de mediados del siglo XIX, y especialmente en la Inglaterra natal de Darwin pese a que éste prácticamente no usa la palabra "evolución" en toda la obra y menops aún a los orígenes del hombre. No importaba, los datos del libro implicaban la evolución de todos los seres vivos, incluido el hombre, y los ataques vinieron incluso de sus antiguos profesores Henlow y Sedgwick. La personalidad tranquila y conciliadora de Darwin no le permitía entrar en la liza. Pero su libro había reclutado para la causa del conocimiento científico de los procesos biológicos del cambio a un defensor que se alimentaba del enfrentamiento dialéctico, Thomas Henry Huxley, biólogo que se ganó el título de "el bulldog de Darwin" después de su debate con el obispo de Oxford, Samuel Wilberforce, al que dejó en ridículo al decirle que prefería descender de un mono que de un hombre que no supiera usar su inteligencia.

Abierta la "caja de Pandora" de la evolución, y con el respaldo de Huxley en la arena pública y personal, Darwin siguió ampliando sus conclusiones en libros como El descenso del hombre, La expresión de la emoción en el hombre y en los animales y otros libros, artículos y obras breves que dieron forma a una teoría sólida, cuyos detalles han sido afinados desde 1859 por sucesivas generaciones de biólogos evolutivos sin que aparezca ningún hecho que haga dudar que se trata de una explicación esencialmente correcta de los mecanismos del devenir de la vida en la Tierra.

Charles Darwin se casó con su prima Emma Wedgwood y tuvo diez hijos, de los cuales sobrevivieron ocho, y murió en Kent, el 19 de abril de 1882 y está paradójicamente enterrado en la abadía de Westminster, cerca del astrónomo John Herschel y de Isaac Newton. Entre ingenios de su nivel, sin duda.

Lo que es una teoría

Al hablar de la "teoría de la evolución" de Darwin, vale recordar que "teoría" no significa lo mismo en el habla popular y en la ciencia. A nivel cotidiano, una "teoría" es una especulación, una conjetura más o menos imaginativa. En ciencia, "teoría" denota a una serie de leyes que relacionan determinado orden de fenómenos. Así, la "teoría de la gravitación universal" no es una ocurrencia de Newton, sino las leyes que relacionan la masa, la distancia y la velocidad con la gravedad. La "teoría de la evolución" de Darwin relaciona la presión de selección, la mutación y la variabilidad de los seres vivos con la evolución, y está debidamente demostrada y validada. No es, por tanto, "sólo una teoría".

¿La sensación más poderosa?

En ocasiones irresistible y omnipotente, el miedo nos recuerda que en lo profundo de nuestro cerebro, pese a todo, seguimos dominados por los instintos más esenciales.

Los músculos responsables del movimiento se tensan y los vasos sanguíneos se dilatan para mejorar su irrigación, los ojos se abren, las pupilas se dilatan, se frunce el ceño, los labios se estiran, hay sudoración, nos concentramos en el objeto de nuestra reacción, aumenta el ritmo respiratorio y cardiaco... es el miedo. Ante una situación de miedo, primero tratamos de protegernos o escapar, pero si nos vemos totalmente acorralados o arrinconados, lo más probable es que reaccionemos atacando con desesperada violencia. Y, en términos generales, no podemos controlar ninguna de las reacciones que hemos mencionado.

"La emoción más antigua y más poderosa de la humanidad es el miedo, y el miedo más antiguo y más poderoso es el miedo a lo desconocido." Así iniciaba Howard Philips Lovecraft su ensayo Supernatural Horror in Literature. Y de miedo sabía mucho el autor, creador del relato materialista de terror, de una mitología original y de numerosas obras que hoy siguen siendo motivo de gozosa angustia por parte de los lectores y de inspiración para escritores y cineastas en todo el mundo. Claro, en 1927, cuando Lovecraft publicó este ensayo, aún no se sabía cómo funcionaba realmente el miedo, pero no deja de llamar la atención que la neurología, la biología evolutiva y la fisiología hayan confirmado que, efectivamente, el miedo vive en la zona más antigua de nuestro cerebro, el llamado "cerebro reptil" o sistema límbico, concretamente en las llamadas amígdalas cerebrales. Se trata de dos grupos de neuronas con la forma y el tamaño de una almendra ("amígdala" en latín significa, precisamente, almendra) que se encuentran en lo profundo de los lóbulos temporales mediales, más o menos detrás de nuestros pómulos, a la altura de los oídos, y que en diversas investigaciones se ha demostrado que están a cargo de la memoria emocional y de respuestas emocionales, principalmente el miedo. Las amígdalas reciben información de las zonas del cerebro que obtienen y procesan la información visual, auditiva y somatosensorial, y a su vez tienen conexión con los centros autonómicos del tallo cerebral y, especialmente el hipotálamo, que responde disparando las reacciones del miedo, entre ellas la liberación de adrenalina que nos prepara para huir o pelear, la reacción esencial de supervivencia ante el peligro. Un experimento muy revelador muestra cómo las ratas con las amígdalas dañadas experimentalmente pueden caminar hasta un depredador, como un gato, sin exhibir ninguna inquietud.

La evolución de los sistemas nerviosos, desde el más simple que exhiben gusanos como las planarias hasta los más complejos de los mamíferos y primates más desarrollados, y en particular el humano, muestra lo que podría considerarse, sólo a modo explicativo, como una sucesión de capas en la que las más internas son las más antiguas desde el punto de vista evolutivo, y las más externas son las que han aparecido más recientemente en el desarrollo de la vida en nuestro planeta. Así, la corteza cerebral de los mamíferos es la estructura evolutivamente más reciente, mientras que algunas zonas que están en lo profundo de nuestro cerebro, como las amígdalas o los bulbos olfatorios, son estructuras que ya estaban presentes en los reptiles, motivo por el cual se conoce a estas zonas como el "cerebro reptil". Esto no quiere decir que esas estructuras en nuestros cerebros sean iguales a las de los reptiles, por supuesto, sino que han evolucionado a partir de ese tipo de estructuras a lo largo de millones de años y a través de las especies, manteniendo al menos algunas de sus funciones originales (como la recepción e interpretación de los olores) al tiempo que literalmente encima de ellas han evolucionado nuevas estructuras como la corteza cerebral, capaces de funciones que antes no eran posibles, como el pensamiento abstracto.

El miedo, como el dolor, es una sensación desagradable, pero sin él difícilmente sobreviviríamos como individuos y como especie. Hay algunos miedos que son completamente instintivos, es decir, que los tenemos en cuanto nacemos, como el miedo a caer y el miedo a los ruidos fuertes, mientras que otros los vamos aprendiendo. En su conjunto, son una serie de mecanismos destinados a evitar que nos pongamos en peligro sin necesidad, aunque podemos superarlos en una situación de emergencia. Así, hemos aprendido a tenerle miedo a las llamas y nunca nos internaríamos en un incendio a menos que, por ejemplo, en él se encontrara atrapada en él alguna persona a la que le tuviéramos gran cariño, como un hijo o una pareja. En ese sentido, el miedo no es absoluto, sino relativo, y en ocasiones parece un cálculo cuidadoso de la relación entre el riesgo que comporta algo y los beneficios que nos puede aportar.

Si bien el miedo tiene un valor de supervivencia, favoreciendo la reproducción de los individuos que temen a las cosas genuinamente temibles, uno de los fenómenos más curiosos es que derivamos cierto placer del miedo, y lo buscamos activamente en atracciones de feria, en libros y películas de terror, en videojuegos desafiantes. Se han propuesto dos explicaciones: una según la cual lo que sentimos en tales casos no es miedo, sino sólo excitación, y otra que dice que aceptamos soportar el miedo por la sensación eufórica de alivio que obtenemos cuando termina. Un reciente estudio de Eduardo Andrade de la Universidad de California en Berkeley y Joel B. Cohen de la Universidad de Florida han propuesto por primera vez que en realidad experimentamos al mismo tiempo emociones negativas y positivas, según un estudio publicado apenas en agosto, algo que antes se consideraba imposible. Pero, después de todo, como suelen decir los profesionales de trabajos en los que el miedo siempre está presente, como el toreo, el paracaidismo o las carreras, la valentía no es la ausencia de miedo, sino la capacidad de dominarlo sin que nos domine a nosotros.

Cuando domina lo irracional

Las fobias son miedos irracionales y paralizantes que, aunque el que las sufre sabe que son irracionales, no puede controlar su reacción. Médicos y psicólogos han dedicado grandes esfuerzos para el combate de las fobias, ya que hasta un 8% de los adultos en los países desarrollados padecen alguna fobia (y muchos afirman tener fobias cuando sólo tienen un miedo leve). Hasta ahora, uno de los mejores tratamientos es la exposición sucesiva al estímulo de la fobia, por ejemplo exponiendo a una persona con aracnofobia a fotografías de arañas, luego a arañas de juguete y así sucesivamente hasta conseguir que puedan tener una tarántula en la mano sin ser víctimas de su fobia.

Los mayas

Durante casi cuatro mil años, en el Sureste de México y parte de los países centroamericanos, los mayas crearon imponentes ciudades con monumentos que han perdurado y desarrollaron las más avanzadas prácticas astronómicas y lingüísticas del continente americano antes de la llegada de los europeos. Hoy, la cultura maya es objeto de tanta atención como lo fue la egipcia a principios del siglo XX, porque aunque ignoramos tanto sobre ella, lo que sabemos permite vislumbrar una enorme riqueza artística y cultural desde que los conquistadores encontraron en la zona maya gran cantidad de restos arqueológicos que hablaban de una sociedad y una cultura avanzada y compleja. Sin embargo, la destrucción por motivos religiosos de casi la totalidad de los documentos escritos indígenas hizo aún más profundo el misterio, y éste no empezó a desvelarse sino hasta principios del siglo XX. La escritura maya es logosilábica, lo que significa que combina símbolos fonéticos y logogramas o palabras completas, a diferencia de los ideogramas de otras lenguas originarias como el náhuatl, lo que complicó aún más su comprensión, pues no fue sino hasta la década de 1970 cuando el desciframiento se aceleró, permitiéndonos empezar a comprender los textos sobrevivientes mayas, grabados en piedra, unos 10.000 en monumentos, dinteles y estelas.

Los mayas aparecieron hacia el 1800 antes de nuestra era, comenzando su período preclásico o de consolidación, que duró más o menos hasta el 250 de nuestra era. A partir de entonces, con la desaparición de Teotihuacán, que dominó incluso a los mayas pese a su lejanía geográfica, la civilización maya floreció en su etapa "clásica", sus ciudades-estado crecieron en tamaño y población, y se enfrentaron por la dominación, especialmente las de Tikal y Calakmul, que forjaron alianzas a su alrededor para prevalecer, de un modo que recuerda la dominación alternada de Atenas y Esparta en la grecia clásica. Uno de los puntos culminantes de esta etapa es el reinado, muerte y enterramiento del rey Pacal entre el 615 y el 683 de nuestra era. El descubrimiento de la tumba de Pacal en la pirámide conocida como Templo de las Inscripciones, realizado por el arqueólogo mexicano Alberto Ruz Lhuillier, cambió radicalmente la idea de que las pirámides mesoamericanas eran únicamente túmulos que cumplían funciones de templo. En el siglo X comienza un período de decadencia en el cual se abandonan primero las ciudades de las zonas bajas centroamericanas y después las del norte de Yucatán.

Este período de decadencia aún no se ha explicado de modo claro. Los más recientes descubrimientos incluyen como explicaciones posibles, al menos en parte, una serie de sequías recurrentes ocasionadas por variaciones de la intensidad solar, provocando escasez de los alimentos principales de los mayas, las judías, el maíz y, según se ha descubierto apenas este año, la mandioca, plantada en campos dedicados sólo a este cultivo, mientras la población crecía en exceso; el enfrentamiento bélico por nuevas tierras de cultivo, el desequilibrio de los sistemas ecológicos, la profundización de la brecha entre la élite del poder y el pueblo, y las presiones de sociedades no mayas. Pero el desarrollo de la cultura maya había creado un importante legado en cuanto al conocimiento, y especialmente en la astronomía y las matemáticas.

La astronomía, la pasión por conocer con exactitud los movimientos de los cielos, es la base de un calendario maya asombrosamente preciso, el Haab, puesto que los mayas utilizaban tres calendarios distintos. El Tzolkin era un calendario de trece meses de veinte días, de carácter esencialmente religioso y ritual, empleado entre otras cosas para intentar predecir el futuro por medios astrológicos. Por su parte, el calendario Katún o "cuenta larga", que usaba series de veinte años, llamadas katunes, y series de veinte katunes, llamadas baktunes, de 144.000 días. Las "eras" o ciclos completos estaban formadas por trece baktunes, un total de 5.200 años, al final de los cuales se iniciaba un nuevo siglo. En la cuenta larga, la era actual comenzó el 13 de agosto de 3114 antes de nuestra era y teminará el 21 de diciembre de 2012 para comenzar una nueva cuenta larga o era al día siguiente. Esto ha llevado a la creencia de una especie de "profecía maya del fin del mundo" para esa fecha, que no sólo carece de bases, sino que se ha utilizado para la venta de una serie de productos. Del mismo modo en que no pasó nada relevante en el 3114 antes de nuestra era, nada indica que los mayas creyeran que ocurriría en el 2012.

Por su parte, el calendario Haab, que es el que asombra por su precisión, producto de largas y pacientes observaciones del cielo, era originalmente de dieciocho meses de veinte días, más 5 días "nefastos", los últimos del año, para un año solar de 365 días. Vale la pena señalar que la diferencia entre esta cuenta y el año solar real obligó a los sacerdotes-sabios mayas a reunirse para decretar que cada cuatro años se tendría un día adicional, inventando así el año bisiesto en el 249 antes de nuestra era. El desajuste de este nuevo calendario se hizo evidente también al paso del tiempo, y en el año 775 de nuestra era, una nueva reunión fijó el año solar en 365,242 días. Este desarrollo astronómico no hubiera sido posible sin las matemáticas necesarias para computarlo, especialmente el concepto del cero, concebido hacia el año 36 antes de nuestra. El cero era necesario porque los maya utilizaban un sistema posicional para los números, en el que el símbolo tiene un valor distinto según su lugar, como en nuestro sistema arábigo, donde el símbolo "5" denota cinco unidades, cinco decenas, cinco centenas, etc., dependiendo de su posición.

El misterio de la decadencia maya a finales del período preclásico permanece, pero aún hay demasiadas áreas por explorar, excavar y estudiar. Los descubrimientos de 2006 en San Bartolo, Guatemala, datados 100 años antes de nuestra era, de murales policromados y muestras tempranas de escritura, son sólo otra indicación de que los mayas tienen aún mucho por revelarnos.

Los mayas no desaparecieron

A la llegada de los europeos en el siglo XVI de nuestra era, los mayas seguían ocupando gran parte de lo que hoy son la península de Yucatán y Chiapas, en México, y gran parte de Guatemala, Belice, Honduras, y allí están hoy. Hoy en día, cientos de miles de indígenas que hablan las lenguas mayenses, como los tzeltales, tzotziles, cakchiqueles, tojolabales, chontales, quichés, lacandones y otros, y los mayas de Yucatán son todos descendientes directos, étnica y culturalmente, de los mayas de la antigüedad. Contra lo que muchos creen, los mayas no han desaparecido, ni mucho menos, y algunos de ellos son, de hecho, los zapatistas que el mundo conoció en 1994.