Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El ADN: la identidad de todo lo vivo

Una potente arma en la lucha contra el crimen y en la medicina, nuestro conocimiento del ADN, abre posibilidades sorprendentes para investigar incluso los libros manuscritos del medievo europeo.

La doble hélice del ADN, el código de la vida.
(Imagen D.P. de Apers0n, vía Wikimedia Commons)
El ADN, la sustancia que descubrió Friedrich Miescher en 1869, se convirtió en uno de los descubrimientos más trascendentales de la historia humana. No sólo explicando la transmisión hereditaria de los caracteres.

La identificación de personas por medio de su ADN es quizá la aplicación más conocida, difundida por los medios de comunicación como clave para la solución de casos de identidad reales y en la ficción, sobre todo en la de carácter policíaco.

Para realizar la “huella de ADN” de una persona, sin embargo, no se identifica toda la secuencia del ADN de sus cromosomas, sino únicamente unos 13 puntos o loci de grupos de bases con repeticiones que son distintas en cada individuo. La repetición de bases en cada locus individual está presente en un porcentaje de entre 5 y 20% de las personas, pero la combinación de las repeticiones en los 13 loci es la que identifica a un individuo con una certeza casi absoluta.

Una muestra de ADN, sin embargo, no sirve si no se tiene otra muestra con la que compararla para saber si pertenece o no al mismo individuo. En la ciencia forense, las pruebas de ADN pueden identificar a una víctima, establecer relaciones de parentesco, entre ellas de paternidad, o condenar o exonerar a un acusado al comparar su ADN con el de muestras de fluidos corporales que el delincuente dejara en el lugar del crimen.

La importancia de esta capacidad de identificación del individuo que pudiera haber depositado sangre, saliva o semen en un lugar se puede valorar pensando en que a fines del siglo XIX no existían ni siquiera las herramientas necesarias para saber si una mancha marrón era o no de sangre, mucho menos para identificar el tipo sanguíneo, el sexo del individuo o su identidad con total precisión.

Hoy, estudiando los restos de hombres de Neandertal recuperados en distintas excavaciones, algunas de ellas en España, como las de Atapuerca en Burgos o las de la Cueva del Sidrón en Asturias, se está reconstruyendo la secuencia de ADN de esta especie humana desaparecida hace alrededor de 30.000 años. En el 200 aniversario del nacimiento de Darwin, el Dr. Svante Pääbo, del Departamento de Genética del Instituto Max Planck de Antropología Evolutiva presentó el primer borrador de la secuencia genética del Neandertal, con el 60% de su ADN secuenciado.

El descubrimiento más relevante realizado por el grupo de Pääbo hasta ahora es que, además de las esperadas raíces comunes de los Neandertales y los Homo sapiens, ambas especies tienen el gen llamado FOXP2, que se relaciona con la capacidad de hablar, lo que apoya la hipótesis ya avanzada por los especialistas en anatomía fósil de que estos primos nuestros, alguna vez representados como salvajes simiescos y torpes eran, en realidad, más humanos de lo que a algunos les gustaría aceptar.

No se puede pasar por alto la secuenciación del ADN humano, lograda en un 92% apenas en 2003, como base para identificar algunas alteraciones genéticas que pueden afectar la salud, el desarrollo o el bienestar. Es importante recordar que tener la secuencia del ADN del genoma humano, neandertal o de cualquier ser vivo es sólo el primer paso, necesario pero insuficiente, para leer el libro de la genética. La decodificación de esta secuencia requerirá los esfuerzos de numerosos científicos en los años por venir.

Entre las aplicaciones más recientemente propuestas para las pruebas de ADN destaca de modo especial la que ha presentado no un biólogo, antropólogo o médico, sino un profesor de inglés de la universidad estatal de Carolina del Norte, en los Estados Unidos, Timothy Stinson, quien pretende utilizar los avances de la genética para poder saber con más certeza cuándo y dónde se escribieron los miles de volúmenes manuscritos por copistas en Europa durante la Edad Media.

Muchos de los manuscritos medievales realizados en los proverbiales monasterios se escribieron en pergamino fabricado con piel de cabra, cordero o ternera, especialmente los más antiguos, si tenemos en consideración que la primera fábrica de papel no apareció sino hasta el año 1120 en Xátiva, en Valencia.

El pergamino no se curte, sino que se estira, se raspa y se seca sometiéndolo a tensión, creando así una piel rígida, blanca, amarillenta o traslúcida. Hasta ahora, la datación de los pergaminos se hace utilizando el procedimiento del carbono 14, mientras que la datación del manuscrito en sí se hace indirectamente estudiando la letra manuscrita o cursiva de los escribas y el dialecto que empleaban, dos técnicas que, según los estudiosos, son poco fiables.

El proyecto del profesor Stinson contempla la creación de una “línea de base” o marco de referencia utilizando el ADN de los relativamente pocos manuscritos cuya fecha y lugar de creación pueden determinarse de un modo fiable. Cada uno de estos manuscritos puede ofrecer una gran cantidad de información, ya que en un libro medieval de pergamino se utilizaban las pieles de más de 100 animales. Con esta línea de base de marcadores de ADN con fechas y ubicaciones geográficas conocidas, se podrá determinar el grado de relación que mantenían con ellos los animales cuyas pieles se usaron para la confección de manuscritos de fecha y lugar desconocidos.

La esperanza de Stinson es que las similitudes genéticas sirvan para dar una indicación general del tiempo y lugar de origen de los libros, además de “trazar las rutas comerciales del pergamino” en la Edad Media, revelando así datos importantes sobre la evolución de la industria del libro en esta época histórica.

Para lograrlo, Stinson ha dado el salto de letras al de ciencias, colaborando para perfeccionar las técnicas ideales para extraer y analizar el ADN contenido en los pergaminos. Técnicas que en un futuro podrían usarse en algunos otros artefactos históricos realizados con productos animales, utilizando el ADN para conocer no sólo nuestra historia biológica, sino también la social, política y comercial.

El ADN y Darwin

Una aplicación del estudio de la genética y del ADN en particular fue una demostración de la teoría de la evolución darwinista. Todos los primates que consideramos parientes cercanos nuestros tienen 24 pares de cromosomas, pero nosotros sólo tenemos 23. De ser cierto que provenimos de un ancestro común, nuestra especie debió perder un cromosoma en el proceso. El estudio del ADN demuestra que el cromosoma humano identificado con el número 2 es resultado de la unión de dos cromosomas de primates extremo con extremo. Esto debe haber ocurrido después de que en el transcurso de la evolución nos separamos de chimpancés, gorilas y orangutanes.

¿El cerebro homosexual?

Los prejuicios sobre la homosexualidad, no todos de origen religioso, se están viendo obligados a rendirse ante la evidencia científica de que no describen con precisión la realidad de un importante sector de la humanidad.

Oscar Wilde en 1882, víctima de los
prejuicios contra la homosexualidad.
(Foto D.P. de Napoleón Sarony, via
Wikimedia Commons)
Algunas ideas sobre la homosexualidad están siendo víctimas de avances del conocimiento que quizá ayuden a quitar parte de la presión social sobre un colectivo que, pese a sus logros, sigue estando sometido a rechazo y escarnio por parte de algunos sectores de la población incluso en los países occidentales más avanzados.

La idea de que la homosexualidad era “antinatural” por tratarse de un comportamiento y una identidad sexual poco frecuentes (entre el 4 y el 10% de la población según diversos cálculos, ninguno de ellos demasiado fiables, es importante señalarlo) ha quedado obsoleta ante la abrumadora evidencia de que la homosexualidad también está presente en los animales en estado salvaje. Un estudio de 1999 del biólogo canadiense Bruce Bagermihl indica que se ha observado un comportamiento homosexual en casi 1.500 especies animales distintas, y está plenamente documentado y estudiado en unas 500 de ellas, como las jirafas, los bonobos o chimpancés enanos, cisnes negros, gaviotas, ánades reales, pingüinos, delfines del Amazonas, bisontes americanos, delfines mulares, elefantes (africanos y asiáticos), leones, corderos o macacos japoneses.

Es de notarse que todos estos animales viven en sociedades, es decir, son gregarios, y de ello algunos investigadores deducen que probablemente el sexo no sólo tiene un objetivo reproductivo, sino también puede cumplir otras funciones sociales.

La homosexualidad humana, en todo caso, es mucho menos frecuente que la de algunas de estas especies, pero no por ello es un fenómeno menos complejo que la heterosexualidad misma. En todo caso, establecido que es un hecho infrecuente pero perfectamente natural, los científicos han abordado el problema de si la homosexualidad está determinada por la genética, la fisiología, el medio ambiente o, como pretenden algunas organizaciones religiosas, es una decisión personal evitable o una “desviación” que puede revertirse o una enfermedad que puede “curarse”, como afirman distintas denominaciones religiosas.

Un estudio sueco de 2005 demostró que los hombres heterosexuales y los homosexuales responden de manera distinta al verse expuestos a ciertos aromas hormonales o feromonas que se considera que están implicados en la excitación sexual. Más aún, tanto en las mujeres heterosexuales y los hombres homosexuales se activa una zona del hipotálamo relacionada con la sexualidad al verse expuestos a una testosterona que se encuentra en el sudor masculino, mientras que esto no ocurre con los hombres heterosexuales. Éstos, por su parte, tienen esa misma reacción al exponerse a un compuesto similar al estrógeno que se encuentra en la orina de las mujeres.

Ésta ha sido una de las primeras demostraciones de que el cerebro homosexual y el heterosexual tienen diferencias funcionales y estructurales que se pueden medir más allá de los informes de los sujetos experimentales. En general, depender de lo que dicen los sujetos de la experimentación tiene muchos riesgos por la posibilidad de que tales sujetos alteren sus respuestas por motivos sociales, profesionales, personales o de otra índole. La utilización de escáneres cerebrales de distintos tipos, por su parte, estudia reacciones del cerebro que el sujeto no puede controlar ni alterar, y que demuestran que existen diferencias reales entre las personas homosexuales y las heterosexuales.

Poco después, una investigación del Dr. Simon LeVay estudio sobre el tamaño del grupo de neuronas de la parte anterior del hipotálamo llamadas INAH3, demostró que éste es significativamente menor en los hombres homosexuales y las mujeres heterosexuales. El experimentador, Simon LeVay, advertía en 1991 que no se sabía aún si esa diferencia era causa o consecuencia de la orientación y comportamiento homosexual, y que lo conducente era realizar más investigaciones en ese sentido.

La existencia de hechos biológicos relacionados estrechamente con la homosexualidad sustenta la hipótesis de que la homosexualidad no es una elección personal. Lo mismo se desprende de un estudio realizado en 2005 por Ivanka Savic y Per Lindström del Instituto del Cerebro de Estocolmo, que encontró similitudes en la respuesta emocional de hombres homosexuales y mujeres heterosexuales en la zona del cerebro conocida como amígdala cerebral. Más interesante resultaba que se encontraran similitudes de las mujeres homosexuales con los hombres heterosexuales en las mismas respuestas de la amígdala cerebral. En pocas palabras, al parecer el cerebro homosexual de un género funciona como el cerebro heterosexual del otro género, algo que no se explica fácilmente si no se tiene en cuenta que al menos una parte de la preferencia y comportamiento homosexuales tienen una base bioquímica y, probablemente, genética. El estudio de Savic y Lindström indicó además que la utilización de todo el cerebro también mostraba marcadas diferencias. Los hombres heterosexuales y las mujeres lesbianas hacen una utilización mayor de del hemisferio derecho del cerebro, la llamada lateralización, mientras que entre los hombres homosexuales y las mujeres heterosexuales ambos hemisferios son utilizados de modo más o menos equilibrado.

Se han encontrado correlaciones similares en otros aspectos de la conducta. Por ejemplo, los hombres homosexuales y las mujeres heterosexuales se desempeñan mejor que los hombres heterosexuales en pruebas verbales. Y tanto los hombres heterosexuales como las mujeres lesbianas tienen mejores habilidades de navegación que los hombres homosexuales y las mujeres heterosexuales.

Aún no sabemos si la homosexualidad es genética, o está totalmente determinada por la biología, pero sí es un aviso de que las valoraciones sociales, religiosas o morales no son la mejor forma de enfrentar un hecho como la homosexualidad. La homofobia, en cambio, es claramente un fenómeno social, muchas veces motivado por las creencias religiosas o el miedo a lo desconocido, cuando no a confusiones producto de la ignorancia que no tienen ningún sustento científico.

Ratas bisexuales


Una de las primeras diferencias encontradas en 1990 fue la de la estructura llamada núcleo supraquiasmático, el “reloj” de nuestro cerebro, que en los hombres homosexuales es del doble del tamaño que tiene en los hombres heterosexuales. Los experimentadores, más adelante, provocaron hormonalmente el mismo fenómeno en ratas en desarrollo y el resultado fueron ratas bisexuales, demostrando que al menos esta diferencia no dependía de la actividad sexual, sino de la acción de las hormonas sexuales en el cerebro en desarrollo.

Las historias que cuentan los huesos

Un antropólogo forense es, en realidad, una persona que ha aprendido a leer, en el alfabeto de los esqueletos humanos, las historias que cuentan de cuando estaban vivos.

Nuestra anatomía no es una característica inamovible. Nuestro cuerpo, incluidos nuestros huesos, está en constante transformación, según nuestra herencia genética, el paso del tiempo, la alimentación, las enfermedades, nuestro entorno e incluso las estructuras asociadas a ellos, como los músculos. Los esqueletos pueden mostrar peculiaridades inapreciables a ojos de un lego, pero que para un osteólogo son clarísimas.

La osteología es el estudio científico de los huesos, una subdisciplina de la antropología y la arqueología que ha atraído especialmente el interés público en los últimos años por su aplicación en la antropología forense para el esclarecimiento de delitos, principalmente asesinatos.

Como consecuencia, los antropólogos forenses que antes eran científicos anónimos que manejaban cosas tan desagradables como cuerpos humanos descompuestos, consultaban libros enormes y hablaban en un lenguaje altamente técnico se han convertido en algunos de los nuevos héroes de los medios. De ello dan fe series como Bones, basada en la vida de Kathy Reichs como antropóloga forense.

Y sin embargo, la gran mayoría de los conocimientos de la osteología son producto de estudios relativamente recientes, donde confluyen la genética, la embriología, la paleoantropología, la anatomía comparativa. En primer lugar, un esqueleto puede informarnos de la edad, sexo, estatura y probables influencias étnicas de la persona.

La edad se refleja en los extremos de los huesos largos, que en la niñez y juventud tienen placas de crecimiento, en la estructura interna de los huesos, en las articulaciones y, de modo muy especial, en las suturas que unen a los huesos que forman la bóveda craneal, muy abiertas en la niñez (incluso con los puntos sin cerrar que llamamos “fontanelas” o “mollera” en los recién nacidos) y que se alisan hasta casi desaparecer con la edad. Los dientes son otro indicador relevante.

Es sabido que la pelvis femenina es distinta de la masculina debido a que ha evolucionado junto con el tamaño del bebé humano y la forma de parir de nuestra especie, siendo por tanto más ancha y redondeada. Ésas y otras diferencias pélvicas, así como una serie de diferencias en las proporciones y tamaño de partes del cráneo permiten una determinación del sexo con casi un 100% de certeza, con la excepción de ciertos casos límite de la variabilidad humana.

Un experto puede determinar también la edad y el sexo a partir de un fémur. El fémur del hombre adulto es más recto que el de la mujer adulta que se arquea como reacción precisamente al ensanchamiento de la cadera que ocurre en la pubertad. Como un Sherlock Holmes del nuevo milenio, un antropólogo forense puede aventurar con mucha certeza que un fémur desarrollado y curvado pertenece “a una mujer adulta”, aunque los datos de la edad se afinen después con otras mediciones.

En realidad, para que los huesos relaten las historias que nos interesan (antropológicas o criminales) no basta mirarlos con actitud interesante como los actores de las series de televisión. Muchas mediciones y estudios poco espectaculares permiten obtener importantes datos. Por ejemplo, la densidad ósea de las personas predominantemente negroides es mayor que la de las personas predominantemente caucásicas o mongólicas; hay indicaciones de antecedentes étnicos también en los dientes, la estructura maxilar y otros puntos, e incluso los puntos de inserción de los músculos pueden decirnos si la persona era o no afecta a hacer ejercicio.

Hoy es sencillo determinar la estatura que un esqueleto tuvo en vida, pues tenemos ecuaciones matemáticas para calcular la estatura con bastante precisión a partir del fémur, la tibia y otros huesos largos de un esqueleto.

Pero lo más fascinante es la capacidad de los antropólogos forenses de determinar el origen de ciertas lesiones en los huesos y las posibles causas de muerte de víctimas de delitos, accidentes o, incluso, enfrentamientos armados. Dado que los huesos perduran mucho más que cualquier otra estructura corporal, son muchas veces el último testimonio de una vida y de su final, y lo siguen siendo cuando el resto del organismo se ha descompuesto.

Un antropólogo forense puede diferenciar los efectos de un golpe con un objeto contundente, un cuchillo, una flecha o una bala, y pueden evaluar si la lesión se produjo alrededor del momento de la muerte o aconteció antes y hay señales de cicatrización ósea. Numerosas enfermedades y afecciones, además, dejan su huella en nuestro esqueleto, como el raquitismo, la tuberculosis, igual que ciertas deficiencias alimenticias. Con todos estos datos, haciendo estudios químicos y físicos de los huesos, mediciones y observaciones, un antropólogo forense puede trazar un retrato muy detallado de la vida y, quizá, la muerte de una persona, sin importar la antigüedad de los huesos, como se ha demostrado en estudios de restos antiguos como la momia congelada de los Alpes Ötzi y las momias de faraones como Ramsés II y Tutankamón.

Pero quizá lo más impresionante para el público en general ha sido el descubrimiento de que, en gran medida, la forma única de nuestro rostro, que vemos como el equivalente de nuestra identidad, está escrita fundamentalmente en nuestro cráneo. Gracias a mediciones de gran cantidad de rostros de personas de distintas edades, sexos, orígenes étnicos, etc., se tiene hoy un conocimiento preciso de la densidad media de los tejidos en los distintos puntos de nuestro rostro. Utilizando estas densidades medias, es posible reconstruir, con un asombroso, a veces escalofriante grado de exactitud, el rostro que una persona tuvo en vida, como lo muestran algunas series de televisión de modo tal que parece ficción.

La antropología forense nos permite saber cómo era el rostro de Tutankamón y cómo murieron las víctimas de algunos asesinatos, pero también nos permite identificar y conocer a los muertos del pasado, desde Pizarro hasta los miembros del pueblo que construyó Stonehenge, lo cual sin duda trasciende la ficción.

El falso Pizarro


En los años 70 se hallaron en Perú unos restos presuntamente de Francisco Pizarro, pero durante mucho tiempo se habían considerado genuinos otros. El famoso antropólogo William Maples analizó los huesos del esqueleto recién hallado y catalogó las terribles heridas que mostraba, curadas o no y los comparó con la biografía de Pizarro, incluido su asesinato por un grupo de conspiradores. Los restos hasta entonces considerados genuinos resultaron ser de alguien que nunca había visto batalla y menos muerto en una, confirmando así la verdadera identidad del conquistador del Perú.

Europa en el espacio en 2009

La Agencia Espacial Europea, el mayor esfuerzo cooperativo para la exploración del espacio enfrenta uno de sus años más activos y apasionantes.

Ante la carrera espacial emprendida por la Unión Soviética y los Estados Unidos como parte de la propaganda de la Guerra Fría, Europa se encontró ante el problema de no contar con los recursos, tanto económicos como humanos, para competir con las dos superpotencias, al tiempo que tenía la necesidad de no quedarse atrás en la exploración del espacio.

Después de que la URSS sorprendiera al mundo el 4 de octubre de 1957 con el lanzamiento del Sputnik, dos científicos europeos, los físicos Edoardo Amaldi, italiano, y Pierre Victor Auger, francés, decidieron convocar a científicos de ocho países para proponer la creación de una organización espacial de Europa Occidental para aprovechar los beneficios que claramente se derivarían del conocimiento del espacio. Las reuniones comenzaron en 1961 y en 1964 se fundaron oficialmente la ELDO, con la misión de desarrollar un sistema de lanzamiento, y la ESRO, organización europea de investigación espacial. Estas dos organizaciones se fusionaron en 1975 en la Agencia Espacial Europea, o ESA por sus siglas en inglés, que hoy cuenta con una flotilla de vehículos de lanzamiento utilizados para poner en órbita satélites y ha participado en la investigación del espacio y en la construcción de la Estación Espacial Internacional.

En este proyecto, que en muchas formas es el esfuerzo internacional más importante de la historia, donde se unen numerosos países, la ESA ha participado con 12 de sus 17 países miembros, contribuyendo con el módulo de laboratorio científico Columbus y el módulo de observatorio Cupola. Además, en 2008 puso en operación su vehículo de transferencia automatizado (ATV) “Jules Verne”, el transporte automático para reabastecer la Estación Espacial Internacional.

En 2009, los proyectos de la ESA son extremadamente ambiciosos.

Éste será el año en que se lance por primera vez el cohete Vega, destionado a poner en órbita cargas mucho más pequeñas que el Ariane 5 (de 1.5 toneladas métricas a una órbita de 700 km de altura). Las cargas pequeñas han tenido problemas para encontrar medios adecuados para colocarse en órbita, sobre todo cuando más países y universidades de todo el mundo están esforzándose por tener en órbita experimentos en espacios limitados y de pesos muy bajos para optimizar sus recursos. Vega es parte de la política que ha establecido Europa para tener “acceso garantizado” al espacio.

Igualmente, en el primer semestre del año se lanzará el observatorio espacial Herschel de la ESA, un gigantesco telescopio cuya observación en las bandas infrarroja y submilimétrica le permitirán ver a través del polvo que oculta las fases iniciales de la formación estelar y planetaria. Su espejo de 3.5 metros de diámetro es mayor que el del telescopio Hubble. Su objetivo es el estudio de la formación de galaxias en los inicios del universo y su evolución, la formación de estrellas y la composición química de las atmósferas y superficies de los cuerpos del Sistema Solar, además de analizar la química molecular de todo el universo.

Junto con el Herschell se lanzará el satélite Planck, un observatorio diseñado para estudiar la radiación cósmica de microondas de fondo, conocida como la “primera luz” del universo, el eco aún perceptible del Big Bang. El Planck estudiará así las diversas hipótesis sobre las primeras etapas del universo y el origen de la estructura que tiene el cosmos en la actualidad.

2009 marcará además una nueva etapa de la colaboración de la ESA con la organización espacial rusa, cuando los cohetes Soyuz empiecen a lanzarse desde el espaciopuerto europeo situado en Kourou, el la Guayana Francesa. La ubicación de este espaciopuerto se debe a que los cohetes lanzados desde puntos cercanos al ecuador reciben un impulso favorable de la rotación terrestre, de modo que los Soyuz lanzados desde Kourou tendrán mayor capacidad de carga que los que se lanzan desde el cosmódromo de Baikonur, en Kazajstán.

En mayo de 2009, el comandante belga de la ESA Frank de Winne partirá en su segundo viaje a la Estación Espacial Internacional, a la cual voló en 2002 como ingeniero de vuelo. En esta ocasión, viajará en una Soyuz TMA-15 y encabezará la expedición 21 de la Estación Espacial Internacional, de la que será el primer comandante europeo, durante un período de seis meses en el cual tendrá a su cargo una tripulación de cinco personas.

El programa Planeta Viviente de la ESA, que consta de seis misiones ya definidas y está abierto al desarrollo de nuevos proyectos, tiene por objeto la realización de observaciones de la Tierra que nos ayuden a comprender mejor nuestro planeta

El 11 de marzo, de no haber cambios, la ESA lanzará un satélite capaz de analizar el campo gravitacional de la Tierra y determinar con más precisión que nunca la forma exacta de nuestro planeta, el geoide, así como estudiar la velocidad y dirección de la circulación de las corrientes océanicas. Este satélite, denominado GOCE, será el primero de una serie de exploradores de la Tierra que la ESA pondrá en el espacio como parte de su programa Planeta Viviente.

El segundo satélite del programa es la misión Humedad del Suelo y Salinidad Oceánica, SMOS, previsto para el primer semestre del año, que observará la humedad del suelo en las masas terrestres del planeta y la salinidad de los océanos para ayudarnos a entender el ciclo del agua en la tierra y los patrones de circulación oceánica.

En junio se lanzará la misión de Dinámica Atmosférica Aeolus, el primer sistema capaz de realizar la observación del perfil de los vientos en todo el planeta y que proporcionará información fundamental para mejorar la previsión del tiempo. La idea es contar con observaciones que permitan a los científicos crear modelos complejos de nuestro medio ambiente para predecir mejor su comportamiento.

Finalmente, la misión Cryosat-2, que ocupa el lugar de la primera misión Cryosat destruida en su lanzamiento en 2005, tiene por objeto la observación del espesor de las masas de hielo en el mar y en los glaciares montañosos utilizando un altímetro de radar, algo de gran importancia para evaluar los efectos reales del cambio climático.

Los vuelos humanos


El éxito del ATV ha motivado que los países miembros de la ESA pongan en marcha los estudios para diseñar con base en el ATV una nave espacial logística capaz de llevar tripulantes a la Estación Espacial Internacional y traerlos de vuelta en lo que se conocería como el vehículo de reentrada avanzado (ARV). Este proyecto, así como el aún incipiente sueño de una misión europea tripulada a Marte, conforman los posibles pasos de los viajes espaciales tripulados de la agencia europea.

Los enemigos de Darwin

Charles Darwin
Los 150 años de la publicación de la obra fundamental de Darwin son también 150 años de debate, controversia y ataques por parte de ciertos sectores religiosos contra lo que la biología nos enseña.

La controversia vigente entre la visión religiosa de la vida y la explicación científica de su evolución era algo que Darwin esperaba, quizá no con la violencia que se dio. Cuatro días antes de que El origen de las especies por medio de la selección natural saliera a la venta, una reseña atacó a la obra por implicar que el hombre procedía de los monos, y por creer que el hombre “nació ayer y perecerá mañana”.

La idea de que las especies cambiaban al paso del tiempo estaba en ebullición en la primera mitad del siglo XIX. Ver, como Darwin, a las distintas especies de pinzones de las Galápagos, adaptadas a distintos nichos ecológicos y necesidades de la supervivencia, sugería que todos procedían de un ancestro común, y habían cambiado para adaptarse a distintos entornos.

La idea de la transmutación de las especies era rechazada por parte del estamento religioso y favorecida por los científicos. Pero aún podía ser aceptable en la visión religiosa. Leifchild, autor de la reseña contra Darwin, expresaba: ”¿Por qué construir otra teoría para excluir a la Deidad de los actos de creación renovados? ¿Por qué no admitir de una vez que las nuevas especies fueron introducidas por la energía Creadora del Omnipotente?”

Entonces, parte del enfrentamiento inicial no era la evolución en sí, sino que Darwin propusiera la selección natural como su motor y que afirmara que dicha selección natural actuaba sobre todos los seres vivos, incluido el ser humano. Pero las controversias e insatisfacciones sobre la obra del naturalista han cambiado a lo largo del tiempo. Hoy en día, el creacionismo religioso pone en duda la existencia misma de la evolución, además de debatir no el origen de las especies, sino el de la vida misma.

El debate disparado por la publicación del libro el 24 de noviembre de 1859 se animó con reseñas negativas no firmadas como la del Obispo de Oxford, Richard Wilberforce, o la que The Times publicaba apoyando a Darwin y cuyo autor no acreditado era Thomas H. Huxley, quien se ganaría el mote de “El Bulldog de Darwin” en un debate organizado por la Asociación Británica para el Avance de la Ciencia en el que participaron tanto el obispo Wilberforce como Huxley. Los argumentos de Wilberforce terminaron preguntando si Darwin se consideraba descendiente de un mono por parte de su padre o de su madre. Thomas Huxley aprovechó la oportunidad y respondió que él no se avergonzaría de tener como ancestro a un mono, pero sí le avergonzaría verse conectado a un hombre utilizaba mal sus grandes talentos para tratar de ocultar la verdad. El golpe de efecto fue enorme.

La confrontación de ciertas visiones religiosas con los descubrimientos de Darwin ha tenido su más aguda expresión en los Estados Unidos, logrando, por ejemplo, que el estado de Tennessee prohibiera en 1925 enseñar que el hombre procede de animales inferiores. Como protesta, el profesor de instituo John Scopes se hizo arrestar por enseñar la evolución del hombre y fue juzgado en el “Juicio Scopes” o “Juicio de los Monos” de 1926, donde el fiscal y enemigo de la evolución William Jennings Bryant se enfrentó al defensor Clarence Darrow.

Darrow llamó a Bryant como “testigo experto de la defensa”, una acción legal sin precedentes, para que ilustrara al tribunal sobre la historicidad de la Biblia. El enfrentamiento favoreció a Darrow aunque, en última instancia, Scopes perdiera el juicio porque, claramente, había violado una ley. El efecto dramático del juicio sería profundo en los Estados Unidos, llegando a ser dramatizado en el teatro y el cine como Heredarás el viento, película donde Spencer Tracy hace el papel del sosías de Darrow y Frederic March interpreta a William Jennings Bryant.

En Estados Unidos, la guerra de algunos fundamentalistas contra la enseñanza de la evolución continúa con especial fuerza, y se puede decir que los movimientos creacionistas de distintos países y religiones obtienen su impulso, así sea para diferenciarse de ellos, de los creacionismos estadounidenses. En el extremo de éstos encontramos la idea de la Tierra Joven, que acepta la Biblia verbatim afirmando que el universo fue creado hace alrededor de 6.000 años, con lo cual se opone a la biología evolutiva y también a la física y la cosmología, la geología, la paleontología y otras disciplinas.

La forma más reciente y conocida de creacionismo es el llamado “Diseño inteligente”, que afirma que la evolución no está dirigida por leyes naturales, sino que es “evidente” que las especies y ciertos órganos han sido diseñados por una “fuerza” inteligente que no suelen llamar directamente Dios para intentar presentarse como una alternativa respetable. Surgió fundamentalmente como reacción a los tribunales estadounidenses cuando prohibieron la enseñanza de la creación según los relatos religiosos como si fueran ciencia.

Aunque la comunidad científica claramente define a estos intentos como pseudocientíficos, han logrado tener cierta relevancia en debates al interior de los consejos escolares que controlan los planes de estudios de modo autónomo en ciudades, distritos escolares, estados o provincias de los Estados Unidos, intentando expulsar de las aulas los conceptos esenciales de la biología evolutiva y sustituirlos por enseñanzas religiosas que quizás estarían mejor en los espacios de la casa y la iglesia.

En todo caso, el profundo significado de la labor de Charles Darwin sigue demostrándose por la intensidad del debate. Darwin demostró contundentemente que el universo viviente es tan ordenado, tan sujeto a leyes y tan comprensible por medio de la ciencia como el universo de la química y la física, y que el hombre es parte de ese universo viviente sin ningún privilegio. Los 150 años transcurridos desde la publicación de El origen de las especies no han hecho sino confirmar estos hechos. Si Galileo demostró que la Tierra no es el centro del universo, Darwin demostró que el hombre no es sino parte de un todo viviente. Algunos no perdonan todavía a ninguno de estos dos pilares del conocimiento.

Otras religiones


El catolicismo evitó en general el enfrentamiento y guardó sus distancias respecto a Darwin, afirmando únicamente que el ser humano es una “creación especial” distinta del resto de los animales. Esta posición fue ratificada en 1996 por Juan Pablo II y el Vaticano sostiene que el creacionismo “no es ciencia”. Esta posición coincide curiosamente con la del judaísmo, que considera, en un breve resumen, que “si hay selección natural, es porque Dios la quiere”. Tanto en el mundo católico como en el judío, los adversarios de Darwin son una minoría.

Ciencia al estilo estadounidense

Uno de los líderes mundiales en producción de ciencia y tecnología, además de ser el país más poderoso en lo militar y económico, sigue respondiendo por la mayor parte de la investigación mundial.

59 premios Nobel de química otorgados a ciudadanos estadounidenses, 81 de física y 90 de medicina y fisiología dan testimonio de la preeminencia estadounidense en el conocimiento científico de este siglo. No todos estos científicos nacieron en Estados Unidos. Muchos fueron a ese país por muy diverswos motivos, políticos, filosóficos, económicos o académicos, atraídos por sus universidades, sus recursos para la investigación y una atmósfera no hostil en general a las tareas científicas, aunque en la sociedad estadounidense haya como contrapeso una actitud antiintelectual, de sospecha respecto de la ciencia y los científicos.

Los orígenes

Los colonos europeos que llegaron a lo que hoy son los Estados Unidos no sólo encontraron la libertad religiosa que anhelaban. Encontraron además una gran cantidad de espacio disponible, un bien escaso en Europa.

Para muchos estudiosos, la Peste Negra del siglo XIV, que acabó con entre el 30 y el 60% de la población europea, fue uno de los detonantes de la revolución científica que se haría evidente en la Europa del Renacimiento. El hecho de que el fervor religioso no hubiera podido contener el avance de la peste, abriendo la puerta a la razón por sobre la fe, la tierra que quedó disponible a la muerte de sus propietarios, el aumento del valor de la mano de obra por su súbita escasez, son algunos los elementos que dan sustento a esta interpretación. Y ni entonces ni después los europeos habían visto espacios libres tan vastos como los que de las nuevas tierras.

El grupo inicial de la colonia de Plymouth, Massachusets, era una congregación religiosa que consideraba irreconciliables sus diferencias con la iglesia anglicana oficial en Inglaterra y emigró primero a y posteriormente al nuevo mundo.

Esta colonización fue muy distinta de las conquistas tradicionales, que utilizaban la mano de obra de los habitantes subyugados. Los peregrinos ingleses no pensaban volver ricos y triunfadores, como esperaban hacerlo muchos españoles y portugueses, sino que habían iniciado un viaje sin retorno. En parte por ello, procedieron a desplazar y aniquilar a los habitantes originarios para tomar posesión plena de sus tierras sin incluirlos en su gran plan.

El aislamiento respecto de Europa, la falta de mano de obra y el espacio que permitía a cada familia tener tanta tierra como pudiera trabajar, fueron motores del desarrollo de tecnologías novedosas y de la rápida adopción de toda forma de mecanización o avance agrícola procedente de Europa, como fue el caso del taladro de semillas y las innovaciones en el arado introducidas por el británico Jethro Tull a principios del siglo XVIII.

Un país fundado por científicos

Dos de los hombres que fundaron Estados Unidos, que concibieron su independencia y su surgimiento según los ideales de la ilustración, eran, entre otras cosas, hombres de ciencia. Benjamín Franklin demostró que los relámpagos son una forma de electricidad y fue responsable de numerosos inventos como las gafas bifocales además de promover el sistema de bibliotecas públicas de las colonias, mientras que Thomas Jefferson, estudiante de la agricultura, llevó a América varios tipos de arroz, olivos y pastos. Otros científicos de las colonias británicas estuvieron implicados en la lucha por la independencia.

Esto se reflejó en la Constitución promulgada en 1787, que establece que el Congreso tendrá potestad, “para promover el avance de la ciencia y las artes útiles”. Esta disposición se reflejaría más adelante tanto en la Revolución Francesa de 1789 como en las constituciones de los países americanos que obtuvieron su independencia a principios del siglo XIX.

La ciencia y la tecnología se vieron estrechamente vinculadas a los avances económicos del nuevo país, lo que se ejemplifica en la invención del elevador de granos y el silo elevado de Oliver Evans, de mediados de la década de 1780, o la desmotadora de algodón de 1789. La fabricación de armas requirió generar conceptos como la división del trabajo, las piezas intercambiables y tornos capaces de hacer de modo repetible formas irregulares.

El siglo XIX

En el siglo XIX Europa conservó su liderazgo en la ciencia y la tecnología, tanto que fue en Inglaterra donde William Whewell acuñó precisamente el término “scientist” o científico. Pero en Estados Unidos empezaron a aparecer personajes dedicados a resolver tecnológicamente sus problemas peculiares, como Samuel Colt, inventor del revólver, Samuel Morse, creador del telégrafo que patentó en 1837 o Charles Goodyear, que descubrió la vulcanización del caucho.

No todos los avances tecnológicos estadounidenses eran de tanta entidad, y por ello llama la atención que un producto tan humilde como el alfiler de seguridad o imperdible, creado por el neoyorkino Walter Hunt en 1849, haya sobrevivido al telégrafo en cuanto a su utilización cotidiana continuada.

La gran mayoría de los científicos estadounidenses del siglo XIX son inventores, personajes eminentemente prácticos como Elisha Graves Otis, inventor del freno de seguridad de los elevadores que permitió que se construyeran edificios de gran altura o “rascacielos”. La teoría científica parecía ser, únicamente el trampolín para obtener aparatos, inventos, patentes, aplicaciones prácticas de éxito comercial que cambiaran la forma tradicional de hacer las cosas.

El epítome de este inventor es, sin duda alguna, Thomas Alva Edison, por su sistema, su capacidad empresarial (en ocasiones rayana en la deslealtad) y su productividad, merced a la cual al morir tenía a su nombre 1.093 patentes diversas en Estados Unidos, y otras en el Reino Unido, Francia y Alemania. Además de sus inventos más conocidos, como la bombilla eléctrica comercialmente viable, la distribución de la energía eléctrica o el fonógrafo, Edison realizó numerosas aportaciones en terrenos tan diversos como la electricidad, la minería y la labor científica en sí, al establecer el primer laboratorio científico destinado a la búsqueda de innovaciones, donde trabajaron numerosos científicos cuyos logros se patentarían siempre a nombre de Edison.

La inmigración científica

El vasto espacio libre de Estados Unidos permitió que el país se abriera, en distintos momentos, a movimientos migratorios para satisfacer su hambre de mano de obra y, también, de cerebros innovadores y originales. Así, cuando el químico inglés Robert Priestley, descubridor del oxígeno y perseguido político se refugió en el nuevo país en 1794, inició un flujo que aún no ha cesado.

El primer inmigrante científico famoso del siglo XIX es, probablemente, Alexander Graham Bell, inventor del teléfono, que llegó desde Escocia en 1872, mientras que Charles Steinmetz arribó procedente de Alemania en 1889 y posteriormente desarrollaría nuevos sistemas de corriente alterna.

Pero fue la llegada de Adolfo Hitler al poder en Alemania en 1933 la que produjo la mayor y probablemente más enriquecedora ola de inmigración científica a los Estados Unidos, teniendo como uno de sus primeros protagonistas a Albert Einstein. Con el apoyo del genio judío-austríaco, gran número de físicos teóricos alemanes, tanto de ascendencia judía como simples antinazis, abandonaron Alemania y otros países ocupados para ir a Estados Unidos, entre ellos el húngaro Edward Teller, que sería el principal arquitecto de la bomba atómica estadounidense, y el físico danés Niels Bohr. A ellos se unió el más importante teórico italiano de entonces, Enrico Fermi. A partir de este momento, el predominio de los Estados Unidos en los terrenos de la ciencia se volvió indiscutible y lo sigue siendo.

Antes y después de ese momento, sin embargo, el flujo de inteligencias extranjeras a los laboratorios y universidades estadounidenses nunca cesó, como lo ejemplifica en España el Premio Nobel de fisiología y medicina Severo Ochoa, que llegó a Estados Unidos en 1941 y se hizo ciudadano de ese país en 1956. Dado que era ciudadano estadounidense cuando se le concedió el Premio Nobel en 1959, él es uno de los 90 premios de su especialidad que se mencionan al inicio de este recorrido. La inmigración científica no sólo le ha aportado a los Estados Unidos el conocimiento y las patentes de numerosos hombres y mujeres, sino también el reconocimiento.

Las paradojas

Las paradojas de la actitud estadounidense hacia la ciencia están ejemplificadas por dos fenómenos que son expresión de conflictos recurrentes.

De una parte, los movimientos religiosos creacionistas que pretenden desvirtuar, cuando no expulsar de las aulas, los conocimientos reunidos por la biología evolutiva en los últimos 150 años porque consideran, basados en su interpretación literal de la Biblia, que contradicen la verdad revelada y por tanto deben ser combatidos e incluso prohibidos. Ejemplo temprano de esto fue el famoso Juicio Scopes de 1926, donde un profesor de instituto decidió desobedecer una ley que prohibía enseñar las teorías no bíblicas del origen de las especies en escuelas públicas. El caso dio origena una obra de teatro que fue llevada al cine con el título “Heredarás el viento”, con Spencer Tracy y Fredric March.

De otra parte, cuando las visiones de la ciencia se oponen al desarrollo económico y al bienestar de la industria y el comercio, suelen verse bajo asedio cuando no simplemente despreciadas. La negativa gubernamental y social a reconocer la relación que se había hallado entre el tabaco y el cáncer de pulmón, es uno de los más claros ejemplos, como lo ha sido recientemente la negativa de los presidentes William Clinton y George W. Bush de ratificar el Protocolo de Kyoto para la reducción de la emisión de gases de invernadero, y el movimiento ideológico que pretende negar sin someterla a análisis la observación científica de que existe un proceso de cambio climático y que la actividad del hombre a través de la emisión de gases de invernadero es al menos en parte uno de los factores que están provocando o acelerando dicho cambio.

Pero hay un tercer factor, un temor a “saber demasiado” y a “jugar a ser dios” que el científico, escritor e inmigrante Isaac Asimov caracterizó como “el complejo Frankenstein”, y que permea la cultura popular estadounidense, la máxima promotora de la idea del “genio malévolo” y el “científico loco” que generalmente quieren “apoderarse del mundo”. La caricatura de una parte revela percepciones sociales y de otra las refuerza, agudizando las contradicciones de la sociedad estadounidense ante la ciencia y los hombres y mujeres que la hacen.

El proyecto científico de Barack Obama

Uno de los aspectos que han identificado y destacado a Barack Obama es que cuenta con un programa claro en cuanto a la ciencia y su promoción. Es un hecho que pese a la preeminencia científica del país, los alumnos estadounidenses se desempeñan peor en asuntos científicos que la mayoría de los 57 países más desarrollados, situándose en 29º lugar en cuanto a ciencia y en 35º en matemáticas, muy por debajo de líderes como Finlandia, Corea, Japón, Liechtenstein y Holanda.

Ante ello, Obama ha planteado en su proyecto la necesidad de asegurarse de que todos los niños de las escuelas públicas estén equipados con las habilidades necesarias de ciencia, tecnología y matemáticas para tener éxito en la economía del siglo XXI. Se propone así fortalecer la educación matemática y científica en general, incentivar el aumento de titulaciones en ciencias e ingeniería y aumentar la presencia de las mujeres y las minorías étnicas en el mundo de la ciencia y la tecnología.

Pero la propuesta más revolucionaria de Barack Obama es, precisamente, la más solicitada por los científicos de todo el mundo a sus gobiernos: más recursos, más inversión que a la larga, sin duda alguna, redituará beneficios a los países que se comprometan con ella. En concreto, el presidente entrante propone duplicar el financiamiento de la federación para la investigación básica en ciencias.

Barack Obama se propone igualmente mantener a Internet como un espacio abierto y neutral, y aprovechar las nuevas tecnologías para “llevar al gobierno (de Estados Unidos) al siglo XXI” mediante el uso de la tecnología, obteniendo ahorros, mayor seguridad y mayor eficiencia echando mano de los elementos que ya están disponibles.

Pero, sobre todo, Barack Obama ha afirmado que “las buenas políticas en Washington dependen de sólidos consejos de los científicos e ingenieros del país”, y se ha comprometido a “restaurar el principio básico de que las decisiones de cobierno deberían basarse en la mejor evidencia científicamente válida que tengamos disponible y no en las predisposiciones ideológicas de funcionarios de dependencias o personas designadas políticamente”. De este principio, ciertamente, podrían beneficiarse numerosos gobiernos que cierran los ojos a los hechos para servir a sus convicciones, por irracionales que puedan resultar.

Estas propuestas le ganaron a Barack Obama el apoyo electoral de 60 científicos galardonados con el premio Nobel en la carrera electoral. Entre las muchas expresiones de idealismo y capacidad de soñar que evidentemente ha logrado despertar entre sus simpatizantes, ésta no es la menos importante, sobre todo porque el liderazgo de Estados Unidos y su fuerza política sin duda influirán en la forma en que otros gobiernos, sintonizados o no a la visión de Barack Obama, enfrenten sus propios problemas y necesidades en el terreno de la ciencia y la innovación.

La ciencia de la música

Códice Manesse de principios del
siglo XIV.
(D.P. vía Wikimedia Commons)
Quizás sea la forma artística más popular del tercer milenio, pero durante grandes períodos históricos la música estuvo recluida la mayor parte del tiempo en las fortalezas de los poderosos.

En esta era de MP3 y acceso inmediato a toda la música que nos complace, de conciertos para todos los gustos y de todos los precios, de bailes y fiestas con música, de flujo musical continuo en lugares públicos, de radio y televisión, con frecuencia olvidamos que esta pasión del ser humano por la música no siempre pudo satisfacerse.

Antes del siglo XX, la música era un acontecimiento infrecuente y, por lo mismo, muy bienvenido. Se podía escuchar en fiestas populares, en grandes acontecimientos de la comunidad o el estado nacional, o gracias a la ocasional llegada de un músico trashumante. Lo que quedaba como oportunidad de disfrutar música eran infrecuentes conciertos públicos y la música que cada cual se podía dar a sí mismo cantando o tocando algún instrumento en sus ratos libres.

Los paleoantropólogos sólo pueden imaginarse, haciendo deducciones razonables con base en sus conocimientos, cómo se originó la música, y cómo la hicieron los primeros músicos humanos. ¿Empezó con el canto o con el silbido? No lo sabemos, pero sí tenemos datos que indican que el arco y la flauta fueron probablemente los primeros instrumentos. En los yacimientos paleolíticos se han encontrado huesos con perforaciones que habitualmente se identifican como flautas. Pero la historia escrita de la música empieza hace apenas unos 4.000 años, en escritos cuneiformes de la ciudad de Ur y en los Samavedas de la India.

La música, que los expertos definen como una forma de expresión que utiliza el ordenamiento de sonidos y silencios en el tiempo, encontró a sus primeros estudiosos, por así decirlo, en la antigua Grecia. La enorme importancia de la música en la vida cotidiana de la Grecia clásica, su presencia documentada en festivales religiosos, bodas, banquetes y funerales, la existencia de músicos profesionales con gran relevancia social (como en la actualidad) hacía inevitable que fuera también asunto de las cavilaciones filosóficas y las averiguaciones de la ciencia primigenia.

Si tensamos una cuerda entre dos barras o puentes hasta que produzca un sonido, una nota musical, y diseñamos una forma de “detener” o pisar la cuerda (por ejemplo, usando un trozo de vidrio o metal, o los propios dedos) descubriremos que al pisar la cuerda a la mitad de su ongitud vibrante obtendremos un sonido similar al original, la misma nota, pero una octava más arriba. Si, en cambio, pisamos la cuerda en un punto a los 2/3 de su lingitud, obtendremos una nota armónica con la original, una quinta perfecta. Y si pisamos a los 3/4 de la cuerda obtendremos un intervalo musical de una cuarta perfecta con relación a la nota original, también armónica. La quinta y la cuarta perfectas siempre han sido las consonancias más importantes de la música occidental.

Esta relación matemática entre las notas musicales y su armonía (a diferencia de su “disonancia”, el sonido estridente de dos notas no armónicas tocadas al mismo tiempo) fue descubierta, se dice, por Pitágoras alrededor del año 5000 antes de la era común. De aquí los griegos concluyeron que la relación entre el número y las armonías podía extenderse a la totalidad del universo, que conceptuaban igualmente armonioso y ordenado como una lira. Pero aunque ello no fuese estrictamente cierto, la implicación matemática de la música quedó fijada para siempre, y se ha confirmado una y otra vez. El famoso libro Bach, Escher, Gödel del académico Douglas Hofstadter, es el estudio clásico de la autorreferencia, y para analizarla echa mano del teorema matemático de Gödel, la obra gráfica de Maurits Cornelius Escher y la música de Johann Sebastian Bach, con los cuales expone conceptos esenciales de las matemáticas, la simetría y la inteligencia.

Más allá de las matemáticas de la música, esta expresión artística es una de las más importantes para nosotros, al menos en la actualidad. La historia de la música está llena de avances, invenciones y desarrollos tecnológicos que en su momento han sido, todos, asombrosos. Por ejemplo, la aparición del piano, cambió toda la música. Hasta ese momento, las cuerdas de los instrumentos de teclado eran pulsadas y no golpeadas, de modo que no se podía modular el volumen de los clavecines y espinetas utilizados por entonces. A fines del siglo XVII, Bartolomeo Cristofori creó en padua el “arpicémbalo piano e forte”, que golpeaba las cuerdas con mazos de fieltro de modo proporcional a la fuerza ejercida sobre las teclas, piano (suave) y forte (fuerte). De ahí en adelante, gran esfuerzo se dedicó a perfeccionar el piano consiguiendo más potencia para las grandes salas de concierto.

A veces no es conocimiento común que muchos instrumentos han tenido inventores, como el saxofón (creado opr Adolphe Sax en 1841) y no sólo genios que los perfeccionaron como hicieron los Stradivari con el violín, utilizando técnicas que aún no se han conseguido reproducir del todo. No se conoce, ciertamente, al inventor del instrumento más común de nuestro tiempo, y esencial en la historia de España: la guitarra, que encuentra sus orígenes cuando menos 3.300 años atrás, en el grabado en piedra representando a un bardo hitita con algo que ya tiene las características de lo que llamamos guitarra, ese instrumento que tiene entre sus antecesores al sitar indio, la kithara griega, la cítara latina y la quítara árabe antes de adquirir su forma actual a fines del siglo XVIII. Sí tiene inventor, sin embargo, la guitarra eléctrica de cuerpo sólido, o inventores: el guitarrista Les Paul, que aún vive, y el inventor grecoestadounidense Clarence Leonidas Fender. Ambos nombres siguen identificando a los dos modelos más populares de guitarra eléctrica, los que hicieron posible la música rock y sus múltiples derivaciones.

La ciencia y la tecnología detrás de la música, de modernos desarrollos como el violín o la gaita eléctricos, tienen la enorme ventaja de que, para disfrutar de nuestra música, ni siquiera tenemos que estar conscientes de ellas, ni de las relaciones matemáticas que hacen que nos resulte agradable una melodía o una armonía.

La reproducción de la música

La reproducción mecánica permitió que la música se convirtiera en patrimonio de todos, todo el tiempo, una historia que comenzó con la invención del fonógrafo por parte de Thomas Alva Edison en 1877, siguió con la aparición del disco fonográfico de pasta o vinilo, la radiodifusión y la cinta magnetofónica y ha llegado a la delirante popularidad que tiene hoy la reproducción de la música digitalizada y su compresión para hacerla manejable según el protocolo de compresión MP3, tan popular que a veces olvidamos que apenas surgió a mediados de la década de 1990.

El vario contar del tiempo

Siempre hemos querido saber no sólo dónde estamos, sino cuándo, respecto del universo y de nosotros mismos. Pero un año no siempre ha durado un año.

Los ciclos que nos rodean captaron poderosamente captaron la atención de los seres humanos en los albores de la civilización. El día y la noche, las estaciones, los solsticios y equinoccios, el nacimiento y la muerte, la floración de las plantas, las mareas, las fases de la luna y otros.

Desde entonces, el hombre dedujo que el universo estaba sometido a un orden que podía comprenderse. Esta apreciación tenía sus propios peligros. De una parte, el hombre trató de encontrar orden y relación entre cosas que no los tenían. ¿Acaso no era posible que las entrañas de los animales tuvieran escrito de modo codificado el futuro del reino o el resultado de la próxima batalla? ¿Y la posición de las estrellas no podría indicar o causar que alguien se enamorara, triunfara en los negocios o se rompiera la nariz? Las supersticiones más diversas nacieron de este sueño de que todo estuviera interconectado de un modo predecible y comprensible. Es la llamada “magia representativa”, donde se espera que un hecho representado mágicamente, simbólicamente, como clavarle una aguja a un muñeco que representa a un enemigo, tenga el mismo efecto en la realidad.

De otra parte, estas mismas ideas de orden previsible provocaron el deseo humano de encontrar, de modo real y comprobable, las relaciones entre los distintos ciclos . La sucesión de acontecimientos en el sol y la luna, por ejemplo, debían tener alguna relación oculta, de modo que surgieron diversos intentos por conciliar el año solar y el año lunar, e incluso otros ciclos astronómicos diferentes. Éste es el origen de todos los calendarios humanos.

Uno de los calendarios más complicados de la antigüedad fue el maya, que es, de hecho, varios calendarios a la vez. Empieza con dos: el tzolkin, de 260 días, que regía el ceremonial religioso, con 20 meses de 13 días, y el haab, de 365 días, con 18 meses de 20 días y cinco días “sobrantes”. Al combinar, como ruedas dentadas, estos dos calendarios, se obtenía un ciclo mayor de 18.980 días, la “rueda calendárica” o siglo de 52 años presente en varias culturas mesoamericanas. Finalmente, los mayas tenían la “cuenta larga” de 5112 años, que partía del 11 de agosto del año 3114 del calendario gregoriano y terminará alrededor del 20 de diciembre de 2012, para reiniciarse al día siguiente. A estos calendarios se añadían la “Serie Lunar” de las fases de la luna y el “Ciclo de Venus” de 584 días, fundamentalmente astrológico.

El calendario hebreo, por su parte, es lunisolar, es decir, se basa en doce meses lunares de 29 o 30 días, intercalando un mes lunar adicional siete veces cada 49 años para no desfasarse demasiado del ciclo solar, y afirma iniciar su cuenta un año antes de la creación. Muy similar resulta, en su estructura, el calendario chino, con 12 meses lunares y un mes adicional cada dos o tres años, según determinadas reglas. Estas reglas no eran necesarias, sin embargo, para el abuelo del calendario gregoriano que empleamos en la actualidad: tenía un año de 12 meses lunares y se añadía por decreto un mes adicional cuando el desfase entre el año lunar y el solar era demasiado notable.

Los romanos tomaron y adaptaron su calendario del calendario lunar de los Griegos, con diez meses de 30 o 31 días para un año de 304 días y 61 días de invierno que quedaban fuera del calendario. Como primer año, eligieron el de la mítica fundación de Roma por parte de Rómulo y Remo. Para que todos los meses tuvieran días nones, lo que consideraban de buena suerte, Numa Pompilio añadió al final del año los meses de enero y febrero al final del año y cambió los días de cada mes para tener un año de 355, y sólo febrero tenía días pares: 28.

En el año 46 antes de Cristo según nuestro calendario, Julio César volvió a reformar el calendario, con 365 días y un año bisiesto cada cuatro años, en el que se añadía un día a febrero, y se determinó el 1º de enero como el comienzo del año, lo cual ya tiene un enorme parecido con nuestra cuenta de los días. Este calendario nació, al parecer, de la consulta con el astrónomo Sosígenes de Alejandría, conocedor del año tropical o año solar verdadero. El año juliano tenía así un promedio de 365 días y un cuarto de día, mucho más preciso que sus predecesores.

Sin embargo, el sistema de añadido de los días en años bisiestos no fue seguido con exactitud, de hecho, el que un año fuera o no bisiesto acabó siendo una decisión personal de sucesivos pontífices, y entre sus defectos de origen y el desorden de los bisiestos, el desfase entre el calendario y el año tropical se había vuelto problemático. Echando mano de un científico, el calabrés Aloysius Lilius, el papa Gregorio XIII promulgó el calendario gregoriano en 1582, con un sistema mucho más preciso de asignación de los años bisiestos de un modo complejo pero matemáticamente más exacto: “Todos los años divisibles entre 4 son bisiestos, excepto los que son exactamente divisibles entre 100; los años que marcan siglos que sean exactamente divisibles entre 400 siguen siendo bisiestos”.

La adopción del calendario gregoriano no fue inmediata salvo por España, Portugal, la Comunidad polaco-lituana y parte de Italia. Poco a poco, primero los países europeos y después el lejano oriente adoptaron este calendario como una representación adecuada del año, además de que unificaron los sistemas comerciales y las fechas históricas. Es bien conocido que Rusia no lo adoptó sino hasta después de la revolución soviética, de modo que el día siguiente al 31 de enero de 1918 (calendario juliano) fue el 14 de febrero. El último país en adoptarlo fue Turquía, bajo el mando modernizador de Kemal Ataturk, en 1926.

Sin embargo, en este muy preciso calendario tropical o solar, una serie de hechos nos recuerdan su origen lunar: las semanas de 7 días (duración de una fase lunar), los festejos de la Pascua y la Semana Santa (entre otras fechas litúrgicas), así como la Pascua Judía o el Año Nuevo Chino, se calculan según los antiguos calendarios lunisolares, aunque nunca se logró hacer coincidir, con precisión, el ciclo lunar y el del sol.

El problema del inicio


Dionisio el Exiguo calculó en Roma, por métodos que desconocemos, el año del nacimiento de Cristo, situándolo 525 años antes y propuso así una nueva forma de notación de los años en lugar de la que contaba por los años de reinado. La reforma se hizo popular al paso del tiempo y finalmente se adoptó hacia el siglo X. Hoy sabemos que, según los datos que tenemos, el nacimiento de Cristo, de ser un hecho histórico, pudo ocurrir en cualquier momento entre el 18 y el 4 antes de la era común. O sea que bien podríamos estar en el 2013 o incluso en el 2027.

El regreso de la superstición a Cuba

Campo de batalla de las propagandas en favor y en contra, el sistema médico cubano sigue siendo de un elevado nivel, hoy convertido en fuente de divisas y, desgraciadamente, en promotor de la superstición pseudomédica.

Como todo lo referente a Cuba, la situación de la medicina social de la isla es objeto de un debate más político que médico. Los más entusiastas de la revolución cubana insisten en un sistema de salud sin igual, gratuito, integral y de muy alta calidad. De otro lado, los enemigos de la revolución no sólo niegan el alcance social de la medicina cubana, sino que disputan su calidad y niegan cualquier valor a sus logros de los últimos 50 años.

Más allá de propagandas, existen contradicciones que deben evaluarse científica y médicamente. Cuba estableció desde 1959 un sólido sistema de salud para todos los habitantes, y centrado en una formación de máxima calidad para todos los profesionales de la atención a la salud. Dicho sistema fue, sin duda alguna, el más avanzado de América Latina en los años 60, 70 y 80.

En esta época, los ciudadanos cubanos tuvieron acceso a una atención que, en cualquier otro lugar del mundo, habría sido costosísima o inalcanzable. Y el gobierno cubano difundía sus logros educando, como hace hasta hoy, gratuitamente a médicos de numerosos países. De modo especial, los jóvenes de países ideológicamente identificados con Cuba, como los de Chile durante el gobierno de Salvador Allende, los de Nicaragua en los años posteriores a la caída del dictador Somoza o los venezolanos de hoy en día. Hoy, en Cuba, estudian medicina miles de alumnos de más 70 países tan diversos como Panamá, Cabo Verde, Timor Oriental o las Islas Salomón.

Gran parte de la excelente medicina social cubana se financiaba gracias a la Unión Soviética, y la caída de ésta implicó una crisis económica de la que la isla aún no se ha recuperado. Entre otras cosas, esto implicó un grave desabasto de medicamentos y materiales médico-quirúrgicos que ha afectado la calidad y el acceso a la atención del ciudadano cubano promedio.

La necesidad de divisas internacionalmente intercambiables (el peso cubano no lo es) llevó a que desde 1989 la medicina cubana se ofreciera al mercado internacional para que el gobierno cubano tuviera forma de adquirir insumos indispensables en el mercado internacional. Cuba ofrecía (y ofrece) atención médica del máximo nivel del mundo a un costo de entre 10% y 20% de lo que habría costado en un país capitalista. Esta atención a extranjeros ha llegado a ocupar el 60% de los recursos de diversas instalaciones sanitarias cubanas.

Simultáneamente, en Cuba se desarrollado una visión de la pseudomedicina como opción, prácticas charlatanescas y esotéricas resultado, en parte, de una reapropiación políticamente correcta de las tradiciones indígenas y afrocaribeñas que llevó a que, en 1993, Raúl Castro, como ministro de defensa y segundo secretario del Partido Comunista Cubano, oficializara la llamada “medicina natural y tradicional” (MNT) por medio de la directiva No. 18 al interior del ejército, que en 1995 fue sustituida por la directiva No. 26 para convertir a la MNT en práctica oficial y aceptada en Cuba. La MNT cubana adopta por igual el recetario herbolario tradicional que prácticas más extravagantes como la acupuntura, los quiromasajes, la fangoterapia y la homeopatía, y llegando incluso a propuestas absolutamente delirantes como la “piramidoterapia”.

La “piramidoterapia” es la creencia de que una pirámide con las proporciones de la Gran Pirámide de Keops en Giza atrae y acumula cierta “energía piramidal”. Esta supuesta “energía” no se ha definido en términos de sus características físicas, ni mucho menos se ha demostrado que exista, pero ello no ha sido óbice para que se postule que debajo de la figura geométrica mágica hay otra “antienergía” llamada “antipirámide”, y que ambas pueden ser almacenadas en agua que pasa a tener ciertas propiedades curativas aunque sea indistinguible del agua común.
El gran promotor de la “piramidoterapia” y la “magnetoterapia” en Cuba ha sido un personaje cercano a Raúl Castro, el Dr. Ulises Sosa Salinas, poseedor de numerosos cargos burocráticos y asociado a numerosos grupos y personajes del mundillo esotérico fuera de Cuba.

Cuando el propio gobierno, en la revista Web de los trabajadores cubanos, afirma que en 2004, en la provincia de Las Tunas, el 60% de los médicos (1.100) se dedicaban a la MNT y que con esta modalidad se “trató” a más de 632 mil pacientes, 40% del total en el año, se entiende que los cubanos están recibiendo, muy probablemente de buena fe, medicina de bajísimo nivel sólo por motivos económicos. Llama la atención, precisamente, que desde el propio Raúl Castro hasta las más diversas publicaciones insistan que no es “una alternativa ante la escasez de medicamentos industriales”, sino una serie de prácticas “científicas de probada eficacia en el mundo”, aunque no puedan sustentarlo con datos.

Como se señaló en el 1er taller "Pensamiento Racional y Pseudociencia", de la Universidad de La Habana, la Revista Cubana de Medicina General Integral ha publicado que las fresas de dentista se “autoafilan” bajo una pirámide, o que se puede “ahorrar energía” colocando el agua bajo una pirámide en vez de esterilizarla. Los participantes en el mencionado taller señalaron que ha resultado imposible publicar artículos críticos a la pseudomedicina en las revistas cubanas.

Aprovechando las creencias mágicas que también crecen en occidente, Cuba ha integrado la llamada “medicina alternativa” a su oferta turísticas, como es el caso de la “magnetoterapia” o tratamiento con imanes, que nunca ha demostrado tener ningún efecto en el cuerpo humano, pero que el sitio de turismo médico Cubamédica+com promueve como analgésico, antiinflamatorio, somnífero, tratamiento para la arteriosclerosis, para bajar de peso, como antibiótico y una serie de milagros adicionales.

No deja de ser dramático que un sistema de salud que fue admirable, movido por ideales de lo más nobles para servir a la población se vaya degradando en la forma de un sistema capaz de legitimar, sin bases científicas, afirmaciones que son no sólo irracionales, indemostrables y anticientíficas, sino profundamente peligrosas para sus víctimas.

Los peligros de la pseudomedicina


"Según referencias de algunos participantes, ciertos procederes ‘curativos’ no aprobados por el sistema de salud pública han sido seleccionados por algunos pacientes en detrimento de terapias convencionales de probada eficacia (como, por ejemplo, la hemodiálisis ó una operación de vesícula), con las correspondientes consecuencias negativas para la salud, e incluso para la vida”. Memorias del 1er taller "Pensamiento Racional y Pseudociencia", La Habana 2007.

Feliz Día del Sol Invicto

La fiesta central del cristianismo, la navidad, resulta ser una derivación de todas las fiesta que, antes de la era común, celebraban el solsticio de invierno como un acontecimiento astronómico esencial en la vida de los pueblos humanos.

Disco de plata dedicado al Sol Invicto. Arte romano
del siglo III. (Foto CC de
Marie-Lan Nguyen vía Wikimedia Commons)
Por un momento trate de no ser esa persona del siglo XXI, orgullosa de su consola de juegos, su móvil de última generación, su TDT y su ordenador. Imagínese como un humano de hace unos miles de años, que observa un extraño fenómeno cíclico: de pronto, los días son cada vez más largos, el sol está más tiempo por encima del horizonte y la noche dura menos, hasta que un día empieza a revertirse esta tendencia: el día decrece en duración y la noche va aumentando su duración, hasta que, un día, el ciclo vuelve a revertirse.

Parece claro que era natural que usted y sus compañeros de fatigas se alarmaran temiendo que el día siguiera acortándose hasta dejarnos sumidos en una noche eterna, y por tanto que encontraran motivo de celebración cuando el ciclo se invierte. Sobre todo porque le resulta evidente que mientras el día se va alargando hay más calor, la tierra tiene mejores frutos, hay caza abundante y el mundo reverdece, mientras que cuando el día se contrae viene el frío, incluso la nieve y el hielo, no hay frutas ni muchos alimentos verdes, la caza escasea.

Al no saber mucho de astronomía, el fenómeno del día después de la noche más larga bien podría interpretarse como un triunfo del sol contra la oscuridad, después de una larga lucha, prometiéndole a la tribu un año más de supervivencia, lo cual nunca es mala noticia.

Y ahora imagínese que alguien de la tribu, luego de mucho ver el cielo y mucho cavilar, anuncia que puede predecir, profetizar, adivinar, cuándo ocurrirán estos hechos: el día más largo (el solsticio de verano) y el más corto (el solsticio de invierno). Quizá ni siquiera haya contado los días, sólo ha observado que en la noche más larga, las tres estrellas del “cinturón de Orión” se alinean con la estrella más brillante del firmamento, Sirio, mostrando dónde saldrá el sol en el próximo amanecer.

Evidentemente, se podría creer que tal acucioso observador dispone de poderes mágicos, adivinatorios y extraterrenos. Pero también sería un hecho que su conocimiento le permitía al grupo planificar mejor sus actividades, prever exactamente cuándo comenzarían las lluvias, cuándo llegarían las manadas migratorias, cuándo era oportuno ir a recolectar a tal o cual zona del bosque.

Las distintas civilizaciones hicieron interpretaciones, muy similares, del solsticio de invierno. Agréguese a esto que la menor actividad agrícola y de caza de la tribu dejaba el tiempo necesario para el jolgorio, y que si las alacenas y graneros continuaban llenos se podía celebrar con una comilona porque pronto vendrían nuevos alimentos, y tiene todos los ingredientes necesarios para una fiesta.

Los japoneses del siglo VII celebraban el resurgimiento de la diosa solar Amaterasu. Los sámi, nativos de Finlandia, Suecia y Noruega, sacrificaban animales hembra y cubrían los postes de sus puertas con mantequilla para que Beiwe, la diosa del sol, se almentara y pudiera comenzar nuevamente su viaje. Para los zoroastrianos, en este “día del sol” el dios Ahura Mazda logra vencer al malvado Ahriman, empeñado en engañar a los humanos. Los incas de perú celebrabal el Festival del Sol o Inti Raymi, cuando “ataban” al sol para que no huyera. Los mayas realizaban cinco días de inactividad, días sin nombre, los Uayeb, cuando se unían el mundo real y el mundo espiritual, hasta que empezaba otro año.

En la Roma del siglo tercero de nuestra era, la celebración era del Dies Natalis Solis Invicti, “el día del nacimiento del sol invicto”, el renacimiento del sol.

Dado que la fecha de nacimiento de Jesucristo, Yeshua de Nazaret o el Mesías no está registrada, como tampoco lo está claramente su existencia individual, la iglesia católica tardó en definir la fecha de la festividad en cuestión. Entretanto, los cristianos de Roma empezaron a celebrar el nacimiento de Cristo precisamente el día del nacimiento del sol invicto, aunque había grupos, por ejemplo en Egipto, que lo celebraban el 6 de enero. Otros preferían el 28 de marzo, mientras que teólogos como Orígenes de Alejandría y Arnobius se oponían a toda celebración del nacimiento, afirmando que era absurdo pensar que los dioses nacen.

Las autoridades de la iglesia condenaron al principio esta celebración por considerarla pagana, pero pronto vieron que asimilar esta y otras fiestas, de distintos grupos que pretendían evangelizar, resultaba útil. Así, los días anteriores a Navidad, por decreto el 25 de diciembre, se convirtieron en fiestas que asimilaron la Saturnalia romana, del 17 al 23 de diciembre, con sus panes de dulce e intercambios de regalos.

Santa Claus (deformación lingüística de Saint Nicholas o Saint Nikolaus, San Nicolás) o Papá Noél proviene del Padre Navidad, que aparece hacia el siglo XVI como figura de las celebraciones de invierno del mundo anglosajón, de rojos carrillos por haber tomado quizá un vino de más, viejo como la fiesta misma y alegre como deben estar los celebrantes. La figura del Santa Claus moderno fue creada por el viñetista Thomas Nast en Estados Unidos en 1863, que convirió al delgaducho Padre Navidad en el redondo y feliz personaje que hoy está más o menos estandarizado en todo el mundo.

El árbol de Navidad, por su parte, parece tener raíces en la adoración druídica a los árboles y las celebraciones del invierno con árboles de hoja perenne, pero se identifica como parte de las fiestas, decorado y engalanado, apenas en el siglo XVII, en Alemania. Después, el marido de la Reina Victoria, el Príncipe Alberto, emprendería la tarea de popularizarlo en todo su imperio.

Más que el árbol de Navidad, claramente de origen protestante, el Belén, “pesebre” o “nacimiento” es el elemento identificador de la decoración en los países católicos. Fue primero promovido por San Francisco de Asís alrededor del 1220, a la vuelta de su viaje a Egipto y Acre, pero el primer Belén del tipo moderno, el que todos conocemos, se originó en uno que instalaron los Jesuitas en Praga, en 1562. La tradición del Belén llegó a España en el siglo XVIII desde Nápoles, traída al parecer por orden de Carlos III, decidido a que se popularizara en sus dominios.

Rosca de Reyes


Con raíces en los panes con higos, dátiles y miel que se repartían en la Saturnalia romana, ya en el siglo III se le introducía un haba o similar, y el que la hallaba era nombrado “rey de la fiesta”. Llegó a España probablemente con los soldados repatriados de Flandes y su relación con los reyes magos parece ser, únicamente, la similitud de su forma con una corona y de los frutos cristalizados con sus correspondientes joyas.

Diez libros para navidad

La ciencia de Leonardo, Fritjof Capra, Anagrama (Barcelona) 2008. Una nueva visita a los espacios del genio de Leonardo Da Vinci, visto en su faceta de pionero del método científico, de, en palabras del autor “padre no reconocido de la ciencia moderna”. Una primera parte dedicada a Leonardo, el hombre, que en muchos sentidos sigue atrayéndonos como misterio, se ve seguida de una segunda parte en la que Fritjof recorre el surgimiento de la ciencia en el Renacimiento y el papel jugado por el espíritu inquisitivo, curioso e irreverente de Leonardo, que con la mirada del artista va, nos dice el libro, más allá de Newton, Galileo y Descartes.

El cisne negro Nassim Nicholas Taleb, Paidós, (Barcelona) 2008. El autor, experto en matemáticas financieras y en la teoría de lo improbable, afirma que los sucesos altamente improbables (los “cisnes negros” como los que al ser hallados en Australia hicieron mentira la afirmación de “todos los cisnes son blancos”) juegan un papel mucho más importante en nuestra vida cotidiana, en asuntos tan diversos como las ciencias y las finanzas, del que hemos reconocido hasta ahora. El estudio de lo improbable, nos dice, pone a quien estudia lo “imposible” en posición privilegiada para enfrentar y manejar lo “posible”.

El científico rebelde, Freeman J. Dyson, Editorial Debate (Barcelona) 2008. Colección de ensayos publicada originalmente en 2006. El físico y matemático a más de activista por el desarme nuclear, contra el nacionalismo y por la cooperación internacional, resume en este volumen su visión de la ciencia como acto de rebelión “contra las restricciones impuestas por la cultura localmente prevaleciente”, pero sin dejar de contemplar a la ciencia como una actividad humana, con todas las virtudes y defectos de quienes la practican. El libro, antes que ofrecer respuestas cómodas, plantea al lector desafíos sobre el mundo que nos rodea.

Yo soy un extraño bucle, Douglas R. Hofstadter, Tusquets Editores (Barcelona) 2008. Hofstadter llegó al mundo de la filosofía de la ciencia como un ciclón con su libro Gödel, Escher, Bach, en el que exploraba el mundo de la autorreferencia en las matemáticas, el arte y la música. En este libro, no menos ambicioso, se ocupa de investigar si nuestra identidad, nuestra conciencia individual, surge de la simple materia hasta convertirse en un extraño bucle en el cerebro donde los símbolos y la realidad conviven e interactúan. Y al final presenta argumentos indudablemente originales sobre lo que es el “yo” de cada uno de nosotros.

El robot enamorado: una historia de la inteligencia artificial, Félix Ares, Ariel (Barcelona) 2008. Félix Ares, experto en informática y profesor universitario, nos lleva a un recorrido histórico que comienza con los autómatas de la realidad y la fantasía que surgen en la antigua Grecia y llega hasta las propuestas más audaces de nuestros días para llegar a la inteligencia artificial. En el proceso, el autor nos muestra cómo la idea de los ordenadores, computadoras y robots se ha integrado a la cultura popular, en la literatura, el cómic, el cine y la televisión, para dejar testimonio de lo que se está haciendo hoy en este terreno para muchos inquietante.

365 días para ser más culto, David S. Kidder, Noah S. Oppenheim, Ediciones Martínez Roca (Madrid) 2008. Una idea que puede cambiar al lector profundamente: 365 artículos sobre distintas ramas del conocimiento, cada uno escrito por un especialista en arte, ciencia, filosofía, etc. La idea es que usted lea uno al día durante un año. Cada uno se puede leer en cinco o diez minutos, y al final del ejercicio, si todo sale bien, será dueño de una cultura general envidiable. Como cualquier otro proyecto a largo plazo, sin embargo, probablemente requiere un compromiso personal que la mayoría de nosotros no puede asumir. Vale la pena intentarlo.

Un día en la vida del cuerpo humano, Jennifer Ackerman, Ariel (Barcelona) 2008. La autora, especialista en divulgación de la ciencia, nos lleva por un camino que va del despertar matutino a la “hora del lobo”. Mientras los medios de comunicación nos invitan a estar alertas a nuestro cuerpo, la realidad es que no ponen a nuestro alcance un conocimiento de cómo somos realmente, como funciona esa maquinaria que es cada uno de nosotros. Desde el hambre hasta el deseo sexual, desde los ritmos de nuestro reloj interno hasta los más recientes descubrimientos de la fisiología, es una oportunidad de introspección real.

Los 10 experimentos más hermosos de la ciencia, George Johnson, Ariel (Barcelona) 2008. La ciencia, ya sea vista desde fuera o como su practicante, no sólo tiene la enorme ventaja de ser comprobable, verdadera o ciertaen la medida en que tal vocablo tiene sentido. También es una experiencia profundamente estética, donde hay elegancia, belleza y fuentes para el asombro. Celebrado por su estilo, el autor, uno de los divulgadores científicos del New York Times, hace un homenaje a diez científicos y a sus experimentos, recordándonos que el pensamiento científico se cimenta, ante todo, sobre la experiencia y la práctica.

El corazón de la materia, Ignacio García Valiño, Random House Mondadori (Barcelona) 2008. Esta novela de reciente aparición, escrita por el psicólogo y divulgador científico Ignacio García Valiño, miembro del Círculo Escéptico, destaca por el rigor con el que aborda los muchos aspectos científicos de su trama. Desde su protagonista, un físico especializado en quarks, hasta la aventura tipo thriller en la que se embarca con elementos arqueológicos son objeto de cuidadosos retratos donde la intriga vive en el mundo del conocimiento y del pensamiento crítico como herramienta dramática, sin concesiones.

Ideas e inventos de un milenio: 900-1900, Javier Ordóñez, Lunwerg (Barcelona) 2008. La calidad de este volumen, ampliamente ilustrado, le da cierto carácter ideal para la temporada de fiestas. Javier Ordóñez, su autor, ha publicado previamente una Historia de la ciencia y un resumen de las teorías del universo en tres volúmenes, entre otras obras, y es catedrático de historia de la ciencia en la Universidad Autónoma de Madrid. Los inventos del milenio elegido para este recorrido son multitud y marcan un cambio en el camino de la humanidad más acusado, más definitivo, que ningún otro milenio en la historia. Aquí encontramos, ilustrados con material de sus respectivas épocas, esas ideas revolucionarias y esos inventos que dan testimonio de cómo la imaginación humana, actuando de la mano de la razón, produce resultados que han dado forma nueva a nuestro mundo, a nuestra visión del universo, a nuestro conocimiento de nosotros mismos, alterando no sólo lo aparentemente más trascendente, sino también actuando sobre nuestra cotidianidad, sobre el humilde día a día de la mujer y el hombre que hoy viven de un modo imaginable en el año 900. Desde esos productos de la pasión por saber que brillaron en la Edad Media y colaboraron a sentar las bases de la revolución científica del siglo XVI hasta los que anunciaron la revolución científica del siglo XX. La ciencia como propiedad de todos en un volumen de notable belleza.

Franklin: el americano ilustrado

Para la Europa del siglo XVIII la imagen de los Estados Unidos como nación ilustrada, democrática y libertaria se encarnaba en Benjamín Franklin, verdadero hombre del renacimiento entre los fundadores del nuevo país.

Menor de los hijos varones de la pareja formada por el fabricante de velas de sebo y jabón Josiah Franklin y Abiah Folger (octavo vástago de la pareja y decimoquinto de su padre, que había enviudado de su primera esposa), Benjamín Franklin estaba destinado por su padre a convertirse en ministro de la iglesia. Nacido el 17 de enero de 1706 en Boston, su educación formal terminó sin embargo a los 10 años, pues su familia no contaba con los medios de pagarle estudios.

Probablemente fue lo mejor para Franklin, para su país y para el mundo.

Franklin forjó su propia educación leyendo vorazmente. Después de un breve lapso como aprendiz renuente del oficio de su padre, su afición por la lectura pesó para que se le enviara a los 12 años a trabajar con su hermano mayor James, que ya estaba establecido como impresor, y con el que terminaría en un enfrentamiento debido al carácter autocrático del mayor y el espíritu independiente del menor. Franklin marchó a Filadelfia a los 18 años sin blanca ni planes claros.

Filadelfia, con la tolerancia religiosa y diversidad étnica del estado de Pennsylvania, casó bien con el espíritu del joven Franklin. Luego de trabajar en varias imprentas, el gobernador de Pennsylvania le ofreció apoyo para establecer su propia empresa, y lo envió a Londres a comprar una imprenta, pero sin proporcionarle dinero. En Londres, Franklin probó las virtudes y excesos de la vieja Europa, empleándose de nuevo con impresores, hasta que consigió volver a los 20 años.

Cuando consiguió establecer su propia imprenta editó el exitoso semanario The Pennsylvania Gazette y su famoso almanaque Poor Richard’s Almanack, libro anual que vio como una forma de educar a la ciudadanía. En 1736 se inició en política, donde creó un cuerpo de bomberos voluntarios, un orfanato y una lotería para financiar cañones que defendieran la ciudad, y propuso crear un colegio que hoy es la Universidad de Pennsylvania y el Hospital de Pennsylvania, el primero del nuevo país.

Fue a los 42 años, cuando su genio creador científico echó a volar, cuando pudo permitirse una jubilación temprana. Su diseño de la “estufa Franklin” mejoró la calefacción en la ciudad y redujo los riesgos de incendio de Filadelfia y marcó el inicio de su actividad en la ciencia.

Después de ver una serie de demostraciones sobre electricidad, especialmente la “botella de Leyden” y su espectacular capacidad de almacenar la electricidad estática, empezó sus experimentos con la electricidad. Fue el primero en sugerir que los rayos eran electricidad natural, para demostrar lo cual realizó experiencias con barras metálicas que conducían la electricidad de los rayos y que más adelante se convertirían en uno de los más perdurables inventos del todavía súbdito inglés: el pararrayos. En 1752, su famoso experimento con la cometa demostrando que el relámpago era, efectivamente, electricidad. El riesgo de ese experimento hace poco recomendable repetirlo. No era la primera vez en que Franklin cortejaba el desastre con sus experimentos: en una ocasión, intentando matar su pavo de Navidad con corriente eléctrica, estuvo a punto de electrocutarse al administrarse accidentalmente la carga.

Estos esfuerzos le valieron títulos honoríficos de Harvard, Yale y otros colegios universitarios, además de la medalla de oro de la Real Sociedad de Londres. Y mientras se ocupaba de la meteorología, proponiendo modelos para los sistemas tormentosos; de la medicina, inventando el catéter, y teorizando sobre la circulación de la sangre; de la agronomía buscando mejores técnicas para evitar el desperdicio de tierras arables e introduciendo la agricultura en el plan de estudios de la universidad de Pennsylvania, además de fundar la primera compañía de seguros contra incendios.

Franklin fue comisionado a ir a Inglaterra para negociar la situación de la colonia de Pennsylvania con los herederos de su fundador, William Penn. Aunque sus negociaciones fracasaron, la estancia de tres años le permitió, con más de 50 años, aprender a tocar el arpa, la guitarra y el violín, e inventar la armónica de cristal. Igualmente, observó que las tormentas no siempre viajan en la dirección de los vientos dominantes e hizo experimentos sobre el enfiamiento por evaporación.

A su regreso entró en franca colisión con los herederos de William Penn por su defensa de un grupo de indígenas americanos mientras los dueños de la colonia favorecían el genocidio como “solución” al problema de los indios. Franklin marchó de nuevo a Inglaterra para pedir a la corona británica su dominio directo sobre Pennsylvania sin la intervención de la familia Penn. El monarca se negó, pero Franklin se quedó como representante de las colonias y su oposición a los elevados impuestos fijados por la corona, y llegó a ser juzgado por incitar el naciente independismo. Volvió a América en 1775, como un independentista convencido.

A los 69 fue nombrado delegado ante el Segundo Congreso Continental, donde los líderes de las 13 colonias analizaron su futura relación con Gran Bretaña. Franklin propuso la unión de las colonias en una sola confederación nacional, que más tarde sería el modelo de la constitución estadounidense. El Congreso lo puso al frente de la organización de la defensa de las colonias y de un comité secreto encargado de las relaciones de los rebeldes con los países extranjeros. En 1776 fue uno de los encargados de redactar la Declaración de Independencia de Estados Unidos, y poco después partió de nuevo a Europa buscando aliados. En París, aquejado por sus problemas de la vista, inventó los anteojos bifocales.

Al volver en 1785 fue electo presidente del estado. Participó en el Congreso Constituyente que y sugirió que los estados europeos formaran una federación con un gobierno central, prefigurando la actual Unión Europea. Todavía tuvo tiempo de apoyar la Revolución Francesa y de convertirse en un activo opositor a la esclavitud antes de morir rodeado de sus nietos el 17 de abril de 1790 considerándose siempre, nada más, un hombre común, un ciudadano más de Filadelfia.

El odómetro y el mar


Uno de los más perdurables inventos de Franklin fue el odómetro. Como encargado de correos que fue creó el odómetro para diseñar las rutas de correo de los pueblos locales de Pennsylvania. Igual que los de hoy, su aparato calculaba la distancia recorrida contando las vueltas dadas por el eje de su carruaje. Su actividad postal lo llevó también a hacer las cartas de la Corriente del Golfo, a la que dio nombre.