Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Europa en el espacio en 2009

La Agencia Espacial Europea, el mayor esfuerzo cooperativo para la exploración del espacio enfrenta uno de sus años más activos y apasionantes.

Ante la carrera espacial emprendida por la Unión Soviética y los Estados Unidos como parte de la propaganda de la Guerra Fría, Europa se encontró ante el problema de no contar con los recursos, tanto económicos como humanos, para competir con las dos superpotencias, al tiempo que tenía la necesidad de no quedarse atrás en la exploración del espacio.

Después de que la URSS sorprendiera al mundo el 4 de octubre de 1957 con el lanzamiento del Sputnik, dos científicos europeos, los físicos Edoardo Amaldi, italiano, y Pierre Victor Auger, francés, decidieron convocar a científicos de ocho países para proponer la creación de una organización espacial de Europa Occidental para aprovechar los beneficios que claramente se derivarían del conocimiento del espacio. Las reuniones comenzaron en 1961 y en 1964 se fundaron oficialmente la ELDO, con la misión de desarrollar un sistema de lanzamiento, y la ESRO, organización europea de investigación espacial. Estas dos organizaciones se fusionaron en 1975 en la Agencia Espacial Europea, o ESA por sus siglas en inglés, que hoy cuenta con una flotilla de vehículos de lanzamiento utilizados para poner en órbita satélites y ha participado en la investigación del espacio y en la construcción de la Estación Espacial Internacional.

En este proyecto, que en muchas formas es el esfuerzo internacional más importante de la historia, donde se unen numerosos países, la ESA ha participado con 12 de sus 17 países miembros, contribuyendo con el módulo de laboratorio científico Columbus y el módulo de observatorio Cupola. Además, en 2008 puso en operación su vehículo de transferencia automatizado (ATV) “Jules Verne”, el transporte automático para reabastecer la Estación Espacial Internacional.

En 2009, los proyectos de la ESA son extremadamente ambiciosos.

Éste será el año en que se lance por primera vez el cohete Vega, destionado a poner en órbita cargas mucho más pequeñas que el Ariane 5 (de 1.5 toneladas métricas a una órbita de 700 km de altura). Las cargas pequeñas han tenido problemas para encontrar medios adecuados para colocarse en órbita, sobre todo cuando más países y universidades de todo el mundo están esforzándose por tener en órbita experimentos en espacios limitados y de pesos muy bajos para optimizar sus recursos. Vega es parte de la política que ha establecido Europa para tener “acceso garantizado” al espacio.

Igualmente, en el primer semestre del año se lanzará el observatorio espacial Herschel de la ESA, un gigantesco telescopio cuya observación en las bandas infrarroja y submilimétrica le permitirán ver a través del polvo que oculta las fases iniciales de la formación estelar y planetaria. Su espejo de 3.5 metros de diámetro es mayor que el del telescopio Hubble. Su objetivo es el estudio de la formación de galaxias en los inicios del universo y su evolución, la formación de estrellas y la composición química de las atmósferas y superficies de los cuerpos del Sistema Solar, además de analizar la química molecular de todo el universo.

Junto con el Herschell se lanzará el satélite Planck, un observatorio diseñado para estudiar la radiación cósmica de microondas de fondo, conocida como la “primera luz” del universo, el eco aún perceptible del Big Bang. El Planck estudiará así las diversas hipótesis sobre las primeras etapas del universo y el origen de la estructura que tiene el cosmos en la actualidad.

2009 marcará además una nueva etapa de la colaboración de la ESA con la organización espacial rusa, cuando los cohetes Soyuz empiecen a lanzarse desde el espaciopuerto europeo situado en Kourou, el la Guayana Francesa. La ubicación de este espaciopuerto se debe a que los cohetes lanzados desde puntos cercanos al ecuador reciben un impulso favorable de la rotación terrestre, de modo que los Soyuz lanzados desde Kourou tendrán mayor capacidad de carga que los que se lanzan desde el cosmódromo de Baikonur, en Kazajstán.

En mayo de 2009, el comandante belga de la ESA Frank de Winne partirá en su segundo viaje a la Estación Espacial Internacional, a la cual voló en 2002 como ingeniero de vuelo. En esta ocasión, viajará en una Soyuz TMA-15 y encabezará la expedición 21 de la Estación Espacial Internacional, de la que será el primer comandante europeo, durante un período de seis meses en el cual tendrá a su cargo una tripulación de cinco personas.

El programa Planeta Viviente de la ESA, que consta de seis misiones ya definidas y está abierto al desarrollo de nuevos proyectos, tiene por objeto la realización de observaciones de la Tierra que nos ayuden a comprender mejor nuestro planeta

El 11 de marzo, de no haber cambios, la ESA lanzará un satélite capaz de analizar el campo gravitacional de la Tierra y determinar con más precisión que nunca la forma exacta de nuestro planeta, el geoide, así como estudiar la velocidad y dirección de la circulación de las corrientes océanicas. Este satélite, denominado GOCE, será el primero de una serie de exploradores de la Tierra que la ESA pondrá en el espacio como parte de su programa Planeta Viviente.

El segundo satélite del programa es la misión Humedad del Suelo y Salinidad Oceánica, SMOS, previsto para el primer semestre del año, que observará la humedad del suelo en las masas terrestres del planeta y la salinidad de los océanos para ayudarnos a entender el ciclo del agua en la tierra y los patrones de circulación oceánica.

En junio se lanzará la misión de Dinámica Atmosférica Aeolus, el primer sistema capaz de realizar la observación del perfil de los vientos en todo el planeta y que proporcionará información fundamental para mejorar la previsión del tiempo. La idea es contar con observaciones que permitan a los científicos crear modelos complejos de nuestro medio ambiente para predecir mejor su comportamiento.

Finalmente, la misión Cryosat-2, que ocupa el lugar de la primera misión Cryosat destruida en su lanzamiento en 2005, tiene por objeto la observación del espesor de las masas de hielo en el mar y en los glaciares montañosos utilizando un altímetro de radar, algo de gran importancia para evaluar los efectos reales del cambio climático.

Los vuelos humanos


El éxito del ATV ha motivado que los países miembros de la ESA pongan en marcha los estudios para diseñar con base en el ATV una nave espacial logística capaz de llevar tripulantes a la Estación Espacial Internacional y traerlos de vuelta en lo que se conocería como el vehículo de reentrada avanzado (ARV). Este proyecto, así como el aún incipiente sueño de una misión europea tripulada a Marte, conforman los posibles pasos de los viajes espaciales tripulados de la agencia europea.

Los enemigos de Darwin

Charles Darwin
Los 150 años de la publicación de la obra fundamental de Darwin son también 150 años de debate, controversia y ataques por parte de ciertos sectores religiosos contra lo que la biología nos enseña.

La controversia vigente entre la visión religiosa de la vida y la explicación científica de su evolución era algo que Darwin esperaba, quizá no con la violencia que se dio. Cuatro días antes de que El origen de las especies por medio de la selección natural saliera a la venta, una reseña atacó a la obra por implicar que el hombre procedía de los monos, y por creer que el hombre “nació ayer y perecerá mañana”.

La idea de que las especies cambiaban al paso del tiempo estaba en ebullición en la primera mitad del siglo XIX. Ver, como Darwin, a las distintas especies de pinzones de las Galápagos, adaptadas a distintos nichos ecológicos y necesidades de la supervivencia, sugería que todos procedían de un ancestro común, y habían cambiado para adaptarse a distintos entornos.

La idea de la transmutación de las especies era rechazada por parte del estamento religioso y favorecida por los científicos. Pero aún podía ser aceptable en la visión religiosa. Leifchild, autor de la reseña contra Darwin, expresaba: ”¿Por qué construir otra teoría para excluir a la Deidad de los actos de creación renovados? ¿Por qué no admitir de una vez que las nuevas especies fueron introducidas por la energía Creadora del Omnipotente?”

Entonces, parte del enfrentamiento inicial no era la evolución en sí, sino que Darwin propusiera la selección natural como su motor y que afirmara que dicha selección natural actuaba sobre todos los seres vivos, incluido el ser humano. Pero las controversias e insatisfacciones sobre la obra del naturalista han cambiado a lo largo del tiempo. Hoy en día, el creacionismo religioso pone en duda la existencia misma de la evolución, además de debatir no el origen de las especies, sino el de la vida misma.

El debate disparado por la publicación del libro el 24 de noviembre de 1859 se animó con reseñas negativas no firmadas como la del Obispo de Oxford, Richard Wilberforce, o la que The Times publicaba apoyando a Darwin y cuyo autor no acreditado era Thomas H. Huxley, quien se ganaría el mote de “El Bulldog de Darwin” en un debate organizado por la Asociación Británica para el Avance de la Ciencia en el que participaron tanto el obispo Wilberforce como Huxley. Los argumentos de Wilberforce terminaron preguntando si Darwin se consideraba descendiente de un mono por parte de su padre o de su madre. Thomas Huxley aprovechó la oportunidad y respondió que él no se avergonzaría de tener como ancestro a un mono, pero sí le avergonzaría verse conectado a un hombre utilizaba mal sus grandes talentos para tratar de ocultar la verdad. El golpe de efecto fue enorme.

La confrontación de ciertas visiones religiosas con los descubrimientos de Darwin ha tenido su más aguda expresión en los Estados Unidos, logrando, por ejemplo, que el estado de Tennessee prohibiera en 1925 enseñar que el hombre procede de animales inferiores. Como protesta, el profesor de instituo John Scopes se hizo arrestar por enseñar la evolución del hombre y fue juzgado en el “Juicio Scopes” o “Juicio de los Monos” de 1926, donde el fiscal y enemigo de la evolución William Jennings Bryant se enfrentó al defensor Clarence Darrow.

Darrow llamó a Bryant como “testigo experto de la defensa”, una acción legal sin precedentes, para que ilustrara al tribunal sobre la historicidad de la Biblia. El enfrentamiento favoreció a Darrow aunque, en última instancia, Scopes perdiera el juicio porque, claramente, había violado una ley. El efecto dramático del juicio sería profundo en los Estados Unidos, llegando a ser dramatizado en el teatro y el cine como Heredarás el viento, película donde Spencer Tracy hace el papel del sosías de Darrow y Frederic March interpreta a William Jennings Bryant.

En Estados Unidos, la guerra de algunos fundamentalistas contra la enseñanza de la evolución continúa con especial fuerza, y se puede decir que los movimientos creacionistas de distintos países y religiones obtienen su impulso, así sea para diferenciarse de ellos, de los creacionismos estadounidenses. En el extremo de éstos encontramos la idea de la Tierra Joven, que acepta la Biblia verbatim afirmando que el universo fue creado hace alrededor de 6.000 años, con lo cual se opone a la biología evolutiva y también a la física y la cosmología, la geología, la paleontología y otras disciplinas.

La forma más reciente y conocida de creacionismo es el llamado “Diseño inteligente”, que afirma que la evolución no está dirigida por leyes naturales, sino que es “evidente” que las especies y ciertos órganos han sido diseñados por una “fuerza” inteligente que no suelen llamar directamente Dios para intentar presentarse como una alternativa respetable. Surgió fundamentalmente como reacción a los tribunales estadounidenses cuando prohibieron la enseñanza de la creación según los relatos religiosos como si fueran ciencia.

Aunque la comunidad científica claramente define a estos intentos como pseudocientíficos, han logrado tener cierta relevancia en debates al interior de los consejos escolares que controlan los planes de estudios de modo autónomo en ciudades, distritos escolares, estados o provincias de los Estados Unidos, intentando expulsar de las aulas los conceptos esenciales de la biología evolutiva y sustituirlos por enseñanzas religiosas que quizás estarían mejor en los espacios de la casa y la iglesia.

En todo caso, el profundo significado de la labor de Charles Darwin sigue demostrándose por la intensidad del debate. Darwin demostró contundentemente que el universo viviente es tan ordenado, tan sujeto a leyes y tan comprensible por medio de la ciencia como el universo de la química y la física, y que el hombre es parte de ese universo viviente sin ningún privilegio. Los 150 años transcurridos desde la publicación de El origen de las especies no han hecho sino confirmar estos hechos. Si Galileo demostró que la Tierra no es el centro del universo, Darwin demostró que el hombre no es sino parte de un todo viviente. Algunos no perdonan todavía a ninguno de estos dos pilares del conocimiento.

Otras religiones


El catolicismo evitó en general el enfrentamiento y guardó sus distancias respecto a Darwin, afirmando únicamente que el ser humano es una “creación especial” distinta del resto de los animales. Esta posición fue ratificada en 1996 por Juan Pablo II y el Vaticano sostiene que el creacionismo “no es ciencia”. Esta posición coincide curiosamente con la del judaísmo, que considera, en un breve resumen, que “si hay selección natural, es porque Dios la quiere”. Tanto en el mundo católico como en el judío, los adversarios de Darwin son una minoría.

Ciencia al estilo estadounidense

Uno de los líderes mundiales en producción de ciencia y tecnología, además de ser el país más poderoso en lo militar y económico, sigue respondiendo por la mayor parte de la investigación mundial.

59 premios Nobel de química otorgados a ciudadanos estadounidenses, 81 de física y 90 de medicina y fisiología dan testimonio de la preeminencia estadounidense en el conocimiento científico de este siglo. No todos estos científicos nacieron en Estados Unidos. Muchos fueron a ese país por muy diverswos motivos, políticos, filosóficos, económicos o académicos, atraídos por sus universidades, sus recursos para la investigación y una atmósfera no hostil en general a las tareas científicas, aunque en la sociedad estadounidense haya como contrapeso una actitud antiintelectual, de sospecha respecto de la ciencia y los científicos.

Los orígenes

Los colonos europeos que llegaron a lo que hoy son los Estados Unidos no sólo encontraron la libertad religiosa que anhelaban. Encontraron además una gran cantidad de espacio disponible, un bien escaso en Europa.

Para muchos estudiosos, la Peste Negra del siglo XIV, que acabó con entre el 30 y el 60% de la población europea, fue uno de los detonantes de la revolución científica que se haría evidente en la Europa del Renacimiento. El hecho de que el fervor religioso no hubiera podido contener el avance de la peste, abriendo la puerta a la razón por sobre la fe, la tierra que quedó disponible a la muerte de sus propietarios, el aumento del valor de la mano de obra por su súbita escasez, son algunos los elementos que dan sustento a esta interpretación. Y ni entonces ni después los europeos habían visto espacios libres tan vastos como los que de las nuevas tierras.

El grupo inicial de la colonia de Plymouth, Massachusets, era una congregación religiosa que consideraba irreconciliables sus diferencias con la iglesia anglicana oficial en Inglaterra y emigró primero a y posteriormente al nuevo mundo.

Esta colonización fue muy distinta de las conquistas tradicionales, que utilizaban la mano de obra de los habitantes subyugados. Los peregrinos ingleses no pensaban volver ricos y triunfadores, como esperaban hacerlo muchos españoles y portugueses, sino que habían iniciado un viaje sin retorno. En parte por ello, procedieron a desplazar y aniquilar a los habitantes originarios para tomar posesión plena de sus tierras sin incluirlos en su gran plan.

El aislamiento respecto de Europa, la falta de mano de obra y el espacio que permitía a cada familia tener tanta tierra como pudiera trabajar, fueron motores del desarrollo de tecnologías novedosas y de la rápida adopción de toda forma de mecanización o avance agrícola procedente de Europa, como fue el caso del taladro de semillas y las innovaciones en el arado introducidas por el británico Jethro Tull a principios del siglo XVIII.

Un país fundado por científicos

Dos de los hombres que fundaron Estados Unidos, que concibieron su independencia y su surgimiento según los ideales de la ilustración, eran, entre otras cosas, hombres de ciencia. Benjamín Franklin demostró que los relámpagos son una forma de electricidad y fue responsable de numerosos inventos como las gafas bifocales además de promover el sistema de bibliotecas públicas de las colonias, mientras que Thomas Jefferson, estudiante de la agricultura, llevó a América varios tipos de arroz, olivos y pastos. Otros científicos de las colonias británicas estuvieron implicados en la lucha por la independencia.

Esto se reflejó en la Constitución promulgada en 1787, que establece que el Congreso tendrá potestad, “para promover el avance de la ciencia y las artes útiles”. Esta disposición se reflejaría más adelante tanto en la Revolución Francesa de 1789 como en las constituciones de los países americanos que obtuvieron su independencia a principios del siglo XIX.

La ciencia y la tecnología se vieron estrechamente vinculadas a los avances económicos del nuevo país, lo que se ejemplifica en la invención del elevador de granos y el silo elevado de Oliver Evans, de mediados de la década de 1780, o la desmotadora de algodón de 1789. La fabricación de armas requirió generar conceptos como la división del trabajo, las piezas intercambiables y tornos capaces de hacer de modo repetible formas irregulares.

El siglo XIX

En el siglo XIX Europa conservó su liderazgo en la ciencia y la tecnología, tanto que fue en Inglaterra donde William Whewell acuñó precisamente el término “scientist” o científico. Pero en Estados Unidos empezaron a aparecer personajes dedicados a resolver tecnológicamente sus problemas peculiares, como Samuel Colt, inventor del revólver, Samuel Morse, creador del telégrafo que patentó en 1837 o Charles Goodyear, que descubrió la vulcanización del caucho.

No todos los avances tecnológicos estadounidenses eran de tanta entidad, y por ello llama la atención que un producto tan humilde como el alfiler de seguridad o imperdible, creado por el neoyorkino Walter Hunt en 1849, haya sobrevivido al telégrafo en cuanto a su utilización cotidiana continuada.

La gran mayoría de los científicos estadounidenses del siglo XIX son inventores, personajes eminentemente prácticos como Elisha Graves Otis, inventor del freno de seguridad de los elevadores que permitió que se construyeran edificios de gran altura o “rascacielos”. La teoría científica parecía ser, únicamente el trampolín para obtener aparatos, inventos, patentes, aplicaciones prácticas de éxito comercial que cambiaran la forma tradicional de hacer las cosas.

El epítome de este inventor es, sin duda alguna, Thomas Alva Edison, por su sistema, su capacidad empresarial (en ocasiones rayana en la deslealtad) y su productividad, merced a la cual al morir tenía a su nombre 1.093 patentes diversas en Estados Unidos, y otras en el Reino Unido, Francia y Alemania. Además de sus inventos más conocidos, como la bombilla eléctrica comercialmente viable, la distribución de la energía eléctrica o el fonógrafo, Edison realizó numerosas aportaciones en terrenos tan diversos como la electricidad, la minería y la labor científica en sí, al establecer el primer laboratorio científico destinado a la búsqueda de innovaciones, donde trabajaron numerosos científicos cuyos logros se patentarían siempre a nombre de Edison.

La inmigración científica

El vasto espacio libre de Estados Unidos permitió que el país se abriera, en distintos momentos, a movimientos migratorios para satisfacer su hambre de mano de obra y, también, de cerebros innovadores y originales. Así, cuando el químico inglés Robert Priestley, descubridor del oxígeno y perseguido político se refugió en el nuevo país en 1794, inició un flujo que aún no ha cesado.

El primer inmigrante científico famoso del siglo XIX es, probablemente, Alexander Graham Bell, inventor del teléfono, que llegó desde Escocia en 1872, mientras que Charles Steinmetz arribó procedente de Alemania en 1889 y posteriormente desarrollaría nuevos sistemas de corriente alterna.

Pero fue la llegada de Adolfo Hitler al poder en Alemania en 1933 la que produjo la mayor y probablemente más enriquecedora ola de inmigración científica a los Estados Unidos, teniendo como uno de sus primeros protagonistas a Albert Einstein. Con el apoyo del genio judío-austríaco, gran número de físicos teóricos alemanes, tanto de ascendencia judía como simples antinazis, abandonaron Alemania y otros países ocupados para ir a Estados Unidos, entre ellos el húngaro Edward Teller, que sería el principal arquitecto de la bomba atómica estadounidense, y el físico danés Niels Bohr. A ellos se unió el más importante teórico italiano de entonces, Enrico Fermi. A partir de este momento, el predominio de los Estados Unidos en los terrenos de la ciencia se volvió indiscutible y lo sigue siendo.

Antes y después de ese momento, sin embargo, el flujo de inteligencias extranjeras a los laboratorios y universidades estadounidenses nunca cesó, como lo ejemplifica en España el Premio Nobel de fisiología y medicina Severo Ochoa, que llegó a Estados Unidos en 1941 y se hizo ciudadano de ese país en 1956. Dado que era ciudadano estadounidense cuando se le concedió el Premio Nobel en 1959, él es uno de los 90 premios de su especialidad que se mencionan al inicio de este recorrido. La inmigración científica no sólo le ha aportado a los Estados Unidos el conocimiento y las patentes de numerosos hombres y mujeres, sino también el reconocimiento.

Las paradojas

Las paradojas de la actitud estadounidense hacia la ciencia están ejemplificadas por dos fenómenos que son expresión de conflictos recurrentes.

De una parte, los movimientos religiosos creacionistas que pretenden desvirtuar, cuando no expulsar de las aulas, los conocimientos reunidos por la biología evolutiva en los últimos 150 años porque consideran, basados en su interpretación literal de la Biblia, que contradicen la verdad revelada y por tanto deben ser combatidos e incluso prohibidos. Ejemplo temprano de esto fue el famoso Juicio Scopes de 1926, donde un profesor de instituto decidió desobedecer una ley que prohibía enseñar las teorías no bíblicas del origen de las especies en escuelas públicas. El caso dio origena una obra de teatro que fue llevada al cine con el título “Heredarás el viento”, con Spencer Tracy y Fredric March.

De otra parte, cuando las visiones de la ciencia se oponen al desarrollo económico y al bienestar de la industria y el comercio, suelen verse bajo asedio cuando no simplemente despreciadas. La negativa gubernamental y social a reconocer la relación que se había hallado entre el tabaco y el cáncer de pulmón, es uno de los más claros ejemplos, como lo ha sido recientemente la negativa de los presidentes William Clinton y George W. Bush de ratificar el Protocolo de Kyoto para la reducción de la emisión de gases de invernadero, y el movimiento ideológico que pretende negar sin someterla a análisis la observación científica de que existe un proceso de cambio climático y que la actividad del hombre a través de la emisión de gases de invernadero es al menos en parte uno de los factores que están provocando o acelerando dicho cambio.

Pero hay un tercer factor, un temor a “saber demasiado” y a “jugar a ser dios” que el científico, escritor e inmigrante Isaac Asimov caracterizó como “el complejo Frankenstein”, y que permea la cultura popular estadounidense, la máxima promotora de la idea del “genio malévolo” y el “científico loco” que generalmente quieren “apoderarse del mundo”. La caricatura de una parte revela percepciones sociales y de otra las refuerza, agudizando las contradicciones de la sociedad estadounidense ante la ciencia y los hombres y mujeres que la hacen.

El proyecto científico de Barack Obama

Uno de los aspectos que han identificado y destacado a Barack Obama es que cuenta con un programa claro en cuanto a la ciencia y su promoción. Es un hecho que pese a la preeminencia científica del país, los alumnos estadounidenses se desempeñan peor en asuntos científicos que la mayoría de los 57 países más desarrollados, situándose en 29º lugar en cuanto a ciencia y en 35º en matemáticas, muy por debajo de líderes como Finlandia, Corea, Japón, Liechtenstein y Holanda.

Ante ello, Obama ha planteado en su proyecto la necesidad de asegurarse de que todos los niños de las escuelas públicas estén equipados con las habilidades necesarias de ciencia, tecnología y matemáticas para tener éxito en la economía del siglo XXI. Se propone así fortalecer la educación matemática y científica en general, incentivar el aumento de titulaciones en ciencias e ingeniería y aumentar la presencia de las mujeres y las minorías étnicas en el mundo de la ciencia y la tecnología.

Pero la propuesta más revolucionaria de Barack Obama es, precisamente, la más solicitada por los científicos de todo el mundo a sus gobiernos: más recursos, más inversión que a la larga, sin duda alguna, redituará beneficios a los países que se comprometan con ella. En concreto, el presidente entrante propone duplicar el financiamiento de la federación para la investigación básica en ciencias.

Barack Obama se propone igualmente mantener a Internet como un espacio abierto y neutral, y aprovechar las nuevas tecnologías para “llevar al gobierno (de Estados Unidos) al siglo XXI” mediante el uso de la tecnología, obteniendo ahorros, mayor seguridad y mayor eficiencia echando mano de los elementos que ya están disponibles.

Pero, sobre todo, Barack Obama ha afirmado que “las buenas políticas en Washington dependen de sólidos consejos de los científicos e ingenieros del país”, y se ha comprometido a “restaurar el principio básico de que las decisiones de cobierno deberían basarse en la mejor evidencia científicamente válida que tengamos disponible y no en las predisposiciones ideológicas de funcionarios de dependencias o personas designadas políticamente”. De este principio, ciertamente, podrían beneficiarse numerosos gobiernos que cierran los ojos a los hechos para servir a sus convicciones, por irracionales que puedan resultar.

Estas propuestas le ganaron a Barack Obama el apoyo electoral de 60 científicos galardonados con el premio Nobel en la carrera electoral. Entre las muchas expresiones de idealismo y capacidad de soñar que evidentemente ha logrado despertar entre sus simpatizantes, ésta no es la menos importante, sobre todo porque el liderazgo de Estados Unidos y su fuerza política sin duda influirán en la forma en que otros gobiernos, sintonizados o no a la visión de Barack Obama, enfrenten sus propios problemas y necesidades en el terreno de la ciencia y la innovación.

La ciencia de la música

Códice Manesse de principios del
siglo XIV.
(D.P. vía Wikimedia Commons)
Quizás sea la forma artística más popular del tercer milenio, pero durante grandes períodos históricos la música estuvo recluida la mayor parte del tiempo en las fortalezas de los poderosos.

En esta era de MP3 y acceso inmediato a toda la música que nos complace, de conciertos para todos los gustos y de todos los precios, de bailes y fiestas con música, de flujo musical continuo en lugares públicos, de radio y televisión, con frecuencia olvidamos que esta pasión del ser humano por la música no siempre pudo satisfacerse.

Antes del siglo XX, la música era un acontecimiento infrecuente y, por lo mismo, muy bienvenido. Se podía escuchar en fiestas populares, en grandes acontecimientos de la comunidad o el estado nacional, o gracias a la ocasional llegada de un músico trashumante. Lo que quedaba como oportunidad de disfrutar música eran infrecuentes conciertos públicos y la música que cada cual se podía dar a sí mismo cantando o tocando algún instrumento en sus ratos libres.

Los paleoantropólogos sólo pueden imaginarse, haciendo deducciones razonables con base en sus conocimientos, cómo se originó la música, y cómo la hicieron los primeros músicos humanos. ¿Empezó con el canto o con el silbido? No lo sabemos, pero sí tenemos datos que indican que el arco y la flauta fueron probablemente los primeros instrumentos. En los yacimientos paleolíticos se han encontrado huesos con perforaciones que habitualmente se identifican como flautas. Pero la historia escrita de la música empieza hace apenas unos 4.000 años, en escritos cuneiformes de la ciudad de Ur y en los Samavedas de la India.

La música, que los expertos definen como una forma de expresión que utiliza el ordenamiento de sonidos y silencios en el tiempo, encontró a sus primeros estudiosos, por así decirlo, en la antigua Grecia. La enorme importancia de la música en la vida cotidiana de la Grecia clásica, su presencia documentada en festivales religiosos, bodas, banquetes y funerales, la existencia de músicos profesionales con gran relevancia social (como en la actualidad) hacía inevitable que fuera también asunto de las cavilaciones filosóficas y las averiguaciones de la ciencia primigenia.

Si tensamos una cuerda entre dos barras o puentes hasta que produzca un sonido, una nota musical, y diseñamos una forma de “detener” o pisar la cuerda (por ejemplo, usando un trozo de vidrio o metal, o los propios dedos) descubriremos que al pisar la cuerda a la mitad de su ongitud vibrante obtendremos un sonido similar al original, la misma nota, pero una octava más arriba. Si, en cambio, pisamos la cuerda en un punto a los 2/3 de su lingitud, obtendremos una nota armónica con la original, una quinta perfecta. Y si pisamos a los 3/4 de la cuerda obtendremos un intervalo musical de una cuarta perfecta con relación a la nota original, también armónica. La quinta y la cuarta perfectas siempre han sido las consonancias más importantes de la música occidental.

Esta relación matemática entre las notas musicales y su armonía (a diferencia de su “disonancia”, el sonido estridente de dos notas no armónicas tocadas al mismo tiempo) fue descubierta, se dice, por Pitágoras alrededor del año 5000 antes de la era común. De aquí los griegos concluyeron que la relación entre el número y las armonías podía extenderse a la totalidad del universo, que conceptuaban igualmente armonioso y ordenado como una lira. Pero aunque ello no fuese estrictamente cierto, la implicación matemática de la música quedó fijada para siempre, y se ha confirmado una y otra vez. El famoso libro Bach, Escher, Gödel del académico Douglas Hofstadter, es el estudio clásico de la autorreferencia, y para analizarla echa mano del teorema matemático de Gödel, la obra gráfica de Maurits Cornelius Escher y la música de Johann Sebastian Bach, con los cuales expone conceptos esenciales de las matemáticas, la simetría y la inteligencia.

Más allá de las matemáticas de la música, esta expresión artística es una de las más importantes para nosotros, al menos en la actualidad. La historia de la música está llena de avances, invenciones y desarrollos tecnológicos que en su momento han sido, todos, asombrosos. Por ejemplo, la aparición del piano, cambió toda la música. Hasta ese momento, las cuerdas de los instrumentos de teclado eran pulsadas y no golpeadas, de modo que no se podía modular el volumen de los clavecines y espinetas utilizados por entonces. A fines del siglo XVII, Bartolomeo Cristofori creó en padua el “arpicémbalo piano e forte”, que golpeaba las cuerdas con mazos de fieltro de modo proporcional a la fuerza ejercida sobre las teclas, piano (suave) y forte (fuerte). De ahí en adelante, gran esfuerzo se dedicó a perfeccionar el piano consiguiendo más potencia para las grandes salas de concierto.

A veces no es conocimiento común que muchos instrumentos han tenido inventores, como el saxofón (creado opr Adolphe Sax en 1841) y no sólo genios que los perfeccionaron como hicieron los Stradivari con el violín, utilizando técnicas que aún no se han conseguido reproducir del todo. No se conoce, ciertamente, al inventor del instrumento más común de nuestro tiempo, y esencial en la historia de España: la guitarra, que encuentra sus orígenes cuando menos 3.300 años atrás, en el grabado en piedra representando a un bardo hitita con algo que ya tiene las características de lo que llamamos guitarra, ese instrumento que tiene entre sus antecesores al sitar indio, la kithara griega, la cítara latina y la quítara árabe antes de adquirir su forma actual a fines del siglo XVIII. Sí tiene inventor, sin embargo, la guitarra eléctrica de cuerpo sólido, o inventores: el guitarrista Les Paul, que aún vive, y el inventor grecoestadounidense Clarence Leonidas Fender. Ambos nombres siguen identificando a los dos modelos más populares de guitarra eléctrica, los que hicieron posible la música rock y sus múltiples derivaciones.

La ciencia y la tecnología detrás de la música, de modernos desarrollos como el violín o la gaita eléctricos, tienen la enorme ventaja de que, para disfrutar de nuestra música, ni siquiera tenemos que estar conscientes de ellas, ni de las relaciones matemáticas que hacen que nos resulte agradable una melodía o una armonía.

La reproducción de la música

La reproducción mecánica permitió que la música se convirtiera en patrimonio de todos, todo el tiempo, una historia que comenzó con la invención del fonógrafo por parte de Thomas Alva Edison en 1877, siguió con la aparición del disco fonográfico de pasta o vinilo, la radiodifusión y la cinta magnetofónica y ha llegado a la delirante popularidad que tiene hoy la reproducción de la música digitalizada y su compresión para hacerla manejable según el protocolo de compresión MP3, tan popular que a veces olvidamos que apenas surgió a mediados de la década de 1990.

El vario contar del tiempo

Siempre hemos querido saber no sólo dónde estamos, sino cuándo, respecto del universo y de nosotros mismos. Pero un año no siempre ha durado un año.

Los ciclos que nos rodean captaron poderosamente captaron la atención de los seres humanos en los albores de la civilización. El día y la noche, las estaciones, los solsticios y equinoccios, el nacimiento y la muerte, la floración de las plantas, las mareas, las fases de la luna y otros.

Desde entonces, el hombre dedujo que el universo estaba sometido a un orden que podía comprenderse. Esta apreciación tenía sus propios peligros. De una parte, el hombre trató de encontrar orden y relación entre cosas que no los tenían. ¿Acaso no era posible que las entrañas de los animales tuvieran escrito de modo codificado el futuro del reino o el resultado de la próxima batalla? ¿Y la posición de las estrellas no podría indicar o causar que alguien se enamorara, triunfara en los negocios o se rompiera la nariz? Las supersticiones más diversas nacieron de este sueño de que todo estuviera interconectado de un modo predecible y comprensible. Es la llamada “magia representativa”, donde se espera que un hecho representado mágicamente, simbólicamente, como clavarle una aguja a un muñeco que representa a un enemigo, tenga el mismo efecto en la realidad.

De otra parte, estas mismas ideas de orden previsible provocaron el deseo humano de encontrar, de modo real y comprobable, las relaciones entre los distintos ciclos . La sucesión de acontecimientos en el sol y la luna, por ejemplo, debían tener alguna relación oculta, de modo que surgieron diversos intentos por conciliar el año solar y el año lunar, e incluso otros ciclos astronómicos diferentes. Éste es el origen de todos los calendarios humanos.

Uno de los calendarios más complicados de la antigüedad fue el maya, que es, de hecho, varios calendarios a la vez. Empieza con dos: el tzolkin, de 260 días, que regía el ceremonial religioso, con 20 meses de 13 días, y el haab, de 365 días, con 18 meses de 20 días y cinco días “sobrantes”. Al combinar, como ruedas dentadas, estos dos calendarios, se obtenía un ciclo mayor de 18.980 días, la “rueda calendárica” o siglo de 52 años presente en varias culturas mesoamericanas. Finalmente, los mayas tenían la “cuenta larga” de 5112 años, que partía del 11 de agosto del año 3114 del calendario gregoriano y terminará alrededor del 20 de diciembre de 2012, para reiniciarse al día siguiente. A estos calendarios se añadían la “Serie Lunar” de las fases de la luna y el “Ciclo de Venus” de 584 días, fundamentalmente astrológico.

El calendario hebreo, por su parte, es lunisolar, es decir, se basa en doce meses lunares de 29 o 30 días, intercalando un mes lunar adicional siete veces cada 49 años para no desfasarse demasiado del ciclo solar, y afirma iniciar su cuenta un año antes de la creación. Muy similar resulta, en su estructura, el calendario chino, con 12 meses lunares y un mes adicional cada dos o tres años, según determinadas reglas. Estas reglas no eran necesarias, sin embargo, para el abuelo del calendario gregoriano que empleamos en la actualidad: tenía un año de 12 meses lunares y se añadía por decreto un mes adicional cuando el desfase entre el año lunar y el solar era demasiado notable.

Los romanos tomaron y adaptaron su calendario del calendario lunar de los Griegos, con diez meses de 30 o 31 días para un año de 304 días y 61 días de invierno que quedaban fuera del calendario. Como primer año, eligieron el de la mítica fundación de Roma por parte de Rómulo y Remo. Para que todos los meses tuvieran días nones, lo que consideraban de buena suerte, Numa Pompilio añadió al final del año los meses de enero y febrero al final del año y cambió los días de cada mes para tener un año de 355, y sólo febrero tenía días pares: 28.

En el año 46 antes de Cristo según nuestro calendario, Julio César volvió a reformar el calendario, con 365 días y un año bisiesto cada cuatro años, en el que se añadía un día a febrero, y se determinó el 1º de enero como el comienzo del año, lo cual ya tiene un enorme parecido con nuestra cuenta de los días. Este calendario nació, al parecer, de la consulta con el astrónomo Sosígenes de Alejandría, conocedor del año tropical o año solar verdadero. El año juliano tenía así un promedio de 365 días y un cuarto de día, mucho más preciso que sus predecesores.

Sin embargo, el sistema de añadido de los días en años bisiestos no fue seguido con exactitud, de hecho, el que un año fuera o no bisiesto acabó siendo una decisión personal de sucesivos pontífices, y entre sus defectos de origen y el desorden de los bisiestos, el desfase entre el calendario y el año tropical se había vuelto problemático. Echando mano de un científico, el calabrés Aloysius Lilius, el papa Gregorio XIII promulgó el calendario gregoriano en 1582, con un sistema mucho más preciso de asignación de los años bisiestos de un modo complejo pero matemáticamente más exacto: “Todos los años divisibles entre 4 son bisiestos, excepto los que son exactamente divisibles entre 100; los años que marcan siglos que sean exactamente divisibles entre 400 siguen siendo bisiestos”.

La adopción del calendario gregoriano no fue inmediata salvo por España, Portugal, la Comunidad polaco-lituana y parte de Italia. Poco a poco, primero los países europeos y después el lejano oriente adoptaron este calendario como una representación adecuada del año, además de que unificaron los sistemas comerciales y las fechas históricas. Es bien conocido que Rusia no lo adoptó sino hasta después de la revolución soviética, de modo que el día siguiente al 31 de enero de 1918 (calendario juliano) fue el 14 de febrero. El último país en adoptarlo fue Turquía, bajo el mando modernizador de Kemal Ataturk, en 1926.

Sin embargo, en este muy preciso calendario tropical o solar, una serie de hechos nos recuerdan su origen lunar: las semanas de 7 días (duración de una fase lunar), los festejos de la Pascua y la Semana Santa (entre otras fechas litúrgicas), así como la Pascua Judía o el Año Nuevo Chino, se calculan según los antiguos calendarios lunisolares, aunque nunca se logró hacer coincidir, con precisión, el ciclo lunar y el del sol.

El problema del inicio


Dionisio el Exiguo calculó en Roma, por métodos que desconocemos, el año del nacimiento de Cristo, situándolo 525 años antes y propuso así una nueva forma de notación de los años en lugar de la que contaba por los años de reinado. La reforma se hizo popular al paso del tiempo y finalmente se adoptó hacia el siglo X. Hoy sabemos que, según los datos que tenemos, el nacimiento de Cristo, de ser un hecho histórico, pudo ocurrir en cualquier momento entre el 18 y el 4 antes de la era común. O sea que bien podríamos estar en el 2013 o incluso en el 2027.

El regreso de la superstición a Cuba

Campo de batalla de las propagandas en favor y en contra, el sistema médico cubano sigue siendo de un elevado nivel, hoy convertido en fuente de divisas y, desgraciadamente, en promotor de la superstición pseudomédica.

Como todo lo referente a Cuba, la situación de la medicina social de la isla es objeto de un debate más político que médico. Los más entusiastas de la revolución cubana insisten en un sistema de salud sin igual, gratuito, integral y de muy alta calidad. De otro lado, los enemigos de la revolución no sólo niegan el alcance social de la medicina cubana, sino que disputan su calidad y niegan cualquier valor a sus logros de los últimos 50 años.

Más allá de propagandas, existen contradicciones que deben evaluarse científica y médicamente. Cuba estableció desde 1959 un sólido sistema de salud para todos los habitantes, y centrado en una formación de máxima calidad para todos los profesionales de la atención a la salud. Dicho sistema fue, sin duda alguna, el más avanzado de América Latina en los años 60, 70 y 80.

En esta época, los ciudadanos cubanos tuvieron acceso a una atención que, en cualquier otro lugar del mundo, habría sido costosísima o inalcanzable. Y el gobierno cubano difundía sus logros educando, como hace hasta hoy, gratuitamente a médicos de numerosos países. De modo especial, los jóvenes de países ideológicamente identificados con Cuba, como los de Chile durante el gobierno de Salvador Allende, los de Nicaragua en los años posteriores a la caída del dictador Somoza o los venezolanos de hoy en día. Hoy, en Cuba, estudian medicina miles de alumnos de más 70 países tan diversos como Panamá, Cabo Verde, Timor Oriental o las Islas Salomón.

Gran parte de la excelente medicina social cubana se financiaba gracias a la Unión Soviética, y la caída de ésta implicó una crisis económica de la que la isla aún no se ha recuperado. Entre otras cosas, esto implicó un grave desabasto de medicamentos y materiales médico-quirúrgicos que ha afectado la calidad y el acceso a la atención del ciudadano cubano promedio.

La necesidad de divisas internacionalmente intercambiables (el peso cubano no lo es) llevó a que desde 1989 la medicina cubana se ofreciera al mercado internacional para que el gobierno cubano tuviera forma de adquirir insumos indispensables en el mercado internacional. Cuba ofrecía (y ofrece) atención médica del máximo nivel del mundo a un costo de entre 10% y 20% de lo que habría costado en un país capitalista. Esta atención a extranjeros ha llegado a ocupar el 60% de los recursos de diversas instalaciones sanitarias cubanas.

Simultáneamente, en Cuba se desarrollado una visión de la pseudomedicina como opción, prácticas charlatanescas y esotéricas resultado, en parte, de una reapropiación políticamente correcta de las tradiciones indígenas y afrocaribeñas que llevó a que, en 1993, Raúl Castro, como ministro de defensa y segundo secretario del Partido Comunista Cubano, oficializara la llamada “medicina natural y tradicional” (MNT) por medio de la directiva No. 18 al interior del ejército, que en 1995 fue sustituida por la directiva No. 26 para convertir a la MNT en práctica oficial y aceptada en Cuba. La MNT cubana adopta por igual el recetario herbolario tradicional que prácticas más extravagantes como la acupuntura, los quiromasajes, la fangoterapia y la homeopatía, y llegando incluso a propuestas absolutamente delirantes como la “piramidoterapia”.

La “piramidoterapia” es la creencia de que una pirámide con las proporciones de la Gran Pirámide de Keops en Giza atrae y acumula cierta “energía piramidal”. Esta supuesta “energía” no se ha definido en términos de sus características físicas, ni mucho menos se ha demostrado que exista, pero ello no ha sido óbice para que se postule que debajo de la figura geométrica mágica hay otra “antienergía” llamada “antipirámide”, y que ambas pueden ser almacenadas en agua que pasa a tener ciertas propiedades curativas aunque sea indistinguible del agua común.
El gran promotor de la “piramidoterapia” y la “magnetoterapia” en Cuba ha sido un personaje cercano a Raúl Castro, el Dr. Ulises Sosa Salinas, poseedor de numerosos cargos burocráticos y asociado a numerosos grupos y personajes del mundillo esotérico fuera de Cuba.

Cuando el propio gobierno, en la revista Web de los trabajadores cubanos, afirma que en 2004, en la provincia de Las Tunas, el 60% de los médicos (1.100) se dedicaban a la MNT y que con esta modalidad se “trató” a más de 632 mil pacientes, 40% del total en el año, se entiende que los cubanos están recibiendo, muy probablemente de buena fe, medicina de bajísimo nivel sólo por motivos económicos. Llama la atención, precisamente, que desde el propio Raúl Castro hasta las más diversas publicaciones insistan que no es “una alternativa ante la escasez de medicamentos industriales”, sino una serie de prácticas “científicas de probada eficacia en el mundo”, aunque no puedan sustentarlo con datos.

Como se señaló en el 1er taller "Pensamiento Racional y Pseudociencia", de la Universidad de La Habana, la Revista Cubana de Medicina General Integral ha publicado que las fresas de dentista se “autoafilan” bajo una pirámide, o que se puede “ahorrar energía” colocando el agua bajo una pirámide en vez de esterilizarla. Los participantes en el mencionado taller señalaron que ha resultado imposible publicar artículos críticos a la pseudomedicina en las revistas cubanas.

Aprovechando las creencias mágicas que también crecen en occidente, Cuba ha integrado la llamada “medicina alternativa” a su oferta turísticas, como es el caso de la “magnetoterapia” o tratamiento con imanes, que nunca ha demostrado tener ningún efecto en el cuerpo humano, pero que el sitio de turismo médico Cubamédica+com promueve como analgésico, antiinflamatorio, somnífero, tratamiento para la arteriosclerosis, para bajar de peso, como antibiótico y una serie de milagros adicionales.

No deja de ser dramático que un sistema de salud que fue admirable, movido por ideales de lo más nobles para servir a la población se vaya degradando en la forma de un sistema capaz de legitimar, sin bases científicas, afirmaciones que son no sólo irracionales, indemostrables y anticientíficas, sino profundamente peligrosas para sus víctimas.

Los peligros de la pseudomedicina


"Según referencias de algunos participantes, ciertos procederes ‘curativos’ no aprobados por el sistema de salud pública han sido seleccionados por algunos pacientes en detrimento de terapias convencionales de probada eficacia (como, por ejemplo, la hemodiálisis ó una operación de vesícula), con las correspondientes consecuencias negativas para la salud, e incluso para la vida”. Memorias del 1er taller "Pensamiento Racional y Pseudociencia", La Habana 2007.

Feliz Día del Sol Invicto

La fiesta central del cristianismo, la navidad, resulta ser una derivación de todas las fiesta que, antes de la era común, celebraban el solsticio de invierno como un acontecimiento astronómico esencial en la vida de los pueblos humanos.

Disco de plata dedicado al Sol Invicto. Arte romano
del siglo III. (Foto CC de
Marie-Lan Nguyen vía Wikimedia Commons)
Por un momento trate de no ser esa persona del siglo XXI, orgullosa de su consola de juegos, su móvil de última generación, su TDT y su ordenador. Imagínese como un humano de hace unos miles de años, que observa un extraño fenómeno cíclico: de pronto, los días son cada vez más largos, el sol está más tiempo por encima del horizonte y la noche dura menos, hasta que un día empieza a revertirse esta tendencia: el día decrece en duración y la noche va aumentando su duración, hasta que, un día, el ciclo vuelve a revertirse.

Parece claro que era natural que usted y sus compañeros de fatigas se alarmaran temiendo que el día siguiera acortándose hasta dejarnos sumidos en una noche eterna, y por tanto que encontraran motivo de celebración cuando el ciclo se invierte. Sobre todo porque le resulta evidente que mientras el día se va alargando hay más calor, la tierra tiene mejores frutos, hay caza abundante y el mundo reverdece, mientras que cuando el día se contrae viene el frío, incluso la nieve y el hielo, no hay frutas ni muchos alimentos verdes, la caza escasea.

Al no saber mucho de astronomía, el fenómeno del día después de la noche más larga bien podría interpretarse como un triunfo del sol contra la oscuridad, después de una larga lucha, prometiéndole a la tribu un año más de supervivencia, lo cual nunca es mala noticia.

Y ahora imagínese que alguien de la tribu, luego de mucho ver el cielo y mucho cavilar, anuncia que puede predecir, profetizar, adivinar, cuándo ocurrirán estos hechos: el día más largo (el solsticio de verano) y el más corto (el solsticio de invierno). Quizá ni siquiera haya contado los días, sólo ha observado que en la noche más larga, las tres estrellas del “cinturón de Orión” se alinean con la estrella más brillante del firmamento, Sirio, mostrando dónde saldrá el sol en el próximo amanecer.

Evidentemente, se podría creer que tal acucioso observador dispone de poderes mágicos, adivinatorios y extraterrenos. Pero también sería un hecho que su conocimiento le permitía al grupo planificar mejor sus actividades, prever exactamente cuándo comenzarían las lluvias, cuándo llegarían las manadas migratorias, cuándo era oportuno ir a recolectar a tal o cual zona del bosque.

Las distintas civilizaciones hicieron interpretaciones, muy similares, del solsticio de invierno. Agréguese a esto que la menor actividad agrícola y de caza de la tribu dejaba el tiempo necesario para el jolgorio, y que si las alacenas y graneros continuaban llenos se podía celebrar con una comilona porque pronto vendrían nuevos alimentos, y tiene todos los ingredientes necesarios para una fiesta.

Los japoneses del siglo VII celebraban el resurgimiento de la diosa solar Amaterasu. Los sámi, nativos de Finlandia, Suecia y Noruega, sacrificaban animales hembra y cubrían los postes de sus puertas con mantequilla para que Beiwe, la diosa del sol, se almentara y pudiera comenzar nuevamente su viaje. Para los zoroastrianos, en este “día del sol” el dios Ahura Mazda logra vencer al malvado Ahriman, empeñado en engañar a los humanos. Los incas de perú celebrabal el Festival del Sol o Inti Raymi, cuando “ataban” al sol para que no huyera. Los mayas realizaban cinco días de inactividad, días sin nombre, los Uayeb, cuando se unían el mundo real y el mundo espiritual, hasta que empezaba otro año.

En la Roma del siglo tercero de nuestra era, la celebración era del Dies Natalis Solis Invicti, “el día del nacimiento del sol invicto”, el renacimiento del sol.

Dado que la fecha de nacimiento de Jesucristo, Yeshua de Nazaret o el Mesías no está registrada, como tampoco lo está claramente su existencia individual, la iglesia católica tardó en definir la fecha de la festividad en cuestión. Entretanto, los cristianos de Roma empezaron a celebrar el nacimiento de Cristo precisamente el día del nacimiento del sol invicto, aunque había grupos, por ejemplo en Egipto, que lo celebraban el 6 de enero. Otros preferían el 28 de marzo, mientras que teólogos como Orígenes de Alejandría y Arnobius se oponían a toda celebración del nacimiento, afirmando que era absurdo pensar que los dioses nacen.

Las autoridades de la iglesia condenaron al principio esta celebración por considerarla pagana, pero pronto vieron que asimilar esta y otras fiestas, de distintos grupos que pretendían evangelizar, resultaba útil. Así, los días anteriores a Navidad, por decreto el 25 de diciembre, se convirtieron en fiestas que asimilaron la Saturnalia romana, del 17 al 23 de diciembre, con sus panes de dulce e intercambios de regalos.

Santa Claus (deformación lingüística de Saint Nicholas o Saint Nikolaus, San Nicolás) o Papá Noél proviene del Padre Navidad, que aparece hacia el siglo XVI como figura de las celebraciones de invierno del mundo anglosajón, de rojos carrillos por haber tomado quizá un vino de más, viejo como la fiesta misma y alegre como deben estar los celebrantes. La figura del Santa Claus moderno fue creada por el viñetista Thomas Nast en Estados Unidos en 1863, que convirió al delgaducho Padre Navidad en el redondo y feliz personaje que hoy está más o menos estandarizado en todo el mundo.

El árbol de Navidad, por su parte, parece tener raíces en la adoración druídica a los árboles y las celebraciones del invierno con árboles de hoja perenne, pero se identifica como parte de las fiestas, decorado y engalanado, apenas en el siglo XVII, en Alemania. Después, el marido de la Reina Victoria, el Príncipe Alberto, emprendería la tarea de popularizarlo en todo su imperio.

Más que el árbol de Navidad, claramente de origen protestante, el Belén, “pesebre” o “nacimiento” es el elemento identificador de la decoración en los países católicos. Fue primero promovido por San Francisco de Asís alrededor del 1220, a la vuelta de su viaje a Egipto y Acre, pero el primer Belén del tipo moderno, el que todos conocemos, se originó en uno que instalaron los Jesuitas en Praga, en 1562. La tradición del Belén llegó a España en el siglo XVIII desde Nápoles, traída al parecer por orden de Carlos III, decidido a que se popularizara en sus dominios.

Rosca de Reyes


Con raíces en los panes con higos, dátiles y miel que se repartían en la Saturnalia romana, ya en el siglo III se le introducía un haba o similar, y el que la hallaba era nombrado “rey de la fiesta”. Llegó a España probablemente con los soldados repatriados de Flandes y su relación con los reyes magos parece ser, únicamente, la similitud de su forma con una corona y de los frutos cristalizados con sus correspondientes joyas.

Diez libros para navidad

La ciencia de Leonardo, Fritjof Capra, Anagrama (Barcelona) 2008. Una nueva visita a los espacios del genio de Leonardo Da Vinci, visto en su faceta de pionero del método científico, de, en palabras del autor “padre no reconocido de la ciencia moderna”. Una primera parte dedicada a Leonardo, el hombre, que en muchos sentidos sigue atrayéndonos como misterio, se ve seguida de una segunda parte en la que Fritjof recorre el surgimiento de la ciencia en el Renacimiento y el papel jugado por el espíritu inquisitivo, curioso e irreverente de Leonardo, que con la mirada del artista va, nos dice el libro, más allá de Newton, Galileo y Descartes.

El cisne negro Nassim Nicholas Taleb, Paidós, (Barcelona) 2008. El autor, experto en matemáticas financieras y en la teoría de lo improbable, afirma que los sucesos altamente improbables (los “cisnes negros” como los que al ser hallados en Australia hicieron mentira la afirmación de “todos los cisnes son blancos”) juegan un papel mucho más importante en nuestra vida cotidiana, en asuntos tan diversos como las ciencias y las finanzas, del que hemos reconocido hasta ahora. El estudio de lo improbable, nos dice, pone a quien estudia lo “imposible” en posición privilegiada para enfrentar y manejar lo “posible”.

El científico rebelde, Freeman J. Dyson, Editorial Debate (Barcelona) 2008. Colección de ensayos publicada originalmente en 2006. El físico y matemático a más de activista por el desarme nuclear, contra el nacionalismo y por la cooperación internacional, resume en este volumen su visión de la ciencia como acto de rebelión “contra las restricciones impuestas por la cultura localmente prevaleciente”, pero sin dejar de contemplar a la ciencia como una actividad humana, con todas las virtudes y defectos de quienes la practican. El libro, antes que ofrecer respuestas cómodas, plantea al lector desafíos sobre el mundo que nos rodea.

Yo soy un extraño bucle, Douglas R. Hofstadter, Tusquets Editores (Barcelona) 2008. Hofstadter llegó al mundo de la filosofía de la ciencia como un ciclón con su libro Gödel, Escher, Bach, en el que exploraba el mundo de la autorreferencia en las matemáticas, el arte y la música. En este libro, no menos ambicioso, se ocupa de investigar si nuestra identidad, nuestra conciencia individual, surge de la simple materia hasta convertirse en un extraño bucle en el cerebro donde los símbolos y la realidad conviven e interactúan. Y al final presenta argumentos indudablemente originales sobre lo que es el “yo” de cada uno de nosotros.

El robot enamorado: una historia de la inteligencia artificial, Félix Ares, Ariel (Barcelona) 2008. Félix Ares, experto en informática y profesor universitario, nos lleva a un recorrido histórico que comienza con los autómatas de la realidad y la fantasía que surgen en la antigua Grecia y llega hasta las propuestas más audaces de nuestros días para llegar a la inteligencia artificial. En el proceso, el autor nos muestra cómo la idea de los ordenadores, computadoras y robots se ha integrado a la cultura popular, en la literatura, el cómic, el cine y la televisión, para dejar testimonio de lo que se está haciendo hoy en este terreno para muchos inquietante.

365 días para ser más culto, David S. Kidder, Noah S. Oppenheim, Ediciones Martínez Roca (Madrid) 2008. Una idea que puede cambiar al lector profundamente: 365 artículos sobre distintas ramas del conocimiento, cada uno escrito por un especialista en arte, ciencia, filosofía, etc. La idea es que usted lea uno al día durante un año. Cada uno se puede leer en cinco o diez minutos, y al final del ejercicio, si todo sale bien, será dueño de una cultura general envidiable. Como cualquier otro proyecto a largo plazo, sin embargo, probablemente requiere un compromiso personal que la mayoría de nosotros no puede asumir. Vale la pena intentarlo.

Un día en la vida del cuerpo humano, Jennifer Ackerman, Ariel (Barcelona) 2008. La autora, especialista en divulgación de la ciencia, nos lleva por un camino que va del despertar matutino a la “hora del lobo”. Mientras los medios de comunicación nos invitan a estar alertas a nuestro cuerpo, la realidad es que no ponen a nuestro alcance un conocimiento de cómo somos realmente, como funciona esa maquinaria que es cada uno de nosotros. Desde el hambre hasta el deseo sexual, desde los ritmos de nuestro reloj interno hasta los más recientes descubrimientos de la fisiología, es una oportunidad de introspección real.

Los 10 experimentos más hermosos de la ciencia, George Johnson, Ariel (Barcelona) 2008. La ciencia, ya sea vista desde fuera o como su practicante, no sólo tiene la enorme ventaja de ser comprobable, verdadera o ciertaen la medida en que tal vocablo tiene sentido. También es una experiencia profundamente estética, donde hay elegancia, belleza y fuentes para el asombro. Celebrado por su estilo, el autor, uno de los divulgadores científicos del New York Times, hace un homenaje a diez científicos y a sus experimentos, recordándonos que el pensamiento científico se cimenta, ante todo, sobre la experiencia y la práctica.

El corazón de la materia, Ignacio García Valiño, Random House Mondadori (Barcelona) 2008. Esta novela de reciente aparición, escrita por el psicólogo y divulgador científico Ignacio García Valiño, miembro del Círculo Escéptico, destaca por el rigor con el que aborda los muchos aspectos científicos de su trama. Desde su protagonista, un físico especializado en quarks, hasta la aventura tipo thriller en la que se embarca con elementos arqueológicos son objeto de cuidadosos retratos donde la intriga vive en el mundo del conocimiento y del pensamiento crítico como herramienta dramática, sin concesiones.

Ideas e inventos de un milenio: 900-1900, Javier Ordóñez, Lunwerg (Barcelona) 2008. La calidad de este volumen, ampliamente ilustrado, le da cierto carácter ideal para la temporada de fiestas. Javier Ordóñez, su autor, ha publicado previamente una Historia de la ciencia y un resumen de las teorías del universo en tres volúmenes, entre otras obras, y es catedrático de historia de la ciencia en la Universidad Autónoma de Madrid. Los inventos del milenio elegido para este recorrido son multitud y marcan un cambio en el camino de la humanidad más acusado, más definitivo, que ningún otro milenio en la historia. Aquí encontramos, ilustrados con material de sus respectivas épocas, esas ideas revolucionarias y esos inventos que dan testimonio de cómo la imaginación humana, actuando de la mano de la razón, produce resultados que han dado forma nueva a nuestro mundo, a nuestra visión del universo, a nuestro conocimiento de nosotros mismos, alterando no sólo lo aparentemente más trascendente, sino también actuando sobre nuestra cotidianidad, sobre el humilde día a día de la mujer y el hombre que hoy viven de un modo imaginable en el año 900. Desde esos productos de la pasión por saber que brillaron en la Edad Media y colaboraron a sentar las bases de la revolución científica del siglo XVI hasta los que anunciaron la revolución científica del siglo XX. La ciencia como propiedad de todos en un volumen de notable belleza.

Franklin: el americano ilustrado

Para la Europa del siglo XVIII la imagen de los Estados Unidos como nación ilustrada, democrática y libertaria se encarnaba en Benjamín Franklin, verdadero hombre del renacimiento entre los fundadores del nuevo país.

Menor de los hijos varones de la pareja formada por el fabricante de velas de sebo y jabón Josiah Franklin y Abiah Folger (octavo vástago de la pareja y decimoquinto de su padre, que había enviudado de su primera esposa), Benjamín Franklin estaba destinado por su padre a convertirse en ministro de la iglesia. Nacido el 17 de enero de 1706 en Boston, su educación formal terminó sin embargo a los 10 años, pues su familia no contaba con los medios de pagarle estudios.

Probablemente fue lo mejor para Franklin, para su país y para el mundo.

Franklin forjó su propia educación leyendo vorazmente. Después de un breve lapso como aprendiz renuente del oficio de su padre, su afición por la lectura pesó para que se le enviara a los 12 años a trabajar con su hermano mayor James, que ya estaba establecido como impresor, y con el que terminaría en un enfrentamiento debido al carácter autocrático del mayor y el espíritu independiente del menor. Franklin marchó a Filadelfia a los 18 años sin blanca ni planes claros.

Filadelfia, con la tolerancia religiosa y diversidad étnica del estado de Pennsylvania, casó bien con el espíritu del joven Franklin. Luego de trabajar en varias imprentas, el gobernador de Pennsylvania le ofreció apoyo para establecer su propia empresa, y lo envió a Londres a comprar una imprenta, pero sin proporcionarle dinero. En Londres, Franklin probó las virtudes y excesos de la vieja Europa, empleándose de nuevo con impresores, hasta que consigió volver a los 20 años.

Cuando consiguió establecer su propia imprenta editó el exitoso semanario The Pennsylvania Gazette y su famoso almanaque Poor Richard’s Almanack, libro anual que vio como una forma de educar a la ciudadanía. En 1736 se inició en política, donde creó un cuerpo de bomberos voluntarios, un orfanato y una lotería para financiar cañones que defendieran la ciudad, y propuso crear un colegio que hoy es la Universidad de Pennsylvania y el Hospital de Pennsylvania, el primero del nuevo país.

Fue a los 42 años, cuando su genio creador científico echó a volar, cuando pudo permitirse una jubilación temprana. Su diseño de la “estufa Franklin” mejoró la calefacción en la ciudad y redujo los riesgos de incendio de Filadelfia y marcó el inicio de su actividad en la ciencia.

Después de ver una serie de demostraciones sobre electricidad, especialmente la “botella de Leyden” y su espectacular capacidad de almacenar la electricidad estática, empezó sus experimentos con la electricidad. Fue el primero en sugerir que los rayos eran electricidad natural, para demostrar lo cual realizó experiencias con barras metálicas que conducían la electricidad de los rayos y que más adelante se convertirían en uno de los más perdurables inventos del todavía súbdito inglés: el pararrayos. En 1752, su famoso experimento con la cometa demostrando que el relámpago era, efectivamente, electricidad. El riesgo de ese experimento hace poco recomendable repetirlo. No era la primera vez en que Franklin cortejaba el desastre con sus experimentos: en una ocasión, intentando matar su pavo de Navidad con corriente eléctrica, estuvo a punto de electrocutarse al administrarse accidentalmente la carga.

Estos esfuerzos le valieron títulos honoríficos de Harvard, Yale y otros colegios universitarios, además de la medalla de oro de la Real Sociedad de Londres. Y mientras se ocupaba de la meteorología, proponiendo modelos para los sistemas tormentosos; de la medicina, inventando el catéter, y teorizando sobre la circulación de la sangre; de la agronomía buscando mejores técnicas para evitar el desperdicio de tierras arables e introduciendo la agricultura en el plan de estudios de la universidad de Pennsylvania, además de fundar la primera compañía de seguros contra incendios.

Franklin fue comisionado a ir a Inglaterra para negociar la situación de la colonia de Pennsylvania con los herederos de su fundador, William Penn. Aunque sus negociaciones fracasaron, la estancia de tres años le permitió, con más de 50 años, aprender a tocar el arpa, la guitarra y el violín, e inventar la armónica de cristal. Igualmente, observó que las tormentas no siempre viajan en la dirección de los vientos dominantes e hizo experimentos sobre el enfiamiento por evaporación.

A su regreso entró en franca colisión con los herederos de William Penn por su defensa de un grupo de indígenas americanos mientras los dueños de la colonia favorecían el genocidio como “solución” al problema de los indios. Franklin marchó de nuevo a Inglaterra para pedir a la corona británica su dominio directo sobre Pennsylvania sin la intervención de la familia Penn. El monarca se negó, pero Franklin se quedó como representante de las colonias y su oposición a los elevados impuestos fijados por la corona, y llegó a ser juzgado por incitar el naciente independismo. Volvió a América en 1775, como un independentista convencido.

A los 69 fue nombrado delegado ante el Segundo Congreso Continental, donde los líderes de las 13 colonias analizaron su futura relación con Gran Bretaña. Franklin propuso la unión de las colonias en una sola confederación nacional, que más tarde sería el modelo de la constitución estadounidense. El Congreso lo puso al frente de la organización de la defensa de las colonias y de un comité secreto encargado de las relaciones de los rebeldes con los países extranjeros. En 1776 fue uno de los encargados de redactar la Declaración de Independencia de Estados Unidos, y poco después partió de nuevo a Europa buscando aliados. En París, aquejado por sus problemas de la vista, inventó los anteojos bifocales.

Al volver en 1785 fue electo presidente del estado. Participó en el Congreso Constituyente que y sugirió que los estados europeos formaran una federación con un gobierno central, prefigurando la actual Unión Europea. Todavía tuvo tiempo de apoyar la Revolución Francesa y de convertirse en un activo opositor a la esclavitud antes de morir rodeado de sus nietos el 17 de abril de 1790 considerándose siempre, nada más, un hombre común, un ciudadano más de Filadelfia.

El odómetro y el mar


Uno de los más perdurables inventos de Franklin fue el odómetro. Como encargado de correos que fue creó el odómetro para diseñar las rutas de correo de los pueblos locales de Pennsylvania. Igual que los de hoy, su aparato calculaba la distancia recorrida contando las vueltas dadas por el eje de su carruaje. Su actividad postal lo llevó también a hacer las cartas de la Corriente del Golfo, a la que dio nombre.

Venenos que se cobran vidas... o las salvan

Los venenos, creados por el hombre o hallados en plantas y animales, han jugado un importante papel en la historia humana como agentes del bien y del mal sin distinción.

Una dosis letal de cianuro de potasio comparada
con un céntimo de euro y un bolígrafo
(Foto GFDL de Julo, vía Wikimedia Commons)
Un veneno es cualquier sustancia que pueda provocar daños, la enfermedad o la muerte a un organismo, debido a una actividad a nivel molecular, como podrían ser reacciones químicas o la inhibición o activación de ciertas sustancias propias del organismo.

Hay sustancias que para unas formas de vida son venenosas, mientras que para otras son inocuas o, incluso, benéficas. Hay sustancias venenosas para ciertos organismos que no lo son para otros de la misma especie. Y, como observó el médico y alquimista Paracelso: “Todas las cosas son veneno y nada carece de veneno, sólo la dosis permite que algo no sea venenoso”.

El ser humano detectó muy temprano en su decurso histórico los efectos de los venenos, las sustancias naturales cuyo objetivo principal es dañar o matar, ya sea defensivamente o a la ofensiva, para usarlos como armas de cacería y para matar a otros seres humanos. La obtención, manejo y dosificación de los venenos era probablemente uno de los secretos que el “médico brujo” guardaba para la tribu o el clan.

Las referencias a venenos y dioses relacionados con ellos datan de más de 4.500 años antes de nuestra era entre los sumerios de Mesopotamia. Entre los griegos, la mitología misma hace referencia a venenos, y en el antiguo Egipto el rey Menes estudió las propiedades de distintas plantas venenosas. En China ya se conocían potentes mezclas de venenos en el 246 antes de nuestra era, y entre los persas, en el siglo IV se registró cómo la reina Parysatis, esposa de Artajerjes II, mató con veneno a su nuera Statira.

Quizá la víctima de envenenamiento más conocida de la antigüedad es Sócrates, que fue condenado a muerte por “corromper a la juventud” con sus ideas subversivas. La ejecución se realizaba obligando al condenado a beber cicuta, una sustancia vegetal conocida como “el veneno del estado”, y en el año 402 antes de nuestra era el filósofo se suicidó por orden de Atenas. En la Roma antigua el veneno también asumió un papel protagónico, fue utilizado por Agripina para eliminar a su marido Claudio, con objeto de que su hijo Nerón ascendiera al trono. El propio Nerón acudió al cianuro para deshacerse de los miembros de su familia a los que odiaba.

Los venenos no eran bien entendidos en tiempos pasados, pero al llegar el medievo se convirtieron en parte de la magia y la brujería, junto con otras pociones más o menos fantasiosas, y con los antídotos conocidos, que ciertamente han sido buscados siempre con tanta o más intensidad que los propios venenos.

Quizá el más curioso de todos los antídotos fue la “piedra bezoar”. Esta piedra era descrita de diversas formas que iban desde lo mítico (como la historia árabe que decía que caían de los ojos de venados que habían comido veneno) hasta explicaciones que indican que algunas podían ser cálculos vesiculares o renales de distintos animales o cualquier masa atrapada en el sistema gastrointestinal, como las bolas de pelo. Se pagaban fortunas por piedras bezoar supuestamente genuinas, y la creencia en sus poderes se mantuvo hasta que en 1575 el pionero de la ciencia y la medicina Ambroise Paré demostró experimentalmente que carecían de efectividad. No obstante, siguen siendo utilizadas por la herbolaria tradicional china.

Por supuesto, algunos venenos son utilizados como medicamentos en dosis adecuadamente medidas para atacar la enfermedad. Quizá el caso más claro es el de los antibióticos, productos vegetales como la penicilina, que resultan mortales para la bioquímica de ciertos microorganismos sin tener efectos perjudiciales notables en el paciente infectado. Las sustancias utilizadas en la quimioterapia son igualmente venenosas, pero sus efectos secundarios son más intensos debido a que aún no se han afinado y especializado tanto como los antibióticos. Aún así, la quimioterapia contra el cáncer que se aplica hoy en día es un gran avance respecto de la de hace veinte o treinta años, mucho más agresiva y desagradable para el paciente, y menos efectiva que la actual, que ha convertido algunas formas de cáncer, como el de mama, el testicular y la enfermedad de Hodgkins, en enfermedades curables si se diagnostican a tiempo, cuando antes eran mortales casi en un 100%.

Dado que los venenos eran en general indetectables y se podían usar teniendo al asesino lejos, y por tanto daban mayor oportunidad a la impunidad, se volvieron uno de los métodos de asesinato favoritos en la Edad Media y en el Renacimiento. El personaje arquetípico como envenenador del renacimiento es Lucrecia Borgia, quizás objeto de una campaña de calumnias y a la que se le atribuyeron asesinatos que fueron posiblemente cometidos por su hermano César. Ellos, junto con su padre, el papa Alejandro VI, fueron considerados grandes envenenadores, e incluso la muerte del papa se atribuyó a un envenenamiento, en su caso, por consumir equivocadamente el vino con el que pretendía deshacerse del cardenal de Corneto. La corona española, por su parte, hizo varios intentos por envenenar a su poderosa enemiga, Isabel I de Inglaterra.

El envenenamiento, no ha sido sólo asunto de nobles, ricos o miembros del alto clero. Muchas personas empezaron a tener a su alcance algunos secretos de los venenos, y en el siglo XVIII y XIX el envenenamiento se convirtió en el método preferido de las mujeres que deseaban deshacerse de sus maridos. Y en el siglo XX, la explosión del conocimiento científico produjo la aparición de numerosísimas sustancias tóxicas que han sido utilizadas tanto en la guerra (el gas mostaza en la Primera Guerra Mundial) como en atentados (el ataque con gas sarín de una secta contra el metro de Tokio). Sin embargo, esos mismos avances científicos han permitido que el veneno deje de ser “indetectable”. Los modernos sistemas utilizados por los científicos forenses pueden identificar muy rápidamente la gran mayoría de los venenos, tanto para tratar a las víctimas cuando se detectan a tiempo como para encontrar a los envenenadores.

Modernos envenenamientos


Algunos famosos atentados de los últimos tiempos han utilizado venenos. En 1978 el disidente ucraniano Georgy Markov murió cuando se le disparó, con un paraguas o un bolígrafo, una bola de metal llena de ricino. En 2004, el hoy presidente ucraniano Viktor Yushchenko, ganador de las elecciones de ese año contra el preferido del gobierno ruso, fue envenenado con dioxinas y aunque salvó la vida, sigue bajo tratamiento. En 2006, el disidente y exmiembro del servicio ruso de seguridad, Alexander Litvinenko, que hizo declaraciones en contra de Vladimir Putin, fue asesinado con sólo 10 microgramos de polonio-210.

El psicópata: inhumano pero cuerdo

No tener conciencia, no tener remordimientos, no sentirse igual a los demás humanos, no tener límites, así son muchos asesinos que, sin embargo, no están locos, ni legal ni médicamente.

En 1986, el antropólogo canadiense Elliott Leyton, uno de los principales expertos mundiales en asesinatos en serie, publicó un libro fundamental, Cazadores de humanos, dedicado a analizar el fenómeno del asesinato múltiple desde un punto de vista social. En primer lugar, diferenciaba al “asesino serial” que a lo largo de mucho tiempo mata a una serie de víctimas que comparten algunas características, del “asesino masivo”, que en una breve explosión de violencia deja una estela de muerte indiscriminada que suele acabar con la muerte del asesino a manos de la policía. El primer caso es el de criminales como Jack el Destripador, Ted Bundy o El Hijo de Sam, mientras que el segundo corresponde a quienes realizan tiroteos en escuelas como la de Columbine o del Tecnológico de Virginia.

Más allá de esta diferenciación, en el análisis de diversos casos Leyton señalaba que en no pocos casos, feroces asesinos habían sido declarados “cuerdos”, “mentalmente sanos” o “no perturbados” por diversos médicos y profesionales. En un caso narrado por Leyton, la última evaluación positiva le fue realizada a un asesino que en ese momento llevaba en el maletero de su automóvil la cabeza cortada de su más reciente víctima.

Su conclusión era preocupante pero bien fundamentada: los asesinos seriales o masivos que nos horrorizan y nos parecen tan inhumanos no están locos en el sentido médico del término, no se trata de psicóticos como los esquizofrénicos, sino de sociópatas o psicópatas, es decir, de personas que tienen un comportamiento antisocial debido a sus sentimientos o falta de ellos. La psicopatía es, ciertamente, un desorden de la personalidad, pero no es una forma de locura, precisamente.

Esta idea de Leyton iba, ciertamente, en contra del sentido común. Alguien capaz de ocasionar un terrible dolor a otros, o incluso de causarles la muerte, de tratarlos, vivos o muertos, como objetos para su gratificación, sin jamás sentir compasión, identificación, empatía, cercanía, amor, culpabilidad o emociones humanas sociales, nos parece sin duda alguna un loco, un monstruo, un ser con algún grave desarreglo psiquiátrico, probablemente con alguna deficiencia o tara genética. Pero para el estudioso canadiense se trata fundamentalmente de un resultado del medio ambiente del psicópata. El resultado es aterrador: personas que no sienten vergüenza, sentido de la equidad, responsabilidad, que ven a los demás no como iguales, sino como objetos, cosas que pueden servirles para satisfacer sus deseos, pero a los cuales se puede igualmente matar o torturar por diversión, sin sentir cargo de conciencia alguno, sin restricciones ni freno, y además con capacidad para engañar a los demás y ocultarles esta falta de sentimientos.

El problema que presentan los asesinos seriales a la ciencia y a su sociedad es un ejemplo de los enormes huecos que nuestro conocimiento de la conducta, emociones, comportamiento y procesos mentales tiene, y que son mucho mayores que los datos certeros de que disponemos. Para algunos médicos y psicólogos, la sociopatía y la psicopatía son fenómenos distintos. Sin embargo, con muchos datos o pocos, la realidad práctica exige que tomemos decisiones como sociedad. Si el asesino serial es un loco, una persona con un trastorno que le hace perder el contacto con la realidad o la capacidad de razonar, no deberíamos procesarlo judicialmente cuando comete un delito. Los esquizofrénicos, que suelen ser inimputables, no pueden controlar sus actos si no están bajo una medicación adecuada.

El psicópata, sin embargo, conoce la diferencia entre el bien y el mal, es racional y puede elegir. Y de hecho, elige. Si bien muchos psicópatas son delincuentes, y se ha llegado a calcular que en Estados Unidos el 25% de la población de las cárceles es de personas con este desarreglo de la personalidad en mayor o menor grado, también es cierto que hay “psicópatas exitosos” que pueden convertir en ventaja su situación y destacar en la política, los negocios o la industria del entretenimiento.

Entre las principales características, algunas aún a debate, que definen a un sociópata están: un sentido grandioso de la importancia propia, encanto superficial, versatilidad criminal, indiferencia hacia la seguridad propia o de otros, problemas para controlar sus impulsos, irresponsabilidad, incapacidad de tolerar el aburrimiento, narcicismo patológico, mentiras patológicas, afectos superficiales, falsedad y tendencia a manipular, tendencias agresivas o violentas con peleas o ataques físicos repetidos contra otras personas, falta de empatía, falta de remordimientos resultando indiferente al daño o maltrato que ocasiona a otros, o facilidad para racionalizarlo; una sensación de tener derechos sobre todo, comportamiento sexual promiscuo, estilo de vida sexualmente desviado, poco juicio, incapacidad de aprender de la experiencia, falta de autocomprensión, incapacidad de seguir ningún plan de vida y abuso de drogas, incluido el alcohol.

Según la revista Scientific American, es un error creer que todos los psicópatas sean violentos. Al contrario, la gran mayoría no lo son, mientras que muchas personas violentas no son psicópatas. De otra parte, la psicopatía puede beneficiarse de un tratamiento psicológico (que no psiquiátrico) que puede controlar las conductas más indeseables.

No obstante, resulta muy difícil establecer objetivamente cuáles y cuántas de estas características, y en qué medida, determinan que existe con certeza el trastorno que denominamos psicopatía. La lucha por comprender la última frontera del conocimiento de nosotros mismos, la de nuestros pensamientos, acciones, emociones y sensaciones, sigue adelante, a veces con lentitud desesperante, a veces dejándonos depender de percepciones subjetivas e intuiciones por parte de los profesionales. Pero a veces esa experiencia empírica es todo lo que tenemos, al menos en tanto la ciencia no consiga contextualizar objetivamente lo que es, al fin y al cabo, nuestra vida subjetiva.

Romper el mito


Hannibal Lecter, el asesino caníbal de El silencio de los corderos generó algunos mitos sobre los asesinos psicópatas que Elliot Leyton también se ha ocupado en disipar. Según Leyton, no ha habido un asesino en serie aristocrático en siglos, sino que la mayoría proceden de las clases trabajadoras, y no son genios diabólicos, en general suelen ser de inteligencia bastante limitada. La exaltación de un asesino ficticio como éste, tiene por objeto último adjudicarle valores, glamour, atractivo o valores que los hechos demuestran que los verdaderos psicópatas no tienen.

El misterio del murciélago

La búsqueda por saber cómo el murciélago consigue volar en la oscuridad resultó una excelente lección sobre el método científico y las fortalezas y debilidades de los investigadores.

Monumento a Lazaro
Spallanzani
(foto CC de Maxo, vía Wikimedia Commons)
El murciélago, como animal nocturno, fugaz y huidizo, que evita a los seres humanos, habita en lugares ya de por sí poco atractivos como cuevas, edificios abandonados y desvanes, y que tiene la rara costumbre de vivir colgado boca abajo, fue objeto de una campaña de publicidad negativa desde los inicios de la historia, asociándolo con lo malévolo, la brujería y lo satánico. Esta percepción se vio fuertemente reforzada por el descubrimiento, en América, de tres especies de murciélagos cuyo principal alimento es la sangre de otros animales, incluidos los humanos. Bautizados rápidamente como “murciélagos vampiro”, ayudaron a promover la superstición y el desagrado por el murciélago en ciertas áreas, aunque los antiguos chinos lo consideraban símbolo de buena suerte y larga vida, y los tenían en concepto más positivo los árabes, las culturas indígenas americanas e incluso los griegos.

La gente no suele ver murciélagos, ni siquiera interactuar con ellos, pese a que son una cuarta parte de todos los mamíferos del mundo en términos de especies. Sus colonias pueden estar formadas por millones y millones de individuos. La mayor colonia urbana de murciélagos, con más de millón y medio de integrantes en la ciudad de Austin, Texas, consume diariamente entre 5.000 y 15.000 kilogramos de insectos, que de no estar controlados acabarían con las cosechas, lo que destaca la importancia ecológica de estos animales.

Son precisamente los murciélagos cazadores de insectos, peces, pequeños mamíferos e incluso otras especies de murciélagos los que presentaron a la humanidad el misterio de volar ágilmente en la oscuridad, sortear obstáculos y cazar con precisión a sus presas. Su nombre original en castellano es “murciégalo”, de mus, muris, ratón, y caeculus, diminutivo de ciego, indicando precisamente a esos pequeños mamíferos que a la luz actúan como si estuvieran ciegos y que sin embargo en la noche navegaban asombrosamente.

La navegación de los murciélagos se convirtió en uno de los principales intereses del biólogo italiano Lazzaro Spallanzani (1729-1799), de la Universidad de Pavia, cuya pasión por la biología lo llevó a hacerse cura para garantizarse la subsistencia y poder aprender ciencia. Mediante elegantes experimentos, Spallanzani demostró que la digestión es un proceso químico y no se reduce al simple triturado de los alimentos, como se creía antes. Fue un pionero de Pasteur, refutando que la vida surgiera espontáneamente de materia orgánica en descomposición. Descubrió que la reproducción necesitaba tanto del óvulo como del espermatozoide, desterrando la idea de la mujer como figura pasiva en la reproducción. Estudió la regeneración de órganos en anfibios y moluscos, e incluso asuntos de la física básica. De él se dijo que descubrió en unos años más verdades que muchas academias en medio siglo.

Spallanzani realizó una apasionante variedad de experimentos con los murciélagos. Les puso en la cabeza capuchones opacos que les impedían maniobrar, y capuchones delgados y transparentes con el mismo resultado. Finalmente, cegó a una serie de murciélagos y los hizo volar entre hilos colgados en su laboratorio con campanillas en el extremo que sonaban si un murciélago los tocaba. Hizo lo mismo con con murciélagos a los que había privado del oído, y vio que no podían orientarse, lo que le sugirió que el oído era el sentido que estos animales utilizaban, de algún modo aún misterioso, para “ver” en la oscuridad. Confirmó su idea cegando murciélagos salvajes, marcándolos y liberándolos para recapturarlos días después. Las disecciones mostraban que los murciélagos en libertad se habían alimentado exitosamente. Spallanzani escribió en su diario: “... los murciélagos cegados pueden usar sus oídos cuando cazan insectos... este descubrimiento es increíble”.

Spallanzani le escribió a la Sociedad de Historia Natural de Ginebra sobre sus experimentos, lo que inspiró al zoólogo suizo Charles Jurine a experimentar, tapando con cera los oídos de sus murciélagos. Con los oídos tapados, el murciélago era torpe y chocaba con los objetos, pero al destaparse los oídos volvía a ser un acróbata de la oscuridad. Intercambiaron correspondencia, Spallanzani replicó los experimentos de Jurine y concluyeron que el oído era el responsable de la maravillosa capacidad de los murciélagos. Sin embargo, no podían explicar cuál era el mecanismo que actuaba. Lo más cerca que estuvo el genio de Spallanzani fue de pensar que el murciélago escuchaba el eco de su batir de alas.

El famoso paleobiólogo francés Georges Cuvier, por lo demás una admirable mente científica, declaró sin embargo que los experimentos de Spallanzani y Jurine eran incorrectos (cuando lo que le molestaba era que los consideraba crueles), y afirmó (igualmente sin pruebas) que los murciélagos se orientaban usando el sentido del tacto. Científicamente, los dichos de Cuvier carecían de todo sustento y razón. Pero Cuvier tenía un gran prestigio e influencia, y muchas personas, cegadas a la realidad de la experimentación, procedieron a ignorar los experimentos y conclusiones de Spallanzani y Jurine. Se aceptó como dogma de fe la hipótesis del tacto y la investigación sobre la orientación de los murciélagos quedó interrumpida.

Cuvier apostó por el “sentido común” en contra de la experimentación.

En 1938, 143 años después de las críticas de Cuvier, el joven científico de Harvard Donald R. Griffin utilizó micrófonos y sensores para demostrar que los murciélagos “ven” en la oscuridad emitiendo sonidos ultrasónicos (de más de 20 kHz) y escuchando el eco para conocer la forma y distancia de los objetos. Después de una serie de experimentos, consideró demostrado que la “ecolocalización” era la forma de ver de los murciélagos, una tecnología que por esos tiempos empezó a utilizarse en la forma de sonar y radar.

Finalmente, la solidez de la experimentación de Spallanzani y Jurine se había impuesto a las creencias irracionales del “sentido común”, demostrando de paso que las creencias sin bases no son sólo patrimonio de la gente común, sino que incluso grandes científicos como Cuvier pueden ser sus víctimas, recordándonos que lo importante es lo que se puede demostrar con la ciencia, y no lo que sus practicantes opinan.

Los murciélagos en datos


Los murciélagos forman el orden de los quirópteros, que significa “los que vuelan con las manos”, y hay especies de ellos en prácticamente todo el planeta, con excepción de las zonas más frías del polo norte. Los primeros fósiles encontrados datan de 52 millones de años y en la actualidad hay más de 1.000 especies distintas, de las que el 70% comen insectos.