Uno de los líderes mundiales en producción de ciencia y tecnología, además de ser el país más poderoso en lo militar y económico, sigue respondiendo por la mayor parte de la investigación mundial.
59 premios Nobel de química otorgados a ciudadanos estadounidenses, 81 de física y 90 de medicina y fisiología dan testimonio de la preeminencia estadounidense en el conocimiento científico de este siglo. No todos estos científicos nacieron en Estados Unidos. Muchos fueron a ese país por muy diverswos motivos, políticos, filosóficos, económicos o académicos, atraídos por sus universidades, sus recursos para la investigación y una atmósfera no hostil en general a las tareas científicas, aunque en la sociedad estadounidense haya como contrapeso una actitud antiintelectual, de sospecha respecto de la ciencia y los científicos.
Los orígenes
Los colonos europeos que llegaron a lo que hoy son los Estados Unidos no sólo encontraron la libertad religiosa que anhelaban. Encontraron además una gran cantidad de espacio disponible, un bien escaso en Europa.
Para muchos estudiosos, la Peste Negra del siglo XIV, que acabó con entre el 30 y el 60% de la población europea, fue uno de los detonantes de la revolución científica que se haría evidente en la Europa del Renacimiento. El hecho de que el fervor religioso no hubiera podido contener el avance de la peste, abriendo la puerta a la razón por sobre la fe, la tierra que quedó disponible a la muerte de sus propietarios, el aumento del valor de la mano de obra por su súbita escasez, son algunos los elementos que dan sustento a esta interpretación. Y ni entonces ni después los europeos habían visto espacios libres tan vastos como los que de las nuevas tierras.
El grupo inicial de la colonia de Plymouth, Massachusets, era una congregación religiosa que consideraba irreconciliables sus diferencias con la iglesia anglicana oficial en Inglaterra y emigró primero a y posteriormente al nuevo mundo.
Esta colonización fue muy distinta de las conquistas tradicionales, que utilizaban la mano de obra de los habitantes subyugados. Los peregrinos ingleses no pensaban volver ricos y triunfadores, como esperaban hacerlo muchos españoles y portugueses, sino que habían iniciado un viaje sin retorno. En parte por ello, procedieron a desplazar y aniquilar a los habitantes originarios para tomar posesión plena de sus tierras sin incluirlos en su gran plan.
El aislamiento respecto de Europa, la falta de mano de obra y el espacio que permitía a cada familia tener tanta tierra como pudiera trabajar, fueron motores del desarrollo de tecnologías novedosas y de la rápida adopción de toda forma de mecanización o avance agrícola procedente de Europa, como fue el caso del taladro de semillas y las innovaciones en el arado introducidas por el británico Jethro Tull a principios del siglo XVIII.
Un país fundado por científicos
Dos de los hombres que fundaron Estados Unidos, que concibieron su independencia y su surgimiento según los ideales de la ilustración, eran, entre otras cosas, hombres de ciencia. Benjamín Franklin demostró que los relámpagos son una forma de electricidad y fue responsable de numerosos inventos como las gafas bifocales además de promover el sistema de bibliotecas públicas de las colonias, mientras que Thomas Jefferson, estudiante de la agricultura, llevó a América varios tipos de arroz, olivos y pastos. Otros científicos de las colonias británicas estuvieron implicados en la lucha por la independencia.
Esto se reflejó en la Constitución promulgada en 1787, que establece que el Congreso tendrá potestad, “para promover el avance de la ciencia y las artes útiles”. Esta disposición se reflejaría más adelante tanto en la Revolución Francesa de 1789 como en las constituciones de los países americanos que obtuvieron su independencia a principios del siglo XIX.
La ciencia y la tecnología se vieron estrechamente vinculadas a los avances económicos del nuevo país, lo que se ejemplifica en la invención del elevador de granos y el silo elevado de Oliver Evans, de mediados de la década de 1780, o la desmotadora de algodón de 1789. La fabricación de armas requirió generar conceptos como la división del trabajo, las piezas intercambiables y tornos capaces de hacer de modo repetible formas irregulares.
El siglo XIX
En el siglo XIX Europa conservó su liderazgo en la ciencia y la tecnología, tanto que fue en Inglaterra donde William Whewell acuñó precisamente el término “scientist” o científico. Pero en Estados Unidos empezaron a aparecer personajes dedicados a resolver tecnológicamente sus problemas peculiares, como Samuel Colt, inventor del revólver, Samuel Morse, creador del telégrafo que patentó en 1837 o Charles Goodyear, que descubrió la vulcanización del caucho.
No todos los avances tecnológicos estadounidenses eran de tanta entidad, y por ello llama la atención que un producto tan humilde como el alfiler de seguridad o imperdible, creado por el neoyorkino Walter Hunt en 1849, haya sobrevivido al telégrafo en cuanto a su utilización cotidiana continuada.
La gran mayoría de los científicos estadounidenses del siglo XIX son inventores, personajes eminentemente prácticos como Elisha Graves Otis, inventor del freno de seguridad de los elevadores que permitió que se construyeran edificios de gran altura o “rascacielos”. La teoría científica parecía ser, únicamente el trampolín para obtener aparatos, inventos, patentes, aplicaciones prácticas de éxito comercial que cambiaran la forma tradicional de hacer las cosas.
El epítome de este inventor es, sin duda alguna, Thomas Alva Edison, por su sistema, su capacidad empresarial (en ocasiones rayana en la deslealtad) y su productividad, merced a la cual al morir tenía a su nombre 1.093 patentes diversas en Estados Unidos, y otras en el Reino Unido, Francia y Alemania. Además de sus inventos más conocidos, como la bombilla eléctrica comercialmente viable, la distribución de la energía eléctrica o el fonógrafo, Edison realizó numerosas aportaciones en terrenos tan diversos como la electricidad, la minería y la labor científica en sí, al establecer el primer laboratorio científico destinado a la búsqueda de innovaciones, donde trabajaron numerosos científicos cuyos logros se patentarían siempre a nombre de Edison.
La inmigración científica
El vasto espacio libre de Estados Unidos permitió que el país se abriera, en distintos momentos, a movimientos migratorios para satisfacer su hambre de mano de obra y, también, de cerebros innovadores y originales. Así, cuando el químico inglés Robert Priestley, descubridor del oxígeno y perseguido político se refugió en el nuevo país en 1794, inició un flujo que aún no ha cesado.
El primer inmigrante científico famoso del siglo XIX es, probablemente, Alexander Graham Bell, inventor del teléfono, que llegó desde Escocia en 1872, mientras que Charles Steinmetz arribó procedente de Alemania en 1889 y posteriormente desarrollaría nuevos sistemas de corriente alterna.
Pero fue la llegada de Adolfo Hitler al poder en Alemania en 1933 la que produjo la mayor y probablemente más enriquecedora ola de inmigración científica a los Estados Unidos, teniendo como uno de sus primeros protagonistas a Albert Einstein. Con el apoyo del genio judío-austríaco, gran número de físicos teóricos alemanes, tanto de ascendencia judía como simples antinazis, abandonaron Alemania y otros países ocupados para ir a Estados Unidos, entre ellos el húngaro Edward Teller, que sería el principal arquitecto de la bomba atómica estadounidense, y el físico danés Niels Bohr. A ellos se unió el más importante teórico italiano de entonces, Enrico Fermi. A partir de este momento, el predominio de los Estados Unidos en los terrenos de la ciencia se volvió indiscutible y lo sigue siendo.
Antes y después de ese momento, sin embargo, el flujo de inteligencias extranjeras a los laboratorios y universidades estadounidenses nunca cesó, como lo ejemplifica en España el Premio Nobel de fisiología y medicina Severo Ochoa, que llegó a Estados Unidos en 1941 y se hizo ciudadano de ese país en 1956. Dado que era ciudadano estadounidense cuando se le concedió el Premio Nobel en 1959, él es uno de los 90 premios de su especialidad que se mencionan al inicio de este recorrido. La inmigración científica no sólo le ha aportado a los Estados Unidos el conocimiento y las patentes de numerosos hombres y mujeres, sino también el reconocimiento.
Las paradojas
Las paradojas de la actitud estadounidense hacia la ciencia están ejemplificadas por dos fenómenos que son expresión de conflictos recurrentes.
De una parte, los movimientos religiosos creacionistas que pretenden desvirtuar, cuando no expulsar de las aulas, los conocimientos reunidos por la biología evolutiva en los últimos 150 años porque consideran, basados en su interpretación literal de la Biblia, que contradicen la verdad revelada y por tanto deben ser combatidos e incluso prohibidos. Ejemplo temprano de esto fue el famoso Juicio Scopes de 1926, donde un profesor de instituto decidió desobedecer una ley que prohibía enseñar las teorías no bíblicas del origen de las especies en escuelas públicas. El caso dio origena una obra de teatro que fue llevada al cine con el título “Heredarás el viento”, con Spencer Tracy y Fredric March.
De otra parte, cuando las visiones de la ciencia se oponen al desarrollo económico y al bienestar de la industria y el comercio, suelen verse bajo asedio cuando no simplemente despreciadas. La negativa gubernamental y social a reconocer la relación que se había hallado entre el tabaco y el cáncer de pulmón, es uno de los más claros ejemplos, como lo ha sido recientemente la negativa de los presidentes William Clinton y George W. Bush de ratificar el Protocolo de Kyoto para la reducción de la emisión de gases de invernadero, y el movimiento ideológico que pretende negar sin someterla a análisis la observación científica de que existe un proceso de cambio climático y que la actividad del hombre a través de la emisión de gases de invernadero es al menos en parte uno de los factores que están provocando o acelerando dicho cambio.
Pero hay un tercer factor, un temor a “saber demasiado” y a “jugar a ser dios” que el científico, escritor e inmigrante Isaac Asimov caracterizó como “el complejo Frankenstein”, y que permea la cultura popular estadounidense, la máxima promotora de la idea del “genio malévolo” y el “científico loco” que generalmente quieren “apoderarse del mundo”. La caricatura de una parte revela percepciones sociales y de otra las refuerza, agudizando las contradicciones de la sociedad estadounidense ante la ciencia y los hombres y mujeres que la hacen.
El proyecto científico de Barack Obama
Uno de los aspectos que han identificado y destacado a Barack Obama es que cuenta con un programa claro en cuanto a la ciencia y su promoción. Es un hecho que pese a la preeminencia científica del país, los alumnos estadounidenses se desempeñan peor en asuntos científicos que la mayoría de los 57 países más desarrollados, situándose en 29º lugar en cuanto a ciencia y en 35º en matemáticas, muy por debajo de líderes como Finlandia, Corea, Japón, Liechtenstein y Holanda.
Ante ello, Obama ha planteado en su proyecto la necesidad de asegurarse de que todos los niños de las escuelas públicas estén equipados con las habilidades necesarias de ciencia, tecnología y matemáticas para tener éxito en la economía del siglo XXI. Se propone así fortalecer la educación matemática y científica en general, incentivar el aumento de titulaciones en ciencias e ingeniería y aumentar la presencia de las mujeres y las minorías étnicas en el mundo de la ciencia y la tecnología.
Pero la propuesta más revolucionaria de Barack Obama es, precisamente, la más solicitada por los científicos de todo el mundo a sus gobiernos: más recursos, más inversión que a la larga, sin duda alguna, redituará beneficios a los países que se comprometan con ella. En concreto, el presidente entrante propone duplicar el financiamiento de la federación para la investigación básica en ciencias.
Barack Obama se propone igualmente mantener a Internet como un espacio abierto y neutral, y aprovechar las nuevas tecnologías para “llevar al gobierno (de Estados Unidos) al siglo XXI” mediante el uso de la tecnología, obteniendo ahorros, mayor seguridad y mayor eficiencia echando mano de los elementos que ya están disponibles.
Pero, sobre todo, Barack Obama ha afirmado que “las buenas políticas en Washington dependen de sólidos consejos de los científicos e ingenieros del país”, y se ha comprometido a “restaurar el principio básico de que las decisiones de cobierno deberían basarse en la mejor evidencia científicamente válida que tengamos disponible y no en las predisposiciones ideológicas de funcionarios de dependencias o personas designadas políticamente”. De este principio, ciertamente, podrían beneficiarse numerosos gobiernos que cierran los ojos a los hechos para servir a sus convicciones, por irracionales que puedan resultar.
Estas propuestas le ganaron a Barack Obama el apoyo electoral de 60 científicos galardonados con el premio Nobel en la carrera electoral. Entre las muchas expresiones de idealismo y capacidad de soñar que evidentemente ha logrado despertar entre sus simpatizantes, ésta no es la menos importante, sobre todo porque el liderazgo de Estados Unidos y su fuerza política sin duda influirán en la forma en que otros gobiernos, sintonizados o no a la visión de Barack Obama, enfrenten sus propios problemas y necesidades en el terreno de la ciencia y la innovación.
Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento
La ciencia de la música
![]() |
Códice Manesse de principios del siglo XIV. (D.P. vía Wikimedia Commons) |
En esta era de MP3 y acceso inmediato a toda la música que nos complace, de conciertos para todos los gustos y de todos los precios, de bailes y fiestas con música, de flujo musical continuo en lugares públicos, de radio y televisión, con frecuencia olvidamos que esta pasión del ser humano por la música no siempre pudo satisfacerse.
Antes del siglo XX, la música era un acontecimiento infrecuente y, por lo mismo, muy bienvenido. Se podía escuchar en fiestas populares, en grandes acontecimientos de la comunidad o el estado nacional, o gracias a la ocasional llegada de un músico trashumante. Lo que quedaba como oportunidad de disfrutar música eran infrecuentes conciertos públicos y la música que cada cual se podía dar a sí mismo cantando o tocando algún instrumento en sus ratos libres.
Los paleoantropólogos sólo pueden imaginarse, haciendo deducciones razonables con base en sus conocimientos, cómo se originó la música, y cómo la hicieron los primeros músicos humanos. ¿Empezó con el canto o con el silbido? No lo sabemos, pero sí tenemos datos que indican que el arco y la flauta fueron probablemente los primeros instrumentos. En los yacimientos paleolíticos se han encontrado huesos con perforaciones que habitualmente se identifican como flautas. Pero la historia escrita de la música empieza hace apenas unos 4.000 años, en escritos cuneiformes de la ciudad de Ur y en los Samavedas de la India.
La música, que los expertos definen como una forma de expresión que utiliza el ordenamiento de sonidos y silencios en el tiempo, encontró a sus primeros estudiosos, por así decirlo, en la antigua Grecia. La enorme importancia de la música en la vida cotidiana de la Grecia clásica, su presencia documentada en festivales religiosos, bodas, banquetes y funerales, la existencia de músicos profesionales con gran relevancia social (como en la actualidad) hacía inevitable que fuera también asunto de las cavilaciones filosóficas y las averiguaciones de la ciencia primigenia.
Si tensamos una cuerda entre dos barras o puentes hasta que produzca un sonido, una nota musical, y diseñamos una forma de “detener” o pisar la cuerda (por ejemplo, usando un trozo de vidrio o metal, o los propios dedos) descubriremos que al pisar la cuerda a la mitad de su ongitud vibrante obtendremos un sonido similar al original, la misma nota, pero una octava más arriba. Si, en cambio, pisamos la cuerda en un punto a los 2/3 de su lingitud, obtendremos una nota armónica con la original, una quinta perfecta. Y si pisamos a los 3/4 de la cuerda obtendremos un intervalo musical de una cuarta perfecta con relación a la nota original, también armónica. La quinta y la cuarta perfectas siempre han sido las consonancias más importantes de la música occidental.
Esta relación matemática entre las notas musicales y su armonía (a diferencia de su “disonancia”, el sonido estridente de dos notas no armónicas tocadas al mismo tiempo) fue descubierta, se dice, por Pitágoras alrededor del año 5000 antes de la era común. De aquí los griegos concluyeron que la relación entre el número y las armonías podía extenderse a la totalidad del universo, que conceptuaban igualmente armonioso y ordenado como una lira. Pero aunque ello no fuese estrictamente cierto, la implicación matemática de la música quedó fijada para siempre, y se ha confirmado una y otra vez. El famoso libro Bach, Escher, Gödel del académico Douglas Hofstadter, es el estudio clásico de la autorreferencia, y para analizarla echa mano del teorema matemático de Gödel, la obra gráfica de Maurits Cornelius Escher y la música de Johann Sebastian Bach, con los cuales expone conceptos esenciales de las matemáticas, la simetría y la inteligencia.
Más allá de las matemáticas de la música, esta expresión artística es una de las más importantes para nosotros, al menos en la actualidad. La historia de la música está llena de avances, invenciones y desarrollos tecnológicos que en su momento han sido, todos, asombrosos. Por ejemplo, la aparición del piano, cambió toda la música. Hasta ese momento, las cuerdas de los instrumentos de teclado eran pulsadas y no golpeadas, de modo que no se podía modular el volumen de los clavecines y espinetas utilizados por entonces. A fines del siglo XVII, Bartolomeo Cristofori creó en padua el “arpicémbalo piano e forte”, que golpeaba las cuerdas con mazos de fieltro de modo proporcional a la fuerza ejercida sobre las teclas, piano (suave) y forte (fuerte). De ahí en adelante, gran esfuerzo se dedicó a perfeccionar el piano consiguiendo más potencia para las grandes salas de concierto.
A veces no es conocimiento común que muchos instrumentos han tenido inventores, como el saxofón (creado opr Adolphe Sax en 1841) y no sólo genios que los perfeccionaron como hicieron los Stradivari con el violín, utilizando técnicas que aún no se han conseguido reproducir del todo. No se conoce, ciertamente, al inventor del instrumento más común de nuestro tiempo, y esencial en la historia de España: la guitarra, que encuentra sus orígenes cuando menos 3.300 años atrás, en el grabado en piedra representando a un bardo hitita con algo que ya tiene las características de lo que llamamos guitarra, ese instrumento que tiene entre sus antecesores al sitar indio, la kithara griega, la cítara latina y la quítara árabe antes de adquirir su forma actual a fines del siglo XVIII. Sí tiene inventor, sin embargo, la guitarra eléctrica de cuerpo sólido, o inventores: el guitarrista Les Paul, que aún vive, y el inventor grecoestadounidense Clarence Leonidas Fender. Ambos nombres siguen identificando a los dos modelos más populares de guitarra eléctrica, los que hicieron posible la música rock y sus múltiples derivaciones.
La ciencia y la tecnología detrás de la música, de modernos desarrollos como el violín o la gaita eléctricos, tienen la enorme ventaja de que, para disfrutar de nuestra música, ni siquiera tenemos que estar conscientes de ellas, ni de las relaciones matemáticas que hacen que nos resulte agradable una melodía o una armonía.
La reproducción de la músicaLa reproducción mecánica permitió que la música se convirtiera en patrimonio de todos, todo el tiempo, una historia que comenzó con la invención del fonógrafo por parte de Thomas Alva Edison en 1877, siguió con la aparición del disco fonográfico de pasta o vinilo, la radiodifusión y la cinta magnetofónica y ha llegado a la delirante popularidad que tiene hoy la reproducción de la música digitalizada y su compresión para hacerla manejable según el protocolo de compresión MP3, tan popular que a veces olvidamos que apenas surgió a mediados de la década de 1990. |
El vario contar del tiempo
Siempre hemos querido saber no sólo dónde estamos, sino cuándo, respecto del universo y de nosotros mismos. Pero un año no siempre ha durado un año.
Los ciclos que nos rodean captaron poderosamente captaron la atención de los seres humanos en los albores de la civilización. El día y la noche, las estaciones, los solsticios y equinoccios, el nacimiento y la muerte, la floración de las plantas, las mareas, las fases de la luna y otros.
Desde entonces, el hombre dedujo que el universo estaba sometido a un orden que podía comprenderse. Esta apreciación tenía sus propios peligros. De una parte, el hombre trató de encontrar orden y relación entre cosas que no los tenían. ¿Acaso no era posible que las entrañas de los animales tuvieran escrito de modo codificado el futuro del reino o el resultado de la próxima batalla? ¿Y la posición de las estrellas no podría indicar o causar que alguien se enamorara, triunfara en los negocios o se rompiera la nariz? Las supersticiones más diversas nacieron de este sueño de que todo estuviera interconectado de un modo predecible y comprensible. Es la llamada “magia representativa”, donde se espera que un hecho representado mágicamente, simbólicamente, como clavarle una aguja a un muñeco que representa a un enemigo, tenga el mismo efecto en la realidad.
De otra parte, estas mismas ideas de orden previsible provocaron el deseo humano de encontrar, de modo real y comprobable, las relaciones entre los distintos ciclos . La sucesión de acontecimientos en el sol y la luna, por ejemplo, debían tener alguna relación oculta, de modo que surgieron diversos intentos por conciliar el año solar y el año lunar, e incluso otros ciclos astronómicos diferentes. Éste es el origen de todos los calendarios humanos.
Uno de los calendarios más complicados de la antigüedad fue el maya, que es, de hecho, varios calendarios a la vez. Empieza con dos: el tzolkin, de 260 días, que regía el ceremonial religioso, con 20 meses de 13 días, y el haab, de 365 días, con 18 meses de 20 días y cinco días “sobrantes”. Al combinar, como ruedas dentadas, estos dos calendarios, se obtenía un ciclo mayor de 18.980 días, la “rueda calendárica” o siglo de 52 años presente en varias culturas mesoamericanas. Finalmente, los mayas tenían la “cuenta larga” de 5112 años, que partía del 11 de agosto del año 3114 del calendario gregoriano y terminará alrededor del 20 de diciembre de 2012, para reiniciarse al día siguiente. A estos calendarios se añadían la “Serie Lunar” de las fases de la luna y el “Ciclo de Venus” de 584 días, fundamentalmente astrológico.
El calendario hebreo, por su parte, es lunisolar, es decir, se basa en doce meses lunares de 29 o 30 días, intercalando un mes lunar adicional siete veces cada 49 años para no desfasarse demasiado del ciclo solar, y afirma iniciar su cuenta un año antes de la creación. Muy similar resulta, en su estructura, el calendario chino, con 12 meses lunares y un mes adicional cada dos o tres años, según determinadas reglas. Estas reglas no eran necesarias, sin embargo, para el abuelo del calendario gregoriano que empleamos en la actualidad: tenía un año de 12 meses lunares y se añadía por decreto un mes adicional cuando el desfase entre el año lunar y el solar era demasiado notable.
Los romanos tomaron y adaptaron su calendario del calendario lunar de los Griegos, con diez meses de 30 o 31 días para un año de 304 días y 61 días de invierno que quedaban fuera del calendario. Como primer año, eligieron el de la mítica fundación de Roma por parte de Rómulo y Remo. Para que todos los meses tuvieran días nones, lo que consideraban de buena suerte, Numa Pompilio añadió al final del año los meses de enero y febrero al final del año y cambió los días de cada mes para tener un año de 355, y sólo febrero tenía días pares: 28.
En el año 46 antes de Cristo según nuestro calendario, Julio César volvió a reformar el calendario, con 365 días y un año bisiesto cada cuatro años, en el que se añadía un día a febrero, y se determinó el 1º de enero como el comienzo del año, lo cual ya tiene un enorme parecido con nuestra cuenta de los días. Este calendario nació, al parecer, de la consulta con el astrónomo Sosígenes de Alejandría, conocedor del año tropical o año solar verdadero. El año juliano tenía así un promedio de 365 días y un cuarto de día, mucho más preciso que sus predecesores.
Sin embargo, el sistema de añadido de los días en años bisiestos no fue seguido con exactitud, de hecho, el que un año fuera o no bisiesto acabó siendo una decisión personal de sucesivos pontífices, y entre sus defectos de origen y el desorden de los bisiestos, el desfase entre el calendario y el año tropical se había vuelto problemático. Echando mano de un científico, el calabrés Aloysius Lilius, el papa Gregorio XIII promulgó el calendario gregoriano en 1582, con un sistema mucho más preciso de asignación de los años bisiestos de un modo complejo pero matemáticamente más exacto: “Todos los años divisibles entre 4 son bisiestos, excepto los que son exactamente divisibles entre 100; los años que marcan siglos que sean exactamente divisibles entre 400 siguen siendo bisiestos”.
La adopción del calendario gregoriano no fue inmediata salvo por España, Portugal, la Comunidad polaco-lituana y parte de Italia. Poco a poco, primero los países europeos y después el lejano oriente adoptaron este calendario como una representación adecuada del año, además de que unificaron los sistemas comerciales y las fechas históricas. Es bien conocido que Rusia no lo adoptó sino hasta después de la revolución soviética, de modo que el día siguiente al 31 de enero de 1918 (calendario juliano) fue el 14 de febrero. El último país en adoptarlo fue Turquía, bajo el mando modernizador de Kemal Ataturk, en 1926.
Sin embargo, en este muy preciso calendario tropical o solar, una serie de hechos nos recuerdan su origen lunar: las semanas de 7 días (duración de una fase lunar), los festejos de la Pascua y la Semana Santa (entre otras fechas litúrgicas), así como la Pascua Judía o el Año Nuevo Chino, se calculan según los antiguos calendarios lunisolares, aunque nunca se logró hacer coincidir, con precisión, el ciclo lunar y el del sol.
Los ciclos que nos rodean captaron poderosamente captaron la atención de los seres humanos en los albores de la civilización. El día y la noche, las estaciones, los solsticios y equinoccios, el nacimiento y la muerte, la floración de las plantas, las mareas, las fases de la luna y otros.
Desde entonces, el hombre dedujo que el universo estaba sometido a un orden que podía comprenderse. Esta apreciación tenía sus propios peligros. De una parte, el hombre trató de encontrar orden y relación entre cosas que no los tenían. ¿Acaso no era posible que las entrañas de los animales tuvieran escrito de modo codificado el futuro del reino o el resultado de la próxima batalla? ¿Y la posición de las estrellas no podría indicar o causar que alguien se enamorara, triunfara en los negocios o se rompiera la nariz? Las supersticiones más diversas nacieron de este sueño de que todo estuviera interconectado de un modo predecible y comprensible. Es la llamada “magia representativa”, donde se espera que un hecho representado mágicamente, simbólicamente, como clavarle una aguja a un muñeco que representa a un enemigo, tenga el mismo efecto en la realidad.
De otra parte, estas mismas ideas de orden previsible provocaron el deseo humano de encontrar, de modo real y comprobable, las relaciones entre los distintos ciclos . La sucesión de acontecimientos en el sol y la luna, por ejemplo, debían tener alguna relación oculta, de modo que surgieron diversos intentos por conciliar el año solar y el año lunar, e incluso otros ciclos astronómicos diferentes. Éste es el origen de todos los calendarios humanos.
Uno de los calendarios más complicados de la antigüedad fue el maya, que es, de hecho, varios calendarios a la vez. Empieza con dos: el tzolkin, de 260 días, que regía el ceremonial religioso, con 20 meses de 13 días, y el haab, de 365 días, con 18 meses de 20 días y cinco días “sobrantes”. Al combinar, como ruedas dentadas, estos dos calendarios, se obtenía un ciclo mayor de 18.980 días, la “rueda calendárica” o siglo de 52 años presente en varias culturas mesoamericanas. Finalmente, los mayas tenían la “cuenta larga” de 5112 años, que partía del 11 de agosto del año 3114 del calendario gregoriano y terminará alrededor del 20 de diciembre de 2012, para reiniciarse al día siguiente. A estos calendarios se añadían la “Serie Lunar” de las fases de la luna y el “Ciclo de Venus” de 584 días, fundamentalmente astrológico.
El calendario hebreo, por su parte, es lunisolar, es decir, se basa en doce meses lunares de 29 o 30 días, intercalando un mes lunar adicional siete veces cada 49 años para no desfasarse demasiado del ciclo solar, y afirma iniciar su cuenta un año antes de la creación. Muy similar resulta, en su estructura, el calendario chino, con 12 meses lunares y un mes adicional cada dos o tres años, según determinadas reglas. Estas reglas no eran necesarias, sin embargo, para el abuelo del calendario gregoriano que empleamos en la actualidad: tenía un año de 12 meses lunares y se añadía por decreto un mes adicional cuando el desfase entre el año lunar y el solar era demasiado notable.
Los romanos tomaron y adaptaron su calendario del calendario lunar de los Griegos, con diez meses de 30 o 31 días para un año de 304 días y 61 días de invierno que quedaban fuera del calendario. Como primer año, eligieron el de la mítica fundación de Roma por parte de Rómulo y Remo. Para que todos los meses tuvieran días nones, lo que consideraban de buena suerte, Numa Pompilio añadió al final del año los meses de enero y febrero al final del año y cambió los días de cada mes para tener un año de 355, y sólo febrero tenía días pares: 28.
En el año 46 antes de Cristo según nuestro calendario, Julio César volvió a reformar el calendario, con 365 días y un año bisiesto cada cuatro años, en el que se añadía un día a febrero, y se determinó el 1º de enero como el comienzo del año, lo cual ya tiene un enorme parecido con nuestra cuenta de los días. Este calendario nació, al parecer, de la consulta con el astrónomo Sosígenes de Alejandría, conocedor del año tropical o año solar verdadero. El año juliano tenía así un promedio de 365 días y un cuarto de día, mucho más preciso que sus predecesores.
Sin embargo, el sistema de añadido de los días en años bisiestos no fue seguido con exactitud, de hecho, el que un año fuera o no bisiesto acabó siendo una decisión personal de sucesivos pontífices, y entre sus defectos de origen y el desorden de los bisiestos, el desfase entre el calendario y el año tropical se había vuelto problemático. Echando mano de un científico, el calabrés Aloysius Lilius, el papa Gregorio XIII promulgó el calendario gregoriano en 1582, con un sistema mucho más preciso de asignación de los años bisiestos de un modo complejo pero matemáticamente más exacto: “Todos los años divisibles entre 4 son bisiestos, excepto los que son exactamente divisibles entre 100; los años que marcan siglos que sean exactamente divisibles entre 400 siguen siendo bisiestos”.
La adopción del calendario gregoriano no fue inmediata salvo por España, Portugal, la Comunidad polaco-lituana y parte de Italia. Poco a poco, primero los países europeos y después el lejano oriente adoptaron este calendario como una representación adecuada del año, además de que unificaron los sistemas comerciales y las fechas históricas. Es bien conocido que Rusia no lo adoptó sino hasta después de la revolución soviética, de modo que el día siguiente al 31 de enero de 1918 (calendario juliano) fue el 14 de febrero. El último país en adoptarlo fue Turquía, bajo el mando modernizador de Kemal Ataturk, en 1926.
Sin embargo, en este muy preciso calendario tropical o solar, una serie de hechos nos recuerdan su origen lunar: las semanas de 7 días (duración de una fase lunar), los festejos de la Pascua y la Semana Santa (entre otras fechas litúrgicas), así como la Pascua Judía o el Año Nuevo Chino, se calculan según los antiguos calendarios lunisolares, aunque nunca se logró hacer coincidir, con precisión, el ciclo lunar y el del sol.
El problema del inicioDionisio el Exiguo calculó en Roma, por métodos que desconocemos, el año del nacimiento de Cristo, situándolo 525 años antes y propuso así una nueva forma de notación de los años en lugar de la que contaba por los años de reinado. La reforma se hizo popular al paso del tiempo y finalmente se adoptó hacia el siglo X. Hoy sabemos que, según los datos que tenemos, el nacimiento de Cristo, de ser un hecho histórico, pudo ocurrir en cualquier momento entre el 18 y el 4 antes de la era común. O sea que bien podríamos estar en el 2013 o incluso en el 2027. |
El regreso de la superstición a Cuba
Campo de batalla de las propagandas en favor y en contra, el sistema médico cubano sigue siendo de un elevado nivel, hoy convertido en fuente de divisas y, desgraciadamente, en promotor de la superstición pseudomédica.
Como todo lo referente a Cuba, la situación de la medicina social de la isla es objeto de un debate más político que médico. Los más entusiastas de la revolución cubana insisten en un sistema de salud sin igual, gratuito, integral y de muy alta calidad. De otro lado, los enemigos de la revolución no sólo niegan el alcance social de la medicina cubana, sino que disputan su calidad y niegan cualquier valor a sus logros de los últimos 50 años.
Más allá de propagandas, existen contradicciones que deben evaluarse científica y médicamente. Cuba estableció desde 1959 un sólido sistema de salud para todos los habitantes, y centrado en una formación de máxima calidad para todos los profesionales de la atención a la salud. Dicho sistema fue, sin duda alguna, el más avanzado de América Latina en los años 60, 70 y 80.
En esta época, los ciudadanos cubanos tuvieron acceso a una atención que, en cualquier otro lugar del mundo, habría sido costosísima o inalcanzable. Y el gobierno cubano difundía sus logros educando, como hace hasta hoy, gratuitamente a médicos de numerosos países. De modo especial, los jóvenes de países ideológicamente identificados con Cuba, como los de Chile durante el gobierno de Salvador Allende, los de Nicaragua en los años posteriores a la caída del dictador Somoza o los venezolanos de hoy en día. Hoy, en Cuba, estudian medicina miles de alumnos de más 70 países tan diversos como Panamá, Cabo Verde, Timor Oriental o las Islas Salomón.
Gran parte de la excelente medicina social cubana se financiaba gracias a la Unión Soviética, y la caída de ésta implicó una crisis económica de la que la isla aún no se ha recuperado. Entre otras cosas, esto implicó un grave desabasto de medicamentos y materiales médico-quirúrgicos que ha afectado la calidad y el acceso a la atención del ciudadano cubano promedio.
La necesidad de divisas internacionalmente intercambiables (el peso cubano no lo es) llevó a que desde 1989 la medicina cubana se ofreciera al mercado internacional para que el gobierno cubano tuviera forma de adquirir insumos indispensables en el mercado internacional. Cuba ofrecía (y ofrece) atención médica del máximo nivel del mundo a un costo de entre 10% y 20% de lo que habría costado en un país capitalista. Esta atención a extranjeros ha llegado a ocupar el 60% de los recursos de diversas instalaciones sanitarias cubanas.
Simultáneamente, en Cuba se desarrollado una visión de la pseudomedicina como opción, prácticas charlatanescas y esotéricas resultado, en parte, de una reapropiación políticamente correcta de las tradiciones indígenas y afrocaribeñas que llevó a que, en 1993, Raúl Castro, como ministro de defensa y segundo secretario del Partido Comunista Cubano, oficializara la llamada “medicina natural y tradicional” (MNT) por medio de la directiva No. 18 al interior del ejército, que en 1995 fue sustituida por la directiva No. 26 para convertir a la MNT en práctica oficial y aceptada en Cuba. La MNT cubana adopta por igual el recetario herbolario tradicional que prácticas más extravagantes como la acupuntura, los quiromasajes, la fangoterapia y la homeopatía, y llegando incluso a propuestas absolutamente delirantes como la “piramidoterapia”.
La “piramidoterapia” es la creencia de que una pirámide con las proporciones de la Gran Pirámide de Keops en Giza atrae y acumula cierta “energía piramidal”. Esta supuesta “energía” no se ha definido en términos de sus características físicas, ni mucho menos se ha demostrado que exista, pero ello no ha sido óbice para que se postule que debajo de la figura geométrica mágica hay otra “antienergía” llamada “antipirámide”, y que ambas pueden ser almacenadas en agua que pasa a tener ciertas propiedades curativas aunque sea indistinguible del agua común.
El gran promotor de la “piramidoterapia” y la “magnetoterapia” en Cuba ha sido un personaje cercano a Raúl Castro, el Dr. Ulises Sosa Salinas, poseedor de numerosos cargos burocráticos y asociado a numerosos grupos y personajes del mundillo esotérico fuera de Cuba.
Cuando el propio gobierno, en la revista Web de los trabajadores cubanos, afirma que en 2004, en la provincia de Las Tunas, el 60% de los médicos (1.100) se dedicaban a la MNT y que con esta modalidad se “trató” a más de 632 mil pacientes, 40% del total en el año, se entiende que los cubanos están recibiendo, muy probablemente de buena fe, medicina de bajísimo nivel sólo por motivos económicos. Llama la atención, precisamente, que desde el propio Raúl Castro hasta las más diversas publicaciones insistan que no es “una alternativa ante la escasez de medicamentos industriales”, sino una serie de prácticas “científicas de probada eficacia en el mundo”, aunque no puedan sustentarlo con datos.
Como se señaló en el 1er taller "Pensamiento Racional y Pseudociencia", de la Universidad de La Habana, la Revista Cubana de Medicina General Integral ha publicado que las fresas de dentista se “autoafilan” bajo una pirámide, o que se puede “ahorrar energía” colocando el agua bajo una pirámide en vez de esterilizarla. Los participantes en el mencionado taller señalaron que ha resultado imposible publicar artículos críticos a la pseudomedicina en las revistas cubanas.
Aprovechando las creencias mágicas que también crecen en occidente, Cuba ha integrado la llamada “medicina alternativa” a su oferta turísticas, como es el caso de la “magnetoterapia” o tratamiento con imanes, que nunca ha demostrado tener ningún efecto en el cuerpo humano, pero que el sitio de turismo médico Cubamédica+com promueve como analgésico, antiinflamatorio, somnífero, tratamiento para la arteriosclerosis, para bajar de peso, como antibiótico y una serie de milagros adicionales.
No deja de ser dramático que un sistema de salud que fue admirable, movido por ideales de lo más nobles para servir a la población se vaya degradando en la forma de un sistema capaz de legitimar, sin bases científicas, afirmaciones que son no sólo irracionales, indemostrables y anticientíficas, sino profundamente peligrosas para sus víctimas.
Como todo lo referente a Cuba, la situación de la medicina social de la isla es objeto de un debate más político que médico. Los más entusiastas de la revolución cubana insisten en un sistema de salud sin igual, gratuito, integral y de muy alta calidad. De otro lado, los enemigos de la revolución no sólo niegan el alcance social de la medicina cubana, sino que disputan su calidad y niegan cualquier valor a sus logros de los últimos 50 años.
Más allá de propagandas, existen contradicciones que deben evaluarse científica y médicamente. Cuba estableció desde 1959 un sólido sistema de salud para todos los habitantes, y centrado en una formación de máxima calidad para todos los profesionales de la atención a la salud. Dicho sistema fue, sin duda alguna, el más avanzado de América Latina en los años 60, 70 y 80.
En esta época, los ciudadanos cubanos tuvieron acceso a una atención que, en cualquier otro lugar del mundo, habría sido costosísima o inalcanzable. Y el gobierno cubano difundía sus logros educando, como hace hasta hoy, gratuitamente a médicos de numerosos países. De modo especial, los jóvenes de países ideológicamente identificados con Cuba, como los de Chile durante el gobierno de Salvador Allende, los de Nicaragua en los años posteriores a la caída del dictador Somoza o los venezolanos de hoy en día. Hoy, en Cuba, estudian medicina miles de alumnos de más 70 países tan diversos como Panamá, Cabo Verde, Timor Oriental o las Islas Salomón.
Gran parte de la excelente medicina social cubana se financiaba gracias a la Unión Soviética, y la caída de ésta implicó una crisis económica de la que la isla aún no se ha recuperado. Entre otras cosas, esto implicó un grave desabasto de medicamentos y materiales médico-quirúrgicos que ha afectado la calidad y el acceso a la atención del ciudadano cubano promedio.
La necesidad de divisas internacionalmente intercambiables (el peso cubano no lo es) llevó a que desde 1989 la medicina cubana se ofreciera al mercado internacional para que el gobierno cubano tuviera forma de adquirir insumos indispensables en el mercado internacional. Cuba ofrecía (y ofrece) atención médica del máximo nivel del mundo a un costo de entre 10% y 20% de lo que habría costado en un país capitalista. Esta atención a extranjeros ha llegado a ocupar el 60% de los recursos de diversas instalaciones sanitarias cubanas.
Simultáneamente, en Cuba se desarrollado una visión de la pseudomedicina como opción, prácticas charlatanescas y esotéricas resultado, en parte, de una reapropiación políticamente correcta de las tradiciones indígenas y afrocaribeñas que llevó a que, en 1993, Raúl Castro, como ministro de defensa y segundo secretario del Partido Comunista Cubano, oficializara la llamada “medicina natural y tradicional” (MNT) por medio de la directiva No. 18 al interior del ejército, que en 1995 fue sustituida por la directiva No. 26 para convertir a la MNT en práctica oficial y aceptada en Cuba. La MNT cubana adopta por igual el recetario herbolario tradicional que prácticas más extravagantes como la acupuntura, los quiromasajes, la fangoterapia y la homeopatía, y llegando incluso a propuestas absolutamente delirantes como la “piramidoterapia”.
La “piramidoterapia” es la creencia de que una pirámide con las proporciones de la Gran Pirámide de Keops en Giza atrae y acumula cierta “energía piramidal”. Esta supuesta “energía” no se ha definido en términos de sus características físicas, ni mucho menos se ha demostrado que exista, pero ello no ha sido óbice para que se postule que debajo de la figura geométrica mágica hay otra “antienergía” llamada “antipirámide”, y que ambas pueden ser almacenadas en agua que pasa a tener ciertas propiedades curativas aunque sea indistinguible del agua común.
El gran promotor de la “piramidoterapia” y la “magnetoterapia” en Cuba ha sido un personaje cercano a Raúl Castro, el Dr. Ulises Sosa Salinas, poseedor de numerosos cargos burocráticos y asociado a numerosos grupos y personajes del mundillo esotérico fuera de Cuba.
Cuando el propio gobierno, en la revista Web de los trabajadores cubanos, afirma que en 2004, en la provincia de Las Tunas, el 60% de los médicos (1.100) se dedicaban a la MNT y que con esta modalidad se “trató” a más de 632 mil pacientes, 40% del total en el año, se entiende que los cubanos están recibiendo, muy probablemente de buena fe, medicina de bajísimo nivel sólo por motivos económicos. Llama la atención, precisamente, que desde el propio Raúl Castro hasta las más diversas publicaciones insistan que no es “una alternativa ante la escasez de medicamentos industriales”, sino una serie de prácticas “científicas de probada eficacia en el mundo”, aunque no puedan sustentarlo con datos.
Como se señaló en el 1er taller "Pensamiento Racional y Pseudociencia", de la Universidad de La Habana, la Revista Cubana de Medicina General Integral ha publicado que las fresas de dentista se “autoafilan” bajo una pirámide, o que se puede “ahorrar energía” colocando el agua bajo una pirámide en vez de esterilizarla. Los participantes en el mencionado taller señalaron que ha resultado imposible publicar artículos críticos a la pseudomedicina en las revistas cubanas.
Aprovechando las creencias mágicas que también crecen en occidente, Cuba ha integrado la llamada “medicina alternativa” a su oferta turísticas, como es el caso de la “magnetoterapia” o tratamiento con imanes, que nunca ha demostrado tener ningún efecto en el cuerpo humano, pero que el sitio de turismo médico Cubamédica+com promueve como analgésico, antiinflamatorio, somnífero, tratamiento para la arteriosclerosis, para bajar de peso, como antibiótico y una serie de milagros adicionales.
No deja de ser dramático que un sistema de salud que fue admirable, movido por ideales de lo más nobles para servir a la población se vaya degradando en la forma de un sistema capaz de legitimar, sin bases científicas, afirmaciones que son no sólo irracionales, indemostrables y anticientíficas, sino profundamente peligrosas para sus víctimas.
Los peligros de la pseudomedicina"Según referencias de algunos participantes, ciertos procederes ‘curativos’ no aprobados por el sistema de salud pública han sido seleccionados por algunos pacientes en detrimento de terapias convencionales de probada eficacia (como, por ejemplo, la hemodiálisis ó una operación de vesícula), con las correspondientes consecuencias negativas para la salud, e incluso para la vida”. Memorias del 1er taller "Pensamiento Racional y Pseudociencia", La Habana 2007. |
Feliz Día del Sol Invicto
La fiesta central del cristianismo, la navidad, resulta ser una derivación de todas las fiesta que, antes de la era común, celebraban el solsticio de invierno como un acontecimiento astronómico esencial en la vida de los pueblos humanos.
Por un momento trate de no ser esa persona del siglo XXI, orgullosa de su consola de juegos, su móvil de última generación, su TDT y su ordenador. Imagínese como un humano de hace unos miles de años, que observa un extraño fenómeno cíclico: de pronto, los días son cada vez más largos, el sol está más tiempo por encima del horizonte y la noche dura menos, hasta que un día empieza a revertirse esta tendencia: el día decrece en duración y la noche va aumentando su duración, hasta que, un día, el ciclo vuelve a revertirse.
Parece claro que era natural que usted y sus compañeros de fatigas se alarmaran temiendo que el día siguiera acortándose hasta dejarnos sumidos en una noche eterna, y por tanto que encontraran motivo de celebración cuando el ciclo se invierte. Sobre todo porque le resulta evidente que mientras el día se va alargando hay más calor, la tierra tiene mejores frutos, hay caza abundante y el mundo reverdece, mientras que cuando el día se contrae viene el frío, incluso la nieve y el hielo, no hay frutas ni muchos alimentos verdes, la caza escasea.
Al no saber mucho de astronomía, el fenómeno del día después de la noche más larga bien podría interpretarse como un triunfo del sol contra la oscuridad, después de una larga lucha, prometiéndole a la tribu un año más de supervivencia, lo cual nunca es mala noticia.
Y ahora imagínese que alguien de la tribu, luego de mucho ver el cielo y mucho cavilar, anuncia que puede predecir, profetizar, adivinar, cuándo ocurrirán estos hechos: el día más largo (el solsticio de verano) y el más corto (el solsticio de invierno). Quizá ni siquiera haya contado los días, sólo ha observado que en la noche más larga, las tres estrellas del “cinturón de Orión” se alinean con la estrella más brillante del firmamento, Sirio, mostrando dónde saldrá el sol en el próximo amanecer.
Evidentemente, se podría creer que tal acucioso observador dispone de poderes mágicos, adivinatorios y extraterrenos. Pero también sería un hecho que su conocimiento le permitía al grupo planificar mejor sus actividades, prever exactamente cuándo comenzarían las lluvias, cuándo llegarían las manadas migratorias, cuándo era oportuno ir a recolectar a tal o cual zona del bosque.
Las distintas civilizaciones hicieron interpretaciones, muy similares, del solsticio de invierno. Agréguese a esto que la menor actividad agrícola y de caza de la tribu dejaba el tiempo necesario para el jolgorio, y que si las alacenas y graneros continuaban llenos se podía celebrar con una comilona porque pronto vendrían nuevos alimentos, y tiene todos los ingredientes necesarios para una fiesta.
Los japoneses del siglo VII celebraban el resurgimiento de la diosa solar Amaterasu. Los sámi, nativos de Finlandia, Suecia y Noruega, sacrificaban animales hembra y cubrían los postes de sus puertas con mantequilla para que Beiwe, la diosa del sol, se almentara y pudiera comenzar nuevamente su viaje. Para los zoroastrianos, en este “día del sol” el dios Ahura Mazda logra vencer al malvado Ahriman, empeñado en engañar a los humanos. Los incas de perú celebrabal el Festival del Sol o Inti Raymi, cuando “ataban” al sol para que no huyera. Los mayas realizaban cinco días de inactividad, días sin nombre, los Uayeb, cuando se unían el mundo real y el mundo espiritual, hasta que empezaba otro año.
En la Roma del siglo tercero de nuestra era, la celebración era del Dies Natalis Solis Invicti, “el día del nacimiento del sol invicto”, el renacimiento del sol.
Dado que la fecha de nacimiento de Jesucristo, Yeshua de Nazaret o el Mesías no está registrada, como tampoco lo está claramente su existencia individual, la iglesia católica tardó en definir la fecha de la festividad en cuestión. Entretanto, los cristianos de Roma empezaron a celebrar el nacimiento de Cristo precisamente el día del nacimiento del sol invicto, aunque había grupos, por ejemplo en Egipto, que lo celebraban el 6 de enero. Otros preferían el 28 de marzo, mientras que teólogos como Orígenes de Alejandría y Arnobius se oponían a toda celebración del nacimiento, afirmando que era absurdo pensar que los dioses nacen.
Las autoridades de la iglesia condenaron al principio esta celebración por considerarla pagana, pero pronto vieron que asimilar esta y otras fiestas, de distintos grupos que pretendían evangelizar, resultaba útil. Así, los días anteriores a Navidad, por decreto el 25 de diciembre, se convirtieron en fiestas que asimilaron la Saturnalia romana, del 17 al 23 de diciembre, con sus panes de dulce e intercambios de regalos.
Santa Claus (deformación lingüística de Saint Nicholas o Saint Nikolaus, San Nicolás) o Papá Noél proviene del Padre Navidad, que aparece hacia el siglo XVI como figura de las celebraciones de invierno del mundo anglosajón, de rojos carrillos por haber tomado quizá un vino de más, viejo como la fiesta misma y alegre como deben estar los celebrantes. La figura del Santa Claus moderno fue creada por el viñetista Thomas Nast en Estados Unidos en 1863, que convirió al delgaducho Padre Navidad en el redondo y feliz personaje que hoy está más o menos estandarizado en todo el mundo.
El árbol de Navidad, por su parte, parece tener raíces en la adoración druídica a los árboles y las celebraciones del invierno con árboles de hoja perenne, pero se identifica como parte de las fiestas, decorado y engalanado, apenas en el siglo XVII, en Alemania. Después, el marido de la Reina Victoria, el Príncipe Alberto, emprendería la tarea de popularizarlo en todo su imperio.
Más que el árbol de Navidad, claramente de origen protestante, el Belén, “pesebre” o “nacimiento” es el elemento identificador de la decoración en los países católicos. Fue primero promovido por San Francisco de Asís alrededor del 1220, a la vuelta de su viaje a Egipto y Acre, pero el primer Belén del tipo moderno, el que todos conocemos, se originó en uno que instalaron los Jesuitas en Praga, en 1562. La tradición del Belén llegó a España en el siglo XVIII desde Nápoles, traída al parecer por orden de Carlos III, decidido a que se popularizara en sus dominios.
![]() |
Disco de plata dedicado al Sol Invicto. Arte romano del siglo III. (Foto CC de Marie-Lan Nguyen vía Wikimedia Commons) |
Parece claro que era natural que usted y sus compañeros de fatigas se alarmaran temiendo que el día siguiera acortándose hasta dejarnos sumidos en una noche eterna, y por tanto que encontraran motivo de celebración cuando el ciclo se invierte. Sobre todo porque le resulta evidente que mientras el día se va alargando hay más calor, la tierra tiene mejores frutos, hay caza abundante y el mundo reverdece, mientras que cuando el día se contrae viene el frío, incluso la nieve y el hielo, no hay frutas ni muchos alimentos verdes, la caza escasea.
Al no saber mucho de astronomía, el fenómeno del día después de la noche más larga bien podría interpretarse como un triunfo del sol contra la oscuridad, después de una larga lucha, prometiéndole a la tribu un año más de supervivencia, lo cual nunca es mala noticia.
Y ahora imagínese que alguien de la tribu, luego de mucho ver el cielo y mucho cavilar, anuncia que puede predecir, profetizar, adivinar, cuándo ocurrirán estos hechos: el día más largo (el solsticio de verano) y el más corto (el solsticio de invierno). Quizá ni siquiera haya contado los días, sólo ha observado que en la noche más larga, las tres estrellas del “cinturón de Orión” se alinean con la estrella más brillante del firmamento, Sirio, mostrando dónde saldrá el sol en el próximo amanecer.
Evidentemente, se podría creer que tal acucioso observador dispone de poderes mágicos, adivinatorios y extraterrenos. Pero también sería un hecho que su conocimiento le permitía al grupo planificar mejor sus actividades, prever exactamente cuándo comenzarían las lluvias, cuándo llegarían las manadas migratorias, cuándo era oportuno ir a recolectar a tal o cual zona del bosque.
Las distintas civilizaciones hicieron interpretaciones, muy similares, del solsticio de invierno. Agréguese a esto que la menor actividad agrícola y de caza de la tribu dejaba el tiempo necesario para el jolgorio, y que si las alacenas y graneros continuaban llenos se podía celebrar con una comilona porque pronto vendrían nuevos alimentos, y tiene todos los ingredientes necesarios para una fiesta.
Los japoneses del siglo VII celebraban el resurgimiento de la diosa solar Amaterasu. Los sámi, nativos de Finlandia, Suecia y Noruega, sacrificaban animales hembra y cubrían los postes de sus puertas con mantequilla para que Beiwe, la diosa del sol, se almentara y pudiera comenzar nuevamente su viaje. Para los zoroastrianos, en este “día del sol” el dios Ahura Mazda logra vencer al malvado Ahriman, empeñado en engañar a los humanos. Los incas de perú celebrabal el Festival del Sol o Inti Raymi, cuando “ataban” al sol para que no huyera. Los mayas realizaban cinco días de inactividad, días sin nombre, los Uayeb, cuando se unían el mundo real y el mundo espiritual, hasta que empezaba otro año.
En la Roma del siglo tercero de nuestra era, la celebración era del Dies Natalis Solis Invicti, “el día del nacimiento del sol invicto”, el renacimiento del sol.
Dado que la fecha de nacimiento de Jesucristo, Yeshua de Nazaret o el Mesías no está registrada, como tampoco lo está claramente su existencia individual, la iglesia católica tardó en definir la fecha de la festividad en cuestión. Entretanto, los cristianos de Roma empezaron a celebrar el nacimiento de Cristo precisamente el día del nacimiento del sol invicto, aunque había grupos, por ejemplo en Egipto, que lo celebraban el 6 de enero. Otros preferían el 28 de marzo, mientras que teólogos como Orígenes de Alejandría y Arnobius se oponían a toda celebración del nacimiento, afirmando que era absurdo pensar que los dioses nacen.
Las autoridades de la iglesia condenaron al principio esta celebración por considerarla pagana, pero pronto vieron que asimilar esta y otras fiestas, de distintos grupos que pretendían evangelizar, resultaba útil. Así, los días anteriores a Navidad, por decreto el 25 de diciembre, se convirtieron en fiestas que asimilaron la Saturnalia romana, del 17 al 23 de diciembre, con sus panes de dulce e intercambios de regalos.
Santa Claus (deformación lingüística de Saint Nicholas o Saint Nikolaus, San Nicolás) o Papá Noél proviene del Padre Navidad, que aparece hacia el siglo XVI como figura de las celebraciones de invierno del mundo anglosajón, de rojos carrillos por haber tomado quizá un vino de más, viejo como la fiesta misma y alegre como deben estar los celebrantes. La figura del Santa Claus moderno fue creada por el viñetista Thomas Nast en Estados Unidos en 1863, que convirió al delgaducho Padre Navidad en el redondo y feliz personaje que hoy está más o menos estandarizado en todo el mundo.
El árbol de Navidad, por su parte, parece tener raíces en la adoración druídica a los árboles y las celebraciones del invierno con árboles de hoja perenne, pero se identifica como parte de las fiestas, decorado y engalanado, apenas en el siglo XVII, en Alemania. Después, el marido de la Reina Victoria, el Príncipe Alberto, emprendería la tarea de popularizarlo en todo su imperio.
Más que el árbol de Navidad, claramente de origen protestante, el Belén, “pesebre” o “nacimiento” es el elemento identificador de la decoración en los países católicos. Fue primero promovido por San Francisco de Asís alrededor del 1220, a la vuelta de su viaje a Egipto y Acre, pero el primer Belén del tipo moderno, el que todos conocemos, se originó en uno que instalaron los Jesuitas en Praga, en 1562. La tradición del Belén llegó a España en el siglo XVIII desde Nápoles, traída al parecer por orden de Carlos III, decidido a que se popularizara en sus dominios.
Rosca de ReyesCon raíces en los panes con higos, dátiles y miel que se repartían en la Saturnalia romana, ya en el siglo III se le introducía un haba o similar, y el que la hallaba era nombrado “rey de la fiesta”. Llegó a España probablemente con los soldados repatriados de Flandes y su relación con los reyes magos parece ser, únicamente, la similitud de su forma con una corona y de los frutos cristalizados con sus correspondientes joyas. |
Diez libros para navidad
La ciencia de Leonardo, Fritjof Capra, Anagrama (Barcelona) 2008. Una nueva visita a los espacios del genio de Leonardo Da Vinci, visto en su faceta de pionero del método científico, de, en palabras del autor “padre no reconocido de la ciencia moderna”. Una primera parte dedicada a Leonardo, el hombre, que en muchos sentidos sigue atrayéndonos como misterio, se ve seguida de una segunda parte en la que Fritjof recorre el surgimiento de la ciencia en el Renacimiento y el papel jugado por el espíritu inquisitivo, curioso e irreverente de Leonardo, que con la mirada del artista va, nos dice el libro, más allá de Newton, Galileo y Descartes.
El cisne negro Nassim Nicholas Taleb, Paidós, (Barcelona) 2008. El autor, experto en matemáticas financieras y en la teoría de lo improbable, afirma que los sucesos altamente improbables (los “cisnes negros” como los que al ser hallados en Australia hicieron mentira la afirmación de “todos los cisnes son blancos”) juegan un papel mucho más importante en nuestra vida cotidiana, en asuntos tan diversos como las ciencias y las finanzas, del que hemos reconocido hasta ahora. El estudio de lo improbable, nos dice, pone a quien estudia lo “imposible” en posición privilegiada para enfrentar y manejar lo “posible”.
El científico rebelde, Freeman J. Dyson, Editorial Debate (Barcelona) 2008. Colección de ensayos publicada originalmente en 2006. El físico y matemático a más de activista por el desarme nuclear, contra el nacionalismo y por la cooperación internacional, resume en este volumen su visión de la ciencia como acto de rebelión “contra las restricciones impuestas por la cultura localmente prevaleciente”, pero sin dejar de contemplar a la ciencia como una actividad humana, con todas las virtudes y defectos de quienes la practican. El libro, antes que ofrecer respuestas cómodas, plantea al lector desafíos sobre el mundo que nos rodea.
Yo soy un extraño bucle, Douglas R. Hofstadter, Tusquets Editores (Barcelona) 2008. Hofstadter llegó al mundo de la filosofía de la ciencia como un ciclón con su libro Gödel, Escher, Bach, en el que exploraba el mundo de la autorreferencia en las matemáticas, el arte y la música. En este libro, no menos ambicioso, se ocupa de investigar si nuestra identidad, nuestra conciencia individual, surge de la simple materia hasta convertirse en un extraño bucle en el cerebro donde los símbolos y la realidad conviven e interactúan. Y al final presenta argumentos indudablemente originales sobre lo que es el “yo” de cada uno de nosotros.
El robot enamorado: una historia de la inteligencia artificial, Félix Ares, Ariel (Barcelona) 2008. Félix Ares, experto en informática y profesor universitario, nos lleva a un recorrido histórico que comienza con los autómatas de la realidad y la fantasía que surgen en la antigua Grecia y llega hasta las propuestas más audaces de nuestros días para llegar a la inteligencia artificial. En el proceso, el autor nos muestra cómo la idea de los ordenadores, computadoras y robots se ha integrado a la cultura popular, en la literatura, el cómic, el cine y la televisión, para dejar testimonio de lo que se está haciendo hoy en este terreno para muchos inquietante.
365 días para ser más culto, David S. Kidder, Noah S. Oppenheim, Ediciones Martínez Roca (Madrid) 2008. Una idea que puede cambiar al lector profundamente: 365 artículos sobre distintas ramas del conocimiento, cada uno escrito por un especialista en arte, ciencia, filosofía, etc. La idea es que usted lea uno al día durante un año. Cada uno se puede leer en cinco o diez minutos, y al final del ejercicio, si todo sale bien, será dueño de una cultura general envidiable. Como cualquier otro proyecto a largo plazo, sin embargo, probablemente requiere un compromiso personal que la mayoría de nosotros no puede asumir. Vale la pena intentarlo.
Un día en la vida del cuerpo humano, Jennifer Ackerman, Ariel (Barcelona) 2008. La autora, especialista en divulgación de la ciencia, nos lleva por un camino que va del despertar matutino a la “hora del lobo”. Mientras los medios de comunicación nos invitan a estar alertas a nuestro cuerpo, la realidad es que no ponen a nuestro alcance un conocimiento de cómo somos realmente, como funciona esa maquinaria que es cada uno de nosotros. Desde el hambre hasta el deseo sexual, desde los ritmos de nuestro reloj interno hasta los más recientes descubrimientos de la fisiología, es una oportunidad de introspección real.
Los 10 experimentos más hermosos de la ciencia, George Johnson, Ariel (Barcelona) 2008. La ciencia, ya sea vista desde fuera o como su practicante, no sólo tiene la enorme ventaja de ser comprobable, verdadera o ciertaen la medida en que tal vocablo tiene sentido. También es una experiencia profundamente estética, donde hay elegancia, belleza y fuentes para el asombro. Celebrado por su estilo, el autor, uno de los divulgadores científicos del New York Times, hace un homenaje a diez científicos y a sus experimentos, recordándonos que el pensamiento científico se cimenta, ante todo, sobre la experiencia y la práctica.
El corazón de la materia, Ignacio García Valiño, Random House Mondadori (Barcelona) 2008. Esta novela de reciente aparición, escrita por el psicólogo y divulgador científico Ignacio García Valiño, miembro del Círculo Escéptico, destaca por el rigor con el que aborda los muchos aspectos científicos de su trama. Desde su protagonista, un físico especializado en quarks, hasta la aventura tipo thriller en la que se embarca con elementos arqueológicos son objeto de cuidadosos retratos donde la intriga vive en el mundo del conocimiento y del pensamiento crítico como herramienta dramática, sin concesiones.
Ideas e inventos de un milenio: 900-1900, Javier Ordóñez, Lunwerg (Barcelona) 2008. La calidad de este volumen, ampliamente ilustrado, le da cierto carácter ideal para la temporada de fiestas. Javier Ordóñez, su autor, ha publicado previamente una Historia de la ciencia y un resumen de las teorías del universo en tres volúmenes, entre otras obras, y es catedrático de historia de la ciencia en la Universidad Autónoma de Madrid. Los inventos del milenio elegido para este recorrido son multitud y marcan un cambio en el camino de la humanidad más acusado, más definitivo, que ningún otro milenio en la historia. Aquí encontramos, ilustrados con material de sus respectivas épocas, esas ideas revolucionarias y esos inventos que dan testimonio de cómo la imaginación humana, actuando de la mano de la razón, produce resultados que han dado forma nueva a nuestro mundo, a nuestra visión del universo, a nuestro conocimiento de nosotros mismos, alterando no sólo lo aparentemente más trascendente, sino también actuando sobre nuestra cotidianidad, sobre el humilde día a día de la mujer y el hombre que hoy viven de un modo imaginable en el año 900. Desde esos productos de la pasión por saber que brillaron en la Edad Media y colaboraron a sentar las bases de la revolución científica del siglo XVI hasta los que anunciaron la revolución científica del siglo XX. La ciencia como propiedad de todos en un volumen de notable belleza.
El cisne negro Nassim Nicholas Taleb, Paidós, (Barcelona) 2008. El autor, experto en matemáticas financieras y en la teoría de lo improbable, afirma que los sucesos altamente improbables (los “cisnes negros” como los que al ser hallados en Australia hicieron mentira la afirmación de “todos los cisnes son blancos”) juegan un papel mucho más importante en nuestra vida cotidiana, en asuntos tan diversos como las ciencias y las finanzas, del que hemos reconocido hasta ahora. El estudio de lo improbable, nos dice, pone a quien estudia lo “imposible” en posición privilegiada para enfrentar y manejar lo “posible”.
El científico rebelde, Freeman J. Dyson, Editorial Debate (Barcelona) 2008. Colección de ensayos publicada originalmente en 2006. El físico y matemático a más de activista por el desarme nuclear, contra el nacionalismo y por la cooperación internacional, resume en este volumen su visión de la ciencia como acto de rebelión “contra las restricciones impuestas por la cultura localmente prevaleciente”, pero sin dejar de contemplar a la ciencia como una actividad humana, con todas las virtudes y defectos de quienes la practican. El libro, antes que ofrecer respuestas cómodas, plantea al lector desafíos sobre el mundo que nos rodea.
Yo soy un extraño bucle, Douglas R. Hofstadter, Tusquets Editores (Barcelona) 2008. Hofstadter llegó al mundo de la filosofía de la ciencia como un ciclón con su libro Gödel, Escher, Bach, en el que exploraba el mundo de la autorreferencia en las matemáticas, el arte y la música. En este libro, no menos ambicioso, se ocupa de investigar si nuestra identidad, nuestra conciencia individual, surge de la simple materia hasta convertirse en un extraño bucle en el cerebro donde los símbolos y la realidad conviven e interactúan. Y al final presenta argumentos indudablemente originales sobre lo que es el “yo” de cada uno de nosotros.
El robot enamorado: una historia de la inteligencia artificial, Félix Ares, Ariel (Barcelona) 2008. Félix Ares, experto en informática y profesor universitario, nos lleva a un recorrido histórico que comienza con los autómatas de la realidad y la fantasía que surgen en la antigua Grecia y llega hasta las propuestas más audaces de nuestros días para llegar a la inteligencia artificial. En el proceso, el autor nos muestra cómo la idea de los ordenadores, computadoras y robots se ha integrado a la cultura popular, en la literatura, el cómic, el cine y la televisión, para dejar testimonio de lo que se está haciendo hoy en este terreno para muchos inquietante.
365 días para ser más culto, David S. Kidder, Noah S. Oppenheim, Ediciones Martínez Roca (Madrid) 2008. Una idea que puede cambiar al lector profundamente: 365 artículos sobre distintas ramas del conocimiento, cada uno escrito por un especialista en arte, ciencia, filosofía, etc. La idea es que usted lea uno al día durante un año. Cada uno se puede leer en cinco o diez minutos, y al final del ejercicio, si todo sale bien, será dueño de una cultura general envidiable. Como cualquier otro proyecto a largo plazo, sin embargo, probablemente requiere un compromiso personal que la mayoría de nosotros no puede asumir. Vale la pena intentarlo.
Un día en la vida del cuerpo humano, Jennifer Ackerman, Ariel (Barcelona) 2008. La autora, especialista en divulgación de la ciencia, nos lleva por un camino que va del despertar matutino a la “hora del lobo”. Mientras los medios de comunicación nos invitan a estar alertas a nuestro cuerpo, la realidad es que no ponen a nuestro alcance un conocimiento de cómo somos realmente, como funciona esa maquinaria que es cada uno de nosotros. Desde el hambre hasta el deseo sexual, desde los ritmos de nuestro reloj interno hasta los más recientes descubrimientos de la fisiología, es una oportunidad de introspección real.
Los 10 experimentos más hermosos de la ciencia, George Johnson, Ariel (Barcelona) 2008. La ciencia, ya sea vista desde fuera o como su practicante, no sólo tiene la enorme ventaja de ser comprobable, verdadera o ciertaen la medida en que tal vocablo tiene sentido. También es una experiencia profundamente estética, donde hay elegancia, belleza y fuentes para el asombro. Celebrado por su estilo, el autor, uno de los divulgadores científicos del New York Times, hace un homenaje a diez científicos y a sus experimentos, recordándonos que el pensamiento científico se cimenta, ante todo, sobre la experiencia y la práctica.
El corazón de la materia, Ignacio García Valiño, Random House Mondadori (Barcelona) 2008. Esta novela de reciente aparición, escrita por el psicólogo y divulgador científico Ignacio García Valiño, miembro del Círculo Escéptico, destaca por el rigor con el que aborda los muchos aspectos científicos de su trama. Desde su protagonista, un físico especializado en quarks, hasta la aventura tipo thriller en la que se embarca con elementos arqueológicos son objeto de cuidadosos retratos donde la intriga vive en el mundo del conocimiento y del pensamiento crítico como herramienta dramática, sin concesiones.
Ideas e inventos de un milenio: 900-1900, Javier Ordóñez, Lunwerg (Barcelona) 2008. La calidad de este volumen, ampliamente ilustrado, le da cierto carácter ideal para la temporada de fiestas. Javier Ordóñez, su autor, ha publicado previamente una Historia de la ciencia y un resumen de las teorías del universo en tres volúmenes, entre otras obras, y es catedrático de historia de la ciencia en la Universidad Autónoma de Madrid. Los inventos del milenio elegido para este recorrido son multitud y marcan un cambio en el camino de la humanidad más acusado, más definitivo, que ningún otro milenio en la historia. Aquí encontramos, ilustrados con material de sus respectivas épocas, esas ideas revolucionarias y esos inventos que dan testimonio de cómo la imaginación humana, actuando de la mano de la razón, produce resultados que han dado forma nueva a nuestro mundo, a nuestra visión del universo, a nuestro conocimiento de nosotros mismos, alterando no sólo lo aparentemente más trascendente, sino también actuando sobre nuestra cotidianidad, sobre el humilde día a día de la mujer y el hombre que hoy viven de un modo imaginable en el año 900. Desde esos productos de la pasión por saber que brillaron en la Edad Media y colaboraron a sentar las bases de la revolución científica del siglo XVI hasta los que anunciaron la revolución científica del siglo XX. La ciencia como propiedad de todos en un volumen de notable belleza.
Franklin: el americano ilustrado
Para la Europa del siglo XVIII la imagen de los Estados Unidos como nación ilustrada, democrática y libertaria se encarnaba en Benjamín Franklin, verdadero hombre del renacimiento entre los fundadores del nuevo país.
Menor de los hijos varones de la pareja formada por el fabricante de velas de sebo y jabón Josiah Franklin y Abiah Folger (octavo vástago de la pareja y decimoquinto de su padre, que había enviudado de su primera esposa), Benjamín Franklin estaba destinado por su padre a convertirse en ministro de la iglesia. Nacido el 17 de enero de 1706 en Boston, su educación formal terminó sin embargo a los 10 años, pues su familia no contaba con los medios de pagarle estudios.
Probablemente fue lo mejor para Franklin, para su país y para el mundo.
Franklin forjó su propia educación leyendo vorazmente. Después de un breve lapso como aprendiz renuente del oficio de su padre, su afición por la lectura pesó para que se le enviara a los 12 años a trabajar con su hermano mayor James, que ya estaba establecido como impresor, y con el que terminaría en un enfrentamiento debido al carácter autocrático del mayor y el espíritu independiente del menor. Franklin marchó a Filadelfia a los 18 años sin blanca ni planes claros.
Filadelfia, con la tolerancia religiosa y diversidad étnica del estado de Pennsylvania, casó bien con el espíritu del joven Franklin. Luego de trabajar en varias imprentas, el gobernador de Pennsylvania le ofreció apoyo para establecer su propia empresa, y lo envió a Londres a comprar una imprenta, pero sin proporcionarle dinero. En Londres, Franklin probó las virtudes y excesos de la vieja Europa, empleándose de nuevo con impresores, hasta que consigió volver a los 20 años.
Cuando consiguió establecer su propia imprenta editó el exitoso semanario The Pennsylvania Gazette y su famoso almanaque Poor Richard’s Almanack, libro anual que vio como una forma de educar a la ciudadanía. En 1736 se inició en política, donde creó un cuerpo de bomberos voluntarios, un orfanato y una lotería para financiar cañones que defendieran la ciudad, y propuso crear un colegio que hoy es la Universidad de Pennsylvania y el Hospital de Pennsylvania, el primero del nuevo país.
Fue a los 42 años, cuando su genio creador científico echó a volar, cuando pudo permitirse una jubilación temprana. Su diseño de la “estufa Franklin” mejoró la calefacción en la ciudad y redujo los riesgos de incendio de Filadelfia y marcó el inicio de su actividad en la ciencia.
Después de ver una serie de demostraciones sobre electricidad, especialmente la “botella de Leyden” y su espectacular capacidad de almacenar la electricidad estática, empezó sus experimentos con la electricidad. Fue el primero en sugerir que los rayos eran electricidad natural, para demostrar lo cual realizó experiencias con barras metálicas que conducían la electricidad de los rayos y que más adelante se convertirían en uno de los más perdurables inventos del todavía súbdito inglés: el pararrayos. En 1752, su famoso experimento con la cometa demostrando que el relámpago era, efectivamente, electricidad. El riesgo de ese experimento hace poco recomendable repetirlo. No era la primera vez en que Franklin cortejaba el desastre con sus experimentos: en una ocasión, intentando matar su pavo de Navidad con corriente eléctrica, estuvo a punto de electrocutarse al administrarse accidentalmente la carga.
Estos esfuerzos le valieron títulos honoríficos de Harvard, Yale y otros colegios universitarios, además de la medalla de oro de la Real Sociedad de Londres. Y mientras se ocupaba de la meteorología, proponiendo modelos para los sistemas tormentosos; de la medicina, inventando el catéter, y teorizando sobre la circulación de la sangre; de la agronomía buscando mejores técnicas para evitar el desperdicio de tierras arables e introduciendo la agricultura en el plan de estudios de la universidad de Pennsylvania, además de fundar la primera compañía de seguros contra incendios.
Franklin fue comisionado a ir a Inglaterra para negociar la situación de la colonia de Pennsylvania con los herederos de su fundador, William Penn. Aunque sus negociaciones fracasaron, la estancia de tres años le permitió, con más de 50 años, aprender a tocar el arpa, la guitarra y el violín, e inventar la armónica de cristal. Igualmente, observó que las tormentas no siempre viajan en la dirección de los vientos dominantes e hizo experimentos sobre el enfiamiento por evaporación.
A su regreso entró en franca colisión con los herederos de William Penn por su defensa de un grupo de indígenas americanos mientras los dueños de la colonia favorecían el genocidio como “solución” al problema de los indios. Franklin marchó de nuevo a Inglaterra para pedir a la corona británica su dominio directo sobre Pennsylvania sin la intervención de la familia Penn. El monarca se negó, pero Franklin se quedó como representante de las colonias y su oposición a los elevados impuestos fijados por la corona, y llegó a ser juzgado por incitar el naciente independismo. Volvió a América en 1775, como un independentista convencido.
A los 69 fue nombrado delegado ante el Segundo Congreso Continental, donde los líderes de las 13 colonias analizaron su futura relación con Gran Bretaña. Franklin propuso la unión de las colonias en una sola confederación nacional, que más tarde sería el modelo de la constitución estadounidense. El Congreso lo puso al frente de la organización de la defensa de las colonias y de un comité secreto encargado de las relaciones de los rebeldes con los países extranjeros. En 1776 fue uno de los encargados de redactar la Declaración de Independencia de Estados Unidos, y poco después partió de nuevo a Europa buscando aliados. En París, aquejado por sus problemas de la vista, inventó los anteojos bifocales.
Al volver en 1785 fue electo presidente del estado. Participó en el Congreso Constituyente que y sugirió que los estados europeos formaran una federación con un gobierno central, prefigurando la actual Unión Europea. Todavía tuvo tiempo de apoyar la Revolución Francesa y de convertirse en un activo opositor a la esclavitud antes de morir rodeado de sus nietos el 17 de abril de 1790 considerándose siempre, nada más, un hombre común, un ciudadano más de Filadelfia.
Menor de los hijos varones de la pareja formada por el fabricante de velas de sebo y jabón Josiah Franklin y Abiah Folger (octavo vástago de la pareja y decimoquinto de su padre, que había enviudado de su primera esposa), Benjamín Franklin estaba destinado por su padre a convertirse en ministro de la iglesia. Nacido el 17 de enero de 1706 en Boston, su educación formal terminó sin embargo a los 10 años, pues su familia no contaba con los medios de pagarle estudios.
Probablemente fue lo mejor para Franklin, para su país y para el mundo.
Franklin forjó su propia educación leyendo vorazmente. Después de un breve lapso como aprendiz renuente del oficio de su padre, su afición por la lectura pesó para que se le enviara a los 12 años a trabajar con su hermano mayor James, que ya estaba establecido como impresor, y con el que terminaría en un enfrentamiento debido al carácter autocrático del mayor y el espíritu independiente del menor. Franklin marchó a Filadelfia a los 18 años sin blanca ni planes claros.
Filadelfia, con la tolerancia religiosa y diversidad étnica del estado de Pennsylvania, casó bien con el espíritu del joven Franklin. Luego de trabajar en varias imprentas, el gobernador de Pennsylvania le ofreció apoyo para establecer su propia empresa, y lo envió a Londres a comprar una imprenta, pero sin proporcionarle dinero. En Londres, Franklin probó las virtudes y excesos de la vieja Europa, empleándose de nuevo con impresores, hasta que consigió volver a los 20 años.
Cuando consiguió establecer su propia imprenta editó el exitoso semanario The Pennsylvania Gazette y su famoso almanaque Poor Richard’s Almanack, libro anual que vio como una forma de educar a la ciudadanía. En 1736 se inició en política, donde creó un cuerpo de bomberos voluntarios, un orfanato y una lotería para financiar cañones que defendieran la ciudad, y propuso crear un colegio que hoy es la Universidad de Pennsylvania y el Hospital de Pennsylvania, el primero del nuevo país.
Fue a los 42 años, cuando su genio creador científico echó a volar, cuando pudo permitirse una jubilación temprana. Su diseño de la “estufa Franklin” mejoró la calefacción en la ciudad y redujo los riesgos de incendio de Filadelfia y marcó el inicio de su actividad en la ciencia.
Después de ver una serie de demostraciones sobre electricidad, especialmente la “botella de Leyden” y su espectacular capacidad de almacenar la electricidad estática, empezó sus experimentos con la electricidad. Fue el primero en sugerir que los rayos eran electricidad natural, para demostrar lo cual realizó experiencias con barras metálicas que conducían la electricidad de los rayos y que más adelante se convertirían en uno de los más perdurables inventos del todavía súbdito inglés: el pararrayos. En 1752, su famoso experimento con la cometa demostrando que el relámpago era, efectivamente, electricidad. El riesgo de ese experimento hace poco recomendable repetirlo. No era la primera vez en que Franklin cortejaba el desastre con sus experimentos: en una ocasión, intentando matar su pavo de Navidad con corriente eléctrica, estuvo a punto de electrocutarse al administrarse accidentalmente la carga.
Estos esfuerzos le valieron títulos honoríficos de Harvard, Yale y otros colegios universitarios, además de la medalla de oro de la Real Sociedad de Londres. Y mientras se ocupaba de la meteorología, proponiendo modelos para los sistemas tormentosos; de la medicina, inventando el catéter, y teorizando sobre la circulación de la sangre; de la agronomía buscando mejores técnicas para evitar el desperdicio de tierras arables e introduciendo la agricultura en el plan de estudios de la universidad de Pennsylvania, además de fundar la primera compañía de seguros contra incendios.
Franklin fue comisionado a ir a Inglaterra para negociar la situación de la colonia de Pennsylvania con los herederos de su fundador, William Penn. Aunque sus negociaciones fracasaron, la estancia de tres años le permitió, con más de 50 años, aprender a tocar el arpa, la guitarra y el violín, e inventar la armónica de cristal. Igualmente, observó que las tormentas no siempre viajan en la dirección de los vientos dominantes e hizo experimentos sobre el enfiamiento por evaporación.
A su regreso entró en franca colisión con los herederos de William Penn por su defensa de un grupo de indígenas americanos mientras los dueños de la colonia favorecían el genocidio como “solución” al problema de los indios. Franklin marchó de nuevo a Inglaterra para pedir a la corona británica su dominio directo sobre Pennsylvania sin la intervención de la familia Penn. El monarca se negó, pero Franklin se quedó como representante de las colonias y su oposición a los elevados impuestos fijados por la corona, y llegó a ser juzgado por incitar el naciente independismo. Volvió a América en 1775, como un independentista convencido.
A los 69 fue nombrado delegado ante el Segundo Congreso Continental, donde los líderes de las 13 colonias analizaron su futura relación con Gran Bretaña. Franklin propuso la unión de las colonias en una sola confederación nacional, que más tarde sería el modelo de la constitución estadounidense. El Congreso lo puso al frente de la organización de la defensa de las colonias y de un comité secreto encargado de las relaciones de los rebeldes con los países extranjeros. En 1776 fue uno de los encargados de redactar la Declaración de Independencia de Estados Unidos, y poco después partió de nuevo a Europa buscando aliados. En París, aquejado por sus problemas de la vista, inventó los anteojos bifocales.
Al volver en 1785 fue electo presidente del estado. Participó en el Congreso Constituyente que y sugirió que los estados europeos formaran una federación con un gobierno central, prefigurando la actual Unión Europea. Todavía tuvo tiempo de apoyar la Revolución Francesa y de convertirse en un activo opositor a la esclavitud antes de morir rodeado de sus nietos el 17 de abril de 1790 considerándose siempre, nada más, un hombre común, un ciudadano más de Filadelfia.
El odómetro y el marUno de los más perdurables inventos de Franklin fue el odómetro. Como encargado de correos que fue creó el odómetro para diseñar las rutas de correo de los pueblos locales de Pennsylvania. Igual que los de hoy, su aparato calculaba la distancia recorrida contando las vueltas dadas por el eje de su carruaje. Su actividad postal lo llevó también a hacer las cartas de la Corriente del Golfo, a la que dio nombre. |
Venenos que se cobran vidas... o las salvan
Los venenos, creados por el hombre o hallados en plantas y animales, han jugado un importante papel en la historia humana como agentes del bien y del mal sin distinción.
Un veneno es cualquier sustancia que pueda provocar daños, la enfermedad o la muerte a un organismo, debido a una actividad a nivel molecular, como podrían ser reacciones químicas o la inhibición o activación de ciertas sustancias propias del organismo.
Hay sustancias que para unas formas de vida son venenosas, mientras que para otras son inocuas o, incluso, benéficas. Hay sustancias venenosas para ciertos organismos que no lo son para otros de la misma especie. Y, como observó el médico y alquimista Paracelso: “Todas las cosas son veneno y nada carece de veneno, sólo la dosis permite que algo no sea venenoso”.
El ser humano detectó muy temprano en su decurso histórico los efectos de los venenos, las sustancias naturales cuyo objetivo principal es dañar o matar, ya sea defensivamente o a la ofensiva, para usarlos como armas de cacería y para matar a otros seres humanos. La obtención, manejo y dosificación de los venenos era probablemente uno de los secretos que el “médico brujo” guardaba para la tribu o el clan.
Las referencias a venenos y dioses relacionados con ellos datan de más de 4.500 años antes de nuestra era entre los sumerios de Mesopotamia. Entre los griegos, la mitología misma hace referencia a venenos, y en el antiguo Egipto el rey Menes estudió las propiedades de distintas plantas venenosas. En China ya se conocían potentes mezclas de venenos en el 246 antes de nuestra era, y entre los persas, en el siglo IV se registró cómo la reina Parysatis, esposa de Artajerjes II, mató con veneno a su nuera Statira.
Quizá la víctima de envenenamiento más conocida de la antigüedad es Sócrates, que fue condenado a muerte por “corromper a la juventud” con sus ideas subversivas. La ejecución se realizaba obligando al condenado a beber cicuta, una sustancia vegetal conocida como “el veneno del estado”, y en el año 402 antes de nuestra era el filósofo se suicidó por orden de Atenas. En la Roma antigua el veneno también asumió un papel protagónico, fue utilizado por Agripina para eliminar a su marido Claudio, con objeto de que su hijo Nerón ascendiera al trono. El propio Nerón acudió al cianuro para deshacerse de los miembros de su familia a los que odiaba.
Los venenos no eran bien entendidos en tiempos pasados, pero al llegar el medievo se convirtieron en parte de la magia y la brujería, junto con otras pociones más o menos fantasiosas, y con los antídotos conocidos, que ciertamente han sido buscados siempre con tanta o más intensidad que los propios venenos.
Quizá el más curioso de todos los antídotos fue la “piedra bezoar”. Esta piedra era descrita de diversas formas que iban desde lo mítico (como la historia árabe que decía que caían de los ojos de venados que habían comido veneno) hasta explicaciones que indican que algunas podían ser cálculos vesiculares o renales de distintos animales o cualquier masa atrapada en el sistema gastrointestinal, como las bolas de pelo. Se pagaban fortunas por piedras bezoar supuestamente genuinas, y la creencia en sus poderes se mantuvo hasta que en 1575 el pionero de la ciencia y la medicina Ambroise Paré demostró experimentalmente que carecían de efectividad. No obstante, siguen siendo utilizadas por la herbolaria tradicional china.
Por supuesto, algunos venenos son utilizados como medicamentos en dosis adecuadamente medidas para atacar la enfermedad. Quizá el caso más claro es el de los antibióticos, productos vegetales como la penicilina, que resultan mortales para la bioquímica de ciertos microorganismos sin tener efectos perjudiciales notables en el paciente infectado. Las sustancias utilizadas en la quimioterapia son igualmente venenosas, pero sus efectos secundarios son más intensos debido a que aún no se han afinado y especializado tanto como los antibióticos. Aún así, la quimioterapia contra el cáncer que se aplica hoy en día es un gran avance respecto de la de hace veinte o treinta años, mucho más agresiva y desagradable para el paciente, y menos efectiva que la actual, que ha convertido algunas formas de cáncer, como el de mama, el testicular y la enfermedad de Hodgkins, en enfermedades curables si se diagnostican a tiempo, cuando antes eran mortales casi en un 100%.
Dado que los venenos eran en general indetectables y se podían usar teniendo al asesino lejos, y por tanto daban mayor oportunidad a la impunidad, se volvieron uno de los métodos de asesinato favoritos en la Edad Media y en el Renacimiento. El personaje arquetípico como envenenador del renacimiento es Lucrecia Borgia, quizás objeto de una campaña de calumnias y a la que se le atribuyeron asesinatos que fueron posiblemente cometidos por su hermano César. Ellos, junto con su padre, el papa Alejandro VI, fueron considerados grandes envenenadores, e incluso la muerte del papa se atribuyó a un envenenamiento, en su caso, por consumir equivocadamente el vino con el que pretendía deshacerse del cardenal de Corneto. La corona española, por su parte, hizo varios intentos por envenenar a su poderosa enemiga, Isabel I de Inglaterra.
El envenenamiento, no ha sido sólo asunto de nobles, ricos o miembros del alto clero. Muchas personas empezaron a tener a su alcance algunos secretos de los venenos, y en el siglo XVIII y XIX el envenenamiento se convirtió en el método preferido de las mujeres que deseaban deshacerse de sus maridos. Y en el siglo XX, la explosión del conocimiento científico produjo la aparición de numerosísimas sustancias tóxicas que han sido utilizadas tanto en la guerra (el gas mostaza en la Primera Guerra Mundial) como en atentados (el ataque con gas sarín de una secta contra el metro de Tokio). Sin embargo, esos mismos avances científicos han permitido que el veneno deje de ser “indetectable”. Los modernos sistemas utilizados por los científicos forenses pueden identificar muy rápidamente la gran mayoría de los venenos, tanto para tratar a las víctimas cuando se detectan a tiempo como para encontrar a los envenenadores.
![]() |
Una dosis letal de cianuro de potasio comparada con un céntimo de euro y un bolígrafo (Foto GFDL de Julo, vía Wikimedia Commons) |
Hay sustancias que para unas formas de vida son venenosas, mientras que para otras son inocuas o, incluso, benéficas. Hay sustancias venenosas para ciertos organismos que no lo son para otros de la misma especie. Y, como observó el médico y alquimista Paracelso: “Todas las cosas son veneno y nada carece de veneno, sólo la dosis permite que algo no sea venenoso”.
El ser humano detectó muy temprano en su decurso histórico los efectos de los venenos, las sustancias naturales cuyo objetivo principal es dañar o matar, ya sea defensivamente o a la ofensiva, para usarlos como armas de cacería y para matar a otros seres humanos. La obtención, manejo y dosificación de los venenos era probablemente uno de los secretos que el “médico brujo” guardaba para la tribu o el clan.
Las referencias a venenos y dioses relacionados con ellos datan de más de 4.500 años antes de nuestra era entre los sumerios de Mesopotamia. Entre los griegos, la mitología misma hace referencia a venenos, y en el antiguo Egipto el rey Menes estudió las propiedades de distintas plantas venenosas. En China ya se conocían potentes mezclas de venenos en el 246 antes de nuestra era, y entre los persas, en el siglo IV se registró cómo la reina Parysatis, esposa de Artajerjes II, mató con veneno a su nuera Statira.
Quizá la víctima de envenenamiento más conocida de la antigüedad es Sócrates, que fue condenado a muerte por “corromper a la juventud” con sus ideas subversivas. La ejecución se realizaba obligando al condenado a beber cicuta, una sustancia vegetal conocida como “el veneno del estado”, y en el año 402 antes de nuestra era el filósofo se suicidó por orden de Atenas. En la Roma antigua el veneno también asumió un papel protagónico, fue utilizado por Agripina para eliminar a su marido Claudio, con objeto de que su hijo Nerón ascendiera al trono. El propio Nerón acudió al cianuro para deshacerse de los miembros de su familia a los que odiaba.
Los venenos no eran bien entendidos en tiempos pasados, pero al llegar el medievo se convirtieron en parte de la magia y la brujería, junto con otras pociones más o menos fantasiosas, y con los antídotos conocidos, que ciertamente han sido buscados siempre con tanta o más intensidad que los propios venenos.
Quizá el más curioso de todos los antídotos fue la “piedra bezoar”. Esta piedra era descrita de diversas formas que iban desde lo mítico (como la historia árabe que decía que caían de los ojos de venados que habían comido veneno) hasta explicaciones que indican que algunas podían ser cálculos vesiculares o renales de distintos animales o cualquier masa atrapada en el sistema gastrointestinal, como las bolas de pelo. Se pagaban fortunas por piedras bezoar supuestamente genuinas, y la creencia en sus poderes se mantuvo hasta que en 1575 el pionero de la ciencia y la medicina Ambroise Paré demostró experimentalmente que carecían de efectividad. No obstante, siguen siendo utilizadas por la herbolaria tradicional china.
Por supuesto, algunos venenos son utilizados como medicamentos en dosis adecuadamente medidas para atacar la enfermedad. Quizá el caso más claro es el de los antibióticos, productos vegetales como la penicilina, que resultan mortales para la bioquímica de ciertos microorganismos sin tener efectos perjudiciales notables en el paciente infectado. Las sustancias utilizadas en la quimioterapia son igualmente venenosas, pero sus efectos secundarios son más intensos debido a que aún no se han afinado y especializado tanto como los antibióticos. Aún así, la quimioterapia contra el cáncer que se aplica hoy en día es un gran avance respecto de la de hace veinte o treinta años, mucho más agresiva y desagradable para el paciente, y menos efectiva que la actual, que ha convertido algunas formas de cáncer, como el de mama, el testicular y la enfermedad de Hodgkins, en enfermedades curables si se diagnostican a tiempo, cuando antes eran mortales casi en un 100%.
Dado que los venenos eran en general indetectables y se podían usar teniendo al asesino lejos, y por tanto daban mayor oportunidad a la impunidad, se volvieron uno de los métodos de asesinato favoritos en la Edad Media y en el Renacimiento. El personaje arquetípico como envenenador del renacimiento es Lucrecia Borgia, quizás objeto de una campaña de calumnias y a la que se le atribuyeron asesinatos que fueron posiblemente cometidos por su hermano César. Ellos, junto con su padre, el papa Alejandro VI, fueron considerados grandes envenenadores, e incluso la muerte del papa se atribuyó a un envenenamiento, en su caso, por consumir equivocadamente el vino con el que pretendía deshacerse del cardenal de Corneto. La corona española, por su parte, hizo varios intentos por envenenar a su poderosa enemiga, Isabel I de Inglaterra.
El envenenamiento, no ha sido sólo asunto de nobles, ricos o miembros del alto clero. Muchas personas empezaron a tener a su alcance algunos secretos de los venenos, y en el siglo XVIII y XIX el envenenamiento se convirtió en el método preferido de las mujeres que deseaban deshacerse de sus maridos. Y en el siglo XX, la explosión del conocimiento científico produjo la aparición de numerosísimas sustancias tóxicas que han sido utilizadas tanto en la guerra (el gas mostaza en la Primera Guerra Mundial) como en atentados (el ataque con gas sarín de una secta contra el metro de Tokio). Sin embargo, esos mismos avances científicos han permitido que el veneno deje de ser “indetectable”. Los modernos sistemas utilizados por los científicos forenses pueden identificar muy rápidamente la gran mayoría de los venenos, tanto para tratar a las víctimas cuando se detectan a tiempo como para encontrar a los envenenadores.
Modernos envenenamientosAlgunos famosos atentados de los últimos tiempos han utilizado venenos. En 1978 el disidente ucraniano Georgy Markov murió cuando se le disparó, con un paraguas o un bolígrafo, una bola de metal llena de ricino. En 2004, el hoy presidente ucraniano Viktor Yushchenko, ganador de las elecciones de ese año contra el preferido del gobierno ruso, fue envenenado con dioxinas y aunque salvó la vida, sigue bajo tratamiento. En 2006, el disidente y exmiembro del servicio ruso de seguridad, Alexander Litvinenko, que hizo declaraciones en contra de Vladimir Putin, fue asesinado con sólo 10 microgramos de polonio-210. |
El psicópata: inhumano pero cuerdo
No tener conciencia, no tener remordimientos, no sentirse igual a los demás humanos, no tener límites, así son muchos asesinos que, sin embargo, no están locos, ni legal ni médicamente.
En 1986, el antropólogo canadiense Elliott Leyton, uno de los principales expertos mundiales en asesinatos en serie, publicó un libro fundamental, Cazadores de humanos, dedicado a analizar el fenómeno del asesinato múltiple desde un punto de vista social. En primer lugar, diferenciaba al “asesino serial” que a lo largo de mucho tiempo mata a una serie de víctimas que comparten algunas características, del “asesino masivo”, que en una breve explosión de violencia deja una estela de muerte indiscriminada que suele acabar con la muerte del asesino a manos de la policía. El primer caso es el de criminales como Jack el Destripador, Ted Bundy o El Hijo de Sam, mientras que el segundo corresponde a quienes realizan tiroteos en escuelas como la de Columbine o del Tecnológico de Virginia.
Más allá de esta diferenciación, en el análisis de diversos casos Leyton señalaba que en no pocos casos, feroces asesinos habían sido declarados “cuerdos”, “mentalmente sanos” o “no perturbados” por diversos médicos y profesionales. En un caso narrado por Leyton, la última evaluación positiva le fue realizada a un asesino que en ese momento llevaba en el maletero de su automóvil la cabeza cortada de su más reciente víctima.
Su conclusión era preocupante pero bien fundamentada: los asesinos seriales o masivos que nos horrorizan y nos parecen tan inhumanos no están locos en el sentido médico del término, no se trata de psicóticos como los esquizofrénicos, sino de sociópatas o psicópatas, es decir, de personas que tienen un comportamiento antisocial debido a sus sentimientos o falta de ellos. La psicopatía es, ciertamente, un desorden de la personalidad, pero no es una forma de locura, precisamente.
Esta idea de Leyton iba, ciertamente, en contra del sentido común. Alguien capaz de ocasionar un terrible dolor a otros, o incluso de causarles la muerte, de tratarlos, vivos o muertos, como objetos para su gratificación, sin jamás sentir compasión, identificación, empatía, cercanía, amor, culpabilidad o emociones humanas sociales, nos parece sin duda alguna un loco, un monstruo, un ser con algún grave desarreglo psiquiátrico, probablemente con alguna deficiencia o tara genética. Pero para el estudioso canadiense se trata fundamentalmente de un resultado del medio ambiente del psicópata. El resultado es aterrador: personas que no sienten vergüenza, sentido de la equidad, responsabilidad, que ven a los demás no como iguales, sino como objetos, cosas que pueden servirles para satisfacer sus deseos, pero a los cuales se puede igualmente matar o torturar por diversión, sin sentir cargo de conciencia alguno, sin restricciones ni freno, y además con capacidad para engañar a los demás y ocultarles esta falta de sentimientos.
El problema que presentan los asesinos seriales a la ciencia y a su sociedad es un ejemplo de los enormes huecos que nuestro conocimiento de la conducta, emociones, comportamiento y procesos mentales tiene, y que son mucho mayores que los datos certeros de que disponemos. Para algunos médicos y psicólogos, la sociopatía y la psicopatía son fenómenos distintos. Sin embargo, con muchos datos o pocos, la realidad práctica exige que tomemos decisiones como sociedad. Si el asesino serial es un loco, una persona con un trastorno que le hace perder el contacto con la realidad o la capacidad de razonar, no deberíamos procesarlo judicialmente cuando comete un delito. Los esquizofrénicos, que suelen ser inimputables, no pueden controlar sus actos si no están bajo una medicación adecuada.
El psicópata, sin embargo, conoce la diferencia entre el bien y el mal, es racional y puede elegir. Y de hecho, elige. Si bien muchos psicópatas son delincuentes, y se ha llegado a calcular que en Estados Unidos el 25% de la población de las cárceles es de personas con este desarreglo de la personalidad en mayor o menor grado, también es cierto que hay “psicópatas exitosos” que pueden convertir en ventaja su situación y destacar en la política, los negocios o la industria del entretenimiento.
Entre las principales características, algunas aún a debate, que definen a un sociópata están: un sentido grandioso de la importancia propia, encanto superficial, versatilidad criminal, indiferencia hacia la seguridad propia o de otros, problemas para controlar sus impulsos, irresponsabilidad, incapacidad de tolerar el aburrimiento, narcicismo patológico, mentiras patológicas, afectos superficiales, falsedad y tendencia a manipular, tendencias agresivas o violentas con peleas o ataques físicos repetidos contra otras personas, falta de empatía, falta de remordimientos resultando indiferente al daño o maltrato que ocasiona a otros, o facilidad para racionalizarlo; una sensación de tener derechos sobre todo, comportamiento sexual promiscuo, estilo de vida sexualmente desviado, poco juicio, incapacidad de aprender de la experiencia, falta de autocomprensión, incapacidad de seguir ningún plan de vida y abuso de drogas, incluido el alcohol.
Según la revista Scientific American, es un error creer que todos los psicópatas sean violentos. Al contrario, la gran mayoría no lo son, mientras que muchas personas violentas no son psicópatas. De otra parte, la psicopatía puede beneficiarse de un tratamiento psicológico (que no psiquiátrico) que puede controlar las conductas más indeseables.
No obstante, resulta muy difícil establecer objetivamente cuáles y cuántas de estas características, y en qué medida, determinan que existe con certeza el trastorno que denominamos psicopatía. La lucha por comprender la última frontera del conocimiento de nosotros mismos, la de nuestros pensamientos, acciones, emociones y sensaciones, sigue adelante, a veces con lentitud desesperante, a veces dejándonos depender de percepciones subjetivas e intuiciones por parte de los profesionales. Pero a veces esa experiencia empírica es todo lo que tenemos, al menos en tanto la ciencia no consiga contextualizar objetivamente lo que es, al fin y al cabo, nuestra vida subjetiva.
En 1986, el antropólogo canadiense Elliott Leyton, uno de los principales expertos mundiales en asesinatos en serie, publicó un libro fundamental, Cazadores de humanos, dedicado a analizar el fenómeno del asesinato múltiple desde un punto de vista social. En primer lugar, diferenciaba al “asesino serial” que a lo largo de mucho tiempo mata a una serie de víctimas que comparten algunas características, del “asesino masivo”, que en una breve explosión de violencia deja una estela de muerte indiscriminada que suele acabar con la muerte del asesino a manos de la policía. El primer caso es el de criminales como Jack el Destripador, Ted Bundy o El Hijo de Sam, mientras que el segundo corresponde a quienes realizan tiroteos en escuelas como la de Columbine o del Tecnológico de Virginia.
Más allá de esta diferenciación, en el análisis de diversos casos Leyton señalaba que en no pocos casos, feroces asesinos habían sido declarados “cuerdos”, “mentalmente sanos” o “no perturbados” por diversos médicos y profesionales. En un caso narrado por Leyton, la última evaluación positiva le fue realizada a un asesino que en ese momento llevaba en el maletero de su automóvil la cabeza cortada de su más reciente víctima.
Su conclusión era preocupante pero bien fundamentada: los asesinos seriales o masivos que nos horrorizan y nos parecen tan inhumanos no están locos en el sentido médico del término, no se trata de psicóticos como los esquizofrénicos, sino de sociópatas o psicópatas, es decir, de personas que tienen un comportamiento antisocial debido a sus sentimientos o falta de ellos. La psicopatía es, ciertamente, un desorden de la personalidad, pero no es una forma de locura, precisamente.
Esta idea de Leyton iba, ciertamente, en contra del sentido común. Alguien capaz de ocasionar un terrible dolor a otros, o incluso de causarles la muerte, de tratarlos, vivos o muertos, como objetos para su gratificación, sin jamás sentir compasión, identificación, empatía, cercanía, amor, culpabilidad o emociones humanas sociales, nos parece sin duda alguna un loco, un monstruo, un ser con algún grave desarreglo psiquiátrico, probablemente con alguna deficiencia o tara genética. Pero para el estudioso canadiense se trata fundamentalmente de un resultado del medio ambiente del psicópata. El resultado es aterrador: personas que no sienten vergüenza, sentido de la equidad, responsabilidad, que ven a los demás no como iguales, sino como objetos, cosas que pueden servirles para satisfacer sus deseos, pero a los cuales se puede igualmente matar o torturar por diversión, sin sentir cargo de conciencia alguno, sin restricciones ni freno, y además con capacidad para engañar a los demás y ocultarles esta falta de sentimientos.
El problema que presentan los asesinos seriales a la ciencia y a su sociedad es un ejemplo de los enormes huecos que nuestro conocimiento de la conducta, emociones, comportamiento y procesos mentales tiene, y que son mucho mayores que los datos certeros de que disponemos. Para algunos médicos y psicólogos, la sociopatía y la psicopatía son fenómenos distintos. Sin embargo, con muchos datos o pocos, la realidad práctica exige que tomemos decisiones como sociedad. Si el asesino serial es un loco, una persona con un trastorno que le hace perder el contacto con la realidad o la capacidad de razonar, no deberíamos procesarlo judicialmente cuando comete un delito. Los esquizofrénicos, que suelen ser inimputables, no pueden controlar sus actos si no están bajo una medicación adecuada.
El psicópata, sin embargo, conoce la diferencia entre el bien y el mal, es racional y puede elegir. Y de hecho, elige. Si bien muchos psicópatas son delincuentes, y se ha llegado a calcular que en Estados Unidos el 25% de la población de las cárceles es de personas con este desarreglo de la personalidad en mayor o menor grado, también es cierto que hay “psicópatas exitosos” que pueden convertir en ventaja su situación y destacar en la política, los negocios o la industria del entretenimiento.
Entre las principales características, algunas aún a debate, que definen a un sociópata están: un sentido grandioso de la importancia propia, encanto superficial, versatilidad criminal, indiferencia hacia la seguridad propia o de otros, problemas para controlar sus impulsos, irresponsabilidad, incapacidad de tolerar el aburrimiento, narcicismo patológico, mentiras patológicas, afectos superficiales, falsedad y tendencia a manipular, tendencias agresivas o violentas con peleas o ataques físicos repetidos contra otras personas, falta de empatía, falta de remordimientos resultando indiferente al daño o maltrato que ocasiona a otros, o facilidad para racionalizarlo; una sensación de tener derechos sobre todo, comportamiento sexual promiscuo, estilo de vida sexualmente desviado, poco juicio, incapacidad de aprender de la experiencia, falta de autocomprensión, incapacidad de seguir ningún plan de vida y abuso de drogas, incluido el alcohol.
Según la revista Scientific American, es un error creer que todos los psicópatas sean violentos. Al contrario, la gran mayoría no lo son, mientras que muchas personas violentas no son psicópatas. De otra parte, la psicopatía puede beneficiarse de un tratamiento psicológico (que no psiquiátrico) que puede controlar las conductas más indeseables.
No obstante, resulta muy difícil establecer objetivamente cuáles y cuántas de estas características, y en qué medida, determinan que existe con certeza el trastorno que denominamos psicopatía. La lucha por comprender la última frontera del conocimiento de nosotros mismos, la de nuestros pensamientos, acciones, emociones y sensaciones, sigue adelante, a veces con lentitud desesperante, a veces dejándonos depender de percepciones subjetivas e intuiciones por parte de los profesionales. Pero a veces esa experiencia empírica es todo lo que tenemos, al menos en tanto la ciencia no consiga contextualizar objetivamente lo que es, al fin y al cabo, nuestra vida subjetiva.
Romper el mitoHannibal Lecter, el asesino caníbal de El silencio de los corderos generó algunos mitos sobre los asesinos psicópatas que Elliot Leyton también se ha ocupado en disipar. Según Leyton, no ha habido un asesino en serie aristocrático en siglos, sino que la mayoría proceden de las clases trabajadoras, y no son genios diabólicos, en general suelen ser de inteligencia bastante limitada. La exaltación de un asesino ficticio como éste, tiene por objeto último adjudicarle valores, glamour, atractivo o valores que los hechos demuestran que los verdaderos psicópatas no tienen. |
El misterio del murciélago
![]() |
Monumento a Lazaro Spallanzani (foto CC de Maxo, vía Wikimedia Commons) |
La gente no suele ver murciélagos, ni siquiera interactuar con ellos, pese a que son una cuarta parte de todos los mamíferos del mundo en términos de especies. Sus colonias pueden estar formadas por millones y millones de individuos. La mayor colonia urbana de murciélagos, con más de millón y medio de integrantes en la ciudad de Austin, Texas, consume diariamente entre 5.000 y 15.000 kilogramos de insectos, que de no estar controlados acabarían con las cosechas, lo que destaca la importancia ecológica de estos animales.
Son precisamente los murciélagos cazadores de insectos, peces, pequeños mamíferos e incluso otras especies de murciélagos los que presentaron a la humanidad el misterio de volar ágilmente en la oscuridad, sortear obstáculos y cazar con precisión a sus presas. Su nombre original en castellano es “murciégalo”, de mus, muris, ratón, y caeculus, diminutivo de ciego, indicando precisamente a esos pequeños mamíferos que a la luz actúan como si estuvieran ciegos y que sin embargo en la noche navegaban asombrosamente.
La navegación de los murciélagos se convirtió en uno de los principales intereses del biólogo italiano Lazzaro Spallanzani (1729-1799), de la Universidad de Pavia, cuya pasión por la biología lo llevó a hacerse cura para garantizarse la subsistencia y poder aprender ciencia. Mediante elegantes experimentos, Spallanzani demostró que la digestión es un proceso químico y no se reduce al simple triturado de los alimentos, como se creía antes. Fue un pionero de Pasteur, refutando que la vida surgiera espontáneamente de materia orgánica en descomposición. Descubrió que la reproducción necesitaba tanto del óvulo como del espermatozoide, desterrando la idea de la mujer como figura pasiva en la reproducción. Estudió la regeneración de órganos en anfibios y moluscos, e incluso asuntos de la física básica. De él se dijo que descubrió en unos años más verdades que muchas academias en medio siglo.
Spallanzani realizó una apasionante variedad de experimentos con los murciélagos. Les puso en la cabeza capuchones opacos que les impedían maniobrar, y capuchones delgados y transparentes con el mismo resultado. Finalmente, cegó a una serie de murciélagos y los hizo volar entre hilos colgados en su laboratorio con campanillas en el extremo que sonaban si un murciélago los tocaba. Hizo lo mismo con con murciélagos a los que había privado del oído, y vio que no podían orientarse, lo que le sugirió que el oído era el sentido que estos animales utilizaban, de algún modo aún misterioso, para “ver” en la oscuridad. Confirmó su idea cegando murciélagos salvajes, marcándolos y liberándolos para recapturarlos días después. Las disecciones mostraban que los murciélagos en libertad se habían alimentado exitosamente. Spallanzani escribió en su diario: “... los murciélagos cegados pueden usar sus oídos cuando cazan insectos... este descubrimiento es increíble”.
Spallanzani le escribió a la Sociedad de Historia Natural de Ginebra sobre sus experimentos, lo que inspiró al zoólogo suizo Charles Jurine a experimentar, tapando con cera los oídos de sus murciélagos. Con los oídos tapados, el murciélago era torpe y chocaba con los objetos, pero al destaparse los oídos volvía a ser un acróbata de la oscuridad. Intercambiaron correspondencia, Spallanzani replicó los experimentos de Jurine y concluyeron que el oído era el responsable de la maravillosa capacidad de los murciélagos. Sin embargo, no podían explicar cuál era el mecanismo que actuaba. Lo más cerca que estuvo el genio de Spallanzani fue de pensar que el murciélago escuchaba el eco de su batir de alas.
El famoso paleobiólogo francés Georges Cuvier, por lo demás una admirable mente científica, declaró sin embargo que los experimentos de Spallanzani y Jurine eran incorrectos (cuando lo que le molestaba era que los consideraba crueles), y afirmó (igualmente sin pruebas) que los murciélagos se orientaban usando el sentido del tacto. Científicamente, los dichos de Cuvier carecían de todo sustento y razón. Pero Cuvier tenía un gran prestigio e influencia, y muchas personas, cegadas a la realidad de la experimentación, procedieron a ignorar los experimentos y conclusiones de Spallanzani y Jurine. Se aceptó como dogma de fe la hipótesis del tacto y la investigación sobre la orientación de los murciélagos quedó interrumpida.
Cuvier apostó por el “sentido común” en contra de la experimentación.
En 1938, 143 años después de las críticas de Cuvier, el joven científico de Harvard Donald R. Griffin utilizó micrófonos y sensores para demostrar que los murciélagos “ven” en la oscuridad emitiendo sonidos ultrasónicos (de más de 20 kHz) y escuchando el eco para conocer la forma y distancia de los objetos. Después de una serie de experimentos, consideró demostrado que la “ecolocalización” era la forma de ver de los murciélagos, una tecnología que por esos tiempos empezó a utilizarse en la forma de sonar y radar.
Finalmente, la solidez de la experimentación de Spallanzani y Jurine se había impuesto a las creencias irracionales del “sentido común”, demostrando de paso que las creencias sin bases no son sólo patrimonio de la gente común, sino que incluso grandes científicos como Cuvier pueden ser sus víctimas, recordándonos que lo importante es lo que se puede demostrar con la ciencia, y no lo que sus practicantes opinan.
Los murciélagos en datosLos murciélagos forman el orden de los quirópteros, que significa “los que vuelan con las manos”, y hay especies de ellos en prácticamente todo el planeta, con excepción de las zonas más frías del polo norte. Los primeros fósiles encontrados datan de 52 millones de años y en la actualidad hay más de 1.000 especies distintas, de las que el 70% comen insectos. |
ADN: una llave para muchas puertas
![]() |
Fragmento de ADN (Wikimedia Commons) |
Las siglas “ADN” están entre los términos científicos más utilizados popularmente. Tan solo la profusión de programas televisivos que se ocupan de médicos, antropólogos y otros científicos forenses, las han convertido en una especie de arma para toda ocasión, infalible y maravillosa, aunque pocas veces mencionan el nombre completo de la sustancia a la que hace referencia, el ácido desoxirribonucleico.
El ADN fue descubierto por el médico suizo Friedrich Miescher en 1869, al analizar el pus de vendas quirúrgicas. Dado que estaba en los núcleos de las células, le dio el nombre de “nucleína”. 50 años después, el bioquímico rusoestadounidense Phoebus Levene, identificó los componentes de esta sustancia y que estaban enlazados en unidades a las que llamó “nucleótidos” formadas por un grupo fosfato, un azúcar (la desoxirribosa) y una base. Determinó que la molécula de ácido desoxirribonucleico era una cadena de unidades de nucleótidos enlazados por medio de los grupos de fosfato que formaban una especie de columna vertebral de la molécula. No pudo discernir, sin embargo, la forma de la molécula. En 1943, Oswald Avery y su equipo establecieron la idea de que el ADN era el principio transmisor de información genética en algunas bacterias, y en 1952 Alfred Hershey y Martha Chase probaron que el ADN era el material genético del virus bacteriófago T2.
Con imágenes de difracción de rayos X producidas por Rosalind Franklin, Crick y Watson propusieron el modelo de la doble hélice o escalera en espiral, dos largas cadenas de grupos fosfato, cada uno de ellos con una molécula de desoxirribosa y alguna de las cuatro bases, denotadas por su inicial, mismas que se unían de modo exclusivo: la adenina (A) con la timina (T) y la guanina (G) con la citosina (C). Esto significa que si un lado de la doble hélice tiene como base la timina, el otro lado tiene la adenina, sin excepción, de modo que uno de los lados de la molécula tiene la información necesaria para crear el otro. La secuencia de las bases ATGC a lo largo de la cadena de ADN codifica la información para crear proteínas y para todas las funciones de las células, los tejidos y los organismos. El lenguaje de la vida, de todos los seres vivos y muchos virus se escribe en largas palabras de sólo cuatro letras: ATGC (la excepción son los virus de ácido ribonucleico o ARN, que en lugar de citosina tiene uracilo, de modo que sus letras son ATGU).
La siguiente tarea importante se concluyó en 2003, y fue la determinación de la secuencia de bases ATGC que conforman el ADN humano, identificando los genes o unidades básicas de la herencia, segmentos de información que identifican un rasgo o particularidad. En total, los 23 pares de cromosomas de los seres humanos tiene unos seis mil millones de pares de bases, que en términos de datos son aproximadamente 1,5 gigabytes, es decir, que caben en un par de discos compactos (CD). Contiene entre 20.000 y 25.000 genes que codifican proteínas, además de genes de ARN, secuencias que regulan la expresión de los genes (el que actúen o no) y algo que se llamó, imprecisamente, “ADN basura”,
EL ADN se encuentra en largas estructuras llamadas “cromosomas” en el núcleo de las células, así como en las mitocondrias y en los cloroplastos de las células vegetales. Algunas cosas de las que sabemos, nos permiten logros tecnológicos importantes. Por ejemplo, las distintas especies, variedades, subespecies y grupos aislados tienen rasgos diferenciados en su ADN, de modo que con una muestra de ADN podemos determinar con certeza si corresponde a un animal o vegetal, a qué genero y especie, y a qué variedad específica, por ejemplo, podemos saber si se trata de un gato de angora o un gato siamés. Pero esto también permite hacer genética de poblaciones para entender migraciones animales y humanas, comprender mejor nuestra evolución y establecer líneas hereditarias.
Como el ADN de cada individuo es único, con la salvedad de los gemelos idénticos y los clones, con dos muestras de tejido podemos determinar con gran certeza si pertenecen al mismo individuo o si se originan en dos individuos distintos, lo que tiene grandes implicaciones en la ciencia forense, tanto para identificar víctimas y delincuentes como para descartar sospechosos en casos en los que el delincuente deja alguna muestra de tejido delatora tras de sí.
En el ADN se producen las mutaciones y la variabilidad genética responsable de la evolución. La acumulación cuantitativa de estos cambios tiene una tasa regular en el tiempo, de modo que podemos usarla como un sistema de datación: la comparación entre el ADN de dos especies, como los humanos y los chimpancés, o de dos grupos humanos nos dice cuánto tiempo debe haber pasado desde que compartían el mismo ADN.
El ADN que se encuentra en los órganos llamados mitocondrias, las “centrales de energía” de la célula, se hereda única y exclusivamente de la madre, es decir, proviene del óvulo, lo cual nos permite determinar líneas maternas hacia el pasado aprovechando la variabilidad arriba comentada, lo que nos ha permitido saber que todos los seres humanos procedemos de una sola hembra humana que vivió hace unos 150.000 años en África, en lo que hoy es Etiopía o Tanzania.
Adicionalmente, podemos sustituir las funciones de algunos genes o secuencias funcionales del ADN para paliar, tratar o resolver algunas enfermedades ocasionadas por deficiencias, problemas o mutaciones genéticas, o para darle a un ser vivo ciertas capacidades (la “ingeniería genética”).
Con lo que hemos descubierto sobre el ADN en los breves 55 años transcurridos desde que Crick y Watson determinaran su estructura y funcionamiento, nuestra tecnología ha dado saltos asombrosos. Pero todo eso que conocemos palidece ante lo que no sabemos. Tener la secuencia del ADN equivale a disponer de todos los ladrillos, viguetas, hormigón y demás elementos para hacer una casa, es claro que al ver una casa junto a nuestro montón de materiales seguimos sin saber cómo se hace una casa, qué se une a qué y en qué orden deben hacerse las distintas tareas (y cómo se determina el orden) para llegar a la casa.
La basura que no lo esEl 4 de noviembre, un grupo de científicos de Singapur informó que parte del ADN considerado provisionalmente “basura” es uno de los elementos clave que diferencian a las especies. Se le llamó “basura” por estar formado de copias de secuencias casi idénticas, y los investigadores ahora le han dado sentido a diferentes familias de repeticiones, como fuente de variabilidad evolutiva y clave en las diferencias entre las especies. De confirmarse, estos estudiose serían otro gran salto en el estudio de nuestro material genético. |
Stephen Hawking: viajar desde el sillón
![]() |
StephenHawking en Oviedo en 2005. Copyright © Mauricio-José Schwarz |
Probablemente el rostro más conocido de la física teórica sea Stephen Hawking, víctima de una enfermedad que debió matarlo hace décadas y ha hecho frágil su cuerpo, pero sin afectar una capacidad intelectual singular.
El hecho de probar muchos de los “teoremas de la singularidad”, o enunciar las cuatro leyes de la mecánica de los agujeros negros, o incluso haber defindio el modelo de un universo sin límites, pero cerrado, que hoy es ampliamente aceptado, dicen poco al público en general acerca de Stephen Hawking, lo mismo pasa con su trabajo en otros temas aún más complejos y entendidos apenas por unos cuantos miles de especialistas en todo el mundo.
Pero la imagen del científico consumido por una enfermedad degenerativa, sonriendo en su silla de ruedas, con claros ojos traviesos tras las gafas y hablando por medio de un sintetizador especialmente diseñado, así como el extraño concepto de “agujero negro” son, sin duda alguna, parte integral de la cultura popular contemporánea. Aunque ciertamente Stephen Hawking no es uno de los diez físicos teóricos más importantes o revolucionarios de la actualidad, sin duda es el más conocido.
Stephen William Hawking nació en Oxford el 8 de enero de 1942, 300 años después de la muerte de Galileo, como hijo del Dr. Frank Hawking, investigador en biología, e Isobel Hawking, activista política. Fue un alumno mediocre, tanto que su ingreso en Oxford fue algo sorpresiva para su padre, y su desempeño tan mediano que tuvo que presentar un examen oral adicional para graduarse. Pasó entonces a Cambridge, interesado en la astronomía teórica y la cosmología, la ciencia que estudia el origen, la naturaleza y la evolución del universo.
Casi a su llegada a Cambridge, en 1963 y con sólo 21 años de edad, Hawking empezó a exhibir los síntomas de la esclerosis lateral amiotrófica, una enfermedad neurodegenerativa causada por la degeneración de las neuronas motoras, las células nerviosas encargadas de controlar el movimiento voluntario de los músculos. La afección empeora al paso del tiempo, ocasionando debilidad muscular generalizada que puede llegar a la parálisis total de los movimientos voluntarios excepto los de los ojos. Afortunadamente, no suele afectar la capacidad cognitiva.
En ese momento dudó si realmente quería ser doctor en física cuando finalmente iba a morir en dos o tres años, según los médicos. Sin embargo, su matrimonio en 1965 con su primera esposa, Jane Wilde, lo impulsó a seguir adelante, con la suerte de trabajar, según sus palabras, en “una de las pocas áreas en las que la discapacidad no es un serio handicap”. Ya doctorado, empezó a trabajar en la comprobación matemática del inicio del tiempo y en el tema que más lo identifica, los agujeros negros, estrellas que se han colapsado sobre sí mismas al agotarse su energía nuclear y cuya atracción gravitacional es tan enorme que ni siquiera la luz puede escapar de ellos. Hoy tenemos la certeza casi total de que hay un agujero negro en el centro de la mayoría de las galaxias, incluida la nuestra, la Vía Láctea.
En 1971, sugirió que las fuerzas liberadas durante el Big Bang debieron crear una enorme cantidad de “miniagujeros negros” y en 1974 presentó sus cálculos indicando que los agujeros negros crean y emiten partículas subatómicas, poniendo de cabeza la concepción vigente de que dichos cuerpos celestes absorbían cuanto se acercara a ellos, pero no podían emitir absolutamente nada precisamente debido a su tremenda atracción gravitacional. Esta, hoy llamada radiación de Hawking, era la primera aproximación a una posible teoría gravitacional cuántica, que uniera los dos grandes modelos, la relatividad que explica los fenómenos a gran escala y la cuántica que explica los fenómenos a nivel subatómico. De fusionarse ambas en un todo coherente, estaremos mucho más cerca de entender el origen del universo.
A partir de ese año, Hawking cosechó numerosas distinciones académicas, entre ellas consiguió la Cátedra Lucasiana de Matemáticas de Cambridge, que han ocupado personajes como Isaac Newton y el pionero informático Charles Babbage, y otros reconocimientos, como ser comandante de la Orden del Imperio Británico. Su prestigio profesional crecía, junto con el asombro que provocaba el que su discapacidad le hiciera resolver complejas ecuaciones totalmente en su mente, sin usar papel ni encerado.
Pero fue en 1988, con la publicación de Breve historia del tiempo, un bestseller internacional de divulgación científica del que ha vendido más de 9 millones de copias, que las personas comunes se hicieron conscientes de su existencia, su vida y su trabajo. En este libro, que cumple 20 años ahora, Hawking explica de modo muy accesible los más apasionantes temas de la cosmología: el Big Bang, los agujeros negros, los conos de luz e incluso la avanzada y compleja teoría de las supercuerdas como elementos causantes de toda la materia, todo sin matemáticas ni ecuaciones. El interés popular por el personaje no ha disminuido desde entonces.
Otros libros de divulgación han seguido, incluido La clave secreta del universo, escrito a cuatro manos con su hija Lucy y dirigido a niños. Ha recibido constantes honores como el Premio Príncipe de Asturias, siempre viajando e impartiendo conferencias pacientemente preparadas en su sintetizador de voz. Ha aparecido en diversos programas de ciencia ficción y documentales, e incluso en las series animadas Los Simpson y Futurama, tiene dos estatuas, en Cambridge y en Ciudad del Cabo, Sudáfrica, y su voz sintetizada se ha usado en dos álbumes de rock. En el proceso, viviendo una vida doméstica bastante común, se ha casado y divorciado dos veces, y tiene tres hijos y un nieto.
Este año, después de convertirse en el primer tetrapléjico que viajó en un avión de entrenamiento de la NASA para disfrutar de la “gravedad cero”, Hawking ha anunciado su retiro de la Cátedra Lucasiana, pasando a ser profesor emérito de la misma, siguiendo la política de Cambridge de que sus miembros se retiren al final del año lectivo en que cumplan 67 años, que Hawking cumplirá en enero próximo. Esto quizá le dará tiempo para poder hacer realidad el que define como su máximo deseo: viajar al espacio, donde, Hawking está convencido, se encuentra el futuro de la especie humana.
El científico y los diosesHawking se autodefine como un socialista que siempre ha votado a los laboristas, y sus opiniones teológicas han sido campo de batalla, como lo fueron las de Einstein. Al enterarse de que su reciente visita a Santiago de Compostela fuera interpretada como si hubiera querido hacer parte del Camino de Santiago, declaró que las leyes en las que se basa la ciencia para explicar el origen del Universo "no dejan mucho espacio ni para milagros ni para Dios". |
Suscribirse a:
Entradas (Atom)