Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Un pionero incómodo

Wernher von Braun llevó a los Estados Unidos a triunfar en la carrera espacial hacia la Luna, pero su pasado en la Alemania nazi nunca dejó de arrojar una sombra sobre el hombre y sus proyectos.

Wernher Von Braun en su despacho de director de la NASA en 1964.
(foto D.P. de la NASA, vía Wikimedia Commons)
El 20 de julio de 1969, el modulo lunar “Eagle”, comandado por Neil Armstrong y copilotado por Edwin Aldrin se posaba en la superficie de la Luna.

Ese histórico momento marcó también un hito político. Terminaba la carrera espacial, iniciada en 1957 con el satélite Sputnik I de la Unión Soviética. Las dos superpotencias que habían emergido como hegemónicas después de la Segunda Guerra Mundial habían vivido una competencia vertiginosa en pos de distintas hazañas espaciales para evitar que su adversario los superara tecnológicamente. Cada logro se presentaba además como prueba de la superioridad del comunismo o del capitalismo, según el caso.

Desde el despacho de director de la NASA, Werhner von Braun veía coronado un sueño acariciado desde su adolescencia: llevar al ser humano más allá de nuestro planeta, primero a la Luna como preludio del soñado viaje a Marte. Y lo había hecho no sólo como administrador de la agencia espacial estadounidense, sino como ingeniero y visionario responsable del desarrollo del los cohetes de la NASA, llegando al Saturno V, el más potente fabricado incluso hasta la actualidad, para llevar al hombre hasta la Luna.

Pero en el proceso de conseguir esta verdadera hazaña tecnológica y humana, Wernher von Braun había pagado un alto precio humano. Un precio que hasta hoy no conocemos con precisión.

La ilusión del vuelo espacial

Werhner Magnus Maximilian von Braun nació el 23 de marzo de 1912 como heredero de un barón prusiano en Wirsitz, Alemania. Su pasión por el espacio se inició en su niñez y adolescencia, con el telescopio que le dio su madre y mediante la la lectura de los libros de ciencia ficción de Jules Verne y H.G. Wells y por las sólidas especulaciones científicas del físico Hermann Oberth en su libro “Por cohete hacia el espacio interplanetario”. Muy pronto se hizo parte de la sociedad alemana para los viajes interplanetarios fundada por Oberth en 1927, una de varias organizaciones similares en los Estados Unidos, Gran Bretaña o Rusia, que experimentaban con lanzamientos de pequeños cohetes.

Buscando trabajar con cohetes más grandes y presupuestos acordes al sueño, empezó a trabajar en 1932 con el gobierno alemán en el desarrollo de misiles balísticos, dos años antes de obtener su doctorado en física, y siguió trabajando para el ejército después de que Hitler ascendiera al poder en 1933, y en 1934 consiguió lanzar dos cohetes que ascendieron verticalmente más de 2 y 3 kilómetros.

En 1937, trabajando ya en el centro militar de cohetes de Peenemünde, solicitó su ingreso en el Partido Nazi, aunque afirmó que se le invitó a incorporarse en 1939 y que se vio obligado a hacerlo para continuar con su trabajo, aunque no hay evidencia de que haya realizado ninguna actividad política. Ciertamente, no habría podido continuar trabajando en cohetes pues el régimen nazi prohibió toda experimentación civil. Von Braun continuó trabajando los primeros años de la Segunda Guerra Mundial en el desarrollo de combustibles líquidos para misiles capaces de llevar cargas explosivas.

En 1942, Hitler no sólo había perdido estrepitosamente la Batalla de Inglaterra de 1940, sino que la aviación británica había comenzado a bombardear ciudades alemanas, de modo que ordenó la creación de un arma de venganza dirigida principalmente contra Gran Bretaña. Esta arma, el cohete V2, diseñado por Von Braun, estuvo lista en septiembre de 1944. El ejército alemán lanzó más de 3.000 de estos cohetes, producidos en fábricas con trabajo esclavo de los campos de concentración, contra blancos en Bélgica, Francia, Gran Bretaña y Holanda, dejando un saldo de al menos 5.000 muertos y muchos más heridos. Siempre quedaron dudas sobre cuánto sabía Von Braun de la mano de obra que producía sus cohetes o cuánto podría haber hecho por ellos.

Entretanto, Von Braun había estado brevemente preso en marzo de 1944 acusado de tener simpatías comunistas y una actitud “derrotista” ante el esfuerzo bélico alemán, pero fue liberado por su importancia para el programa de las V2.

Vencida Alemania, Von Braun orquestó un plan para rendirse con su equipo al ejército estadounidense antes de ser capturados por los soviéticos, y pronto se vio trabajando con el ejército antes enemigo, lanzando en el desierto de Nuevo México cohetes V2 capturados por el ejército y desarrollando nuevas armas como el misil Júpiter.

El lanzamiento del Sputnik I en 1957 por parte de los soviéticos (con el apoyo de otros científicos alemanes como Helmut Gröttrup) hizo que el gobierno de Estados Unidos acelerara su esfuerzo hacia los viajes espaciales, lanzando en 1958 el Explorer I, satélite científico que preparaba Von Braun desde 1954 y creando la NASA, de la que el científico alemán se convirtió en director en 1960.

Desde ese momento, Von Braun sería no sólo una pieza clave en la ciencia y tecnología del esfuerzo espacial estadounidense, sino uno de sus grandes defensores públicos. Durante los siguientes diez años se convertiría en la imagen misma de la carrera espacial del lado estadounidense y conseguiría estar siempre sólo un paso atrás de la Unión Soviética, que acumuló una serie impresionante de primeros logros (primer ser vivo en órbita, primer humano en órbita, primeras naves en la Luna y en Venus) pero fue superada en el objetivo final, la Luna, en 1969.

Ese objetivo, sin embargo, enfrió el entusiasmo público por los viajes espaciales, y Von Braun vio cómo el programa Apolo sufría recortes presupuestales que hacían imposible su siguiente sueño: llevar a un hombre a Marte. En 1972 decidió dejar la NASA para pasar al sector privado en la empresa aeronáutica Fairchild Industries, y murió de cáncer de páncreas en 1977, con apenas 65 años de edad.

La búsqueda por el “verdadero” Von Braun sigue. Sin embargo, los matices de su relación con los nazis y la medida en que su sueño de viajes espaciales pudo o no cegarlo a una realidad atroz tendrán siempre que ser parte de la historia del hombre que llevó a la humanidad a la Luna.

La operación Paperclip

Paperclip, literalmente "sujetapapeles", fue el programa de la Oficina de Servicios Estratégicos de las fuerzas armadas estadounidenses para reclutar científicos de la Alemania nazi para Estados Unidos, evitando que fueran reclutados por la Unión Soviética. El presidente Harry S. Truman ordenó excluir a miembros del Partido Nazi, o gente que hubiera participado activamente en él o apoyara activamente el militarismo nazi. Para eludir esta orden, las propias agencias de inteligencia crearon papeles y antecedentes falsos para blanquear el pasado de muchos científicos, entre ellos Wernher von Braun.

Antimateria, la realidad invertida

Un profundo desequilibrio en nuestro universo nos muestra el camino para comprender mejor la composición de cuanto conocemos, incluidos nosotros.

El rastro curvo del primer positrón observado
en una cámara de niebla, fotografiado por
su descubridor.
(Foto D.P. de Carl D. Anderson,
vía Wikimedia Commons)
Era 1928 y el físico británico Paul Dirac trabajaba en el vertiginoso mundo de la física que bullía entre la teoría de la relatividad y la teoría cuántica, la primera que describía el comportamiento del universo a nivel cosmológico y la segunda a nivel subatómico, y que parecían contradecirse. ¿Era posible conciliar las dos teorías? Dirac lo logró a través de una ecuación (hoy conocida como “Ecuación de Dirac”) que describía el comportamiento del electrón conciliando la relatividad y la cuántica.

Este logro, considerado una de las más importantes aportaciones a la física del siglo XX, tenía varias implicaciones inquietantes. Como otras ecuaciones, tenía dos soluciones posibles (por ejemplo, x2=4 se puede resolver como 2x2 o -2x-2). Una de las soluciones describía a un electrón con carga negativa, como los que forman la materia a nuestro alrededor, y la otra describía una partícula idéntica en todos los aspectos salvo que tendría energía positiva. Un “antielectrón”.

Esto implicaba que existían, o podían existir, partículas opuestas a todas las que conocemos. Al protón, de carga positiva, correspondía un antiprotón, idéntico en todas sus características pero con carga eléctrica negativa. Y al neutrón, de carga neutra, correspondía un antineutrón también de carga neutra pero con partículas componentes de diferente signo. Las antipartículas se podrían unir para crear antimateria. Un positrón y un antiprotón, por ejemplo, formarían un átomo de antihidrógeno tal como sus correspondientes partículas forman el hidrógeno común.

De hecho, cuando Paul Dirac recibió en 1933 el Premio Nobel de Física por su aportación, dedicó su discurso a plantear cómo se podía concebir todo un antiuniverso, con antiplanetas y antiestrellas y cualquier otra cosa imaginable, incluso antitortugas o antihumanos, formados por átomos de antimateria y que funcionarían exactamente como la materia que conocemos. Una especie de imagen en negativo de la realidad que conocemos.

Porque la ecuación de Dirac tenía implicaciones aún más peculiares. Establecía que las antimateria estaba sujeta exactamente a las mismas leyes físicas que rigen a la materia y demostraba la simetría en la naturaleza. Siempre que se crea materia a partir de la energía lo hace en pares de partícula y antipartícula. Y, de modo correspondiente, que al encontrarse una partícula y su antipartícula, como un electrón y un positrón, se aniquilarían mutuamente convirtiéndose totalmente en energía.

La ecuación parecía matemáticamente sólida y coherente con lo conocido en la física, pero faltaba la demostración experimental que la validara. Comenzó entonces la búsqueda de la antimateria y sorprendentemente tuvo sus primeros frutos muy pronto. En 1932 Carl Anderson, en California, observó, en un dispositivo llamado cámara de niebla que se utiliza para estudiar partículas subatómicas por su rastro, una partícula con la misma masa de un electrón pero de carga positiva, producida al mismo tiempo que un electrón. Era la partícula predicha por Dirac, a la que Anderson bautizó como “positrón”. Pronto se confirmó que, efectivamente, al encontrarse con un electrón, ambas partículas se aniquilaban.

Carl Anderson obtuvo también el Nobel de física en 1936 por su trabajo experimental. Pero después hubo que esperar hasta 1955 para que aceleradores de partículas de gran energía en el CERN (antecesores del LHC) pudieran producir el primer antiprotón y un año más para que nos dieran el antineutrón y, después, algunos átomos de antimateria.

Entretanto, los cosmólogos habían desarrollado y confirmado la teoría del Big Bang como origen del universo, pero se enfrentaban a un problema: la simetría planteada por la ecuación de Dirac indicaba que al momento de aparecer el universo, se había creado necesariamente tanta materia como antimateria, tantos electrones como antielectrones, tantos quarks como antiquarks, pero… ¿dónde estaba esa antimateria que debería ser tan abundante como la materia? El universo que observamos contiene una proporción muy pequeña de antimateria (un antiprotón por cada 1000,000,000,000,000 protones), y todas las búsquedas de antimateria en nuestro universo han sido en vano. Para donde miremos, el universo parece hecho de materia común y ordinaria.

La ausencia de antimateria en nuestro universo podría ser simplemente la incapacidad experimental actual de encontrarla, o bien podría significar que la simetría propuesta a partir de Dirac (simetría CP, siglas de Carga y Paridad) no es perfecta, que hay alguna diferencia sustancial, relevante, entre la materia y la antimateria que haya provocado la prevalencia de la materia.

Actualmente, hay investigaciones avanzando bajo ambos supuestos. En la Estación Espacial Internacional y en distintos satélites y sondas se han colocado aparatos que buscan detectar rayos gamma que pudieran ser producidos por galaxias de antimateria en algún lugar de nuestro universo, y se buscan nuevas formas de encontrar el faltante. Quizá está en los bordes de lo que podemos observar, separado de la materia por algún fenómeno desconocido que abriría nuevos horizontes en la física.

Pero también hay experimentos y estudios destinados a explorar la simetría de la materia y la antimateria en busca de diferencias hasta ahora no apreciadas. Desde la década de 1960, se observó que hay una pequeña diferencia en la forma en que se degradan unas partículas llamadas mesones K y sus correspondientes antipartículas. Esta discrepancia podría ser el pequeño desequilibrio de la simetría que explicara por qué nuestro universo es como es.

Apenas en 2011, los científicos que trabajan en uno de los detectores del LHC en Ginebra, Suiza, encontraron datos que parecen indicar otra diferencia, en este caso de las partículas llamadas mesones D0, y sus antipartículas también decaen de modo distinto. Esto podría llevar a avances en la física que explicaran otros grandes misterios como la materia y la energía oscura y la forma en que se transmite la fuerza gravitacional.

Usted y los positrones

La antimateria se utiliza los escáneres de tomografía por emisión de positrones (PET, por sus siglas en inglés). En este procedimiento, se obtienen imágenes del cuerpo administrando un marcador radiactivo de vida muy corta (entre unos minutos y un par de horas) que emite positrones. Los positrones viajan alrededor de un milímetro dentro del cuerpo antes de aniquilarse con un electrón. Un escáner registra la energía, que se produce en forma de dos rayos gamma que viajan en direcciones opuestas, y un potente ordenador interpreta los resultados para crear una imagen tridimensional de gran fidelidad y utilidad en el diagnóstico médico.

Mensajes subliminales: la leyenda continúa

Es una de esas cosas que “todo mundo sabe”, pero sin saber que fue uno de los grandes bulos que han afectado a la psicología.

La creencia en la persuasión subliminal afirma que
podemos ser manipulados como títeres.
(foto de Giulia (master of puppets) CC-BY-2.0,
vía Wikimedia Commons)
Cualquiera puede decirle a usted que hay “mensajes subliminales” que pueden influir en nosotros de manera estremecedoramente efectiva y profunda. “Subliminal” quiere decir “por debajo del umbral” de la percepción, es decir, son estímulos que nos pueden afectar sin que seamos conscientes siquiera de su existencia. Esta sola definición evoca niveles de control mental propios de “Un mundo feliz” de Aldous Huxley o “Mil novecientos ochenta y cuatro” de George Orwell.

Y sin embargo, nadie lo ha podido demostrar.

La idea de los mensajes subliminales nació en 1957 cuando un investigador de mercados llamado James Vicary afirmó haber realizado un experimento con resultados asombrosos e incluso preocupantes. Según su descripción, instaló durante seis semanas, en un cine de Ft. Lee, Nueva Jersey una máquina llamada “taquitoscopio” capaz de disparar mensajes que sólo estaban en pantalla 1/3000 de segundo. Durante la proyección de la película “Picnic” (de la que nadie se acuerda), la máquina disparaba cada cinco segundos dos frases sencillas: "Tome Coca-Cola" y "¿Tiene hambre? Coma palomitas de maíz".

Vicary afirmó consiguió un aumento de 18.1% en las ventas de Coca-Cola y de un asombroso 57.8% en las de palomitas de maíz.

Para los publicistas y mercadólogos, las implicaciones eran maravillosas: podían hacer que la gente comprara sin convencerlos, mostrarles imágenes agradables, mensajes persuasivos, testimoniales de personalidades famosas o situaciones sexuales. Con sólo disparar una frase y sin que el público se diera cuenta, alguna parte de su cerebro percibiría la frase, la entendería y luego obligaría al resto del cerebro a obedecer la orden como un zombie vudú de pelicula serie B.

James Vicary inventó la frase “publicidad subliminal”, de la que se declaró inventor y dominador, y procedió a ofrecer sus servicios a sus clientes.

Ese mismo año apareció el libro “The hidden persuaders” (Los persuasores ocultos) del periodista Vance Packard, que emprendía una profunda crítica de los estudios motivacionales que empezaban a utilizarse en publicidad y diseño de productos, pero con una visión siniestra y paranoica, advirtiendo de los riesgos que implicaba que estas técnicas (hoy bien conocidas) se usaran también en política y suponiéndoles demasiada efectividad.

Para el público, las implicaciones de las historias de Vicary y el libro de Packard indicaban una manipulación atroz que podía dejar a la humanidad sin libertad alguna. El periodista Norman Cousins, se apresuró a pedir la prohibición de la publicidad subliminal por violentar los espacios “más profundos y privados de la mente humana”.

La Comisión Federal de Comunicaciones de los Estados Unidos se apresuró a prohibir la “publicidad subliminal” so pena de retirar la licencia a cualquier televisora que la usara. Sobrevinieron también prohibiciones den Gran Bretaña y Australia.

El experimento de Vicary, sin embargo, no apareció en ninguna revista científica con las características que se le exigen a todos los estudios: metodología, detalles del desarrollo, tratamiento estadístico válido de los resultados y toda la cocina con su proceso de obtención de resultados que es la esencia de un artículo científico. Psicólogos y organismos como la Comisión Federal de Comunicaciones dudaron desde el principio y pidieron algo básico: la replicación del estudio. Vicary emprendió demostraciones informales de su máquina, pero o tenía problemas técnicos o simplemente no lograba resultados como los originalmente reportados.

Pasado más de un año desde que el mundo se enteró del experimento de la Coca-Cola y las palomitas como invasión de nuestras más profundas motivaciones, el doctor Henry Link, psicólogo experimental, desafió a James Vicary a hacer una réplica del experimento bajo condiciones controladas y supervisado por investigadores independientes. Vicary no pudo negarse. ¿El resultado? Ninguno. Los estímulos subliminales no afectaban la conducta de la gente.

Llegó 1962 y James Vicary confesó al fin, en una entrevista con la revista Advertising Age que el estudio había sido inventado para aumentar la clientela de su rengueante negocio. Vamos, que había mentido como un publicista.

Desde entonces, diversos experimentos diseñados con rigor científico han podido demostrar que, si bien puede existir cierta “percepción subliminal” (es decir, parte de nuestro cerebro puede registrar estímulos que no percibimos conscientemente), no hay indicios de que exista la “persuasión subliminal”, la capacidad de los estímulos subliminales de movernos a la acción, y menos aún derrotando nuestra voluntad y volviéndonos autómatas como temían Packard y Cousins.

Lo que resulta verdaderamente asombroso es que, pese a todos estos hechos y datos, los medios de comunicación, la percepción popular e incluso algunas instituciones de enseñanza mantengan viva la leyenda urbana de la “publicidad subliminal” como una vía rápida a nuestras emociones y convicciones. Parecería que la historia es demasiado buena para no ser cierta.

El profesor de psicología de la Universidad de California Anthony R. Pratkanis, experto la influencia de la sociedad sobre en nuestras actitudes, creencias y comportamiento, considera que la creencia en lo “subliminal” como una fuerza poderosa se remonta a la creencia en el “magnetismo animal” de Mesmer y las experiencias de la hipnosis que le siguieron.

Pratkanis observa cómo se ha desarrollado la creencia en la persuasión subliminal para adoptar aspectos cada vez más místicos, como la creencia en que podemos aprender mientras dormimos o escuchando cintas con “mensajes subliminales”, la creencia (común en la subcultura de la conspiranoia) de que la publicidad está llena de tales mensajes e incluso la idea de que se pueden insertar mensajes malévolos grabados al revés en la música, y nuestros cerebros pueden percibirlos, invertirlos, entenderlos y actuar de acuerdo a ellos aunque no queramos.

En distintos experimentos realizados por Patkanis, ninguna de las cintas de “motivación subliminal” que son una floreciente industria tuvo ningún efecto en los sujetos experimentales. Lo cual sigue sin bastar para que nos deshagamos de esta atractiva, atemorizante y curiosa leyenda urbana.


(Foto de Zach Petersen, CC via Wikimedia Commons)

Judas Priest

En 1990, el grupo de rock Judas Priest fue acusado de haber grabado el mensaje subliminal “Hazlo” en una de sus canciones, afirmando que este mensaje había convencido a dos adolescentes problemáticos para que se suicidaran. El juez, sin embargo, los declaró inocentes con la obvia explicación de que había “otros factores que explicaban la conducta de los fallecidos”. Pero el mito de los mensajes ocultos en el rock permanece.

El mapa de los pozos mortales

El origen de la epidemiología se encuentra en la historia de una bomba de agua londinense y la inteligente observación de un joven médico.

El Dr. John Snow
(Rsabbatini, D.P. vía Wikimedia Commons)
Era 1854 y Londres sufría un brote de cólera, el cuarto en muy pocos años, sembrando el temor entres la población. Se trataba de una enfermedad desconocida a principios del siglo XIX que se había empezado a extender por el mundo desde las aguas sucias de Calcuta, en la India colonizada por Gran Bretaña. La primera pandemia de 1817-1823 había afectado a gran parte de Asia y Oriente Medio, así como la costa oriental africana. La segunda, que se inició en Rusia, afectó a toda Europa, África del Norte y la costa oriental de América del Norte.

La forma en que se diseminaba la enfermedad parecía evidenciar claramente una ruta de contagio y algún agente responsable del contagio. Pero cuando el cólera llegó a Inglaterra en 1832, la teoría microbiana de la enfermedad ni siquiera había sido postulada por el italiano Agostino Bassi. Y no sería demostrada sino mucho después por Louis Pasteur y Robert Koch, hasta que hacia 1880 se abandonó finalmente la creencia en los miasmas.

La idea prevaleciente era que las enfermedades se transmitían mediante “miasmas” o “malos aires”, vapores que tenían partículas de materia descompuesta y malévola, la “miasmata”. Así, no se creía que las enfermedades se transmitieran de una persona a otra, sino que ambas eran víctimas del aire contaminado. Esta creencia no era sólo occidental, sino que la compartían otras culturas como las de la India y China.

Durante el segundo brote de cólera en Londres de 1848-1849, que mató a más de 14.000 personas, apareció en escena el doctor John Snow, como uno de los fundadores de la Sociedad Epidemiológica de Londres y desafiando las creencias de la época que, más que ciencia o medicina, eran ideas supervivientes de tiempos anteriores a la revolución científica.

John Snow había nacido en 1813, en una familia obrera, una limitación que consiguió superar abandonando el hogar a los 14 años para hacerse aprendiz de médico en la vertiente de cirujano barbero. Así, cuando apenas tenía 18 años, en 1831, en una visita a mineros del carbón tuvo su primer encuentro con el cólera, recién llegado de Asia, sin imaginar que sería el centro de su vida profesional. A los 23 años comenzó finalmente a estudiar medicina de modo formal, doctorándose en 1844 y obteniendo su licencia como especialista en 1849.

Snow hizo sus primeros trabajos con las formas primitivas de la anestesia, desarrollando un dispositivo para administrar cloroformo de manera eficaz y segura, tanto que fue él quien se lo administró por primera vez a la Reina Victoria en el parto del Príncipe Leopoldo en 1853.

Curiosamente, este acontecimiento significó el inicio de la aceptación popular a la anestesia, rechazada sobre todo por motivos religiosos aduciendo la maldición bíblica contra la mujer de parir a sus hijos con dolor. Pero, razonó la opinión pública, si la reina podía evadir la maldición, podía hacerlo también cualquier ciudadana común y corriente. Y lo empezaron a hacer, en lo que fue un logro peculiar para un hombre devotamente cristiano, célibe, abstemio y metódico hasta el extremo como era el doctor Snow.

En el segundo brote de cólera en Londres, Snow realizó lo que sería el primer estudio epidemiológiclo de la historia, determinando los niveles distintos de mortalidad causada por la epidemia en 32 subdistritos de Londres. Con sus resultados, teorizó que la enfermedad se diseminaba por algún agente por medio del contacto directo con la materia fecal, el agua contaminada y la ropa sucia. Publicó sus resultados en 1849, en el ensayo “Sobre el modo de contagio del cólera”, donde presentaba las observaciones estadísticas que sustentaban su propuesta.

Sin embargo, esto no impidió que 1854 el tercer brote de cólera en Londres se atribuyera a una concentración de miasmata en las cercanías del Río Támesis. Los acontecimientos en la zona del Soho fueron especialmente violentos porque literalmente de un día para otro enfermaron más de 100 personas y rápidamente se acumuló la aterradora cifra de 600 víctimas mortales.

Una variante del mapa del cólera del Dr. Snow
La aproximación de Snow fue estudiar en dónde estaban físicamente situadas las víctimas del cólera en el Soho, y crear un mapa donde pudo ver claramente que las muertes por la enfermedad parecían irradiar de un punto muy concreto: una bomba de agua situada en Broad Street; una de las 13 bombas que abastecían al barrio en una época en que no existía el concepto de agua corriente en las casas. Para Snow resultaba absolutamente evidente que era el agua, y el agua de esa bomba, la responsable de una serie de muertes que se desató violentamente a partir de un día concreto, el 31 de agosto.

Armado con sus datos y su prestigio como médico, Snow acudió a las autoridades con una solicitud: que se quitara el mango de la bomba de agua de Broad Street, haciendo que los residentes se abastecieran en alguna de las otras bombas de la zona. Esto se hizo finalmente el 7 de septiembre, y el número de enfermos y muertos disminuyó rápidamente.

Otro estudio que realizó el mismo año comparó los barrios de Londres que recibían agua de dos empresas distintas, una que tomaba el agua río arriba en el Támesis, donde no había contaminación, y otra que lo hacía en el centro de Londres. Los resultados de Snow demostraban el efecto dañino del agua contaminada y le permitieron sugerir formas de controlar la epidemia e ideas para evitarlas en el futuro.

Aunque la teoría de los miasmas siguió prevaleciendo durante algunas décadas, la realidad se impuso y marcó una serie de cambios en la política londinense, incluida la creación de una nueva red de drenaje en 1880. John Snow, sin embargo, no vivió para ver el triunfo de su esfuerzo sobre las antiguas supersticiones. Murió en 1858 de un accidente cerebrovascular mientras seguía estudiando sus dos pasiones: la anestesia y la epidemiología, disciplina de la que es considerado el gran pionero.

Hoy en día, los visitantes de Londres pueden ir a la calle Broadwick, que es como se rebautizó Broad Street y ver una réplica de la famos bomba de agua del Dr. Snow sin el mango, como testigo de cómo la aproximación sistemática y científica a un problema puede cambiar la forma en que vemos el mundo.

El cólera en España

Los brotes de cólera en España coinciden con las grandes pandemias europeas. El primero comenzó en Vigo y en Barcelona en 1833, y se prolongó al menos hasta 1834 recorriendo el país. Seguiría otro en 1855, parte de la pandemia que abordó John Snow, y un tercero en 1865. Las vacunas y los avances de la medicina contuvieron la enfermedad salvo por dos brotes en el siglo XX atribuibles a la mala gestión de las aguas residuales, uno en 1971 en la ribera del Jalón y otro en 1979 en Málaga y Barcelona.

Fotografía: el momento irrepetible

Herramienta para la comunicación, las ciencias, la tecnología y el arte, la fotografía es una sucesión de encuentros entre distintas tecnologías e inventos.

"Vista desde la ventana en Le Gras", la primera
fotografía de la historia, obtenida por
Joseph Nicéphore Niépce en 1826.
(Imagen de D.P. vía Wikimedia Commons)
Supongamos una caja cerrada, ya sea pequeña o del tamaño de una habitación. En el centro de una de sus caras, abrimos un orificio diminuto. Sorprendentemente, las imágenes que estén frente al orificio en el exterior de la cámara se proyectarán en la cara opuesta dentro de la caja, pero invertidas.

Este fenómeno se explica porque, cuando los rayos de luz que viajan en línea recta pasan por un orificio pequeño en un material no demasiado espeso, no se dispersan, sino que se cruzan entre sí y vuelven a formar la imagen de cabeza. El orificio funciona como una lente y, de hecho, si utilizamos una lente en su lugar, se puede obtener tanto mayor nitidez como mayor luminosidad en la imagen reconstruida.

Este fenómeno fue descrito al menos desde el siglo V antes de la Era Común, por el filósofo chino Mo-Hi, quien llamó al lugar donde se veían las imágenes “habitación cerrada del tesoro”. En occidente, el principio también era entendido al menos desde Aristóteles, quien lo utilizó para observar eclipses de sol, práctica aún común para evitar ver el sol directamente.

En el siglo XVI se empezaron a utilizar lentes convexas en lugar del orificio y un espejo para invertir nuevamente la imagen y proyectarla en una superficie, creando un dispositivo portátil que durante siglos fue utilizado como auxiliar para el dibujo. Las habitaciones en las que se utilizaba el fenómeno para ver imágenes de gran tamaño fueron llamadas por el astrónomo Johannes Kepler “cámaras oscuras” , motivo por el cual llamamos “cámara” a cualquier dispositivo fotográfico o cinematográfico.

El siguiente paso era capturar las imágenes. Pero no pensaba en ello el alemán Johann Heinrich Schulze, que 1727, en uno de sus experimentos, mezcló tiza, ácido nítrico y plata observando que se oscurecía en el lado que estaba hacia la luz. Había creado la primera sustancia fotosensible conocida. Las experiencias ulteriores con sustancias sensibles a la luz tenían el problema de que las imágenes no se fijaban: la sustancia seguía reaccionando ante la luz y eventualmente era totalmente negra

Fue un francés, Joseph Nicéphore Niépce, quien experimentó durante años uniendo la cámara oscura y el trabajo de los químicos para hacer, en 1826, la primera cámara y la primera fotografía (misma que aún existe). Aplicó una mezcla de betún de Judea sobre una placa de peltre y la expuso desde su ventana durante ocho horas.

El siglo XIX fue escenario de experiencias con diversos materiales buscando obtener más nitidez, conseguir imágenes en menos tiempo y con menos luz, y poderlas conservar eficazmente, ya fuera en positivo, como en los daguerrotipos, o en negativo, proceso inventado por John Talbot y que permitía hacer las copias que se quisiera del original.

Las placas debían ser preparadas por el fotógrafo en el sitio, con una feria de aparatos y sustancias peligrosas, por lo que fue bienvenida la aparición de las “placas secas” de vidrio que tenían ya una sustancia fotosensible que se mantenían en la oscuridad antes y después de hacer la foto, para posteriormente revelarse. Su tiempo de exposición era tan pequeño que las cámaras fotográficas pudieron hacerse pequeñas y manuables.

El gran salto para la popularización de la fotografía lo dio el estadounidense George Eastman en 1889 con una película flexible, irrompible y que podía enrollarse, recubierta de una sustancia fotosensible que producía imágenes en negativo. Esto permitió hacer cámaras mucho más pequeñas y poner la tecnología fotográfica al alcance de todo el mundo. Ya no se necesitaba tener un laboratorio y saber manejarlo, bastaba “hacer la foto” y llevar el rollo a un técnico que se encargaría de revelarlo y hacer cuantas copias se quisiera.

El siglo XX se dedicó a perfeccionar la tecnología haciéndola más rápida, más eficaz, más precisa y trayendo al público, en 1940, la fotografía en color. Era una nueva forma de arte, pero también una herramienta documental y científica que permitió ver lo que nunca se había podido ver, como el momento en que una bala traspasa una manzana, imágenes infrarrojas y ultravioleta, y una enorme cantidad de accesorios alrededor del humilde principio de la cámara oscura.

En 1975, el ingeniero Steven Sasson, de la empresa de George Eastman, Kodak, creó la primera cámara fotográfica digital, a partir de tecnología de vídeo ya existente. En vez de utilizar una sustancia química fotosensible de un solo uso, estas cámaras emplean sensores electrónicos que detectan la luz y la convierten en una carga eléctrica. La cámara de Sasson tenía una resolución de sólo 100x100 píxeles (10.000 píxeles, comparados con los varios millones de píxeles que tiene cualquier cámara barata hoy en día), tardaba 23 segundos en registrar una imagen y pesaba más de 4 kilos.

El desarrollo de la fotografía digital fue muy rápido. La primera cámara para el consumidor fue lanzada en 1988-1989 y para 1991 había cámaras profesionales comerciales con más de un megapíxel (un millón de píxeles) de resolución, todas en blanco y negro. El color digital llegó en 1994 y de modo acelerado se ofreció comercialmente una sucesión de cámaras con más píxeles, más nitidez, mejor óptica, mejor almacenamiento (con la aparición de las tarjetas flash) y, sobre todo, precios cada vez más bajos.

La última gran revolución de la fotografía digital fue su integración en 2002 a los teléfonos móviles, que habían aparecido en 1983 (aunque no fueron realmente portátiles sino hasta 1989). A futuro se habla por igual de fotografía en 3 dimensiones (viejo sueño) como de perspectivas totalmente nuevas.

En 2011 se presentó una nueva cámara, Lytro, que en lugar de capturar la luz según el principio de la cámara oscura, lo hace interpretando campos de luz. El resultado son imágenes que no es necesario enfocar al momento de hacerlas, sino que el foco se decide en el ordenador posteriormente, algo que además de tener grandes posibilidades profesionales puede ser una ayuda enorme para el aficionado.

Las tragedias de Kodak

El popularizador de la fotografía, George Eastman, se suicidó en 1932 víctima de terribles dolores por una afección en la columna vertebral. Su empresa, Eastman Kodak, que fue la vanguardia de la fotografía durante más de 100 años, solicitó protección contra la quiebra en 2012, herida por la muerte de la película fotográfica y embarcada en una serie de litigios para conseguir el pago de sus patentes de fotografía digital por parte de otros fabricantes. La empresa se dedicará, si sobrevive, al papel fotográfico y la impresión por chorro de tinta, y licenciando su bien conocida marca a otras firmas.

Galvani, Frankenstein y el desfibrilador

El funcionamiento de nuestro cuerpo depende de impulsos eléctricos generados químicamente, algo que empezamos a descubrir hace 220 años.

Mary Wollstonecraft Shelley
(Retrato D.P. de Reginald Easton,
via Wikimedia Commons)
Era 1790 y la señora Galvani, afectada por una fiebre, pidió una curativa sopa de rana. Su marido, el fisiólogo Luigi Galvani, profesor de la universidad de Bolonia, se puso a preparar el brebaje y depositó la bandeja de ranas sobre su mesa de trabajo, donde jugueteaba con la electricidad. Una chispa saltó de un instrumento a la pata de una rana, ésta se contrajo violentamente y Luigi Galvani descubrió la relación entre los impulsos nerviosos y la electricidad.

Este relato tiene un gran atractivo literario, incluido el científico distraído que por error realiza un descubrimiento relevante, pero por desgracia es un simple mito. En realidad, el trabajo de Galvani había comenzado mucho antes, observando cómo la electricidad afectaba a los músculos de las ranas antes de publicar sus conclusiones en las actas del Instituto de Ciencias de Bolonia en 1791 con el título Comentario sobre la fuerza de la electricidad en el movimiento muscular.

La misteriosa electricidad había sido estudiada por primera vez con detenimiento en 1600, por el inglés William Gilbert, entre otras cosas médico de Isabel I, quien descubrió que nuestro planeta es magnético y acuñó el término “electricus” denotar lo que hoy llamamos “electricidad estática”, la capacidad del ámbar de atraer objetos ligeros después de frotarlo.

Pero fueron estudiosos como Benjamín Franklin (quien demostró que los relámpagos son electricidad) o Alessandro Volta los que dispararon el interés por la electricidad. Volta, colega, amigo y vecino de Galvani, consideraba que las convulsiones de las ranas se debían sólo a que el tejido servía como conductor, mientras que Galvani consideraba que los seres vivos tenían y generaban electricidad.

Para demostrar que su amigo se equivocaba, por cierto, Volta creó su primera pila, la madre de todas las baterías, con objeto de tener una corriente eléctrica continua para sus experimentos

Y entonces apareció Mary Shelley, que tenía todavía de apellido Wollstonecraft en 1816, cuando el poeta Percy Bysse Shelley con el que había huido a Ginebra (el escritor estaba casado con otra) les propuso a ella, al también poeta Lord Byron y al médico John Polidori escribir un cuento de terror.

Los miembros del grupo ya habían comentado los descubrimientos sobre electricidad y Mary, de sólo 18 años, leía sobre los descubrimientos del italiano. Tuvo entonces una pesadilla donde vio a un estudiante de “artes impías” dando vida a un ser utilizando una máquina. El resultado fue la novela Frankenstein o el moderno Prometeo, que publicaría finalmente en 1819, ya en Inglaterra y casada con el poeta. Por ese libro, para la mayoría de la gente el apellido “Shelley” evoca al monstruo y a su atormentado creador, antes que a los versos de Ozymandias o la Oda al viento del este.

El debate entre Galvani y Volta se habría resuelto en 1794 con la publicación de un libro de Galvani que incluía un experimento en el cual los músculos de una rana se contraían al ser tocados no por una placa metálica con una diferencia de potencial, sino con una fibra nerviosa de otra rana. Pero por alguna causa, la publicación se hizo de manera anónima.

Hubo de llegar el naturalista alemán Alexander von Humboldt a realizar una serie de experimentos que demostraron que el tejido animal era capaz por sí mismo de generar un potencial eléctrico, lo cual por cierto quedaba también demostrado con su trabajo sobre anguilas eléctricas, cuya capacidad de causar violentas reacciones en sus víctimas era bien conocida, pero no se había explicado hasta entonces.

Demostrado pues que las fibras nerviosas eran conductoras y generadoras de electricidad, se sucedieron los descubrimientos. Supimos que el sistema nervioso está formado por células cuyas prolongaciones forman las fibras nerviosas o que existe un aislante eléctrico natural en estas fibras, la mielina. Se midió la la velocidad de los impulsos nerviosos y se fue describiendo cómo el sistema nervioso transmite órdenes y recibe información electroquímicamente de célula en célula.

Las derivaciones médicas vinieron pronto. Además de los charlatanes que vendían por igual agua electrizada para curarlo todo o slips eléctricos para la impotencia masculina, la detección de los potenciales eléctricos se convirtió en procedimientos de diagnóstico como la electrocardiografía y la electroencefalografía, entre otros, mientras que las descargas eléctricas de intensidad variable se empezaron a utilizar para la estimulación muscular en rehabilitación, para el manejo del dolor, apoyando la cicatrización pues mejoran la microcirculación y la síntesis de proteínas en zonas lesionadas, y aplicadas directamente en el cerebro mediante electrodos para afecciones tan distintas como la enfermedad de Parkinson y la depresión grave.

Pero el más espectacular uso de la electricidad en medicina sigue siendo evocador de las ranas de Galvani y del momento en que Frankenstein le da vida a su criatura: es el desfibrilador. En 1899, los investigadores Jean-Louis Prévost y Frederic Batelli descubrieron que una descarga eléctrica podía provocar la fibrilación (el latido irregular del corazón, que lleva a un fallo catastrófico) mientras que una descarga aún mayor podía invertir el proceso, regularizando el ritmo cardíaco.

Desde 1947, cuando el médico estadounidense Claude Beck lo usó por primera vez para salvar a un paciente de 14 años, el desfibrilador se ha desarrollado y ha salvado una cantidad incalculable de vidas.

Pero el cine y la televisión suelen mostrar el uso de desfibriladores para “poner en marcha” un corazón que se ha detenido (la temida línea recta del electrocardiógrafo con su siniestro pitido). Pero esto no ocurre así. La descarga eléctrica no puede arrancar un corazón detenido. Al contrario, detiene momentáneamente el corazón, bloqueado por impulsos desordenados, de modo que su marcapasos natural, un grupo de células nerviosas llamado “nodo sinoatrial”, pueda entrar en acción. Es una forma de restaurar el funcionamiento corazón. Pero cuando el corazón se ha detenido y el nodo sinoatrial no está enviando impulsos, lo que se utiliza son distintos compuestos químicos para ponerlo nuevamente en marcha… lo cual es bastante menos cinematográfico por útil que resulte.

El temido electroshock

La terapia electroconvulsiva es materia de muchas historias de terror por la forma en que se utilizó en las décadas de 1940 y 1950. Sin embargo, hoy se aplica sólo con el consentimiento del paciente y bajo anestesia. Si bien no es una panacea, no es tampoco un procedimiento que afecte al paciente y sí es una herramienta útil en casos de depresión grave y otros problemas.

Microondas: de las telecomunicaciones a la cocina

Son simples ondas de radio, de longitud un poco más pequeña, pero cuyas características las han convertido en una de las herramientas clave de nuestra vida actual.

El Piruli close view02
Las antenas de Torrespaña, de RTVE
(Foto CC de Xauxa Håkan Svensson,
vía Wikimedia Commons)
Cuando ponemos las palomitas de maíz en el microondas para una sesión doméstica de cine o un partido de fútbol, estamos reproduciendo sin saberlo un experimento de 1945 que llevó el principio del radar a numerosas cocinas en todo el mundo.

El experimento en cuestión fue inspirado por un peculiar accidente. Percy Spencer, ingeniero autodidacta contratado por la empresa Raytheon, estaba investigando las características y fabricación de los magnetrones usados para producir ondas de radar. Un día, después de estar un tiempo frente a un potente magnetrón en funcionamiento, descubrió que se había derretido una chocolatina que llevaba en el bolsillo.

Al día siguiente, Spencer hizo un experimento informal llevando maíz para palomitas a su laboratorio y colocándolo frente al magnetrón, con los mismos resultados que obtenemos nosotros en nuestras cocinas. Un año después, Raytheon empezaba a vender un horno de microondas primitivo, basado en la patente de Spencer… y el público en general se familiarizaba con la palabra “microondas” aunque probablemente no con su significado.

Las microondas se definen son ondas de radio con longitudes de onda entre un metro y un milímetro o bien de frecuencias entre 1 y 100 GHz o gigaherzios (es decir, que oscilan entre 1.000 y 300.000 millones de veces por segundo). Son más potentes y de mayor frecuencia que las ondas que utilizamos para la transmisión de radio y menos potentes que la radiación infrarroja, la luz visible, los rayos X y los rayos gamma.

Una de las características peculiares de las microondas es que ciertas sustancias como las grasas o el agua absorben su energía y entran en movimiento, chocando entre sí y produciendo calor. Es un fenómeno que los físicos llaman “calentamiento dieléctrico” y que es el responsable de que nuestros pequeños hornos puedan calentar la comida “agitando” sus líquidos y grasas sin calentar ni el aire ni los recipientes. Las microondas que utilizan nuestros hornos tienen una longitud de onda de 122 milímetros.

Las microondas habían sido previstas por las ecuaciones publicadas en 1873 por el físico escocés James Clerk Maxwell. Al entender que el magnetismo y la electricidad eran una misma fuerza, la electromagnética, y describir su funcionamiento, preveía la posibilidad de que existieran ondas electromagnéticas invisibles con longitudes de onda mucho mayores que las de la luz visible (que tiene longitudes entre unos 400 y 700 nanómetros, o millonésimas de metro).

Fue Heinrich Hertz quien a partir de 1886 hizo los experimentos que demostraron que estas ondas existían y que se podían transmitir, convirtiéndose en el primer hombre que generó ondas de radio.

El siglo XX comenzó de lleno con el esfuerzo por generar, controlar y utilizar efectivamente esas ondas, con las experiencias y desarrollo de la radio por parte del italiano Guillermo Marconi. Con base en ellas, Nikola Tesla propuso que se podían utilizar ondas electromagnéticas para localizar objetos que las reflejaran, principio que fue utilizado por el francés Émile Girardeau en 1934 para crear el primer radar experimental utilizando el magnetrón, inventado en 1920 por Albert Hull, para emitir microondas, que son reflejadas por los objetos metálicos.

El radar, palabra procedente de las siglas en inglés de “detección y localización por radio”, se desarrolló rápidamente en varios países, pero fueron los británicos los primeros que lo emplearon con éxito para detectar la entrada de aviones enemigos en su espacio aéreo. Continuó siendo un elemento fundamental durante toda la Segunda Guerra Mundial.

Desde el radar y el horno, las microondas han encontrado una variedad asombrosa de usos en nuestra vida.

En el terreno de las comunicaciones, las microondas tienen la ventaja de que se pueden transmitir en haces muy estrechos que pueden ser captados por antenas igualmente pequeñas. Por ello se utilizaron, antes de que existiera la fibra óptica, para crear enlaces terrestres como los de telefonía y televisión. La comunicación por microondas se realiza en lo que se llama “línea de visión”, es decir, no debe haber obstrucciones (incluida la curvatura de la Tierra) entre antenas. Así, la señal se iba relevando de una a otra antena de microondas situadas generalmente en puntos geográficos elevados.

Los satélites se enlazan mediante microondas entre sí y a las estaciones terrestres que los controlan y dirigen, y a todos los puntos a los que envían su información. Todo lo que obtenemos de los satélites nos llega por microondas, sean datos meteorológicos, las fotografías del telescopio Hubble, mediciones del magnetismo terrestre o los datos para la navegación por satélite, como los del sistema GPS estadounidense que hoy está presente en la mayoría de los automóviles y el futuro Galileo de la Unión Europea.

Las microondas, además, permiten la existencia de la telefonía móvil y otros sistemas de comunicación inalámbrica como el bluetooth y el wifi. Su eficiencia a baja potencia permite tener transmisores y receptores pequeños y de bajo consumo. Y pese a todas las afirmaciones poco informadas en contrario, son, hasta donde sabemos, inocuas para la salud humana, lo cual se explica fácilmente al tener en cuenta que tienen mucho menos energía que la luz visible.

La radioastronomía, por su parte, observa la radiación de microondas del universo e incluso las utiliza para realizar tareas tan diversas como calcular la distancia de la Tierra a la Luna o para poder cartografiar la superficie de Venus a través de su eterna capa de nubes.

Estas peculiares ondas de radio podrían ser, además, protagonistas de uno de los avances más anhelados de nuestro tiempo: la fusión nuclear controlada, que podría darnos cantidades enormes de energía con mínima contaminación y a bajo coste. En los reactores, las microondas se emplean para ayudar a calentar el hidrógeno y disparar la reacción en la que las moléculas de este elemento se unen formando helio y generando energía tal como lo hace nuestro sol.

La huella del big bang

En 1948 un estudio predijo que el universo entero tenía una radiación de microondas cósmica de fondo, misma que fue descubierta en 1965 por Arno Penzias y Robert Woodrow Wilson, quienes acabarían recibiendo el Premio Nobel de Física por su descubrimiento. Estas microondas presentes de modo uniforme en todo el universo son ni más ni menos que el “eco” o el calor restante producto de la colosal explosión llamada “Big Bang” en la que se originó nuestro universo, el tiempo y el espacio. No sólo demuestran que ocurrió, sino que pueden decirnos mucho sobre cómo ocurrió.

Alfred Russell Wallace, el pionero oscuro

En la era de los grandes naturalistas ingleses del siglo XX, uno de los más brillantes es hoy uno de los más injustamente olvidados.

Alfred Russell Wallace en su libro sobre
sus viajes por el Río Negro.
(D.P., vía Wikimedia Commons)
La historia nos puede sonar conocida: joven británico emprende un viaje como naturalista de a bordo en una expedición hacia América. Analizando las especies que va encontrando empieza a germinar en su mente la idea de que cuanto ve es una prueba de que las especies se van formando, evolucionando por medio de un mecanismo llamado “selección natural”, mediante el cual los individuos mejor adaptados para la supervivencia tienen una probabilidad mayor de reproducirse, creándose una criba lenta que al paso de larguísimos períodos va llevando a una especie como tal a diferenciarse de otra, a cambiar, a mejorar su adaptación, a sobrevivir mejor.

Sin embargo, ésta no es la historia de Charles Darwin. Es la historia, paralela a la de éste,del segundo genio de la selección natural de la Inglaterra del siglo XIX, Alfred Russell Wallace.

Alfred Rusell Wallace, presuntamente descendiente del independentista escocés William Wallace, nació en Monmouthshire, Inglaterra (hoy Gales) en 1823, como el octavo de nueve hermanos. Cualquier inquietud intelectual que hubiera tenido en su niñez sufrió un duro golpe cuando, a los doce años de edad, su padre, arruinado a manos de unos estafadores, lo tuvo que sacar de la escuela y enviarlo con sus hermanos mayores, uno de los cuales, William, lo tomó como aprendiz de topógrafo.

En 1843, cuando sólo tenía 20 años, el joven Alfred consiguió un puesto como profesor de dibujo, topografía, inglés y aritmética en el Collegiate School de Leicester, donde además empezó a estudiar historia natural, disciplina que lo fascinó, especialmente en cuanto a los insectos y su clasificación.

En 1845, la lectura de un libro de Robert Chambers lo convenció de que la evolución (llamada por entonces “transmutación”) era un hecho real. Tres años después, en compañía de un amigo y colega entomólogo, emprendió el viaje a Brasil, inspirado por otros naturalistas como el propio Darwin, que había hecho su viaje en el “Beagle” en 1831.

Russell Wallace pasó cuatro años recorriendo las selvas brasileñas, recolectando especímenes, haciendo mapas, dibujando animales y escribiendo numerosas notas. Por desgracia, cuando decidió volver a Inglaterra en 1852, el barco en el que viajaba se hundió, dejándolo a la deriva durante 10 días y llevándose al fondo del mar todos los documentos reunidos por el joven naturalista. Sin arredrarse, en 1854 emprendió una nueva expedición, ahora al archipiélago malayo, donde pasó ocho años en total dedicado a documentar la fauna local, describiendo miles de especies hasta entonces desconocidas para la ciencia.

Fue en 1858 cuando, estando convalesciente de una enfermedad en la isla indonesia de Halmahera, Alfred Russell Wallace encontró finalmente una explicación plausible, integral y clarísima del proceso mediante el cual evolucionaban las especies, la selección natural. De inmediato escribió un extenso ensayo explicando su teoría y sus bases, y se la envió a Charles Darwin, con quien ya había tenido correspondencia sobre el tema de la evolución.

Darwin, por su parte, había descubierto el mecanismo de la selección natural años atrás, pero su visión sistemática y pausada (llevaba más de 25 años analizando los datos que había reunido en el “Beagle”, investigando e incluso experimentando sobre temas diversos relacionados con el tema) le había hecho mantener su idea en relativo secreto, hasta estar absolutamente seguro de que los datos la sustentaban. Ahora, sin embargo, el asunto debía saltar al público.

Asesorado por el geólogo Charles Lyell y el explorador y botánico Joseph Dalton Hooker, Darwin aceptó que ellos dos presentaran el ensayo de Wallace y dos extractos del libro que pacientemente había ido redactando Darwin (“El origen de las especies”) ante la Sociedad Linneana de Londres el 1º de julio de 1858, y que se publicaron ese año en la revista de la sociedad con el nombre conjunto de “Sobre la tendencia de las especies a formar variedades y sobre la perpetuación de las variedades y las especies por medios naturales de selección".

Durante los años siguientes, la teoría de la evolución por medio de la selección natural fue conocida como la teoría Darwin-Wallace, y los premios, reconocimientos y críticas recayeron por igual sobre los dos destacados naturalistas, el ya maduro (Darwin estaba por cumplir medio siglo) y el aún joven (Russell Wallace tenía casi la mitad, 25).

Mientras Darwin publicaba un año después su famoso libro y, con el apoyo de Thomas Henry Huxley, capeaba en el Reino Unido el temporal de críticas y malinterpretaciones que produjo, Alfred Russell Wallace continuó trabajando en Indonesia, clasificando, observando y tomando notas.

Cuando finalmente volvio a Inglaterra en 1862, Wallace se dedicó a difundir y explicar la teoría de la selección natural que había creado con Darwin, y a escribir más de 20 libros sobre viajes, zoología y biogeografía, entre ellos “El archipiélago malayo”, un clásico de la exploración y la aventura. Además de ello, tuvo tiempo bastante de disfrutar multitud de honores, premios y apoyos. Incluso cuando se vio en dificultades económicas, contó con la ayuda de Darwin, que consiguió que la corona inglesa le asignara a Wallace un estipendio vitalicio para que pudiera continuar su trabajo sin preocupaciones financieras.

Al morir Alfred Russell Wallace en 1913 a los 91 años, era probablemente el más conocido naturalista inglés. Y sin embargo, conforme la teoría de la selección natural se perfeccionó y afinó con nuevos descubrimientos como la genética para crear la síntesis que hoy explica el surgimiento de las especies, el nombre de Alfred Russell Wallace se fue borrando de la conciencia popular, pese al reconocimiento que Darwin siempre le dio como co-fundador de la teoría de la evolución mediante la selección natural.

Quizá haya alguna clave en el hecho de que Wallace escribiera, con base en las conferencias que dio sobre evolución en los Estados Unidos durante tres años, el libro simplemente intitulado “Darwinismo”, publicado en 1889 y que se convirtió en una de sus obras más citadas, dejándonos con la duda de por qué no lo llamó “Darwinismo-Wallacismo”.

La línea de Wallace

Alfred Russell Wallace fue también uno de los fundadores de la biogeografía, al notar que ,pese a que las islas de Bali y de Lombok, están separadas por apenas 35 kilómetros, la diferencia de su fauna era enorme. Las aves de Bali eran parientes de las que vivían en las islas mayores como Sumatra y Java, mientras que las de Lombok estaban relacionadas con las de Nueva Guinea y Australia. Había encontrado el punto que delimita dos zonas ecológicas distintas, lo que hoy se conoce como la Línea de Wallace.

Locura: la presa escurridiza

El antiguo temor a perder la razón apenas empieza a encontrar respuestas en el estudio científico de las patologías del comportamiento.

"El cirujano" de Jan Van Hemessen en el Museo del Prado
(Copyright ©  Directmedia Publishing GmbH,
Wikimedia Commons) 
En la pintura flamenca del renacimiento y posterior es común el tema de la extracción de la piedra de la locura. En el Museo del Prado podemos verla representada por Hieronymus Bosch (“El Bosco”) y Jan Van Hemessen, y también fue tocado por Pieter Brueghel “El viejo”, Jan Steen, Frans Hals y otros: un cirujano charlatán extrae de la frente de su paciente una piedra que, se decía, era la causante de la locura. Para los pintores es claramente un truco de prestidigitación, como el que hoy realizan “cirujanos psíquicos” que fingen extraer de sus pacientes objetos y supuestos tumores (vísceras de diversos animales).

Éste es un testimonio de la preocupación que el ser humano ha dedicado a la pérdida de la razón, la locura, según haya sido definida en distintos momentos y lugares para diferenciarla de la simple extravagancia, la excentricidad o la rebeldía ante el convencionalismo.

En el principio de la historia humana, y durante varios miles de años, toda enfermedad, y las del comportamiento no eran la excepción, se consideraron producto de la acción de espíritus maléficos o demonios, o un castigo divino como lo señala repetidamente la Biblia. En la Grecia clásica, Aristóteles o Plinio el Viejo afirmaron que la locura era inducida por la luna llena, creencia que en cierta forma persiste en la actualidad en forma de leyenda urbana pese a que la han contradicho diversos estudios.

No eran mejores las interpretaciones que atribuían la locura a una falla moral del propio paciente, visión probablemente reforzada por los efectos de la sífilis, que en su etapa terciaria puede provocar demencia (pérdida de memoria), violentos cambios de personalidad y otros problemas que se atribuían a la disipación sexual de la víctima.

El estudio científico de las alteraciones graves de la conducta y la percepción no se inició sino hasta la aparicion del pensamiento ilustrado, a fines del siglo XVIII, que empezó a considerar estas alteraciones como problemas orgánicos y no espirituales, abriendo el camino a su estudio médico y psicológico.

Tratamientos delirantes y definiciones cambiantes

Los criterios para considerar una conducta como patológica son en extremo variables según el momento, la cultura y las normas sociales, sin considerar casos extremos (la Unión Soviética fue ejemplo claro) donde se declaraba loco a quien no aceptara las ideas del poder político, actitud que, además, no ha sido privativa de las dictaduras.

Pero argumentar que algunos comportamientos pueden ser simples desviaciones de la media, incluso un derecho a disentir por parte del afectado, como plantean algunos críticos, queda el problema de ciertos estados que provocan un sufrimiento claro para quienes los padecen y una disminución de su capacidad de funcionar, como las alucinaciones, los delirios y los problemas de comportamiento y percepción propios de afecciones como la esquizofrenia.

Hasta el siglo XIX no había siquiera un intento de caracterización de los trastornos psicológicos, y sin embargo hubo numerosos intentos de tratamiento poco efectivos y sin bases científicas, desde el psicoanálisis hasta intervenciones directas, químicas o quirúrgicas, que parecen haber surgido como producto tanto de la impotencia ante las alteraciones observadas como de cierto oportunismo producto de la indefensión de los pacientes.

La lobotomía prefrontal (el corte de las conexiones entre la parte más delantera del cerebro y el resto del mismo), el shock insulínico, la terapia de sueño profundo inducido con barbitúricos y la terapia de electrochoques fueron procedimientos ampliamente practicados en pacientes durante la primera mitad del siglo XX, porque parecían tener cierta efectividad. Aunque fueron abandonados o su utilización se afinó para ciertos casos donde su eficacia finalmente se demostró, han servido para dar una imagen negativa de la psiquiatría bien aprovechada por sus detractores.

El cambio en el tratamiento se produjo en la década de 1950, con la aparición de los medicamentos antipsicóticos, que por primera vez ofrecieron, si no una curación, sí un alivio perceptible para los pacientes y sus familias, y a los que se añadieron antidepresivos y ansiolíticos (medicamentos que reducen la ansiedad) para el tratamiento de alteraciones emocionales. Estos medicamentos han ayudado, al menos en principio, a empezar a identificar algunos aspectos químicos de algunas de las escurridizas “enfermedades mentales”.

El desarrollo de estos medicamentos ha permitido el control de algunos de los aspectos de las psicosis que más sufrimiento causan a los pacientes y a sus familias, en particular las alucinaciones y los delirios, pese a no estar exentos de problemas, efectos secundarios indeseables y una eficacia inferior a la deseable.

Del lado de la psicología, las distintas terapias suelen no ser producto de una aproximación científica rigurosos, sino postuladas teóricamente por autoproclamados pioneros, con el resultado de que su eficacia es igualmente debatida. Es sólo en los últimos años cuando se han empezado a realizar estudios sobre los efectos de distintas terapias en busca de bases sólidas para las intervenciones psicológicas.

Finalmente, el área del comportamiento, al no tener en general criterios de diagnóstico objetivos, fisiológicos, anatómicos y medibles, se ha visto sujeta a la aparición de modas diversas en cuanto al diagnóstico y tratamientos, muchas veces en función de la percepción de los medios de comunicación. En distintos momentos se ha diagnosticado a grandes cantidades de personas como depresivas, autistas o bipolares sin una justificación clara, y al mismo tiempo florecen por cientos las más diversas terapias.

El cerebro humano, y en particular la conducta y la percepción, siguen siendo terreno desconocido en el que las neurociencias apenas empiezan a sondear las aguas. La esperanza es llegar a una caracterización clara de las psicopatologías (definidas por sus características fisiológicas, genéticas o neuroquímicas) y tratamientos basados en las mejores evidencias científicas. Pero aún mientras ello ocurre, al menos en parte se ha dejado atrás el embuste de la piedra de la locura que fascinó a los pintores holandeses.

Más allá del ser humano

Aunque no hay comunicación directa, se han observado patrones de comportamiento en primates cautivos que parecen indicar una alteración en los procesos de pensamiento y percepción similares a los desórdenes mentales: agresividad, automutilación, aislamiento de los compañeros de grupo y otras anormalidades del comportamiento que podrían ayudar a caracterizar algún día con más objetividad las psicopatologías humanas.

420 millones de años de dientes

Aunque hay grandes lagunas en nuestro conocimiento de los tiburones, hoy sabemos que muchos mitos a su alrededor no tienen base en la realidad… y que están en peligro.

Tiburón ballena en el acuario de Georgia
(Imagen de Wikimedia Commons)
Existe un monstruo marino mítico, una explosión de furia que ataca y devora cualquier cosa, llenando los océanos con ejércitos de atacantes de cerebros diminutos, casi autómatas; peces de gran tamaño y frialdad asesina que acechan a todo ser humano que se aventure a sondear las aguas marinas y que ha sido inmortalizado en libros, películas y leyendas multiplicadas por la imaginación popular.

Por otro lado están los tiburones, más de 400 especies del superorden que los biólogos llaman Selachimorpha y que incluye a ocho órdenes vivientes y cuatro ya extintos. Son peces de esqueleto formado de cartílago, sin huesos y cuyas especies van desde el diminuto Apristurus sibogae, de las costas de Indonesia que llega a los 21 centímetros de longitud, hasta el gigantesco tiburón ballena, el pez más grande del planeta, que puede llegar a medir más de 15 metros y pesar más de 30 toneladas, un tranquilo gigante que se alimenta de pequeños organismos, como las ballenas reales.

Los tiburones son animales, predominantemente carnívoros pero muy selectivos en cuanto a su dieta, con una capacidad de aprendizaje y adaptabilidad en algunos aspectos similares a los de los mamíferos y para los cuales el ser humano resulta un alimento poco apetitoso, con demasiados huesos y demasiada poca grasa.

Pese al temor generalizado, los ataques de tiburones a humanos no llegan al centenar cada año en todos los mares del mundo y las muertes que ocasionan son apenas unas 10. La estrategia de muchos tiburones, consiste en lanzar una rápido mordisco y retirarse a esperar a que la víctima se desangre. Esto le evita enfrentarse a los agudos y fuertes dientes de presas como las focas. El “mordisco para probar” puede darse a objetos como boyas y tablas de surf, y podría explicar que los tiburones habitualmente se retiren después de morder a un ser humano, considerándolo poco apetitoso.

Es el tiburón el que debería temer al ser humano, que lo sacrifica para obtener esa aleta dorsal que se considera aviso de peligro cuando corta la superficie del agua, y que se usa para hacer una sopa muy apreciada en la cocina china. También se le caza por un mito según el cual el cartílago de tiburón tendría capacidad de combatir el cáncer, creencia que no tiene ninguna base sólida.

Las cifras que se citan son muy diversas, la ONU calcula el sacrificio de 10 millones de tiburones anuales, pero algunos conservacionistas elevan la cifra a los 100 millones. Un estudio de 2006 del Imperial College London, basado en datos de los mercados, concluyó que la cifra más probable es de 38 millones de tiburones sacrificados sólo para cortarles la aleta y devolver el resto del animal, muerto o medio muerto, al mar.

Evolución de un mito

Los cientos de especies de tiburones que hoy pueblan los océanos y algunos ríos tuvieron su origen hace al menos 420 millones de años, lo cual sabemos gracias al hallazgo de escamas fosilizadas que los expertos coinciden en considerar como pertenecientes a ancestros de tiburones (aunque hay escamas de más de 450 millones de años sobre las que no hay acuerdo), y de dientes primitivos de tiburón hallados en depósitos de 400 millones de años de antigüedad.

Ambos aspectos, escamas y dientes, son notablemente distintivos de los tiburones. Los dientes no crecen dentro de sus mandíbulas, sino en las encías, y continuamente caen para verse sustituidos por otros que van avanzando desde el interior del hocico en filas sucesivas. Según algunos expertos, un tiburón actual puede perder unos 30.000 dientes a lo largo de toda su vida. Su característica forma triangular permite identificar especies, tendencias evolutivas e incluso aspectos tales como el tamaño y algunos hábitos del animal. Las escamas, por otro lado, son singulares por su pequeño tamaño en comparación con las de los peces de esqueleto óseo y su forma aerodinámica, que es en parte responsable de la velocidad de los tiburones, y que se ha utilizado como modelo para el diseño de trajes de natación y buceo.

Los grupos de tiburones modernos tienen su origen hace aproximadamente 100 millones de años, cuando ocurrió lo que los biólogos llaman una “radiación”, es decir, la aparicion de varios linajes a partir de un ancestro común, en este caso un ancestro aún no identificado.

Un momento culminante de la larga historia del tiburón ocurrió hace unos 20 millones de años, cuando apareció la especie llamada megalodon (gran diente), el mayor tiburón que ha existido. Sus grandes dientes fósiles, que pueden sobrepasar los 18 centímetros de longitud, y algunas vértebras fosilizadas, son todo lo que tenemos para intentar reconstruirlo. Distintas aproximaciones dan un pez de al menos 13 metros de largo (con dientes desproporcionadamente grandes, pero plausibles) y de quizá más de 20 metros. El megalodon desapareció de las aguas del planeta hace alrededor de un millón de años y, actualmente, sus dientes son un objeto de colección muy apreciado y motivo de un animado comercio mundial.

Queda mucho por saber sobre los tiburones, su historia evolutiva, su comportamiento, su presencia en los mares y el riesgo en el que realmente pueden estar algunas especies por su sobreexplotacion (en aras de una sopa de aleta de tiburón que, según los expertos en cocina, ni siquiera tiene un sabor distintivo ni intenso). Pero también su singular química nos va ofreciendo posibilidades interesantes.

En septiembre de 2011 se publicó un estudio que revelaba la aparente capacidad antiviral de una sustancia que se encuentra en el hígado de los tiburones, la escualamina. Michael Zasloff, que descubrió la molécula en 1993 y la ha estudiado desde entonces, ha encontrado varias aparentes propiedades antibióticas de esta sustancia que están siendo estudiadas, aunque algunos vendedores de productos milagros se han precipitado para ofrecerla como uno más de los “remedios para todo” que inundan el mercado de lo alternativo.

Si realmente se demostrara la utilidad y seguridad de la escualamina como antiviral para los seres humanos, eventualmente llegaría al arsenal médico con el que contamos. Las buenas noticias para los tiburones es que no será necesario pescarlos para obtener el medicamento: la escualamina se puede sintetizar con relativa facilidad a partir de semillas de soja

El sueño del tiburón

Los tiburones no tienen la vejiga natatoria con la que otros peces controlan su flotabilidad, y la mayoría no puede bombear el agua a través de sus branquias. Para no hundirse y para poder respirar, la mayoría de los tiburones están obligados a nadar constantemente, incluso cuando están dormidos, o al menos parecen estarlo.

Espacio 2012

Lanzamiento de un
cohete Ariane
(Wikimedia Commons)
Mientras Japón, China, la India y el capital privado empiezan a participar en la exploración espacial, la ESA mantiene un proyecto espacial europeo cuya importancia a veces subestimamos.

Quizás gran parte del romanticismo de los viajes espaciales se ha visto sustituido por uno de los grandes enemigos de la humanidad: la rutina. Los niños ya no suelen pegarse a las pantallas de televisión, como lo hacían en los años 60 y 70, para ver todos y cada uno de los lanzamientos espaciales.

Ir al espacio ya no es un acontecimiento excepcional con sabor a aventura, como los primeros viajes orbitales, la carrera hacia la Luna, la primera sonda a Marte o los robots pioneros que se lanzaron a visitar los límites del sistema solar. Hoy, los lanzamientos son cosa cotidiana y con gran frecuencia se ocupan de cosas mundanas como llevar pasta de dientes a la Estación Espacial Internacional.

2012 será la primera ocasión en 30 años en que Estados Unidos no tendrá un vehículo espacial propio, retirados ya los transbordadores espaciales. Y no lo tendrá al menos en dos años. Su sustituto, el vehículo Orión, tiene prevista su primera prueba no tripulada para 2014. Mientras, el transporte de tripulantes hacia y desde la Estación Espacial Internacional (ISS) dependerá de Rusia y su renovada nave Soyuz TMA-M.

Quizá la mejor forma de ver la forma que asume la exploración espacial en el siglo XXI es revisar el presupuesto de la ESA para 2012, que asciende a 4.020 millones de euros (contra los 14.470 millones de euros de la NASA) dedicados a la investigación, pruebas, fabricación, lanzamiento y operación de todas sus misiones.

La mayor parte de ese presupuesto, más de 860 millones de euros, se dedica a la observación de la Tierra (estudio de la atmósfera, del campo magnético, etc). 720 millones van para navegación, 578 millones se dedican a sistemas de lanzamiento, el programa científico recibe 480 millones y los viajes espaciales humanos 413 millones. A las telecomunicaciones quizá el beneficio más evidente de la exploración espacial en nuestra vida cotidiana, se destinan 330 millones.

La Agencia Espacial Europea en 2012

En enero, la ESA realizará el primer vuelo de su cohete de lanzamiento Vega. capaz de poner en órbitas polares y bajas cargas de 300-2.000 kilogramos. Este cohete pequeño completa la oferta de lanzadores europeos, facilitando un acceso más barato al espacio para satélites científicos y de observación terrestre. En su primer viaje al espacio, el Vega pondrá en órbita el satélite LARES de la agencia espacial italiana, dedicado al estudio de algunos aspectos de la relatividad general y el ALMASat de la universidad de Bolonia, además de varios microsatélites de universidades europeas, de los llamados “cubesat”, cubos de 10 cm por lado y una masa de 1,33 kilogramos.

El camión espacial europeo, el ATV, realizará su tercera misón en marzo de 2012 llevando a la estación espacial 6,6 toneladas de carga. A diferencia de los vehículos de transporte privados Dragón y Cygnus, su avanzado sistema de navegación le permite acoplarse automáticamente a la estación espacial. Después de permanecer acoplado a ella durante un tiempo, el ATV se separa llevando consigo varias toneladas de desechos y reingresa a la atmósfera terrestre, quemándose por completo.

Durante el año, la ESA lanzará también 2 nuevos satélites meteorológicos. En mayo se pondrá en órbita polar el MeteOp-B, segundo de una serie de tres dedicados a mejorar la calidad de la previsión del tiempo y la monitorización de las condiciones de la atmósfera. En junio o julio será el turno del MSG-3, tercero de una serie cuyo nombre son las siglas en inglés de “segunda generación de Meteosat”, dedicado a la observación de la Tierra mediante luz visible y radiación infrarroja para el estudio de la meteorología y la previsión de desastres naturales.

En mayo de 2012, un cohete ruso Protón llevará a la estación espacial internacional el brazo robótico europeo ERA, de más de 11 metros de longitud total, que se colocará en el laboratorio multiusos de la ISS y se utilizará para el reemplazo de paneles solares, la inspección de la estación, el manejo de carga y el apoyo a los astronautas durante las caminatas espaciales.

También en mayo volverá a la Tierra el astronauta holandés de la ESA, André Kuiper, después de llevar a cabo la cuarta misión de larga duración de la ESA en la Estación Espacial Internacional, a la que llegó el 23 de diciembre.

En el verano de 2012 también se pondrá en órbita la misión Swarm, una constelación de tres satélites en tres órbitas polares que se dedicarán a medir con la máxima precisión la fuerza, dirección y variaciones del campo magnético de la tierra.

Una actividad de espacil importancia será el lanzamiento dos nuevos satélites del sistema Galileo de navegación y geoposicionamiento. En la actualidad, el mundo depende de la red GPS de 24 satélites del Departamento de Defensa de los Estados Unidos. Por motivos que van desde la seguridad, aspectos estratégicos hasta la antigüedad del sistema estadounidense, Europa ha emprendido este proyecto que contará con 30 satélites en total para 2014. Además del servicio gratuito de GPS, Galileo, ofrecerá servicios especiales a usuarios tales como aerolíneas, gobiernos y servicios de búsqueda y rescate.

Los satélites de geolocalización o navegación requieren de una amplia red de apoyo. Galileo contará con entre 30 y 40 estaciones sensoras, 3 centros de control, 9 estaciones de comunicaión con los satélites y 5 estaciones de telemetría, rastreo y comando.

Con vistas al futuro, 2012 será un año de pruebas intensivas de la nave orbitadora planetaria de Mercurio, mitad europea del proyecto BepiColombo para el estudio de Mercurio, el más pequeño y más cercano al sol de los planetas del sistema solar. La otra mitad es el orbitador magnetosférico de Mercurio que está construyendo la agencia espacial japonesa. La misión está prevista para ponerse en marcha en 2014.

Además de sus proyectos propios, la ESA se encargará del lanzamiento y puesta en órbita de satélites de distintos países y para distintos objetivos.

Finalmente, en noviembre se llevará a cabo en Italia la reunión de los ministros encargados del espacio de los 19 países miembros de la ESA, para analizar lo realizado y plantear los nuevos caminos de la exploración espacial europea.

La empresa privada en órbita

Estados Unidos ha apostado de modo intenso, por la financiación de proyectos privados. Las empresas privadas Space X y Orbital Sciences Corporation enviarán dos primeros vehículos de abastecimiento a la ISS en 2012. La primera de estas empresas Space X, tiene previsto realizar su primer vuelo tripulado en 2015, mientras que el negocio de los vuelos suborbitales es la gran apuesta del multimillonario Richard Branson con su empresa Virgin Galactic.

El doble ciego y el mal Stradivarius

Un moderno mecanismo de la experimentación científica que nos enseña tanto sobre nosotros como sobre la realidad objetiva.

Stradivarius de1687 del Palacio Real de Madrid
(Foto deHåkan Svensson, Wikimedia Commons) 
El científico que estudia plásticos, bacterias o huracanes tiene una razonable certeza de que los resultados de sus estudios no van a cambiar según el humor, expectativas o inseguridades personales de los objetos a los que se dedica.

Pero el que trabaja con seres humanos debe tener en cuenta la personalidad, percepciones, emociones, expectativas, humor, actitudes y demás volubilidades humanas.

Esto es cierto en alguna medida incluso cuando medimos aspectos objetivos en algunos estudios de laboratorio, como un recuento de glóbulos blancos en la sangre, y más al estudiar eventos que no se pueden medir directamente, como el dolor. En un estudio donde un grupo de personas debe decir si un medicamento les alivia el dolor, el experimentador no puede medir objetivamente el dolor, su cantidad o forma, sino que depende de lo que diga o informe quien está sufriendo el dolor y recibe el medicamento.

Las personas que participan en el estudio pueden cambiar su valoración en función de muchos elementos y no sólo de la eficacia del medicamento. Pueden creer que el nuevo medicamento es enormemente eficaz, o sentirse mejor que otra persona que considere que ningún medicamento le puede ayudar, si la medicina con bases científicas le ha ayudado en el pasado o si bien es proclive a creer en terapias no demostradas. O bien, aunque no se sienta mejor, puede no querer que por su culpa se dañe la investigación de un médico amable y simpático, e informe así de una mejoría mayor que la que siente en realidad. O bien el enfermero o la enfermera que les atiende les resultan muy atrayentes y confunden el bienestar que les produce una visión estética con un efecto del medicamento. O que les relaje la buena disposición y comprensión exhibidas por un experimentador.

Son multitud los elementos que pueden afectar los informes de un paciente en este tipo de estudios. Y uno de los retos de la experimentación científica con humanos (y con seres vivos que tienen un sistema nervioso desarrollado, en general) ha sido desarrollar herramientas para tratar de eliminar, descontar o compensar esas variables y así obtener resultados más fiables.

Lo primero que se nos ocurre, por supuesto, es que la persona no sepa si está recibiendo el medicamento o no. Podemos separar a nuestro grupo en dos: a la mitad les daremos el medicamento y a la otra mitad les daremos un comprimido idéntico en aspecto, pero que no tiene propiedades farmacológicas. Esto sería un estudio llamado “a ciegas” o “ciego” porque los sujetos no saben si están recibiendo medicamento real o simulado.

Este medicamento simulado es lo que se conoce como “placebo” y los estudios que se hacen utilizándolo se denominan “controlados por placebo”. Así, si se mantiene igual todo (incluidos los enfermeros atractivos) y el grupo que recibe el medicamento informa de una mejoría significativamente superior que el grupo que recibe el placebo, es razonable suponer en principio que el efecto se debe al medicamento y no a los demás factores que influyen en cada persona.

Pero, si las expectativas del individuo influyen en los resultados, también pueden influir las expectativas de quien administra el medicamento. Si el médico o enfermera saben que le están dando un placebo a un paciente, pueden dar señales, incluso sutiles, de que no debe esperar demasiado de él, comentarios al paso durante la entrega de los comprimidos, miradas, etc. Si, por otra parte, saben que están administrando la sustancia real y tienen grandes expectativas de que funcione, pueden ser más amables, cordiales y cálidos con los pacientes que la reciben, y darles ánimos y comentarios positivos que influyan en el informe del paciente. Para evitar esto se establece un requisito adicional: que quienes administran el medicamento (real o simulado) tampoco sepan qué le están dando al paciente. Esto es lo que se conoce como “doble ciego”.

El mecanismo de doble ciego disminuye (pero no elimina) muchos aspectos subjetivos de estudios no sólo de farmacología, sino de otros tipos. Junto con el placebo y los esfuerzos por distribuir aleatoriamente los grupos de personas estudiadas para que sean homogéneos en cuanto a edad, sexo, historial clínico y otros aspectos, son herramientas que permiten tener mayor certeza en los resultados experimentales. Es por ello que en cuestiones de seguridad fundamentales como los medicamentos y los alimentos se exige que sean sometidos a estudios rigurosos que incluyan este mecanismo para tener una idea más fiable de su eficiencia y seguridad.

Pero el doble ciego no sólo se utiliza en medicina. Recientemente, el procedimiento dio una sorpresa en el mundo de la música. Durante una competencia de violín, la física especializada en acústica Claudia Fritz hizo que 21 violinistas profesionales tocaran seis violines (tres modernos, dos Stradivarius y un Guarnerius) y dijeran cuál preferían, para ver si efectivamente los violinistas podían distinguir las maravillas de los antiguos instrumentos italianos.

En una habitación con poca iluminación, con gafas de soldador para no distinguir los instrumentos y con perfume en las barbadas (donde se apoya la barbilla) para ocultar el olor de la madera antigua, los violinistas tocaron durante tres minutos cada uno de los violines en orden aleatorio, entregados por una persona que tampoco sabía cuál era moderno y cuál antiguo.

¿El resultado? Los violinistas seleccionaron por igual los modernos que los antiguos, salvo uno de los Stradivarius… que obtuvo las peores calificaciones generales. Por supuesto, los primeros sorprendidos fueron los violinistas, que antes del estudio estaban seguros que los Stradivarius y Guarnerius serían fácilmente identificables por su calidad de sonido superior.

Estudios similares han puesto en cuestión la calidad de otros productos en cuya percepción, lo que ocurre en nuestro interior parece influir más que los estímulos del exterior. Esto, por supuesto, no quita valor a la profundidad de nuestras emociones cuando creemos estar escuchando un Stradivarius, pero quizá nos ayude también a apreciar mejor un violín de bajo precio tocado con gran maestría.


El inventor del doble ciego


Al estudiar los efectos de la cafeína y el alcohol en la fatiga muscular, el británico William Halse Rivers Rivers se percató de que había componentes psicológicas en sus resultados, de modo que en los primeros años del siglo XX diseñó los primeros experimentos rigurosos de doble ciego “para eliminar todos los efectos posibles de la sugestión, la estimulación sensorial y el interés”. El procedimiento de doble ciego, sin embargo, no se generalizó sino hasta bien entrado el siglo XX.