Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 31, 2008

El regreso de la superstición a Cuba

Campo de batalla de las propagandas en favor y en contra, el sistema médico cubano sigue siendo de un elevado nivel, hoy convertido en fuente de divisas y, desgraciadamente, en promotor de la superstición pseudomédica.

Como todo lo referente a Cuba, la situación de la medicina social de la isla es objeto de un debate más político que médico. Los más entusiastas de la revolución cubana insisten en un sistema de salud sin igual, gratuito, integral y de muy alta calidad. De otro lado, los enemigos de la revolución no sólo niegan el alcance social de la medicina cubana, sino que disputan su calidad y niegan cualquier valor a sus logros de los últimos 50 años.

Más allá de propagandas, existen contradicciones que deben evaluarse científica y médicamente. Cuba estableció desde 1959 un sólido sistema de salud para todos los habitantes, y centrado en una formación de máxima calidad para todos los profesionales de la atención a la salud. Dicho sistema fue, sin duda alguna, el más avanzado de América Latina en los años 60, 70 y 80.

En esta época, los ciudadanos cubanos tuvieron acceso a una atención que, en cualquier otro lugar del mundo, habría sido costosísima o inalcanzable. Y el gobierno cubano difundía sus logros educando, como hace hasta hoy, gratuitamente a médicos de numerosos países. De modo especial, los jóvenes de países ideológicamente identificados con Cuba, como los de Chile durante el gobierno de Salvador Allende, los de Nicaragua en los años posteriores a la caída del dictador Somoza o los venezolanos de hoy en día. Hoy, en Cuba, estudian medicina miles de alumnos de más 70 países tan diversos como Panamá, Cabo Verde, Timor Oriental o las Islas Salomón.

Gran parte de la excelente medicina social cubana se financiaba gracias a la Unión Soviética, y la caída de ésta implicó una crisis económica de la que la isla aún no se ha recuperado. Entre otras cosas, esto implicó un grave desabasto de medicamentos y materiales médico-quirúrgicos que ha afectado la calidad y el acceso a la atención del ciudadano cubano promedio.

La necesidad de divisas internacionalmente intercambiables (el peso cubano no lo es) llevó a que desde 1989 la medicina cubana se ofreciera al mercado internacional para que el gobierno cubano tuviera forma de adquirir insumos indispensables en el mercado internacional. Cuba ofrecía (y ofrece) atención médica del máximo nivel del mundo a un costo de entre 10% y 20% de lo que habría costado en un país capitalista. Esta atención a extranjeros ha llegado a ocupar el 60% de los recursos de diversas instalaciones sanitarias cubanas.

Simultáneamente, en Cuba se desarrollado una visión de la pseudomedicina como opción, prácticas charlatanescas y esotéricas resultado, en parte, de una reapropiación políticamente correcta de las tradiciones indígenas y afrocaribeñas que llevó a que, en 1993, Raúl Castro, como ministro de defensa y segundo secretario del Partido Comunista Cubano, oficializara la llamada “medicina natural y tradicional” (MNT) por medio de la directiva No. 18 al interior del ejército, que en 1995 fue sustituida por la directiva No. 26 para convertir a la MNT en práctica oficial y aceptada en Cuba. La MNT cubana adopta por igual el recetario herbolario tradicional que prácticas más extravagantes como la acupuntura, los quiromasajes, la fangoterapia y la homeopatía, y llegando incluso a propuestas absolutamente delirantes como la “piramidoterapia”.

La “piramidoterapia” es la creencia de que una pirámide con las proporciones de la Gran Pirámide de Keops en Giza atrae y acumula cierta “energía piramidal”. Esta supuesta “energía” no se ha definido en términos de sus características físicas, ni mucho menos se ha demostrado que exista, pero ello no ha sido óbice para que se postule que debajo de la figura geométrica mágica hay otra “antienergía” llamada “antipirámide”, y que ambas pueden ser almacenadas en agua que pasa a tener ciertas propiedades curativas aunque sea indistinguible del agua común.
El gran promotor de la “piramidoterapia” y la “magnetoterapia” en Cuba ha sido un personaje cercano a Raúl Castro, el Dr. Ulises Sosa Salinas, poseedor de numerosos cargos burocráticos y asociado a numerosos grupos y personajes del mundillo esotérico fuera de Cuba.

Cuando el propio gobierno, en la revista Web de los trabajadores cubanos, afirma que en 2004, en la provincia de Las Tunas, el 60% de los médicos (1.100) se dedicaban a la MNT y que con esta modalidad se “trató” a más de 632 mil pacientes, 40% del total en el año, se entiende que los cubanos están recibiendo, muy probablemente de buena fe, medicina de bajísimo nivel sólo por motivos económicos. Llama la atención, precisamente, que desde el propio Raúl Castro hasta las más diversas publicaciones insistan que no es “una alternativa ante la escasez de medicamentos industriales”, sino una serie de prácticas “científicas de probada eficacia en el mundo”, aunque no puedan sustentarlo con datos.

Como se señaló en el 1er taller "Pensamiento Racional y Pseudociencia", de la Universidad de La Habana, la Revista Cubana de Medicina General Integral ha publicado que las fresas de dentista se “autoafilan” bajo una pirámide, o que se puede “ahorrar energía” colocando el agua bajo una pirámide en vez de esterilizarla. Los participantes en el mencionado taller señalaron que ha resultado imposible publicar artículos críticos a la pseudomedicina en las revistas cubanas.

Aprovechando las creencias mágicas que también crecen en occidente, Cuba ha integrado la llamada “medicina alternativa” a su oferta turísticas, como es el caso de la “magnetoterapia” o tratamiento con imanes, que nunca ha demostrado tener ningún efecto en el cuerpo humano, pero que el sitio de turismo médico Cubamédica+com promueve como analgésico, antiinflamatorio, somnífero, tratamiento para la arteriosclerosis, para bajar de peso, como antibiótico y una serie de milagros adicionales.

No deja de ser dramático que un sistema de salud que fue admirable, movido por ideales de lo más nobles para servir a la población se vaya degradando en la forma de un sistema capaz de legitimar, sin bases científicas, afirmaciones que son no sólo irracionales, indemostrables y anticientíficas, sino profundamente peligrosas para sus víctimas.

Los peligros de la pseudomedicina


"Según referencias de algunos participantes, ciertos procederes ‘curativos’ no aprobados por el sistema de salud pública han sido seleccionados por algunos pacientes en detrimento de terapias convencionales de probada eficacia (como, por ejemplo, la hemodiálisis ó una operación de vesícula), con las correspondientes consecuencias negativas para la salud, e incluso para la vida”. Memorias del 1er taller "Pensamiento Racional y Pseudociencia", La Habana 2007.

diciembre 20, 2008

Feliz Día del Sol Invicto

La fiesta central del cristianismo, la navidad, resulta ser una derivación de todas las fiesta que, antes de la era común, celebraban el solsticio de invierno como un acontecimiento astronómico esencial en la vida de los pueblos humanos.

Disco de plata dedicado al Sol Invicto. Arte romano
del siglo III. (Foto CC de
Marie-Lan Nguyen vía Wikimedia Commons)
Por un momento trate de no ser esa persona del siglo XXI, orgullosa de su consola de juegos, su móvil de última generación, su TDT y su ordenador. Imagínese como un humano de hace unos miles de años, que observa un extraño fenómeno cíclico: de pronto, los días son cada vez más largos, el sol está más tiempo por encima del horizonte y la noche dura menos, hasta que un día empieza a revertirse esta tendencia: el día decrece en duración y la noche va aumentando su duración, hasta que, un día, el ciclo vuelve a revertirse.

Parece claro que era natural que usted y sus compañeros de fatigas se alarmaran temiendo que el día siguiera acortándose hasta dejarnos sumidos en una noche eterna, y por tanto que encontraran motivo de celebración cuando el ciclo se invierte. Sobre todo porque le resulta evidente que mientras el día se va alargando hay más calor, la tierra tiene mejores frutos, hay caza abundante y el mundo reverdece, mientras que cuando el día se contrae viene el frío, incluso la nieve y el hielo, no hay frutas ni muchos alimentos verdes, la caza escasea.

Al no saber mucho de astronomía, el fenómeno del día después de la noche más larga bien podría interpretarse como un triunfo del sol contra la oscuridad, después de una larga lucha, prometiéndole a la tribu un año más de supervivencia, lo cual nunca es mala noticia.

Y ahora imagínese que alguien de la tribu, luego de mucho ver el cielo y mucho cavilar, anuncia que puede predecir, profetizar, adivinar, cuándo ocurrirán estos hechos: el día más largo (el solsticio de verano) y el más corto (el solsticio de invierno). Quizá ni siquiera haya contado los días, sólo ha observado que en la noche más larga, las tres estrellas del “cinturón de Orión” se alinean con la estrella más brillante del firmamento, Sirio, mostrando dónde saldrá el sol en el próximo amanecer.

Evidentemente, se podría creer que tal acucioso observador dispone de poderes mágicos, adivinatorios y extraterrenos. Pero también sería un hecho que su conocimiento le permitía al grupo planificar mejor sus actividades, prever exactamente cuándo comenzarían las lluvias, cuándo llegarían las manadas migratorias, cuándo era oportuno ir a recolectar a tal o cual zona del bosque.

Las distintas civilizaciones hicieron interpretaciones, muy similares, del solsticio de invierno. Agréguese a esto que la menor actividad agrícola y de caza de la tribu dejaba el tiempo necesario para el jolgorio, y que si las alacenas y graneros continuaban llenos se podía celebrar con una comilona porque pronto vendrían nuevos alimentos, y tiene todos los ingredientes necesarios para una fiesta.

Los japoneses del siglo VII celebraban el resurgimiento de la diosa solar Amaterasu. Los sámi, nativos de Finlandia, Suecia y Noruega, sacrificaban animales hembra y cubrían los postes de sus puertas con mantequilla para que Beiwe, la diosa del sol, se almentara y pudiera comenzar nuevamente su viaje. Para los zoroastrianos, en este “día del sol” el dios Ahura Mazda logra vencer al malvado Ahriman, empeñado en engañar a los humanos. Los incas de perú celebrabal el Festival del Sol o Inti Raymi, cuando “ataban” al sol para que no huyera. Los mayas realizaban cinco días de inactividad, días sin nombre, los Uayeb, cuando se unían el mundo real y el mundo espiritual, hasta que empezaba otro año.

En la Roma del siglo tercero de nuestra era, la celebración era del Dies Natalis Solis Invicti, “el día del nacimiento del sol invicto”, el renacimiento del sol.

Dado que la fecha de nacimiento de Jesucristo, Yeshua de Nazaret o el Mesías no está registrada, como tampoco lo está claramente su existencia individual, la iglesia católica tardó en definir la fecha de la festividad en cuestión. Entretanto, los cristianos de Roma empezaron a celebrar el nacimiento de Cristo precisamente el día del nacimiento del sol invicto, aunque había grupos, por ejemplo en Egipto, que lo celebraban el 6 de enero. Otros preferían el 28 de marzo, mientras que teólogos como Orígenes de Alejandría y Arnobius se oponían a toda celebración del nacimiento, afirmando que era absurdo pensar que los dioses nacen.

Las autoridades de la iglesia condenaron al principio esta celebración por considerarla pagana, pero pronto vieron que asimilar esta y otras fiestas, de distintos grupos que pretendían evangelizar, resultaba útil. Así, los días anteriores a Navidad, por decreto el 25 de diciembre, se convirtieron en fiestas que asimilaron la Saturnalia romana, del 17 al 23 de diciembre, con sus panes de dulce e intercambios de regalos.

Santa Claus (deformación lingüística de Saint Nicholas o Saint Nikolaus, San Nicolás) o Papá Noél proviene del Padre Navidad, que aparece hacia el siglo XVI como figura de las celebraciones de invierno del mundo anglosajón, de rojos carrillos por haber tomado quizá un vino de más, viejo como la fiesta misma y alegre como deben estar los celebrantes. La figura del Santa Claus moderno fue creada por el viñetista Thomas Nast en Estados Unidos en 1863, que convirió al delgaducho Padre Navidad en el redondo y feliz personaje que hoy está más o menos estandarizado en todo el mundo.

El árbol de Navidad, por su parte, parece tener raíces en la adoración druídica a los árboles y las celebraciones del invierno con árboles de hoja perenne, pero se identifica como parte de las fiestas, decorado y engalanado, apenas en el siglo XVII, en Alemania. Después, el marido de la Reina Victoria, el Príncipe Alberto, emprendería la tarea de popularizarlo en todo su imperio.

Más que el árbol de Navidad, claramente de origen protestante, el Belén, “pesebre” o “nacimiento” es el elemento identificador de la decoración en los países católicos. Fue primero promovido por San Francisco de Asís alrededor del 1220, a la vuelta de su viaje a Egipto y Acre, pero el primer Belén del tipo moderno, el que todos conocemos, se originó en uno que instalaron los Jesuitas en Praga, en 1562. La tradición del Belén llegó a España en el siglo XVIII desde Nápoles, traída al parecer por orden de Carlos III, decidido a que se popularizara en sus dominios.

Rosca de Reyes


Con raíces en los panes con higos, dátiles y miel que se repartían en la Saturnalia romana, ya en el siglo III se le introducía un haba o similar, y el que la hallaba era nombrado “rey de la fiesta”. Llegó a España probablemente con los soldados repatriados de Flandes y su relación con los reyes magos parece ser, únicamente, la similitud de su forma con una corona y de los frutos cristalizados con sus correspondientes joyas.

diciembre 13, 2008

Diez libros para navidad

La ciencia de Leonardo, Fritjof Capra, Anagrama (Barcelona) 2008. Una nueva visita a los espacios del genio de Leonardo Da Vinci, visto en su faceta de pionero del método científico, de, en palabras del autor “padre no reconocido de la ciencia moderna”. Una primera parte dedicada a Leonardo, el hombre, que en muchos sentidos sigue atrayéndonos como misterio, se ve seguida de una segunda parte en la que Fritjof recorre el surgimiento de la ciencia en el Renacimiento y el papel jugado por el espíritu inquisitivo, curioso e irreverente de Leonardo, que con la mirada del artista va, nos dice el libro, más allá de Newton, Galileo y Descartes.

El cisne negro Nassim Nicholas Taleb, Paidós, (Barcelona) 2008. El autor, experto en matemáticas financieras y en la teoría de lo improbable, afirma que los sucesos altamente improbables (los “cisnes negros” como los que al ser hallados en Australia hicieron mentira la afirmación de “todos los cisnes son blancos”) juegan un papel mucho más importante en nuestra vida cotidiana, en asuntos tan diversos como las ciencias y las finanzas, del que hemos reconocido hasta ahora. El estudio de lo improbable, nos dice, pone a quien estudia lo “imposible” en posición privilegiada para enfrentar y manejar lo “posible”.

El científico rebelde, Freeman J. Dyson, Editorial Debate (Barcelona) 2008. Colección de ensayos publicada originalmente en 2006. El físico y matemático a más de activista por el desarme nuclear, contra el nacionalismo y por la cooperación internacional, resume en este volumen su visión de la ciencia como acto de rebelión “contra las restricciones impuestas por la cultura localmente prevaleciente”, pero sin dejar de contemplar a la ciencia como una actividad humana, con todas las virtudes y defectos de quienes la practican. El libro, antes que ofrecer respuestas cómodas, plantea al lector desafíos sobre el mundo que nos rodea.

Yo soy un extraño bucle, Douglas R. Hofstadter, Tusquets Editores (Barcelona) 2008. Hofstadter llegó al mundo de la filosofía de la ciencia como un ciclón con su libro Gödel, Escher, Bach, en el que exploraba el mundo de la autorreferencia en las matemáticas, el arte y la música. En este libro, no menos ambicioso, se ocupa de investigar si nuestra identidad, nuestra conciencia individual, surge de la simple materia hasta convertirse en un extraño bucle en el cerebro donde los símbolos y la realidad conviven e interactúan. Y al final presenta argumentos indudablemente originales sobre lo que es el “yo” de cada uno de nosotros.

El robot enamorado: una historia de la inteligencia artificial, Félix Ares, Ariel (Barcelona) 2008. Félix Ares, experto en informática y profesor universitario, nos lleva a un recorrido histórico que comienza con los autómatas de la realidad y la fantasía que surgen en la antigua Grecia y llega hasta las propuestas más audaces de nuestros días para llegar a la inteligencia artificial. En el proceso, el autor nos muestra cómo la idea de los ordenadores, computadoras y robots se ha integrado a la cultura popular, en la literatura, el cómic, el cine y la televisión, para dejar testimonio de lo que se está haciendo hoy en este terreno para muchos inquietante.

365 días para ser más culto, David S. Kidder, Noah S. Oppenheim, Ediciones Martínez Roca (Madrid) 2008. Una idea que puede cambiar al lector profundamente: 365 artículos sobre distintas ramas del conocimiento, cada uno escrito por un especialista en arte, ciencia, filosofía, etc. La idea es que usted lea uno al día durante un año. Cada uno se puede leer en cinco o diez minutos, y al final del ejercicio, si todo sale bien, será dueño de una cultura general envidiable. Como cualquier otro proyecto a largo plazo, sin embargo, probablemente requiere un compromiso personal que la mayoría de nosotros no puede asumir. Vale la pena intentarlo.

Un día en la vida del cuerpo humano, Jennifer Ackerman, Ariel (Barcelona) 2008. La autora, especialista en divulgación de la ciencia, nos lleva por un camino que va del despertar matutino a la “hora del lobo”. Mientras los medios de comunicación nos invitan a estar alertas a nuestro cuerpo, la realidad es que no ponen a nuestro alcance un conocimiento de cómo somos realmente, como funciona esa maquinaria que es cada uno de nosotros. Desde el hambre hasta el deseo sexual, desde los ritmos de nuestro reloj interno hasta los más recientes descubrimientos de la fisiología, es una oportunidad de introspección real.

Los 10 experimentos más hermosos de la ciencia, George Johnson, Ariel (Barcelona) 2008. La ciencia, ya sea vista desde fuera o como su practicante, no sólo tiene la enorme ventaja de ser comprobable, verdadera o ciertaen la medida en que tal vocablo tiene sentido. También es una experiencia profundamente estética, donde hay elegancia, belleza y fuentes para el asombro. Celebrado por su estilo, el autor, uno de los divulgadores científicos del New York Times, hace un homenaje a diez científicos y a sus experimentos, recordándonos que el pensamiento científico se cimenta, ante todo, sobre la experiencia y la práctica.

El corazón de la materia, Ignacio García Valiño, Random House Mondadori (Barcelona) 2008. Esta novela de reciente aparición, escrita por el psicólogo y divulgador científico Ignacio García Valiño, miembro del Círculo Escéptico, destaca por el rigor con el que aborda los muchos aspectos científicos de su trama. Desde su protagonista, un físico especializado en quarks, hasta la aventura tipo thriller en la que se embarca con elementos arqueológicos son objeto de cuidadosos retratos donde la intriga vive en el mundo del conocimiento y del pensamiento crítico como herramienta dramática, sin concesiones.

Ideas e inventos de un milenio: 900-1900, Javier Ordóñez, Lunwerg (Barcelona) 2008. La calidad de este volumen, ampliamente ilustrado, le da cierto carácter ideal para la temporada de fiestas. Javier Ordóñez, su autor, ha publicado previamente una Historia de la ciencia y un resumen de las teorías del universo en tres volúmenes, entre otras obras, y es catedrático de historia de la ciencia en la Universidad Autónoma de Madrid. Los inventos del milenio elegido para este recorrido son multitud y marcan un cambio en el camino de la humanidad más acusado, más definitivo, que ningún otro milenio en la historia. Aquí encontramos, ilustrados con material de sus respectivas épocas, esas ideas revolucionarias y esos inventos que dan testimonio de cómo la imaginación humana, actuando de la mano de la razón, produce resultados que han dado forma nueva a nuestro mundo, a nuestra visión del universo, a nuestro conocimiento de nosotros mismos, alterando no sólo lo aparentemente más trascendente, sino también actuando sobre nuestra cotidianidad, sobre el humilde día a día de la mujer y el hombre que hoy viven de un modo imaginable en el año 900. Desde esos productos de la pasión por saber que brillaron en la Edad Media y colaboraron a sentar las bases de la revolución científica del siglo XVI hasta los que anunciaron la revolución científica del siglo XX. La ciencia como propiedad de todos en un volumen de notable belleza.

diciembre 06, 2008

Franklin: el americano ilustrado

Para la Europa del siglo XVIII la imagen de los Estados Unidos como nación ilustrada, democrática y libertaria se encarnaba en Benjamín Franklin, verdadero hombre del renacimiento entre los fundadores del nuevo país.

Menor de los hijos varones de la pareja formada por el fabricante de velas de sebo y jabón Josiah Franklin y Abiah Folger (octavo vástago de la pareja y decimoquinto de su padre, que había enviudado de su primera esposa), Benjamín Franklin estaba destinado por su padre a convertirse en ministro de la iglesia. Nacido el 17 de enero de 1706 en Boston, su educación formal terminó sin embargo a los 10 años, pues su familia no contaba con los medios de pagarle estudios.

Probablemente fue lo mejor para Franklin, para su país y para el mundo.

Franklin forjó su propia educación leyendo vorazmente. Después de un breve lapso como aprendiz renuente del oficio de su padre, su afición por la lectura pesó para que se le enviara a los 12 años a trabajar con su hermano mayor James, que ya estaba establecido como impresor, y con el que terminaría en un enfrentamiento debido al carácter autocrático del mayor y el espíritu independiente del menor. Franklin marchó a Filadelfia a los 18 años sin blanca ni planes claros.

Filadelfia, con la tolerancia religiosa y diversidad étnica del estado de Pennsylvania, casó bien con el espíritu del joven Franklin. Luego de trabajar en varias imprentas, el gobernador de Pennsylvania le ofreció apoyo para establecer su propia empresa, y lo envió a Londres a comprar una imprenta, pero sin proporcionarle dinero. En Londres, Franklin probó las virtudes y excesos de la vieja Europa, empleándose de nuevo con impresores, hasta que consigió volver a los 20 años.

Cuando consiguió establecer su propia imprenta editó el exitoso semanario The Pennsylvania Gazette y su famoso almanaque Poor Richard’s Almanack, libro anual que vio como una forma de educar a la ciudadanía. En 1736 se inició en política, donde creó un cuerpo de bomberos voluntarios, un orfanato y una lotería para financiar cañones que defendieran la ciudad, y propuso crear un colegio que hoy es la Universidad de Pennsylvania y el Hospital de Pennsylvania, el primero del nuevo país.

Fue a los 42 años, cuando su genio creador científico echó a volar, cuando pudo permitirse una jubilación temprana. Su diseño de la “estufa Franklin” mejoró la calefacción en la ciudad y redujo los riesgos de incendio de Filadelfia y marcó el inicio de su actividad en la ciencia.

Después de ver una serie de demostraciones sobre electricidad, especialmente la “botella de Leyden” y su espectacular capacidad de almacenar la electricidad estática, empezó sus experimentos con la electricidad. Fue el primero en sugerir que los rayos eran electricidad natural, para demostrar lo cual realizó experiencias con barras metálicas que conducían la electricidad de los rayos y que más adelante se convertirían en uno de los más perdurables inventos del todavía súbdito inglés: el pararrayos. En 1752, su famoso experimento con la cometa demostrando que el relámpago era, efectivamente, electricidad. El riesgo de ese experimento hace poco recomendable repetirlo. No era la primera vez en que Franklin cortejaba el desastre con sus experimentos: en una ocasión, intentando matar su pavo de Navidad con corriente eléctrica, estuvo a punto de electrocutarse al administrarse accidentalmente la carga.

Estos esfuerzos le valieron títulos honoríficos de Harvard, Yale y otros colegios universitarios, además de la medalla de oro de la Real Sociedad de Londres. Y mientras se ocupaba de la meteorología, proponiendo modelos para los sistemas tormentosos; de la medicina, inventando el catéter, y teorizando sobre la circulación de la sangre; de la agronomía buscando mejores técnicas para evitar el desperdicio de tierras arables e introduciendo la agricultura en el plan de estudios de la universidad de Pennsylvania, además de fundar la primera compañía de seguros contra incendios.

Franklin fue comisionado a ir a Inglaterra para negociar la situación de la colonia de Pennsylvania con los herederos de su fundador, William Penn. Aunque sus negociaciones fracasaron, la estancia de tres años le permitió, con más de 50 años, aprender a tocar el arpa, la guitarra y el violín, e inventar la armónica de cristal. Igualmente, observó que las tormentas no siempre viajan en la dirección de los vientos dominantes e hizo experimentos sobre el enfiamiento por evaporación.

A su regreso entró en franca colisión con los herederos de William Penn por su defensa de un grupo de indígenas americanos mientras los dueños de la colonia favorecían el genocidio como “solución” al problema de los indios. Franklin marchó de nuevo a Inglaterra para pedir a la corona británica su dominio directo sobre Pennsylvania sin la intervención de la familia Penn. El monarca se negó, pero Franklin se quedó como representante de las colonias y su oposición a los elevados impuestos fijados por la corona, y llegó a ser juzgado por incitar el naciente independismo. Volvió a América en 1775, como un independentista convencido.

A los 69 fue nombrado delegado ante el Segundo Congreso Continental, donde los líderes de las 13 colonias analizaron su futura relación con Gran Bretaña. Franklin propuso la unión de las colonias en una sola confederación nacional, que más tarde sería el modelo de la constitución estadounidense. El Congreso lo puso al frente de la organización de la defensa de las colonias y de un comité secreto encargado de las relaciones de los rebeldes con los países extranjeros. En 1776 fue uno de los encargados de redactar la Declaración de Independencia de Estados Unidos, y poco después partió de nuevo a Europa buscando aliados. En París, aquejado por sus problemas de la vista, inventó los anteojos bifocales.

Al volver en 1785 fue electo presidente del estado. Participó en el Congreso Constituyente que y sugirió que los estados europeos formaran una federación con un gobierno central, prefigurando la actual Unión Europea. Todavía tuvo tiempo de apoyar la Revolución Francesa y de convertirse en un activo opositor a la esclavitud antes de morir rodeado de sus nietos el 17 de abril de 1790 considerándose siempre, nada más, un hombre común, un ciudadano más de Filadelfia.

El odómetro y el mar


Uno de los más perdurables inventos de Franklin fue el odómetro. Como encargado de correos que fue creó el odómetro para diseñar las rutas de correo de los pueblos locales de Pennsylvania. Igual que los de hoy, su aparato calculaba la distancia recorrida contando las vueltas dadas por el eje de su carruaje. Su actividad postal lo llevó también a hacer las cartas de la Corriente del Golfo, a la que dio nombre.

noviembre 29, 2008

Venenos que se cobran vidas... o las salvan

Los venenos, creados por el hombre o hallados en plantas y animales, han jugado un importante papel en la historia humana como agentes del bien y del mal sin distinción.

Una dosis letal de cianuro de potasio comparada
con un céntimo de euro y un bolígrafo
(Foto GFDL de Julo, vía Wikimedia Commons)
Un veneno es cualquier sustancia que pueda provocar daños, la enfermedad o la muerte a un organismo, debido a una actividad a nivel molecular, como podrían ser reacciones químicas o la inhibición o activación de ciertas sustancias propias del organismo.

Hay sustancias que para unas formas de vida son venenosas, mientras que para otras son inocuas o, incluso, benéficas. Hay sustancias venenosas para ciertos organismos que no lo son para otros de la misma especie. Y, como observó el médico y alquimista Paracelso: “Todas las cosas son veneno y nada carece de veneno, sólo la dosis permite que algo no sea venenoso”.

El ser humano detectó muy temprano en su decurso histórico los efectos de los venenos, las sustancias naturales cuyo objetivo principal es dañar o matar, ya sea defensivamente o a la ofensiva, para usarlos como armas de cacería y para matar a otros seres humanos. La obtención, manejo y dosificación de los venenos era probablemente uno de los secretos que el “médico brujo” guardaba para la tribu o el clan.

Las referencias a venenos y dioses relacionados con ellos datan de más de 4.500 años antes de nuestra era entre los sumerios de Mesopotamia. Entre los griegos, la mitología misma hace referencia a venenos, y en el antiguo Egipto el rey Menes estudió las propiedades de distintas plantas venenosas. En China ya se conocían potentes mezclas de venenos en el 246 antes de nuestra era, y entre los persas, en el siglo IV se registró cómo la reina Parysatis, esposa de Artajerjes II, mató con veneno a su nuera Statira.

Quizá la víctima de envenenamiento más conocida de la antigüedad es Sócrates, que fue condenado a muerte por “corromper a la juventud” con sus ideas subversivas. La ejecución se realizaba obligando al condenado a beber cicuta, una sustancia vegetal conocida como “el veneno del estado”, y en el año 402 antes de nuestra era el filósofo se suicidó por orden de Atenas. En la Roma antigua el veneno también asumió un papel protagónico, fue utilizado por Agripina para eliminar a su marido Claudio, con objeto de que su hijo Nerón ascendiera al trono. El propio Nerón acudió al cianuro para deshacerse de los miembros de su familia a los que odiaba.

Los venenos no eran bien entendidos en tiempos pasados, pero al llegar el medievo se convirtieron en parte de la magia y la brujería, junto con otras pociones más o menos fantasiosas, y con los antídotos conocidos, que ciertamente han sido buscados siempre con tanta o más intensidad que los propios venenos.

Quizá el más curioso de todos los antídotos fue la “piedra bezoar”. Esta piedra era descrita de diversas formas que iban desde lo mítico (como la historia árabe que decía que caían de los ojos de venados que habían comido veneno) hasta explicaciones que indican que algunas podían ser cálculos vesiculares o renales de distintos animales o cualquier masa atrapada en el sistema gastrointestinal, como las bolas de pelo. Se pagaban fortunas por piedras bezoar supuestamente genuinas, y la creencia en sus poderes se mantuvo hasta que en 1575 el pionero de la ciencia y la medicina Ambroise Paré demostró experimentalmente que carecían de efectividad. No obstante, siguen siendo utilizadas por la herbolaria tradicional china.

Por supuesto, algunos venenos son utilizados como medicamentos en dosis adecuadamente medidas para atacar la enfermedad. Quizá el caso más claro es el de los antibióticos, productos vegetales como la penicilina, que resultan mortales para la bioquímica de ciertos microorganismos sin tener efectos perjudiciales notables en el paciente infectado. Las sustancias utilizadas en la quimioterapia son igualmente venenosas, pero sus efectos secundarios son más intensos debido a que aún no se han afinado y especializado tanto como los antibióticos. Aún así, la quimioterapia contra el cáncer que se aplica hoy en día es un gran avance respecto de la de hace veinte o treinta años, mucho más agresiva y desagradable para el paciente, y menos efectiva que la actual, que ha convertido algunas formas de cáncer, como el de mama, el testicular y la enfermedad de Hodgkins, en enfermedades curables si se diagnostican a tiempo, cuando antes eran mortales casi en un 100%.

Dado que los venenos eran en general indetectables y se podían usar teniendo al asesino lejos, y por tanto daban mayor oportunidad a la impunidad, se volvieron uno de los métodos de asesinato favoritos en la Edad Media y en el Renacimiento. El personaje arquetípico como envenenador del renacimiento es Lucrecia Borgia, quizás objeto de una campaña de calumnias y a la que se le atribuyeron asesinatos que fueron posiblemente cometidos por su hermano César. Ellos, junto con su padre, el papa Alejandro VI, fueron considerados grandes envenenadores, e incluso la muerte del papa se atribuyó a un envenenamiento, en su caso, por consumir equivocadamente el vino con el que pretendía deshacerse del cardenal de Corneto. La corona española, por su parte, hizo varios intentos por envenenar a su poderosa enemiga, Isabel I de Inglaterra.

El envenenamiento, no ha sido sólo asunto de nobles, ricos o miembros del alto clero. Muchas personas empezaron a tener a su alcance algunos secretos de los venenos, y en el siglo XVIII y XIX el envenenamiento se convirtió en el método preferido de las mujeres que deseaban deshacerse de sus maridos. Y en el siglo XX, la explosión del conocimiento científico produjo la aparición de numerosísimas sustancias tóxicas que han sido utilizadas tanto en la guerra (el gas mostaza en la Primera Guerra Mundial) como en atentados (el ataque con gas sarín de una secta contra el metro de Tokio). Sin embargo, esos mismos avances científicos han permitido que el veneno deje de ser “indetectable”. Los modernos sistemas utilizados por los científicos forenses pueden identificar muy rápidamente la gran mayoría de los venenos, tanto para tratar a las víctimas cuando se detectan a tiempo como para encontrar a los envenenadores.

Modernos envenenamientos


Algunos famosos atentados de los últimos tiempos han utilizado venenos. En 1978 el disidente ucraniano Georgy Markov murió cuando se le disparó, con un paraguas o un bolígrafo, una bola de metal llena de ricino. En 2004, el hoy presidente ucraniano Viktor Yushchenko, ganador de las elecciones de ese año contra el preferido del gobierno ruso, fue envenenado con dioxinas y aunque salvó la vida, sigue bajo tratamiento. En 2006, el disidente y exmiembro del servicio ruso de seguridad, Alexander Litvinenko, que hizo declaraciones en contra de Vladimir Putin, fue asesinado con sólo 10 microgramos de polonio-210.

noviembre 22, 2008

El psicópata: inhumano pero cuerdo

No tener conciencia, no tener remordimientos, no sentirse igual a los demás humanos, no tener límites, así son muchos asesinos que, sin embargo, no están locos, ni legal ni médicamente.

En 1986, el antropólogo canadiense Elliott Leyton, uno de los principales expertos mundiales en asesinatos en serie, publicó un libro fundamental, Cazadores de humanos, dedicado a analizar el fenómeno del asesinato múltiple desde un punto de vista social. En primer lugar, diferenciaba al “asesino serial” que a lo largo de mucho tiempo mata a una serie de víctimas que comparten algunas características, del “asesino masivo”, que en una breve explosión de violencia deja una estela de muerte indiscriminada que suele acabar con la muerte del asesino a manos de la policía. El primer caso es el de criminales como Jack el Destripador, Ted Bundy o El Hijo de Sam, mientras que el segundo corresponde a quienes realizan tiroteos en escuelas como la de Columbine o del Tecnológico de Virginia.

Más allá de esta diferenciación, en el análisis de diversos casos Leyton señalaba que en no pocos casos, feroces asesinos habían sido declarados “cuerdos”, “mentalmente sanos” o “no perturbados” por diversos médicos y profesionales. En un caso narrado por Leyton, la última evaluación positiva le fue realizada a un asesino que en ese momento llevaba en el maletero de su automóvil la cabeza cortada de su más reciente víctima.

Su conclusión era preocupante pero bien fundamentada: los asesinos seriales o masivos que nos horrorizan y nos parecen tan inhumanos no están locos en el sentido médico del término, no se trata de psicóticos como los esquizofrénicos, sino de sociópatas o psicópatas, es decir, de personas que tienen un comportamiento antisocial debido a sus sentimientos o falta de ellos. La psicopatía es, ciertamente, un desorden de la personalidad, pero no es una forma de locura, precisamente.

Esta idea de Leyton iba, ciertamente, en contra del sentido común. Alguien capaz de ocasionar un terrible dolor a otros, o incluso de causarles la muerte, de tratarlos, vivos o muertos, como objetos para su gratificación, sin jamás sentir compasión, identificación, empatía, cercanía, amor, culpabilidad o emociones humanas sociales, nos parece sin duda alguna un loco, un monstruo, un ser con algún grave desarreglo psiquiátrico, probablemente con alguna deficiencia o tara genética. Pero para el estudioso canadiense se trata fundamentalmente de un resultado del medio ambiente del psicópata. El resultado es aterrador: personas que no sienten vergüenza, sentido de la equidad, responsabilidad, que ven a los demás no como iguales, sino como objetos, cosas que pueden servirles para satisfacer sus deseos, pero a los cuales se puede igualmente matar o torturar por diversión, sin sentir cargo de conciencia alguno, sin restricciones ni freno, y además con capacidad para engañar a los demás y ocultarles esta falta de sentimientos.

El problema que presentan los asesinos seriales a la ciencia y a su sociedad es un ejemplo de los enormes huecos que nuestro conocimiento de la conducta, emociones, comportamiento y procesos mentales tiene, y que son mucho mayores que los datos certeros de que disponemos. Para algunos médicos y psicólogos, la sociopatía y la psicopatía son fenómenos distintos. Sin embargo, con muchos datos o pocos, la realidad práctica exige que tomemos decisiones como sociedad. Si el asesino serial es un loco, una persona con un trastorno que le hace perder el contacto con la realidad o la capacidad de razonar, no deberíamos procesarlo judicialmente cuando comete un delito. Los esquizofrénicos, que suelen ser inimputables, no pueden controlar sus actos si no están bajo una medicación adecuada.

El psicópata, sin embargo, conoce la diferencia entre el bien y el mal, es racional y puede elegir. Y de hecho, elige. Si bien muchos psicópatas son delincuentes, y se ha llegado a calcular que en Estados Unidos el 25% de la población de las cárceles es de personas con este desarreglo de la personalidad en mayor o menor grado, también es cierto que hay “psicópatas exitosos” que pueden convertir en ventaja su situación y destacar en la política, los negocios o la industria del entretenimiento.

Entre las principales características, algunas aún a debate, que definen a un sociópata están: un sentido grandioso de la importancia propia, encanto superficial, versatilidad criminal, indiferencia hacia la seguridad propia o de otros, problemas para controlar sus impulsos, irresponsabilidad, incapacidad de tolerar el aburrimiento, narcicismo patológico, mentiras patológicas, afectos superficiales, falsedad y tendencia a manipular, tendencias agresivas o violentas con peleas o ataques físicos repetidos contra otras personas, falta de empatía, falta de remordimientos resultando indiferente al daño o maltrato que ocasiona a otros, o facilidad para racionalizarlo; una sensación de tener derechos sobre todo, comportamiento sexual promiscuo, estilo de vida sexualmente desviado, poco juicio, incapacidad de aprender de la experiencia, falta de autocomprensión, incapacidad de seguir ningún plan de vida y abuso de drogas, incluido el alcohol.

Según la revista Scientific American, es un error creer que todos los psicópatas sean violentos. Al contrario, la gran mayoría no lo son, mientras que muchas personas violentas no son psicópatas. De otra parte, la psicopatía puede beneficiarse de un tratamiento psicológico (que no psiquiátrico) que puede controlar las conductas más indeseables.

No obstante, resulta muy difícil establecer objetivamente cuáles y cuántas de estas características, y en qué medida, determinan que existe con certeza el trastorno que denominamos psicopatía. La lucha por comprender la última frontera del conocimiento de nosotros mismos, la de nuestros pensamientos, acciones, emociones y sensaciones, sigue adelante, a veces con lentitud desesperante, a veces dejándonos depender de percepciones subjetivas e intuiciones por parte de los profesionales. Pero a veces esa experiencia empírica es todo lo que tenemos, al menos en tanto la ciencia no consiga contextualizar objetivamente lo que es, al fin y al cabo, nuestra vida subjetiva.

Romper el mito


Hannibal Lecter, el asesino caníbal de El silencio de los corderos generó algunos mitos sobre los asesinos psicópatas que Elliot Leyton también se ha ocupado en disipar. Según Leyton, no ha habido un asesino en serie aristocrático en siglos, sino que la mayoría proceden de las clases trabajadoras, y no son genios diabólicos, en general suelen ser de inteligencia bastante limitada. La exaltación de un asesino ficticio como éste, tiene por objeto último adjudicarle valores, glamour, atractivo o valores que los hechos demuestran que los verdaderos psicópatas no tienen.

noviembre 15, 2008

El misterio del murciélago

La búsqueda por saber cómo el murciélago consigue volar en la oscuridad resultó una excelente lección sobre el método científico y las fortalezas y debilidades de los investigadores.

Monumento a Lazaro
Spallanzani
(foto CC de Maxo, vía Wikimedia Commons)
El murciélago, como animal nocturno, fugaz y huidizo, que evita a los seres humanos, habita en lugares ya de por sí poco atractivos como cuevas, edificios abandonados y desvanes, y que tiene la rara costumbre de vivir colgado boca abajo, fue objeto de una campaña de publicidad negativa desde los inicios de la historia, asociándolo con lo malévolo, la brujería y lo satánico. Esta percepción se vio fuertemente reforzada por el descubrimiento, en América, de tres especies de murciélagos cuyo principal alimento es la sangre de otros animales, incluidos los humanos. Bautizados rápidamente como “murciélagos vampiro”, ayudaron a promover la superstición y el desagrado por el murciélago en ciertas áreas, aunque los antiguos chinos lo consideraban símbolo de buena suerte y larga vida, y los tenían en concepto más positivo los árabes, las culturas indígenas americanas e incluso los griegos.

La gente no suele ver murciélagos, ni siquiera interactuar con ellos, pese a que son una cuarta parte de todos los mamíferos del mundo en términos de especies. Sus colonias pueden estar formadas por millones y millones de individuos. La mayor colonia urbana de murciélagos, con más de millón y medio de integrantes en la ciudad de Austin, Texas, consume diariamente entre 5.000 y 15.000 kilogramos de insectos, que de no estar controlados acabarían con las cosechas, lo que destaca la importancia ecológica de estos animales.

Son precisamente los murciélagos cazadores de insectos, peces, pequeños mamíferos e incluso otras especies de murciélagos los que presentaron a la humanidad el misterio de volar ágilmente en la oscuridad, sortear obstáculos y cazar con precisión a sus presas. Su nombre original en castellano es “murciégalo”, de mus, muris, ratón, y caeculus, diminutivo de ciego, indicando precisamente a esos pequeños mamíferos que a la luz actúan como si estuvieran ciegos y que sin embargo en la noche navegaban asombrosamente.

La navegación de los murciélagos se convirtió en uno de los principales intereses del biólogo italiano Lazzaro Spallanzani (1729-1799), de la Universidad de Pavia, cuya pasión por la biología lo llevó a hacerse cura para garantizarse la subsistencia y poder aprender ciencia. Mediante elegantes experimentos, Spallanzani demostró que la digestión es un proceso químico y no se reduce al simple triturado de los alimentos, como se creía antes. Fue un pionero de Pasteur, refutando que la vida surgiera espontáneamente de materia orgánica en descomposición. Descubrió que la reproducción necesitaba tanto del óvulo como del espermatozoide, desterrando la idea de la mujer como figura pasiva en la reproducción. Estudió la regeneración de órganos en anfibios y moluscos, e incluso asuntos de la física básica. De él se dijo que descubrió en unos años más verdades que muchas academias en medio siglo.

Spallanzani realizó una apasionante variedad de experimentos con los murciélagos. Les puso en la cabeza capuchones opacos que les impedían maniobrar, y capuchones delgados y transparentes con el mismo resultado. Finalmente, cegó a una serie de murciélagos y los hizo volar entre hilos colgados en su laboratorio con campanillas en el extremo que sonaban si un murciélago los tocaba. Hizo lo mismo con con murciélagos a los que había privado del oído, y vio que no podían orientarse, lo que le sugirió que el oído era el sentido que estos animales utilizaban, de algún modo aún misterioso, para “ver” en la oscuridad. Confirmó su idea cegando murciélagos salvajes, marcándolos y liberándolos para recapturarlos días después. Las disecciones mostraban que los murciélagos en libertad se habían alimentado exitosamente. Spallanzani escribió en su diario: “... los murciélagos cegados pueden usar sus oídos cuando cazan insectos... este descubrimiento es increíble”.

Spallanzani le escribió a la Sociedad de Historia Natural de Ginebra sobre sus experimentos, lo que inspiró al zoólogo suizo Charles Jurine a experimentar, tapando con cera los oídos de sus murciélagos. Con los oídos tapados, el murciélago era torpe y chocaba con los objetos, pero al destaparse los oídos volvía a ser un acróbata de la oscuridad. Intercambiaron correspondencia, Spallanzani replicó los experimentos de Jurine y concluyeron que el oído era el responsable de la maravillosa capacidad de los murciélagos. Sin embargo, no podían explicar cuál era el mecanismo que actuaba. Lo más cerca que estuvo el genio de Spallanzani fue de pensar que el murciélago escuchaba el eco de su batir de alas.

El famoso paleobiólogo francés Georges Cuvier, por lo demás una admirable mente científica, declaró sin embargo que los experimentos de Spallanzani y Jurine eran incorrectos (cuando lo que le molestaba era que los consideraba crueles), y afirmó (igualmente sin pruebas) que los murciélagos se orientaban usando el sentido del tacto. Científicamente, los dichos de Cuvier carecían de todo sustento y razón. Pero Cuvier tenía un gran prestigio e influencia, y muchas personas, cegadas a la realidad de la experimentación, procedieron a ignorar los experimentos y conclusiones de Spallanzani y Jurine. Se aceptó como dogma de fe la hipótesis del tacto y la investigación sobre la orientación de los murciélagos quedó interrumpida.

Cuvier apostó por el “sentido común” en contra de la experimentación.

En 1938, 143 años después de las críticas de Cuvier, el joven científico de Harvard Donald R. Griffin utilizó micrófonos y sensores para demostrar que los murciélagos “ven” en la oscuridad emitiendo sonidos ultrasónicos (de más de 20 kHz) y escuchando el eco para conocer la forma y distancia de los objetos. Después de una serie de experimentos, consideró demostrado que la “ecolocalización” era la forma de ver de los murciélagos, una tecnología que por esos tiempos empezó a utilizarse en la forma de sonar y radar.

Finalmente, la solidez de la experimentación de Spallanzani y Jurine se había impuesto a las creencias irracionales del “sentido común”, demostrando de paso que las creencias sin bases no son sólo patrimonio de la gente común, sino que incluso grandes científicos como Cuvier pueden ser sus víctimas, recordándonos que lo importante es lo que se puede demostrar con la ciencia, y no lo que sus practicantes opinan.

Los murciélagos en datos


Los murciélagos forman el orden de los quirópteros, que significa “los que vuelan con las manos”, y hay especies de ellos en prácticamente todo el planeta, con excepción de las zonas más frías del polo norte. Los primeros fósiles encontrados datan de 52 millones de años y en la actualidad hay más de 1.000 especies distintas, de las que el 70% comen insectos.

noviembre 08, 2008

ADN: una llave para muchas puertas

Fragmento de ADN
(Wikimedia Commons)
Las tecnologías relacionadas con el ADN apenas empiezan a hacerse realidad. Su promesa es, sin embargo, enorme.

Las siglas “ADN” están entre los términos científicos más utilizados popularmente. Tan solo la profusión de programas televisivos que se ocupan de médicos, antropólogos y otros científicos forenses, las han convertido en una especie de arma para toda ocasión, infalible y maravillosa, aunque pocas veces mencionan el nombre completo de la sustancia a la que hace referencia, el ácido desoxirribonucleico.

El ADN fue descubierto por el médico suizo Friedrich Miescher en 1869, al analizar el pus de vendas quirúrgicas. Dado que estaba en los núcleos de las células, le dio el nombre de “nucleína”. 50 años después, el bioquímico rusoestadounidense Phoebus Levene, identificó los componentes de esta sustancia y que estaban enlazados en unidades a las que llamó “nucleótidos” formadas por un grupo fosfato, un azúcar (la desoxirribosa) y una base. Determinó que la molécula de ácido desoxirribonucleico era una cadena de unidades de nucleótidos enlazados por medio de los grupos de fosfato que formaban una especie de columna vertebral de la molécula. No pudo discernir, sin embargo, la forma de la molécula. En 1943, Oswald Avery y su equipo establecieron la idea de que el ADN era el principio transmisor de información genética en algunas bacterias, y en 1952 Alfred Hershey y Martha Chase probaron que el ADN era el material genético del virus bacteriófago T2.

Con imágenes de difracción de rayos X producidas por Rosalind Franklin, Crick y Watson propusieron el modelo de la doble hélice o escalera en espiral, dos largas cadenas de grupos fosfato, cada uno de ellos con una molécula de desoxirribosa y alguna de las cuatro bases, denotadas por su inicial, mismas que se unían de modo exclusivo: la adenina (A) con la timina (T) y la guanina (G) con la citosina (C). Esto significa que si un lado de la doble hélice tiene como base la timina, el otro lado tiene la adenina, sin excepción, de modo que uno de los lados de la molécula tiene la información necesaria para crear el otro. La secuencia de las bases ATGC a lo largo de la cadena de ADN codifica la información para crear proteínas y para todas las funciones de las células, los tejidos y los organismos. El lenguaje de la vida, de todos los seres vivos y muchos virus se escribe en largas palabras de sólo cuatro letras: ATGC (la excepción son los virus de ácido ribonucleico o ARN, que en lugar de citosina tiene uracilo, de modo que sus letras son ATGU).

La siguiente tarea importante se concluyó en 2003, y fue la determinación de la secuencia de bases ATGC que conforman el ADN humano, identificando los genes o unidades básicas de la herencia, segmentos de información que identifican un rasgo o particularidad. En total, los 23 pares de cromosomas de los seres humanos tiene unos seis mil millones de pares de bases, que en términos de datos son aproximadamente 1,5 gigabytes, es decir, que caben en un par de discos compactos (CD). Contiene entre 20.000 y 25.000 genes que codifican proteínas, además de genes de ARN, secuencias que regulan la expresión de los genes (el que actúen o no) y algo que se llamó, imprecisamente, “ADN basura”,

EL ADN se encuentra en largas estructuras llamadas “cromosomas” en el núcleo de las células, así como en las mitocondrias y en los cloroplastos de las células vegetales. Algunas cosas de las que sabemos, nos permiten logros tecnológicos importantes. Por ejemplo, las distintas especies, variedades, subespecies y grupos aislados tienen rasgos diferenciados en su ADN, de modo que con una muestra de ADN podemos determinar con certeza si corresponde a un animal o vegetal, a qué genero y especie, y a qué variedad específica, por ejemplo, podemos saber si se trata de un gato de angora o un gato siamés. Pero esto también permite hacer genética de poblaciones para entender migraciones animales y humanas, comprender mejor nuestra evolución y establecer líneas hereditarias.

Como el ADN de cada individuo es único, con la salvedad de los gemelos idénticos y los clones, con dos muestras de tejido podemos determinar con gran certeza si pertenecen al mismo individuo o si se originan en dos individuos distintos, lo que tiene grandes implicaciones en la ciencia forense, tanto para identificar víctimas y delincuentes como para descartar sospechosos en casos en los que el delincuente deja alguna muestra de tejido delatora tras de sí.

En el ADN se producen las mutaciones y la variabilidad genética responsable de la evolución. La acumulación cuantitativa de estos cambios tiene una tasa regular en el tiempo, de modo que podemos usarla como un sistema de datación: la comparación entre el ADN de dos especies, como los humanos y los chimpancés, o de dos grupos humanos nos dice cuánto tiempo debe haber pasado desde que compartían el mismo ADN.

El ADN que se encuentra en los órganos llamados mitocondrias, las “centrales de energía” de la célula, se hereda única y exclusivamente de la madre, es decir, proviene del óvulo, lo cual nos permite determinar líneas maternas hacia el pasado aprovechando la variabilidad arriba comentada, lo que nos ha permitido saber que todos los seres humanos procedemos de una sola hembra humana que vivió hace unos 150.000 años en África, en lo que hoy es Etiopía o Tanzania.

Adicionalmente, podemos sustituir las funciones de algunos genes o secuencias funcionales del ADN para paliar, tratar o resolver algunas enfermedades ocasionadas por deficiencias, problemas o mutaciones genéticas, o para darle a un ser vivo ciertas capacidades (la “ingeniería genética”).

Con lo que hemos descubierto sobre el ADN en los breves 55 años transcurridos desde que Crick y Watson determinaran su estructura y funcionamiento, nuestra tecnología ha dado saltos asombrosos. Pero todo eso que conocemos palidece ante lo que no sabemos. Tener la secuencia del ADN equivale a disponer de todos los ladrillos, viguetas, hormigón y demás elementos para hacer una casa, es claro que al ver una casa junto a nuestro montón de materiales seguimos sin saber cómo se hace una casa, qué se une a qué y en qué orden deben hacerse las distintas tareas (y cómo se determina el orden) para llegar a la casa.

La basura que no lo es


El 4 de noviembre, un grupo de científicos de Singapur informó que parte del ADN considerado provisionalmente “basura” es uno de los elementos clave que diferencian a las especies. Se le llamó “basura” por estar formado de copias de secuencias casi idénticas, y los investigadores ahora le han dado sentido a diferentes familias de repeticiones, como fuente de variabilidad evolutiva y clave en las diferencias entre las especies. De confirmarse, estos estudiose serían otro gran salto en el estudio de nuestro material genético.

noviembre 01, 2008

Stephen Hawking: viajar desde el sillón

Probablemente el rostro más conocido de la física teórica sea Stephen Hawking, víctima de una enfermedad que debió matarlo hace décadas y ha hecho frágil su cuerpo, pero sin afectar una capacidad intelectual singular.

El hecho de probar muchos de los “teoremas de la singularidad”, o enunciar las cuatro leyes de la mecánica de los agujeros negros, o incluso haber defindio el modelo de un universo sin límites, pero cerrado, que hoy es ampliamente aceptado, dicen poco al público en general acerca de Stephen Hawking, lo mismo pasa con su trabajo en otros temas aún más complejos y entendidos apenas por unos cuantos miles de especialistas en todo el mundo.

Pero la imagen del científico consumido por una enfermedad degenerativa, sonriendo en su silla de ruedas, con claros ojos traviesos tras las gafas y hablando por medio de un sintetizador especialmente diseñado, así como el extraño concepto de “agujero negro” son, sin duda alguna, parte integral de la cultura popular contemporánea. Aunque ciertamente Stephen Hawking no es uno de los diez físicos teóricos más importantes o revolucionarios de la actualidad, sin duda es el más conocido.

Stephen William Hawking nació en Oxford el 8 de enero de 1942, 300 años después de la muerte de Galileo, como hijo del Dr. Frank Hawking, investigador en biología, e Isobel Hawking, activista política. Fue un alumno mediocre, tanto que su ingreso en Oxford fue algo sorpresiva para su padre, y su desempeño tan mediano que tuvo que presentar un examen oral adicional para graduarse. Pasó entonces a Cambridge, interesado en la astronomía teórica y la cosmología, la ciencia que estudia el origen, la naturaleza y la evolución del universo.

Casi a su llegada a Cambridge, en 1963 y con sólo 21 años de edad, Hawking empezó a exhibir los síntomas de la esclerosis lateral amiotrófica, una enfermedad neurodegenerativa causada por la degeneración de las neuronas motoras, las células nerviosas encargadas de controlar el movimiento voluntario de los músculos. La afección empeora al paso del tiempo, ocasionando debilidad muscular generalizada que puede llegar a la parálisis total de los movimientos voluntarios excepto los de los ojos. Afortunadamente, no suele afectar la capacidad cognitiva.

En ese momento dudó si realmente quería ser doctor en física cuando finalmente iba a morir en dos o tres años, según los médicos. Sin embargo, su matrimonio en 1965 con su primera esposa, Jane Wilde, lo impulsó a seguir adelante, con la suerte de trabajar, según sus palabras, en “una de las pocas áreas en las que la discapacidad no es un serio handicap”. Ya doctorado, empezó a trabajar en la comprobación matemática del inicio del tiempo y en el tema que más lo identifica, los agujeros negros, estrellas que se han colapsado sobre sí mismas al agotarse su energía nuclear y cuya atracción gravitacional es tan enorme que ni siquiera la luz puede escapar de ellos. Hoy tenemos la certeza casi total de que hay un agujero negro en el centro de la mayoría de las galaxias, incluida la nuestra, la Vía Láctea.

En 1971, sugirió que las fuerzas liberadas durante el Big Bang debieron crear una enorme cantidad de “miniagujeros negros” y en 1974 presentó sus cálculos indicando que los agujeros negros crean y emiten partículas subatómicas, poniendo de cabeza la concepción vigente de que dichos cuerpos celestes absorbían cuanto se acercara a ellos, pero no podían emitir absolutamente nada precisamente debido a su tremenda atracción gravitacional. Esta, hoy llamada radiación de Hawking, era la primera aproximación a una posible teoría gravitacional cuántica, que uniera los dos grandes modelos, la relatividad que explica los fenómenos a gran escala y la cuántica que explica los fenómenos a nivel subatómico. De fusionarse ambas en un todo coherente, estaremos mucho más cerca de entender el origen del universo.

A partir de ese año, Hawking cosechó numerosas distinciones académicas, entre ellas consiguió la Cátedra Lucasiana de Matemáticas de Cambridge, que han ocupado personajes como Isaac Newton y el pionero informático Charles Babbage, y otros reconocimientos, como ser comandante de la Orden del Imperio Británico. Su prestigio profesional crecía, junto con el asombro que provocaba el que su discapacidad le hiciera resolver complejas ecuaciones totalmente en su mente, sin usar papel ni encerado.

Pero fue en 1988, con la publicación de Breve historia del tiempo, un bestseller internacional de divulgación científica del que ha vendido más de 9 millones de copias, que las personas comunes se hicieron conscientes de su existencia, su vida y su trabajo. En este libro, que cumple 20 años ahora, Hawking explica de modo muy accesible los más apasionantes temas de la cosmología: el Big Bang, los agujeros negros, los conos de luz e incluso la avanzada y compleja teoría de las supercuerdas como elementos causantes de toda la materia, todo sin matemáticas ni ecuaciones. El interés popular por el personaje no ha disminuido desde entonces.

Otros libros de divulgación han seguido, incluido La clave secreta del universo, escrito a cuatro manos con su hija Lucy y dirigido a niños. Ha recibido constantes honores como el Premio Príncipe de Asturias, siempre viajando e impartiendo conferencias pacientemente preparadas en su sintetizador de voz. Ha aparecido en diversos programas de ciencia ficción y documentales, e incluso en las series animadas Los Simpson y Futurama, tiene dos estatuas, en Cambridge y en Ciudad del Cabo, Sudáfrica, y su voz sintetizada se ha usado en dos álbumes de rock. En el proceso, viviendo una vida doméstica bastante común, se ha casado y divorciado dos veces, y tiene tres hijos y un nieto.

Este año, después de convertirse en el primer tetrapléjico que viajó en un avión de entrenamiento de la NASA para disfrutar de la “gravedad cero”, Hawking ha anunciado su retiro de la Cátedra Lucasiana, pasando a ser profesor emérito de la misma, siguiendo la política de Cambridge de que sus miembros se retiren al final del año lectivo en que cumplan 67 años, que Hawking cumplirá en enero próximo. Esto quizá le dará tiempo para poder hacer realidad el que define como su máximo deseo: viajar al espacio, donde, Hawking está convencido, se encuentra el futuro de la especie humana.

El científico y los dioses

Hawking se autodefine como un socialista que siempre ha votado a los laboristas, y sus opiniones teológicas han sido campo de batalla, como lo fueron las de Einstein. Al enterarse de que su reciente visita a Santiago de Compostela fuera interpretada como si hubiera querido hacer parte del Camino de Santiago, declaró que las leyes en las que se basa la ciencia para explicar el origen del Universo "no dejan mucho espacio ni para milagros ni para Dios".

octubre 25, 2008

La búsqueda del yo interior

De los rayos X a los sistemas de escaneo CAT, MRI, sonografía y otros que permiten a los médicos e investigadores conocer nuestro interior y mejorar sus diagnósticos y tratamientos.

Escaneo MRI de una cabeza
(Imagen GFDL vía Wikimedia Commons)
Conocer el interior del ser humano fue con frecuencia difícil. Considerado sagrado, o espacio reservado a una u otra deidad, estuvo vedado en general a la curiosidad, y los conocimientos anatómicos de las distintas culturas se obtenían frecuentemente con disecciones de animales de víctimas de muertes horrendas, de personas sacrificadas a los dioses o ejecutadas por delitos horribles.

Las disecciones de cadáveres humanos con objeto de adquirir conocimiento se remontan al siglo IV antes de nuestra era, en Alejandría. Los médicos islámicos las realizaron en la Edad Media, inspirando así a a Vesalio, en el siglo XVI, a conseguir permiso del Papa para disecar a ejecutados en la horca y refutar algunas de las suposiciones de Galeno. En los siglos siguientes, la anatomía tanto descriptiva de las estructuras como la del funcionamiento de las mismas.

Pero los médicos seguían teniendo un problema muy concreto para su práctica: no podían ver el interior del organismo, enfermo pero vivo, de sus pacientes, para conocer sus problemas. Palpar, medir la temperatura, realizar pruebas de laboratorio de creciente complejidad, no sustituían, en muchas ocasiones, a ver a los pacientes por dentro.

La primera vez que se consiguió fue por accidente.

En 1895, el físico Wilhelm Conrad Röntgen estudiaba los efectos de varios tipos de equipo de tubos al vacío, las radiaciones que emitían y su fluorescencia. En noviembre de ese año realizó una serie de pruebas sobre una radiación desconocida, que llamó “rayos X” y vio la primera imagen radiográfica: la de su propia mano sobre una pantalla de platinocianuro de bario. El 22 de diciembre, realizó su primera radiografía “médica”: la de la mano de su esposa.

Los rayos X se utilizaron principalmente para crear imágenes en dos dimensiones en placas fotográficas llamadas radiografías y en visualizaciones en tiempo real por medio de la fluoroscopía. Por esto, en ocasiones se utilizan medios de contraste para revelar la forma de ciertos tejidos u órganos, como batidos de bario para el aparato digestivo o contraste de yodo para el sistema circulatorio.

Muy pronto, ya a principios de la década de 1900, el radiólogo italiano Alessandro Vallebona describió un método que utilizaba los principios de la geometría para representar una sección transversal del cuerpo humano en la película radiográfica. A este procedimiento se le llamó “tomografía”, del griego “tomos”, sección o rebanada. En 1972, la aparición de los miniordenadores permitió la creación del sistema de exploración axial transversal, la llamada CAT o tomografía axial computerizada, inventada por Godfried Hounsfield y desvelada en 1972.

A partir de ese momento, en una rápida sucesión, distintos tipos de radiación además de los rayos X fueron utilizados para explorar el interior del ser humano, desarrollando la disciplina conocida como generación de imágenes médicas (medical imaging).

Los rayos gamma se emplean para la tomografía computarizada de emisión de fotón único (SPECT), que ofrece representaciones reales en tres dimensiones útiles en algunos diagnósticos: imágenes de tumores, imágenes de distribución de infecciones, de glándulas como la tiroides o de huesos. Un extraordinario proceso de la física nuclear se utiliza para otro procedimiento, la PET o tomografía de emisión de positrones, que aprovecha la aniquilación electrón-positrón que se da al chocar y destruirse estas dos antipartículas; mediante el empleo de diversas moléculas como portadoras de un isótopo radiactivo de seguimiento. la PET permite observar la actividad funcional de diversos tejidos al concentrar o difundir el material portador, convirtiéndola en una útil herramienta en oncología, neurología, cardiología, neuropsiquiatría y farmacología.

La resonancia magnética nuclear, un fenómeno basado en las propiedades magnéticas a nivel cuántico del núcleo del átomo, es utilizado desde fines de la década de 1970 para visualizar la estructura y funciones del cuerpo en cualquier plano, con un contraste mucho más definido entre tejidos de distintas densidades, en la llamada “resonancia magnética” o MRI, que entre sus ventajas tiene que representa menos riesgos para el paciente que otros sistemas de visualización. En sus diversas formas, las imágenes obtenidas por MRI pueden aislar un tejido “omitiendo” otros, destacando la sangre, respondiendo a los cambios funcionales del cerebro debidos a la actividad de las neuronas, localizando tumores para focalizar más la acción de la radioterapia y otros diagnósticos de tumores, dalos vasculares y lesiones traumáticas del cerebro no detectables por otros medios.

Finalmente, una de las formas de creación de imágenes médicas más conocida es la realizada por ultrasonido, con la que se obtienen las conocidas “sonografías” utilizadas para hacer el seguimiento del feto durante el embarazo, que en realidad deberían llamarse “ultrasonogramas”. Originada en los años 40 a la sombra de las investigaciones del radar y el sonar, la ultrasonografía médica se empezó a utilizar en la década de 1950 y en 1964 entró al terreno de la obstetricia para permitir diagnosticar problemas como los embarazos múltiples, anormalidades fetales, placenta previa y otros. En 1983 se desarrolló la “sonografía en 4D” cuando una serie de imágenes de ultrasonido en 3 dimensiones (desarrolladas en 1987) se capturan y proyectan rápidamente para permitir ver el movimiento del feto, e incluso sus rasgos faciales. Más allá de su valor diagnóstico, los sonogramas favorecen una más sólida unión de los padres con sus hijos antes del propio nacimiento.

Esta búsqueda por ver nuestro yo interior probablemente no suena tan “profunda” como la que vende el esoterismo habitual, pero sin duda alguna es más útil. Estas formas de ver nuestro interior, y otras muchas que están investigándose o implementándose, son herramientas esenciales para que más personas vivan más tiempo y vivan mejor, lo que quizá les permita hacer mejor su búsqueda personal del otro “yo interior”, si les apetece.

Roentgen: Premio Nobel

Wilhelm Conrad Röntgen (1945-1923) obtuvo en 1901 el primer Premio Nobel de Física que se concedió. En 1870 publicó su primer artículo científico dedicado a los calores específicos de diversos gases. Trabajó en temas como la conductividad térmica de los cristales, las características del cuarzo, incluidas las eléctricas; los efectos de la presión en la refractividad de diversos fluidos, polarización e influencias electromagnéticas y otros muchos temas, aunque en la percepción popular siempre será, sobre todo, el descubridor de los “rayos X”.

octubre 18, 2008

Los secretos del pegamento

El adhesivo, en sus múltiples formas, tiene presencia en todas las actividades de la vida, pero suele pasar totalmente inadvertido.

Algunos adhesivos comerciales para uso doméstico.
(foto D.P. de By Babi Hijau, vía Wikimedia Commons)
Cuando uno es pequeño, al ver la gran cantidad de objetos de cerámica de distintas culturas en los museos, no puede evitar preguntarse si la gente que los había usado tenía forma de pegarlos si se les caían y rompían. Después de todo, el pegamento está en todas partes, desde la lista de útiles escolares de primera necesidad hasta la fabricación de naves espaciales. Los adhesivos, en múltiples formas, tienen una presencia en todas las actividades, pero habitualmente de modo tal que suelen pasar bastante desapercibidos.

Pero, desapercibidos o no, los pegamentos ya eran parte de la vida de las culturas con cerámica, ya fuera burda o refinada. Y desde mucho tiempo antes. Gracias a la arqueología hemos pasado de pensar que el pegamento surge en la cultura humana hace 6.000 años, que es cuando se han datado algunas piezas de cerámica pegadas después de romperse, a saber que hace cuando menos 50.000 años que nuestros primos humanos, los neanderthales, ya usaban savias, resinas y gomas de distintos árboles como adhesivos, algo lógico como sabe cualquiera que al andar por el bosque se haya encontrado con algo de savia o resina pegados en las manos u otra parte del cuerpo.

De hecho, si se conservan las pinturas de Altamira o de Lascaux, se debe a que sus creadores mezclaron sus pigmentos con pegamentos que han resistido entre 15 y 25 mil años. En el año 3000 antes de nuestra era, los egipcios empleaban diversos pegamentos para hacer sus elegantes incrustaciones de madera y piedras preciosas, para poner pisos de mosaico y muros de azulejos que aún se mantienen en su sitio.

Después de los productos vegetales, nuestros ancestros descubrieron, probablemente como parte de los procesos de curtido de pieles y cocción de la carne, la forma de extraer el colágeno de los huesos, piel, músculos y otros tejidos animales, que es una sustancia pegajosa. Otros productos de los animales de la tierra, como la caseína obtenida de la leche y la albúmina de la sangre, fueron también empleados. Después se descubrirían propiedades adhesivas en partes de los peces, principalmente los huesos, cabezas y piel.

De hecho, ya los antiguos griegos tenían recetas de pegamentos utilizados sobre todo en la carpintería, algo muy lógico en tiempos en que los metales para hacer clavos eran escasos y costosos. Una receta griega incluía claras de buevo, sangre, huesos, leche, queso, verduras y granos... no muy apetitosa, realmente. Los romanos, por su parte, empleaban alquitrán y cera de abejas como adhesivos, entre otras sustancias.

La primera patente de un pegamento o adhesivo se otorgó en Gran Bretaña en 1750, como parte de la revolución industrial que se desarrollaba en Europa. Por esas mismas fechas se abrió en Holanda la primera fábrica dedicada exclusivamente a la producción de un adhesivo. Sin embargo, no fue sino hasta el advenimiento de la petroquímica que empezó el desarrollo acelerado y diversificado de numerosos tipos de adhesivos especializados. Hoy en día, la investigación de adhesivos se encuentra en la vanguardia tecnológica, trabajando a nivel subatómico tanto estudiando las patas de los gecos como las propiedades de diversos nanomateriales.

Algunos pegamentos populares

Las resinas epóxicas son uno de los pegamentos más conocidos desde su aparición en 1936. Se trata de sustancias llamadas polímeros epóxidos termoendurecibles que se “curan” (es decir, se polimerizan y se entrecruzan) en presencia de un catalizador o endurecedor. Es por ello que las resinas epóxicas o “epoxies” comerciales suelen venir en forma de dos recipientes cuyo contenido se mezcla inmediatamente antes de aplicarse, aunque existen epóxicos que usan el aire como catalizador, sobre todo los que se utilizan en pinturas y recubrimientos. Los adhesivos epóxicos son del tipo llamado “estructurales” que se utilizan en la construcción de aeronaves, automóviles, bicicletas, embarcaciones, etc.

La cola blanca o pegamento blanco se utiliza comúnmente en la escuela y en la carpintería, además de ser ampliamente usado en la industria de la artesanía de cuero y, agregándole agua, como una de las principales materias primas del papier mâché o cartón piedra. Se trata de un polímero sintético de consistencia gomosa que se llama acetato de polivinilo, y que se prepara como emulsión en un medio de agua. Fue descubierto en Alemania en 1912.

Los cianoactrilatos son los pegamentos conocidos por sus nombres comerciales como Loctite, Krazy Glue o SuperGlue. Son pegamentos especialmente resistentes, muy eficaces en materiales no porosos o que tengan pequeñas cantidades de agua, lo que lo hace especialmente peligroso si se utiliza sin precaución, puesto que pega rápida y sólidamente la piel y otros tejidos humanos. Al mismo tiempo, esta característica favorece el uso de los cianoacrilatos en ciertas formas de cirugía que se sutura sin hilo o grapas, y para sellar heridas en emergencias. Una aplicación curiosa de los cianoacrilatos es que, al calentarse, revelan huellas dactilares en superficies lisas como las de vidrio y plástico.

Los post-its El peculiar pegamento de las notas llamadas Post-It, el nombre comercial original del producto, fue considerado como un fracaso originalmente por su inventor, Spencer Ferguson Silver, un químico empleado en la multinacional de adhesivos 3M. Su invento era un adhesivo de alta calidad pero poca fuerza, formado por pequeñas esferas indestructibles de un copolímero de acrilato que se afianzan si se tira de ellas tangencialmente, pero se despegan si se tira perpendicularmente, y sin dejar residuos. Sus colegas de la empresa no se interesaron por el producto hasta que su colega Arthur Fry vio sus posibilidades para usarlo en marcadores de libros.

Pegamentos de contacto como el llamado “pegamento de zapatero” y el Supergen son aquéllos que se aplican a las dos superficies que se van a pegar y se les permite secar antes de unir las dos superficies. La unión entre las dos películas del adhesivo es rápida y sumamente fuerte.

Pegamento en barra Son pegamentos no muy fuertes, que vienen en forma sólida y que son sumamente cómodos para pegar papel y cartulina. Su facilidad de uso, su bajo costo y la ausencia de solventes y materiales tóxicos en algunas versiones, los han convertido en suministros muy comunes en la escuela y en la oficina.

Sin saber cómo funciona


Resulta notable que, pese a la larga historia del pegamento y su extendida utilización por parte del hombre, no tengamos aún una teoría comprobada y validada de cómo es que un pegamento logra el fenómeno de la adhesión. Todo parece indicar que, para que podamos explicar cómo ocurre, deberemos aún desentrañar muchos enigmas acerca de las fuerzas intermoleculares como la llamada fuerza de Van Der Walls, y las interacciones electrostáticas que ocurren a nivel atómico.

octubre 11, 2008

Los Premios Ig Nobel: después toca pensar

Los premios Ig Nobel: más allá de lo jocoso y lo aparentemente absurdo, estos premios nos invitan a pensar sobre la ciencia y sus posibilidades.

Desde 1991, un grupo de periodistas e investigadores científicos, entre los que hay actualmente unos 50 científicos, varios de ellos ganadores del Premio Nobel, entregan los premios que llaman Ig Nobel en un teatro de la prestigiosa Universidad de Harvard (antes la sede era una sala de conferencias del famoso MIT). Estos premios, que originalmente se daban a investigaciones que “no podían o no debían ser reproducidas” hoy son, según sus organizadores, para “honrar logros que primero hacen a la gente reír, y luego los hacen pensar”. Adicionalmente, explican que los premios tienen por objeto “celebrar lo desusado, rendir honores a lo imaginativo y promover el interés de la gente por la ciencia, la medicina y la tecnología”.

Los premios son, en ocasiones, críticas abiertas, como los que se han dado a supuestas investigaciones homeopáticas o a los consejos educativos estadounidenses que han sido objeto de ataques por parte de grupos creacionistas fundamentalistas. En otros casos, se otorgan a investigaciones desusadas, inesperadas o extrañas, como el famoso experimento que consiguió hacer levitar a una rana magnéticamente utilizando un campo magnético muy poderoso y las propiedades diamagnéticas del agua, no perceptibles ante campos menos potentes.

Los premios en sí están patrocinados por la Sociedad Informática de Harvard, la Asociación de Ciencia Ficción Harvard-Radcliffe y la Sociedad de Alumnos de Física de Harvard-Radcliffe. Estos premios paródicos pero con su lado serio, son sumamente apreciados por la comunidad científica mundial en general. En marzo de todos los años, la Sociedad Británica para el Avance de la Ciencia y el dario The Guardian patrocinan el Tour Ig Nobel del Reino Unido, donde se aprovechan los Ig Nobel para celebrar la Semana Nacional de la Ciencia con charlas de algunos de los ganadores.

Desafortunadamente, los medios no especializados parecen no haber entendido la broma, y se limitan a usar descripciones imprecisas como "los anti-nobel", "lo irrelevante de la ciencia" y “el ridículo científico", cosa que ciertamente no son.

Por ejemplo, los medios destacaron notablemente este año uno de los premios, otorgado a un investigador por medir cuánto puede alterar un armadillo el contenido de un sitio arqueológico. Extraño es, pero si lo pensamos un poco más a fondo, lo que hizo el arqueólogo brasileño Astolfo G. Mello Araujo, de la Universidad de Sao Paulo, puede tener importantes consecuencias. En arqueología, son muy importantes la ubicación u orientación de algunos restos o elementos, como los que se encuentran en los enterramientos.

Si aplicamos el mismo tratamiento de “después pensar” a otros de los premios Ig Nobel de este año, y nos planteamos preguntas en serio, podemos ver cuán relevante puede ser algo que a primera vista no lo parece.

La Coca-Cola es importante como producto y elemento cultural. Por ello llamó la atención el premio Ig Nobel de química otorgado a los científicos estadounidenses que demostraron que esta bebida es un espermicida efectivo y, ex aequo a los investigadores taiwaneses cuya investigación concluyó exactamente lo contrario. Quizá los ersultados distintos se deben a una diferencia en los protocolos experimentales. Quizá la bebida no es igual en Estados Unidos y en Taiwán. O incluso podría ser que haya diferencias genéticas concretas entre las poblaciones en las que se hizo el estudio. Y en todo ello hay que identificar cuál o cuáles de todos los componentes de la bebida tiene o no propiedades espermicidas, y descubrir por qué los estudios dan resultados distintos. Al menos sabemos que, en muchos casos, los resultados en principio contradictorios son un aviso de por dónde deben realizarse investigaciones ulteriores.

El Premio Ig Nobel de la Paz de este año se entregó a un comité suizo biotecnológico y a todos los ciudadanos de Suiza por declarar legalmente que "las plantas tienen dignidad". Ciertamente suena absurdo, pero llama la atención sobre un problema bioético de primera importancia. Los promotores del Proyecto Gran Simio buscan que se conceda a los grandes simios derechos iguales a los humanos. Sin embargo, en buena medida se pueden aplicar sus mismos argumentos para conceder derechos a otros primates, a todos los mamíferos, a los vertebrados, incluso a todas las plantas, aunque esto implicaría que preparar una ensalada fuera asesinato múltiple. Los seres humanos, tenemos que fijar una línea de demarcación ética, pero aún no es claro dónde y por qué debemos hacerlo. El que el tema se pueda reducir al absurdo y llevar hasta la "dignidad de las plantas" pone de manifiesto que aún no tenemos una aproximación adecuada al conflicto ético en el cual se ubican los defensores de los derechos de los animales y de los entornos ecológicos.

Es muy fácil ver por qué es importante una investigación que sugiera que los placebos caros son más efectivos que los placebos baratos. Tal investigación se llevó el Ig Nobel de medicina este año. Sabíamos que si un paciente espera que algo sea efectivo, su creencia influye en dicha efectividad, por lo menos en cuanto a los síntomas. Es esto lo que hace que parezan efectivas varias formas de curanderismo y brujería. Ahora sabemos también que el precio es un componente, y ello podría explicar la preferencia de algunas personas por medicamentos más costosos (como los “de marca”) frente a los genéricos.

Un último premio especialmente interesante fue para la demostración matemática de que montones de cuerda, o pelo, o casi cualquier otra cosa inevitablemente formarán nudos. La teoría de nudos es, precisamente, una rama de la topología, y los nudos como fenómeno han fascinado a muchos personajes a lo largo de la historia, como el propio Da Vinci, e incluso a culturas enteras, como la celta, cuyos nudos sobrevivieron cuando su idioma no lo pudo hacer. La inevitabilidad de que algo se ate en un nudo puede tener importantes consecuencias en las matemáticas, algo mucho más allá de un simple chiste entre señores de bata blanca.

Cantando el Ig Nobel


Entre los premios más divertidos destaca, sin duda, el Ig Nobel de la Paz concedido al baterista japonés Daisuke Inoue por haber inventado la máquina de karaoke (que en japonés significa “orquesta vacía”) en 1971. Habiendo sido considerado por la revista Time como uno de los personajes asiáticos más influyentes en el mundo, en el año 2000 recibió el premio por “proporcionar una forma totalmente nueva para que las personas aprendan a tolerarse unas a otras”. Como detalle curioso, Inoue nunca patentó su invento y no obtiene beneficios de los miles y miles de karaokes que suenan en el mundo.

octubre 10, 2008

Los mecanismos de las drogas

Los efectos fisiológicos y químicos de las drogas que el hombre utiliza desde tiempo inmemorial nos permiten averiguar muchos secretos del funcionamiento de nuestro cerebro.


El alcohol, una de las drogas más populares,
y de las pocas legales en muchos países
(Foto CC-BY-2.0  de Payton Chung,
vía Wikimedia Commons)
Llamamos "drogas" a sustancias con actividad neurológica que provoca estados o sensaciones que el usuario halla agradables y que se consumen sin necesidad médica. Así, una sustancia se considera droga no por lo que es, sino por la forma en que la usamos, aunque las drogas no sean exclusivamente de uso humano. Algunos lemures de Madagascar mordisquean a enormes milpiés para que exuden una sustancia venenosa que provoca al lemur un estado alterado que parecen disfrutar. Diversas aves comen fruta fermentada, al parecer por los efectos del alcohol. Los monos verdes, llevados a Bermudas desde Etiopía en el siglo XVII, se aficionaron a la caña de azúcar que fermentaba en las plantaciones, y cuando islas como San Kitt y Nevis se convirtieron en paraíso turístico, descubrieron el mundo del cóctel y se convirtieron en plaga para los dueños de chiringuitos en la playa y al mismo tiempo en una lamentable atracción turística. Esto atrago a investigadores de la Universidad McGill de Canadá, que descubrieron en 2002 que el comportamiento de los monos era muy parecido al de los humanos: de mil monos a los que se les dió alcohol, el 15% bebía de modo frecuente y abusivo, otro 15% bebía muy poco o nada, 5% tenía graves problemas con al abuso del alcohol. Es decir, los monos usan el alcohol como droga del mismo modo que los seres humanos. Eso se debe a que las drogas actúan sobre nuestro organismo de modo predecible y por afinidades químicas en ocasiones asombrosas, alterando la percepción, el humor, la consciencia y el comportamiento, dividiéndose en cuatro clasificaciones generales por sus sustancias más activas: estimulantes, analgésicos, hipnóticos y alucinógenos o psicodélicos.

Las drogas estimulantes aumentan la actividad del sistema nervioso simpático o del central, o de ambos, siendo los más conocidos las anfetaminas y la cocaína, que actúa principalmente bloqueando una proteína responsable del transporte de la dopamina para su reabsorción. Al acumularse la dopamina entre las neuronas, estimula a éstas de modo más prolongado, causando directamente el aumento del ritmo cardiaco y la presión arterial, además de servir como un anestésico local al bloquear los canales de sodio de las neuronas. Otros estimulantes populares son la cafeína y la nicotina del tabaco, y resulta curioso comprobar que la cafeína, considerada la droga de uso más extendido en el mundo, tiene mecanismos químicos de acción tan complejos que se sabe aún muy poco de ellos, y están bajo intensa investigación.

Por su parte, entre los analgésicos utilizados comúnmente como drogas destacan la morfina, la ketamina y la más popular droga de entre las perseguidas por las leyes, el tetrahidrocannabinol o THC, la sustancia activa del cannabis o mariguana. La planta usa esta sustancia para protegerse de los herbívoros y algunos organismos patógenos, porque actúa directamente en el cerebro, en unos receptores especializados de las neuronas llamados precisamente "receptores cannabinoides", que son sensibles a sustancias muy parecidas al THC producidas por nuestro propio organismo, llamadas endocannabinoides. Al activarse, estos receptores ocasionan hipotensión arterial, analgesia o supresión del dolor, relajación y euforia, y alteraciones en la percepción, desorientación, fatiga y aumento del apetito.

Los hipnóticos o productores de sueño más comúnes son los barbitúricos, los opiáceos y las benzodiazepinas. Los tres tipos de sustancias, al igual que el alcohol y algunos cannabinoides, se unen al receptor del neurotransmisor conocido como GABA, aumentando la acción de éste y ocasionando efectos relajantes, reductores de la ansiedad y anticonvulsivos, además de que algunos pueden provocar amnesia. Estos efectos explican las "lagunas mentales" y la somnolencia que ocasiona el consumo excesivo de alcohol, así como la similitud con las sensaciones del alcohol que experimentan quienes abusan de los barbitúricos. Los opiáceos son llamados así por su similitud química con el opio, del que se obtienen tanto la morfina como la heorína, y actúan sobre el cuerpo uniéndose a receptores en el sistema nervioso y en otros tejidos que están específicamente dedicados a este tipo de sustancias, ya que nuestro propio cuerpo produce sustancias opiáceas, como las llamadas "endorfinas", sustancias endógenas similares a la morfina y producidos por la glándula pituitaria que mitigan el dolor y producen una sensación general de bienestar. Por último, las benzodiazepinas, como el diazepam, el lorazepan y el bromazepam, también actúan sobre los receptores del GABA, aumentando los efectos de éste, provocando distintos efectos que van desde la disminución de la ansiedad hasta la sedación.

Finalmente tenemos los alucinógenos, que alteran radicalmente la percepción, emociones y pensamientos, provocando alucinaciones, e incluyen los psicodélicos como el LSD o ácido lisérgico, la psilocibina de los hongos alucinógenos o la mescalina que se encuentra en el peyote, y se popularizaron en la contracultura hippie. El LSD, como ejemplo, afecta a numerosos receptores en el sistema nervioso, en especial los de la serotonina, uno de los cuales controla la corteza visual, y es por tanto responsable de las alucinaciones relacionadas con el LSD que hicieron que se prohibiera incluso para uso terapéutico, pese a que llegó a ser muy prometedor. Otros alucinógenos son los disociativos como la ketamina o el PCP, y los delirantes o causantes de delirio que bloquean los receptores de acetilcolina, los más potentes alucinógenos, entre ellos el beleño o belladona y la mandrágora,

Entender qué hacen las drogas en nuestro organismo y cómo lo hacen es una forma de averiguar sus beneficios y cómo aprovecharlas, y también de comprender sus lados negativos y saber el precio que se puede pagar por la sensación placentera que mueve al consumo de tales sustancias.

El cornezuelo y las brujas

El LSD se deriva de la ergotamina, sustancia producida por el cornezuelo del centeno, una plaga de este cereal y que puede provocar convulsiones, alucinaciones, ardor y gangrena por la constricción de los vasos sanguíneos. Las curanderas antiguas utilizaban el cornezuelo para producir abortos y detener la hemorragia postparto. Pero, también, ciertas investigaciones históricas sugieren que quizá algunos casos de cacería de brujas como el de Salem en 1692, fueron producto de las alucinaciones inducidas por el cornezuelo del centeno entre quienes afirmaban estar embrujados o haber visto mujeres volar. Un viaje de ácido podría haber sido el origen de un triste capítulo de la historia.

octubre 04, 2008

Pasteur: un revolucionario silencioso

Distintas disciplinas científicas y filosóficas guardan diversas deudas con Louis Pasteur, el químico francés que a fines del siglo XIX hizo para el mundo viviente en gran medida lo que Copérnico hizo con nuestra imagen del cosmos, derribando uno de los más antiguos mitos sobre la vida y estableciendo, por primera vez en toda la historia humana, unos cimientos sólidos de saber demostrable sobre los cuales erigir el edificio de una nueva medicina basada en hechos y no en creencias.

Louis Pasteur en 1878
(Foto D.P. de Félix Nadar)
La carrera científica de Louis Pasteur, sin embargo, comenzó en un área muy alejada de la bioquímica, las vacunas y la pasteurización por las cuales se le conoce hoy en día, estudiando los efectos del ácido tartárico sobre la luz polarizada. En 1848, Pasteur descubrió que los cristales de tartarato de sodio y amonio venían en dos formas asimétricas, de hecho, eran la imagen de espejo unos de los otros. Separó los cristales de las dos formas y vio que la solución de una de ellas giraba la luz polarizada en sentido de las manecillas del reloj, mientras que la solución de la otra la giraba en sentido contrario a las agujas del reloj. Se trataba de dos formas de la misma molécula, una invertida respecto de la otra como una mano izquierda lo está de la derecha. Con este descubrimiento, el joven Jean-Louis Pasteur de apenas 26 años había fundado toda una rama de la química: la estereoquímica, que estudia la disposición espacial de las moléculas de toda sustancia y los efectos biológicos, químicos y físicos que tiene tal disposición.

Este descubrimiento hizo también que el joven Pasteur llamara la atención del mundo, concediéndole la Legión de Honor francesa con sólo 26 años, y fue su pasaporte para obtener el nombramiento de profesor de química en la Faculté de Estrasburgo, lo que impulsó su capacidad para investigar con libertad.

En 1864, el emperador Napoleón III llamó al ya reconocido Louis Pasteur para encargarle la investigación de los motivos por los que la cerveza y el vino se agriaban al paso del tiempo, lo que invariablemente representaba pérdidas para las empresas francesas. Si Pasteur conseguía aumentar lo que hoy llamaríamos la “vida de anaquel” de vinos y cervezas, los beneficios económicos serían cuantiosos. Pasteur utilizó un microscopio para determinar con certeza que en la fermentación intervenían dos variedades de levaduras, una que producía el alcohol al fermentar el caldo y la otra que producía ácido láctico, convirtiendo el vino en vinagre. La solución al problema fue el calentamiento breve del líquido hasta una temperatura de alrededor de 44ºC, con lo que casi se eliminaba la totalidad de las levaduras. Pronto, el vino francés se pasteurizaba después de fermentar para aumentar su vida útil, como hoy se hace con una gran cantidad de productos alimenticios.

Pasteur había demostrado, a diferencia de lo que creían muchos químicos de la época, que la fermentación y la descomposición se debían a la acción de organismos vivos y no era un proceso meramente químico. El paso siguiente fue realizar un experimento que demostrara que los microorganismos en un caldo de cultivo era resultado de la presencia de organismos vivos que se reproducían y no debido a la generación espontánea, doctrina que había sobrevivido más de dos mil años, un elemento restante del aristotelismo que había recibido tan duros golpes a raíz de la aparición del método científico. Aristóteles afirmaba que los organismos vivos son generados por sustancias orgánicas en descomposición, por ejemplo, los ratones surgían espontáneamente de la paja húmeda. Esta idea ya había sido atacada con argumentos, pero fue Pasteur quien desarrolló los elegantes experimentos que clavaron el último clavo en el ataúd de la escolástica y la autoridad aristotélica.

El filósofo Ernesto Renán dijo del método de investigación de Pasteur: “Este maravilloso método experimental elimina ciertos hechos, resalta otros, interroga a la naturaleza, la fuerza a responder y se detiene sólo cuando la mente está totalmente satisfecha. El encanto de nuestros estudios, el poder de atracción de la ciencia es que, en todo lugar y en todo momento, podemos dar justificación de nuestros principios y la prueba de nuestros descubrimientos”.

Pasteur utilizaría su afinada capacidad de diseñar experimentos elegantes y contundentes para probar otra hipótesis sobre el origen de las enfermedades. Habiendo descubierto al parásito responsable de la muerte de gusanos de la seda en Francia, con lo cual salvó a la industria de la seda, Pasteur conjeturó que los microorganismos podrían ser también responsables de las enfermedades contagiosas. A través de cuidadosos experimentos pudo determinar que tal era el caso en enfermedades de las patatas y de los seres humanos, en especial el ántrax.

Hasta ese momento, se intentaba curar con base en distintas creencias, ninguna demostrada experimentalmente. La teoría de los cuatro humores, prevaleciente desde Empédocles (siglo V antes de nuestra era) hasta la Europa del siglo XIX, dominó la práctica médica, con algunos tratamientos letales, como el desangramiento para eliminar el “exceso de humor sanguíneo”. En oriente, la idea de que la salud dependía de fuerzas mágicas como el “chi” o el “prana” llevó a prácticas igualmente poco sanas pero, sobre todo, ineficaces para enfrentar a la gran mayoría de las enfermedades. La teoría de los gérmenes patógenos propuesta por Pasteur terminó, de un golpe, con milenios de incertidumbre e inauguró la medicina con bases científicas, la medicina que dependía de evidencias y no de suposiciones. Con esas bases, además, Pasteur recomendó a los médicos, igual que Líster, medidas higiénicas en cuanto a sus personas, materiales y herramientas que evitaron innumerables muertes por infecciones transmitidas por los propios médicos.

En los últimos años de su vida, Pasteur se ocupó del desarrollo de vacunas usando formas debilitadas de los microorganismos patógenos para inocular a los pacientes y provocar que produjeran anticuerpos para defenderse de la enfermedad en caso de ser atacados por los microorganismos no debilitados. Produjo una vacuna contra el ántrax y otra contra el cólera, y en 1885 administró la primera vacuna contra la rabia. Diez años después, en 1895, moría siendo uno de los seres humanos que más vidas han salvado y que más profundos cambios provocaron en la historia de nuestras civilizaciones.

Un científico comprometido

Cuando se le festejaron sus 70 años en la Sorbona, en 1892, Pasteur se definió como “un hombre cuya creencia invencible es que la ciencia y la paz triunfarán sobre la ignorancia y la guerra, que las naciones se unirán no para destruir, sino para edificar, y que el futuro pertenecerá a aquéllos que han hecho más en bien de la humanidad que sufre”.