Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los tipos duros del musgo

Han ido al espacio, los han congelado, los han bombardeado con radiación, desecado y hervido... después de lo cual siguen viviendo y reproduciéndose. Son los genuinos tipos duros de la evolución.

Un tardígrado adulto.
(Foto CC de Goldstein lab, vía Wikimedia Commons)
En la mitología popular, las cucarachas son los únicos animales que sobrevivirían a una guerra nuclear y son, por tanto, los campeones de la resistencia.

No es así.

El mito, nacido de la idea de que algunas cucarachas habían sobrevivido a las explosiones nucleares de Hiroshima y Nagasaki (como sobrevivieron otros seres vivos, incluidas muchas personas, los “hibakusha”, o “gente afectada por la explosión”), fue retomado y difundido por los activistas contra las armas nucleares en las décadas de 1960 y 1970.

El Comité Científico de Naciones Unidas sobre los Efectos de la Radiación Atómica ha determinado que las cucarachas pueden soportar dosis de radiación 10 veces superiores a la que mataría a un ser humano, 10.000 rads. Pero las humildes moscas de la fruta, las drosofilas, soportan casi 64.000 rads, y la avispa Habrobracon puede sobrevivir a 180.000 rads. A nivel unicelular, la bacteria Deinococcus radiodurans queda al frente soportando 1,5 millones de rads. (Por comparación la bomba de Hiroshima emitió rayos gamma a una potencia de unos 10.000 rads, y las bombas que hoy conforman los arsenales nucleares son miles de veces más potentes.)

Pero la supervivencia a la radiación es sólo uno de los elementos que forman a lo que podríamos llamar una especie de “tipos duros”. En general, los animales sólo podemos sobrevivir en una estrecha franja de temperaturas, presión, humedad, radiación y otros factores.

El caso excepcional, los campeones de resistencia en todos estos puntos, incluida la supervivencia a la radiación son unos diminuto seres llamados tardígrados, parientes tanto de los nematodos o gusanos redondos como de los artrópodos o seres con exoesqueleto.

Estos minúsculos invertebrados, llamados también osos de agua, pueden medir entre 0,05 y 1,5 milímetros y viven en entornos acuáticos o en zonas húmedas en tierra, como los lugares donde se cría el musgo.

Los tardígrados tienen un peculiar aspecto rechoncho, con cuatro pares de patas terminadas en largas garras. Su cuerpo está recubierto por una capa de cutícula que contiene quitina, proteínas y lípidos, y que debe mudar mientras crece, a través de la cual respiran.

Estos minúsculos seres tienen una anatomía muy compleja. Cuentan con manchas oculares cuya capacidad sensorial aún está siendo estudiada, un sistema nervioso con un pequeño cerebro, un aparato digestivo y un complejo aparato bucal que junto con las garras diferencia a las más de 1.000 especies de tardígrados que se han descrito hasta la fecha, y que varían según su alimentación: bacterias, líquenes, musgos, otros animales microscópicos e incluso, en algunas especies, otros tardígrados.

Algunas especies se reproducen mediante partenogénesis cuando escasean los machos, otras son hermafroditas que se autofertilizan y las hay donde machos y hembras se reproducen sexualmente. Y están donde quiera que uno los busque: en los bosques y los océanos, en el Ecuador y en los polos, en el suelo y en los árboles (siempre que haya humedad suficiente).

Todo esto, unido a la larga vida y el corto ciclo reproductivo de estos animales y al curioso hecho de que son seres que mantienen el mismo número de células a lo largo de toda su vida, ha sido responsable de que los científicos utilicen a los tardígrados como modelos para distintos estudios experimentales.

El secreto de la resistencia de los tardígrados es su capacidad de suspender el funcionamiento de su metabolismo ante condiciones adversas, un proceso llamado criptobiosis. En él, asumen un estado altamente duradero y reducido llamado “tun”. Si el animal enfrenta temperaturas demasiado bajas, por ejemplo, al formarse el tun se induce la producción de proteínas que impiden que se formen cristales de hielo, que son los que destruyen las células. Si enfrenta una situación de falta de agua, se encoge y deja salir el agua de su cuerpo. Y si encuentra situaciones de salinidad extrema que puedan sustraerle el agua por ósmosis, también pueden formar un tun.

Suspender el metabolismo significa, para la mayoría de los seres vivos, la muerte. Los tardígrados pueden permanecer en estado de tun hasta que las condiciones normales se restablecen y pueden volver a la vida normalmente. El récord, a la fecha, lo tienen unos tunes que se recuperaron después de 120 años desecados.

Cuando están en estado de tun, pueden sobrevivir hasta 200 horas a una temperatura de –273oC , muy cerca del cero absoluto (–273,15oC9, y hasta 20 meses a –200oC, mientras que en el otro extremo soportan temperaturas de 150oC (el agua hierve a 100oC). También pueden ser sometidos a 6.000 atmósferas de presión (el punto más bajo del océano, el fondo de la fosa de las Marianas, tiene una presión de 1.000 atmósferas, aproximadamente) y soportan altísimas concentraciones de sustancias como el monóxido y dióxido de carbono o el dióxido de azufre, y altas dosis de radiación: 570.000 rads.

Todo lo cual aniquilaría sin más a todos los insectos campeones de la radiación atómica.

Por esto, en 2007, la Agencia Espacial Europea envió al espacio ejempalres de dos especies de tardígrados, en estado de tun. Como parte de la misión BIOPAN 6/Fotón-M3 y a una altura de unos 260 kilómetros sobre el nivel del mar, algunos fueron expuestos al vacío y frío espacial, y otros a una dosis de radiación ultravioleta del sol 1.000 veces mayor que la que recibimos en la superficie de la Tierra.

Los pequeños sujetos experimentales no sólo sobrevivieron, sino que al volver y rehidratarse, comieron, crecieron y se reprodujeron dando como resultado una progenie totalmente normal. Esta hazaña sólo la habían logrado algunos líquenes y bacterias, nunca un animal multicelular.

En 2011, la Agencia Espacial Italiana envió a la ISS otro experimento en el último viaje del transbordador Endeavor, donde estos tipos duros volvieron a demostrar su resistencia a la radiación ionizante.

Dado lo mucho que pueden enseñarnos sobre la vida y la supervivencia, los tardígrados son sujetos, cada tres años de una reunión internacional dedicada a su estudio... un gran simposio para unos pequeños campeones de la resistencia.

Los lentos caminantes

“Tardígrado” quiere decir “de paso lento”. El nombre lo ideó el biólogo italiano Lazaro Spallanzani (descubridor de la ecolocalización en los murciélagos) en 1776 para estos animales, que habían sido descubiertos apenas tres años antes por el zoólogo alemán Johann August Ephraim Goeze. Fue Goeze el que les puso el nombre de “osos de agua” por su aspecto y movimiento. Su incapacidad de nadar y lentitud los distinguen de otros seres acuáticos microscópicos.

Pareto y la maldición de la revista

Dos curiosidades relacionadas con la estadística que, si no se tienen en cuenta, pueden llevarnos a conclusiones erróneas sobre nuestro mundo.

Sports Illustrated hizo referencia en 2001 a la
supuesta maldición de sus portadas.
Sabemos que la economía no es una ciencia, al menos no todavía, pues no puede predecir acontecimientos con un alto grado de certeza con base en leyes y observaciones diversas como lo hacen, por ejemplo, los astrónomos, cuando prevén el ciclo de 11 años de nuestro sol.

Pero la economía tiene algunos logros apasionantes por su peculiaridad, por ejemplo, el que se conoce popularmente como “Ley de Pareto”, aunque, curiosamente, no fue enunciada por Pareto.

Vilfredo Pareto fue un ingeniero, sociólogo, economista y matemático de fines del siglo XIX y principios del siglo XX, que buscó convertir la economía en ciencia mediante la observación, la medición y el análisis estadístico de los datos, pese a entender que la economía tiene una fuerte componente subjetiva debido a las emociones, creencias y demás peculiaridades de los seres humanos.

Pareto estableció el llamado “óptimo de Pareto” como medida de la eficiencia de una economía, por ejemplo la distribución de bienes en una sociedad, que ocurre cuando no se puede mejorar la situación de nadie sin dañar la de otros. Dicho de otro modo, cuando todos los participantes quedan al menos en la misma posición y al menos un participante queda en una situación claramente mejor.

En su intento por entender la riqueza, Pareto estudió la concentración de la riqueza en distintas sociedades y llegó a la conclusión de que en todos los países, los ingresos se concentraban más en las minorías y se iban distribuyendo a lo largo de la sociedad de forma decreciente. Esta ley se expresa coloquialmente como el llamado “principio de Pareto del 20-80”, es decir, más o menos el 20 por ciento de la población de cualquier país tiende a poseer el 80% de la riqueza.

Este principio fue ampliado por el economista Joseph Juran, que se dio cuenta de que el principio era aplicable a otros aspectos de la vida social y económica. Es decir, aunque la proporción puede ser distinta, una pequeña parte de todo esfuerzo para conseguir algo tiende a ser esencial y una gran parte es menos relevante. Juran fue quien lo llamó, “principio de Pareto”.

Aunque no se sabe cuál es la causa de este fenómeno, el principio de Pareto como aproximación general ha demostrado su validez empíricamente una y otra vez. Así, se ha descubierto que más o menos el 20% de los clientes de un negocio son responsables del 80% de sus ventas, o que el 80% de la contaminación está provocado por el 20% de los vehículos.

Una expresión del principio de Pareto fue la causante de la revolución del control de calidad (especialidad de Juran) que han vivido las empresas a partir de la década de los 70, permitiendo a las empresas concentrarse en los defectos o problemas que más ventas les costaban.

La regresión a la media

Entre los deportistas de Estados Unidos existe el mito de “la maldición de Sports Illustrated”, según la cual, cuando un deportista destaca tanto que llega a la portada de esta prestigiosa revista, automáticamente tiende a bajar su rendimiento.

Lo más curioso es que este mito se hace realidad en muchas ocasiones. Tantas que la propia revista hizo referencia a esta “maldición” en 2002, cuando puso un gato negro en la portada afirmando que ningún deportista quería posar para ella.

¿Es verdad que hay una maldición?

En realidad no. Lo que ocurre es que muchos deportistas llegan a la portada de esta revista debido a una serie de logros singulares y fuera de lo común en sus carreras, algo que los estadísticos conocen como un “valor atípico”. Ha superado, pues, su propia media, determinada en algún valor de su deporte: goles anotados, posición en la tabla de tenistas, asistencias en baloncesto o cualquiera otra variable. De pronto, durante una época determinada, el rendimiento sube alejándose de la media, el deportista llama la atención y su trabajo es más notorio, por lo cual la revista Sports Illustrated decide ponerlo en su portada.

Pero, por decirlo de algún modo, todo lo que sube tiene que bajar. O, puesto en lenguaje de los estadísticos, mientras más se aparte una variable aleatoria de su media, mayor será la probabilidad de que esa desviación disminuya en el futuro. O, en otras palabras, un acontecimiento extremo muy probablemente estará seguido de un acontecimiento menos extremo. Esto, para el jugador que durante unos cuantos partidos anotó más goles de los que solía anotar de media, significa que lo más probable es que regrese a su media en los siguientes partidos. O, como dirían los cronistas deportivos, tuvo una racha y se le terminó.

Los estadísticos le llaman a este fenómeno “regresión a la media”, un término bastante claro y que le debemos a Sir Francis Galton, quien lo descubrió estudiando la estatura media de hijos cuyos padres eran extremadamente altos o extremadamente bajos. Lo que descubrió este investigador fue que los hijos de padres muy altos tendían, claro, a ser altos... pero menos que sus padres, mientras que los hijos de padres muy bajitos tendían a ser de también de corta estatura, pero más altos que sus padres (todo esto en términos de poblaciones y grandes números, por supuesto que en casos individuales puede haber, y de hecho hay, excepciones).

La regresión a la media también nos explica fenómenos como el de la concesión de lotería que puede en un momento dar tres o cuatro premios gordos y luego no volver a dar ninguno durante muchos años, como suele ser normal. La regresión a la media también explica, asombrosamente, el alivio que nos pueden proporcionar algunos tratamientos pertenecientes a la pseudomedicina. Cuando hace crisis una enfermedad, afortunadamente, no tendemos a seguir cada vez peores hasta morir, sino que los síntomas (desde estornudos y moqueos hasta dolores de espalda) tienden, salvo excepciones, a volver a su situación anterior. Nuestro cuerpo regresa a su situación de salud media, el curandero se anota el éxito y pagamos la factura sin darnos cuenta de que ahí ha habido tanta relación causa-efecto entre los rituales del curandero y nuestra mejoría como la que hay entre aparecer en Sports Illustrated y caer hasta nuestro nivel habitual como golfistas. O como cualquier cosa que hagamos que nos haya salido bien por puro azar en un par de ocasiones.

No funciona cuando eres muy bueno

Hay deportistas excepcionales cuya media de rendimiento es muy alta. Son “los mejores”. A ellos, así, no les afecta la maldición de Sports Illustrated ni otras supersticiones, pues llegan a la portada por su media de rendimiento y no excepcionalmente. Así, el legendario Michael Jordan apareció 49 veces en la portada sin sufrir ninguna disminución de rendimiento. Lo mismo pasó con Rafael Nadal o Pau Gasol.

Insulina, la molécula de la discordia

Aunque la historia consagra a dos investigadores como los descubridores de la insulina y su uso en humanos, la historia real incluye puntos de vista contrarios, tensiones, desacuerdos e incluso algún puñetazo.

Moderno sistema de inyección de insulina, la única
forma de controlar la diabetes que hay a la fecha
(Foto D.P. de Mr Hyde, vía Wikimedia Commons)
El descubrimiento y uso de la insulina fue un episodio médico espectacular por los profundos y rápidos efectos que tuvo sobre una enorme cantidad de pacientes que sufrían de diabetes, con las atroces expectativas de enfrentar efectos devastadores, como la ceguera, daños graves a los riñones y al corazón, gangrena en las extremidades inferiores, mala cicatrización, úlceras e infecciones, sin contar crisis agudas como la cetoacidosis, una acumulación de sustancias llamadas "cuerpos cetónicos", que se producen cuando el cuerpo metaboliza grasas en lugar del azúcar, que no puede utilizar debido a la falta de insulina. Esta acumulación puede ser mortal en cuestión de horas.

A principios del siglo XX se sabía que los perros a los que se les extraía el páncreas presentaban síntomas similares a la diabetes, que las células del páncreas llamadas "islotes de Langerhans" jugaban un papel importante en la diabetes. Muchos investigadores intentaron preparar extractos de páncreas para tratar la diabetes, pero todos provocaban graves reacciones tóxicas, porque además de producir insulina, el páncreas produce enzimas digestivas y las lleva al tracto digestivo. Las células responsables de las enzimas eran las que causaban las reacciones de los pacientes.

En 1921, el médico canadiense Frederick Grant Banting tuvo la idea de ligar el ducto que va del páncreas al tracto digestivo para degenerar las células enzimáticas manteniendo vivas a las más resistentes de los islotes de Langerhans. Llevó la idea al profesor John James McLeod, de la Universidad de Toronto. Sin demasiado entusiasmo, McLeod le concedió a Banting un pequeño espacio experimental, algunos perros como sujetos experimentales y a un asistente, Charles Best, para que trabajaran durante las vacaciones de verano.

La idea era hacer un extracto del páncreas degenerado e inyectárselo a otro perro al que se le hubiera extraído el páncreas. Pronto aislaron una sustancia a la que llamaron "isletina", por los islotes de Langerhans (en 1922 cambiaron el nombre por "insulina", con la misma raíz etimológica).

La isletina reducía el azúcar en sangre de perros a los que se había extirpado el páncreas. McLeod se negó primero a creer en los resultados y se enfrentó con Banting, para finalmente decidir que debía reproducirse todo el estudio para tener certeza sobre los resultados. Les dio a Banting y Best mejores instalaciones y Banting pidió un salario, amenazando con llevar su investigación a otra institución. McLeod cedió, pero la tensión entre ambos ya nunca desaparecería, máxime porque Banting sentía injusto que McLeod se refiriera al proyecto hablando de "nuestros" experimentos y de "nosotros".

La insulina resultante era exitosa en perros. El éxito fue tal que en diciembre McLeod decidio dedicar todo su departamento de investigación al proyecto de la insulina y reclutó además la ayuda de un bioquímico, Bertram Collip, encargado de buscar formas de purificar la sustancia.

El 11 de enero de 1922 se realizó el primer ensayo en un ser humano. El niño de 14 años Leonard Thompson, que estaba al borde de la muerte por cetoacidosis, recibió la primera inyección de insulina. Además de sufrir una reacción alérgica, no experimentó ninguna mejoría. En una discusión, Collip amenazó con abandonar el equipo y dedicarse a producir insulina independientemente, asegurando que había encontrado un procedimiento y tenía la anuencia de McLeod para guardar el secreto. Banting estalló y, según algunos testimonios, golpeó a Collip derribándolo al suelo.

Los responsables de financiar los trabajos del laboratorio, Connaught Laboratories, intervinieron rápidamente e hicieron que los cuatro implicados firmaran un convenio comprometiéndose a no solicitar ninguna patente o colaboración comercial de modo independiente.

El 23 de enero, los investigadores volvieron a inyectar a Leonard Thompson con un extracto más puro. La reacción que tuvo el adolescente fue asombrosa. Empezó a recuperarse y en sólo un día se redujo la cantidad de azúcar en su sangre, desaparecieron los cuerpos cetónicos y empezó a mostrarse más activo. La espectacularidad de la reacción llevó a los médicos a tratar a otros seis niños el 23 de febrero, todos con resultados positivos, incluso alguno que se recuperó de un coma diabético.

En apenas ocho meses se había pasado de una hipótesis audaz de un médico poco experimentado en el laboratorio a un resultado dramático que pronto fue corroborado por estudios clínicos para determinar los efectos biológicos de la insulina, sus indicaciones y dosis. En menos de un año, la publicación de los resultados dio a conocer al mundo el nuevo tratamiento. La patente que obtuvieron los cuatro por la insulina y el método de obtenerla fue vendida a la Universidad de Toronto por el precio simbólico de un dólar canadiense para cada investigador.

Las disputas entre los investigadores seguirían cuando, en 1923, se concedió el Premio Nobel de Medicina o Fisiología a Frederick Banting y John James McLeod. El primero creía que el premio debería haber sido para su ayudante, Best, con quien de hecho compartió el dinero del premio, mientras que McLeod se enfureció por la exclusión de Collip, con quien él compartió su parte.

En medio de estos enfrentamientos, aparecieron además las reclamaciones de varios investigadores que habían trabajado en el tema de la diabetes. Nicolás Paulescu, de Rumania, había de hecho descubierto la insulina poco antes que Banting y Best. Georg Zuelzer, alemán, aseguraba que su trabajo había sido robado por los investigadores de Toronto. Ernest Lyman Scott exigió reconocimiento por haber realizado experimentos exitosos antes que los canadienses. E incluso fue notable que no se uniera al coro de indignación el bioquímico estadounidense Israel Kleiner, que había estado más cerca del éxito que todos los demás. El debate, que siguió durante todos los años posteriores y no está del todo resuelto aún ahora hace de la insulina uno de los descubrimientos más conflictivos de la ciencia, y muestra también sus peculiares debilidades humanas.

Transgénico para la vida

Primero, la diabetes se trató con insulina de páncreas de cerdos y de vacas, que es similar, pero no idéntica, a la humana, y puede provocar reacciones adversas. En 1978, Herbert Boyer modificó genéticamente bacterias E. coli para que produjeran insulina humana, la llamada "humulina", que además de ser más sostenible resultó más asequible. Hoy en día, la gran mayoría de la insulina que utilizan los diabéticos es producida por estas bacterias transgénicas.

¡Ellos fueron!

Se acaba de lanzar en Amazon, en formato Kindle, el libro electrónico ¡Ellos fueron!, formado por 50 biografías de científicos que se han publicado desde 2006 en la página de ciencia del suplemento "Territorios de la cultura" del diario El Correo, que escribo semanalmente desde 2006 y en este blog.

El libro está disponible en las tiendas de Amazon de España, Estados Unidos, Reino Unido, Francia e Italia,

El libro se dedica en parte a algunos de los más conocidos científicos y algunos detalles poco conocidos de sus vidas, pero también a gente como:

Un pirata cuya obra científica acompañó a Darwin en su viaje en el Beagle...

Una mujer sin cuyo trabajo habría sido imposible descubrir la forma del ADN...

Un mundialmente famoso guitarrista de rock que es doctor en astrofísica...

Un médico húngaro al que muy probablemente usted le debe la vida...

Un paleontólogo que quiso ser rey de Albania...

Un genio de la física que resolvía ecuaciones en clubes de striptease...

Un físico que regaló los derechos del invento que lo habría hecho multimillonario...

El matemático pobre que redescubrió toda la matemática moderna en su infancia...

Y otros 43 personajes peculiares que han participado en la investigación del universo y que han encontrado respuestas que dan forma a nuestra vida cotidiana, nuestro conocimiento, nuestro bienestar, nuestra salud y nuestro futuro.

William Dampier, Ignaz Semmelweis, Francis Bacon, Ambroise Paré, Richard Dawkins, Charles Darwin, María Sklodowska Curie, Leonardo Da Vinci, Isaac Newton, Alan Turing, Nicolás Copérnico, Srinivasa Ramanujan, Zahi Hawass, Konrad Lorenz, Giordano Bruno, Louis Pasteur, Stephen Hawking, Benjamin Franklin, Alexander Fleming, Vilayanur S. Ramachandran, Oliver Sacks, Gregor Mendel, Charles Babbage, Brian May, Bob Bakker, James Maxwell, Santiago Ramón y Cajal, Nicola Tesla, Rosalind Russell, Tim Berners-Lee, Philo T. Farnsworth, Miguel Servet, Ferenc Nopcsa, Harvey Cushing, Alberto Santos Dumont, Mateo Orfila, Niels Bohr, Bertrand Russell, Christiaan Barnard, Carl Sagan, Richard Feynman, Andreas Vesalio, Patrick Manson, Alfred Russell Wallace, John Snow, Wernher von Braun, Alexander Von Humboldt, Claude Bernard, Thomas Henry Huxley y Peter Higgs

El científico como conejillo de Indias

El científico no sólo es el frío y acucioso registrador de la realidad que investiga. En ocasiones, es el protagonista, el escenario, estudiándose a sí mismo.

La molécula del LSD creada por Hofmann
(Imagen D.P. de Benjah-bmm27,
vía Wikimedia Commons)
El 19 de abril de 1943, el químico suizo Albert Hofmann decidió tomar una dosis de 250 microgramos de una sustancia que había sintetizado en 1938, contratado por la empresa farmacéutica Sandoz... y tuvo la primera experiencia o "viaje" de LSD de la historia. Hofmann trabajaba con el ácido lisérgico, una sustancia producida naturalmente por el hongo conocido como cornezuelo, explorando sus posibilidades como estimulante de la circulación y la respiración. Su trabajo consistía en explorar distintos compuestos a partir de esa sustancia. El sintetizado en 1938 era el LSD-25 o dietilamida de ácido lisérgico.

Tres días antes, el 16 de abril, Hofmann había absorbido accidentalmente una pequeña cantidad de LSD-25 a través de la piel de los dedos, al parecer por un descuido de laboratorio. La experiencia que tuvo a continuación lo impulsó a experimentar en sí mismo consumiendo una cantidad de LSD-25 que luego se descubrió que era tremendamente alta. Pasó por una etapa de pánico y paranoia seguida de placidez y euforia. Había nacido la era de la psicodelia, y su descubrimiento sería uno de los signos distintivos de la contracultura hippie. Por desgracia, el uso recreativo del LSD llevó a que se prohibiera y se impidiera que se estudiara como droga psiquiátrica, que era el destino que Hofmann imaginaba para lo que llamó "mi hijo problemático", el LSD.

El de Hofmann era un caso más entre los muchos científicos que, en un momento dado, han optado por utilizarse a sí mismos como sujetos experimentales, antes que emplear a animales o a voluntarios.

Algunos casos resultan menos cinematográficos que el de Hofmann, pero mucho más dramáticos.

En 1922, el entomólogo estadounidense William J. Baerg intentaba determinar si las arañas conocidas como "viudas negras" y que están extendidas por todo el mundo eran venenosas para el ser humano. Después de ver el efecto del veneno en ratas, se hizo morder por una de sus arañas, pero sin sufrir más que un dolor agudo. Convencido de que la mordedura había sido demasiado superficial, al día siguiente se dejó morder durante cinco segundos. A lo largo de los siguientes tres días, Baerg sufrió los terribles dolores y reacciones del veneno, y los anotó para un artículo que publicó en 1923 en una revista de parasitología.

A partir de entonces, la práctica de dejarse morder por distintos arácnidos fue parte normal de las investigaciones de Baerg, pese a lo cual vivió hasta los 95 años.

Siguiendo sus pasos, el profesor Allan Walker Blair se hizo morder por una viuda negra doce años después, permitiendo que le inyectara veneno durante diez segundos, lo cual lo mantuvo varios días al borde de la muerte.

Pero quizá el campeón de los autoexperimentadores fue el biólogo, matemático y genetista británico J.B.S. Haldane, cuya principal aportación fue la conciliación de la genética mendeliana con la teoría de la evolución de Darwin, fundando la teoría sintética de la evolución y la genética de poblaciones por medio de las matemáticas. Fue también el autor de un ensayo que sería la inspiración de la novela "Un mundo feliz" de Aldous Huxley.

John Maynard Smith, alumno, colaborador y amigo de Haldane, cree que a éste le gustaban las emociones fuertes, la descarga de adrenalina que se produce cuando uno se enfada o cuando tiene miedo. De hecho, Haldane aseguraba haberlo pasado muy bien en las trincheras durante la Primera Guerra Mundial, donde fue considerado un soldado excepcional.

Pero también está el hecho de que el padre de Haldane, médico e investigador, también había realizado algunos experimentos empleándose a sí mismo como conejillo de indias. Y, al menos en una ocasión, a su hijo, a quien hizo respirar grisú en una mina hasta que el pequeño casi perdió el conocimiento.

Y seguramente sabía que uno de los grandes científicos ingleses, Humphry Davy, químico del siglo XVIII y XIX, había experimentado en sí mismo los efectos del óxido nitroso, el sedante también conocido como el "gas de la risa".

Haldane se implicó con las fuerzas armadas después del desastre del Thetis, un submarino británico que se hundió en maniobras en aguas poco profundas, causando la muerte de 99 de sus 103 ocupantes. Durante la recuperación del submarino, otro marino murió por los efectos de la descompresión.

El investigador se embarcó en una serie de experimentos sobre el buceo a gran profundidad, sometiéndose una y otra vez a experiencias dentro de una cámara de descompresión en la que sufría cambios de presión mientras respiraba distintas mezclas de gases y mientras se sometía a temperaturas de frío extremo. En un experimento en el que se envenenó con un exceso de oxígeno, además de sufrir violentas convulsiones se provocó un daño irreparable en algunas vértebras que lo dejó con un dolor crónico para el resto de su vida.

Los tímpanos de Haldane sufrieron varias rupturas a consecuencia de los cambios de presión a los que se sometió, dando pie a una de las más famosas citas del científico: "El tímpano generalmente cicatriza, y si le queda algún agujero, aunque uno queda un poco sordo, puede expulsar humo de tabajo por la oreja afectada, lo cual es todo un logro social".

La autoexperimentación de Haldane fue la base de mucho de lo que hoy sabemos acerca de los efectos de la compresión y la descompresión en los cuerpos de los buzos, especialmente la narcosis provocada por nitrógeno.

Ser su propio conejillo de indias permite a los científicos conocer de primera mano las experiencias subjetivas asociadas a algunas situaciones. Porque la subjetividad también juega un papel importante en la investigación científica, y no sólo por las inspiraciones, intuiciones y pasiones de los científicos. Mucho antes de que hubiera un instrumental adecuado para medir las características de las sustancias químicas, era práctica común entre los investigadores tomar un poco de la que estuvieran estudiando en ese momento y llevárselo a la boca para conocer su sabor.

Por supuesto, como en muchos otros casos, esta práctica fue letal para algunos audaces buscadores de la verdad científica.

Una bacteria y un Premio Nobel

Desde 1981, el doctor australiano Barry Marshall y el patólogo Robin Warren tenían indicios de que la úlcera gástrica estaba causada por una bacteria y no por el estrés, la dieta u otras causas que suponían los médicos. Al no poder infectar a unas ratas con la bacteria, Marshall optó por infectarse a sí mismo tragando un cultivo de bacterias. La gastritis que sufrió fue el primer paso para demostrar que la bacteria causaba úlceras y cánceres gástricos, lo que le valió el Premio Nobel de medicina a ambos asociados en 2005.

Medir y entender el tiempo

Dijo Baltasar Gracián: "Todo lo que realmente nos pertenece es el tiempo; incluso el que no tiene nada más, lo posee". Pero aún no sabemos qué es exactamente esa materia extraña que poseemos.

El reloj de la torre de Berna, Suiza, que inspiró
a Einstein sus ideas sobre la relatividad.
(Foto GFDL de Yann and Lupo, vía
Wikimedia Commons
"El tiempo es lo que impide que todo ocurra a la vez", dijo John Archibald Wheeler, uno de los más importantes físicos teóricos estadounidenses del siglo XX y recordado por su concepto del "agujero de gusano" como un túnel teórico a través del tiempo y el espacio.

Era un intento de explicar, con buen humor, uno de los más grandes misterios que el universo sigue ofreciéndonos como estímulo para la investigación. Porque aunque conocemos algunas de sus características esenciales, no sabemos exactamente qué es el tiempo.

El tiempo se desarrolla en un solo sentido, eso es lo más notable que podemos decir de él. Es decir, pese a afirmaciones y especulaciones en contrario, no podemos retroceder en el tiempo. Por ello los físicos hablan de la "flecha del tiempo" que sólo avanza en una dirección, del pasado al futuro.

También sabemos algo con lo que nos hemos reconciliado en las últimas décadas pero que en su momento fue todo un desafío a eso que llamamos, con cierta arrogancia inexplicable, "el sentido común": el tiempo es relativo.

Hasta 1905, se consideraba que el tiempo era constante, como lo proponía Newton. Pero según la teoría de la relatividad publicada ese año por Einstein, el tiempo es relativo, según el marco de referencia. El ejemplo clásico es el de un hombre que viaja al espacio cerca de la velocidad de la luz y su gemelo se queda en la Tierra. Para el viajero, el tiempo transcurrirá más lentamente o se "dilatará", y al volver será mucho más joven que su gemelo. Además, el tiempo también se dilata en presencia de la gravedad, a mayor atracción gravitacional, más lento transcurre.

La primera prueba de que lo predicho por las matemáticas de Einstein era real se realizó en 1971 utilizando dos relojes atómicos con precisión de milmillonésimas de segundo. Uno de ellos se quedó en tierra mientras que el otro se envió a dar la vuelta al mundo en un avión a 900 km por hora. Cuando el reloj del avión volvió a tierra, se demostró que había una diferencia entre ambos, una diferencia minúscula, de algunas milmillonésimas de segundo, pero coherente con la teoría.

Medir lo que no sabemos qué es

Mucho antes de siquiera plantearse definir el tiempo, o estudiarlo, el hombre enfrentó la necesidad de contarlo. Los períodos de tiempo más largos que un día tenían referentes claros: el propio ciclo del día y la noche, el de la luna, el del sol y los de distintos cuerpos celestes que le resultaron interesantes a distintas culturas, como Venus a los mayas y Probablemente Sirio a los egipcios.

Pero, sobre todo después de que los grupos humanos dejaron de ser nómadas, se hizo necesario dividir el día se dividiera en fragmentos medibles e iguales para todos, con objeto de coordinar las actividades del grupo.

Para ello se emplearon varios procesos repetitivos capaces de indicar incrementos de tiempo iguales: velas marcadas con líneas, relojes de arena, relojes de agua (clepsidras), tiras de incienso que se quemaban a un ritmo regular, y otros mecanismos. Los egipcios que trabajaban bajo tierra, como en las tumbas reales, recibían lámparas de aceite con una cantidad determinada. Al acabarse el aceite de sus lámparas, sabían que era hora de comer, o el fin de su jornada de trabajo.

Los egipcios fueron también los primeros en utilizar el sol, o, más precisamente, la sombra, para dividir el día en fragmentos. Los obeliscos eran relojes de sol que primero sólo marcaban la hora antes y después de mediodía, y luego se añadieron otras subdivisiones, las horas. Hace alrededor de 3.500 años, los egipcios crearon los primeros relojes de sol. Para ellos, los días tenían diez horas, más dos horas de crepúsculo y amanecer, y la noche tenía también 12 horas, determinadas mediante la aparición sucesiva en el horizonte de una serie de estrellas.

¿Por qué tiene 12 horas el día? Los sistemas decimales o vigesimales son los más comunes. pero el antiguo Egipto heredó su sistema numérico sexagesimal de los babilonios, que a su vez lo obtuvieron de la cultura sumeria.

Y los sumerios usaban un sistema duodecimal (de 12 unidades). Aunque no sabemos exactamente por qué lo eligieron, los matemáticos han notado que 12 tiene tres divisores (2, 3 y 4), lo cual simplifica bastante muchos cálculos realizados con esa base. Y al multiplicarlo también por 5 obtenemos 60. Otros creen que este sistema se origina en los 12 ciclos lunares de cada año, que han devenido en los doce meses del año. Los babilonios fraccionaron las horas en 60 minutos iguales y, al menos teóricamente, las horas en 60 segundos. La medición precisa del segundo, sin embargo, no fue viable sino hasta la invención del reloj en la edad media.

Por cierto, en esta práctica sumeria están divisiones como la venta de artículos por docenas o los doce signos del zodiaco (que omiten a dos porque no entran en el número "mágico", Cetus y Ofiuco).

Por supuesto, para medir lapsos de tiempo menores a un segundo no hemos seguido el sistema sexagesimal sumerio, sino que utilizamos décimas, centésimas, milésimas, etc. siguiendo el sistema decimal.

Pero, ¿existe el tiempo como existe la materia? Según algunos físicos y filósofos, el pasado y el futuro son creaciones de nuestra conciencia, pero no tienen una realidad física. Lo único que existe es un presente continuo, cuyos acontecimientos pueden dejar huella, como recuerdos, construcciones, ideas u obras de arte... pero sólo existen en el instante presente. Detectamos su paso sólo porque las cosas se mueven o cambian. E imaginamos el futuro especulando sobre los movimientos o cambios que pueden ocurrir.

En todo caso, el presente sigue siendo un acertijo, que se ha complicado con algunas teorías propuestas de gravedad cuántica según las cuales el tiempo no es un flujo continuo, sino que está formado por diminutas unidades discretas, paquetes de tiempo, llamados "cronones" que se suceden incesantemente, como los fotones se suceden para crear un rayo de luz que creímos continuo hasta que apareció la mecánica cuántica.

Quizá el problema que tenemos para entender el tiempo se ejemplifica con un pequeño ejercicio que todos podemos hacer: intente definir la palabra "tiempo" sin usar ni la palabra "tiempo" ni ningún concepto que implique el tiempo (como "duración" o "lapso").

Los límites de la medida

La menor unidad de tiempo que podríamos medir, teóricamente, es el "tiempo de Planck", propuesto por el físico Max Planck a fines del siglo XIX y que sería el tiempo necesario para que un fotón viajando a la velocidad de la luz recorra una distancia igual a una "longitud de Planck" (una medida 100 billones de veces menor que el diámetro de un protón).

El bulldog de Darwin

Thomas H. Huxley defendió a Darwin pese a no estar de acuerdo con todos los elementos de su teoría. Era un paso hacia el conocimiento que no podía permitir que se rechazara sin más.

Thomas Henry Huxley
(Foto D.P. de la National Portrait
Gallery of London vía Wikimedia Commons)
La escena que más claramente ha colocado a Thomas Henry Huxley en la percepción popular es el debate del 30 de junio de 1860 en el Museo Universitario de Historia Natural de Oxford con el cirujano y fisiólogo Benjamin Brodie, el botánico Joseph Dalton Hooker y el vicealmirante Robert Fitzroy, excapitán del "Beagle", legendario barco en el que Darwin reunió los datos para sus descubrimientos.

Curiosamente, Fitzroy se oponía virulentamente a las ideas de Darwin, y algunas de sus intervenciones se hicieron blandiendo la Biblia con enfado. Pero en leyenda, el centro del debate fue entre Huxley, el biólogo de las largas patillas, y Samuel Wilberforce, obispo de Winchester. El momento memorable ocurrió cuando el obispo, en un desdeñoso gesto retórico, le preguntó a Huxley si creía ser un mono a través de su abuelo o de su abuela. Nadie registró las palabras exactas de Huxley, pero quedó el sentido general de sus palabras: no se avergonzaba de tener un mono como ancestro, pero sí se avergonzaría de estar emparentado con un hombre que usaba sus grandes dones para oscurecer la verdad científica.

Thomas Henry Huxley había nacido el 4 de mayo de 1825, el séptimo de ocho hijos en una familia de recursos limitados. Su padre, profesor de matemáticas, no pudo darle escuela al joven Thomas, quien procedió a obtener una impresionante educación autodidacta que le permitió a los 15 años comenzar a ser aprendiz de médico y pronto ganarse una beca para estudiar en el mítico hospital de Charing Cross. Seis años después, Huxley embarcaba como cirujano asistente en el "Rattlesnake", una fragata de la marina destinada a cartografiar los mares que rodeaban a Australia y Nueva Guinea.

Durante el viaje, que le resultó enormemente penoso por las condiciones de las embarcaciones de la época, se ocupó en recoger y estudiar diversos invertebrados marinos, enviando periódicamente los resultados de sus observaciones por correo a Inglaterra, de modo que cuando volvió a casa tras cuatro años de viaje, ya se había ganado un lugar entre la comunidad científica y empezó a dedicarse a la divulgación y a la educación.

Después de la aparición de "El origen de las especies", dedicó buena parte de su trabajo a dar conferencias sobre la evolución, además de trabajar en paleontología y zoología práctica, y fue presidente de la Asociación Británica para el Avance de las Ciencias y de la Real Sociedad londinense. Pero fue también un divulgador convencido de que la ciencia se podía explicar a cualquier persona y un escéptico que no admitía ninguna idea sin bases sólidas, demostraciones y pruebas, fuera una proposición metafísica o la teoría de su amigo Darwin.

Murió en 1895 como uno de los más reconocidos científicos británicos de su época.

Cambiar de forma de pensar de acuerdo a los datos

Huxley estaba originalmente convencido de que no había cambios evolutivos, pensando que en el registro fósil se hallarían los mismos grupos de seres de la actualidad. Pero los datos que aportaba la realidad, desde el registro fósil hasta los estudios de Darwin, lo llevaron incluso a decir "Qué estúpido fui de no haberlo pensado".

Para 1859, Huxley estaba convencido de que las especies evolucionaban, pero dudaba que esto ocurriera mediante una sucesión de pequeños cambios, el llamado "gradualismo" que estaba en la base de la teoría de Darwin, y así se lo hizo saber. Pensaba que una especie podía aparecer completamente identificable a partir de una anterior sin pasos intermedios. Aún así, se vio impactado por "El origen de las especies".

El 23 de noviembre de 1859, al día siguiente de terminar de leerlo, le escribió una entusiasta carta a Charles Darwin que decía, entre otras cosas que aunque habrá perros callejeros que ladrarán y chillarán, "debe recordar que algunos de sus amigos como sea están dotados con una cantidad de combatividad (aunque usted la ha reprendido con frecuencia y de modo justo) pueden defenderlo con eficacia", para terminar diciendo "Me estoy afilando las garras y el pico para prepararme".

Darwin no era hombre de deabtes y enfrentamientos, de controversias y duelos verbales. Huxley, sin embargo, era un polemista brillante, agudo (demasiado agudo, llegó a decir Darwin) y que disfrutaba del enfrentamiento, así que se lanzó sin más a confrontar a los muchos detractores de Darwin.

Curiosamente "El origen de las especies" Darwin no había mencionado al ser humano que había sido centro del debate de Oxford. Aunque la inferencia era obvia, la había omitido, quizá ingenuamente, para no causar demasiado revuelo.

Fue, sin embargo, Huxley quien publicó en 1863 el primer libro que aplicaba los principios de la evolución a los orígenes de la especie humana, "Evidencia del lugar del hombre en la naturaleza". Algunos grandes científicos como Richard Owen, fundador del Museo Británico de Historia Natural y antievolucionista, habían afirmado que el cerebro humano contenía partes que no estaban presentes en otros primates, pero Huxley y sus colaboradores demostraron que anatómicamente no había prácticamente diferencias entre los cerebros humanos y los de otros primates.

Quizá la pasión y dedicación de Huxley, hicieron que se le distinguiera por encima de otros brillantes defensores de los descubrimientos de Darwin, como Joseph Dalton Hooker, el primer científico reconocido que había apoyado a Darwin públicamente apenas un mes después de la publicación de "El origen de las especies", y que también participó en el debate de Oxford, además de ser amigo, confidente y primer lector crítico de los manuscritos de Darwin.

Así, pese a que la relación entre Huxley y Darwin no estuvo exenta de roces, sus nombres quedaron unidos en la defensa de una idea esencial, aunque los detalles quedaran aún por definirse conforme avanzaba el conocimiento. Quizá parte de su sano escepticismo se vio satisfecho cuando un año antes de su muerte se enteró de que había sido descubierto el fósil entonces llamado "hombre de Java", hoy clasificado como Homo erectus, ancestro de nuestra especie.

Una familia singular

El zoólogo autodidacta Thomas Huxley fue la raíz de una familia de gran relevancia en el mundo de las ciencias y las letras. Su hijo Leonard Huxley fue profesior y biógrafo, entre otros, de su propio padre. Entre sus nietos destacan Julian Huxley, biólogo, divulgador y primer director de la UNESCO; Andrew Huxley, biofísico ganador del Premio Nobel en 1963, y Aldous Huxley, poeta y escritor autor de "Un mundo feliz". El más conocido descendiente de Huxley en la actualidad es Crispin Tickell, diplomático, ecologista y académico británico que es tataranieto del genio.

La ciencia de lavar las cosas

Jabones, arcillas, detergentes, aceites, ceniza... el ser humano ha hecho un continuo esfuerzo por mantenerse limpio creando en el proceso tecnologías e industrias diversas.

Jabones artesanales a la venta en Francia. Los antiguos
métodos de fabricar jabón siguen siendo válidos.
(Foto CC/GFDL de David Monniaux,
vía Wikimedia Commons)
Lavar la ropa, y lavarnos a nosotros mismos, parece una tarea bastante trivial. Agua, un poco de jabón o detergente, frotar o remover y la grasa, la suciedad y los desechos se van por el desagüe.

De hecho, a veces basta un chorro de agua para quitarnos, por ejemplo, el barro de las manos, dejándolas razonablemente limpias.

Pero cuando lo que tratamos de eliminar son grasas, el agua resulta bastante poco útil. El idioma popular por ello se refiere a cosas o personas incompatibles como "el agua y el aceite". Y aunque tratemos de mezclarlos agitándolos, no conseguiremos disolver el aceite en agua porque es un compuesto de los llamados hidrofóbicos, que repelen el agua, a diferencia de los que se mezclan con ella, los hidrofílicos.

Para unirlos necesitamos ayuda. Lo que llamamos jabón, o alguno de sus parientes cercanos, que son sustancias llamadas surfactantes porque reducen la tensión superficial de los líquidos.

Las moléculas de los surfactantes tienen dos extremos: una cabeza hidrofílica y una cola hidrofóbica. Los surfactantes forman diminutas esferas con un exterior hidrofílico y un centro hidrofóbico en el que se atrapan las grasas y aceites para poder ser enjuagados. Es la magia química que ocurre todos los días cuando fregamos los platos o lavamos la ropa y vemos cómo el aceite se disuelve en el agua gracias al detergente.

De hecho, parece muy afortunado que en un universo pletórico de suciedad, grasas, aceites, pringue y polvo, exista una sustancia capaz de lograr esta hazaña, convertida en puente entre lo que nos molesta y el agua que puede librarnos de ello.

Es de imaginarse que desde el invento de los textiles, o quizá desde que el hombre confeccionó sus primeras prendas con pieles, se buscó la forma de eliminar la suciedad. No tenemos informes de cuál era el equivalente de la lavadora para los hombres de antes de la era del bronce, pero la evidencia más antigua que hemos encontrado hasta ahora referente al jabón se halló en unas vasijas de barro babilónicas que datan del 2.800 antes de nuestra era, que contenían una sustancia similar al jabón, e inscripciones que muestran una receta básica para hacerlo hirviendo grasas con cenizas.

Pero no sabemos si los babilónicos usaban el jabón para lavarse o para otros fines, por ejemplo como fijadores del cabello. Sí sabemos, gracias a un papiro del 1550 a.N.E. llamado Ebers, que los antiguos egipcios mezclaban aceites animales y vegetales con diversas sales alcalinas para producir un material similar al jabón que se usaban como medicamento para la piel, pero también para lavarse.

A cambio, los griegos se bañaban sin jabón, utilizando bloques de arcilla, arena, piedra pómez y cenizas, para luego untarse el cuerpo de aceite y quitárselo con una herramienta llamada estrígil, mientras que la ropa se lavaba con cenizas, que tienen cierta capacidad de eliminar las grasas.

Diversas arcillas tienen también propiedades surfactantes y se han utilizado para lavar textiles. En los batanes de tela antiguos se solían utilizar lodos de distintas arcillas para agitar en ellos las telas y enjuagarlas. Al eliminar la arcilla, ésta se llevaba la grasa, la suciedad, los olores y los restos indeseables.

Según el historiador Plinio el Viejo, los fenicios del siglo VI a.N.E. hacían jabón con sebo de cabra y cenizas. Los romanos por su parte utilizaban orina como sustituto de la ceniza para fabricar jabón, que se usaba ampliamente en todo el imperio, aunque algunos seguían usando el aceite de oliva por distintos motivos. Por ejemplo, el sudor con aceite de oliva que los gladiadores más famosos se quitaban con el estrígil se vendía al público como hoy se pueden vender souvenirs de atletas o estrellas musicales.

La palabra "jabón" en sí se origina, según Joan Corominas, en la palabra latina "sapo", que procede del germánico "saipón", nombre que distintos grupos supuestamente bárbaros daban al jabón, que producían a partir de grasas animales y cenizas vegetales.

Otra opción de limpieza eran unas veinte especies de plantas que hoy conocemos como "saponarias" y que contienen una sustancia, la saponina, que produce espuma cuando se agita en el agua. Se han utilizado como jabón o como ingredientes del jabón en distintos momentos de la historia.

Pero el jabón era caro y su producción compleja. Hasta fines del siglo XIX no estaba al alcance de las grandes mayorías. Nuevos métodos de producción descubiertos por los químicos franceses Nicholas LeBlanc, primero, y Michel Eugene Chevreul después, redujeron notablemente el precio de producción del jabón.

De hecho, Chevreul fue quien explicó la naturaleza química del jabón, que hoy podemos definir como sales de ácidos grasos, que se producen debido un proceso conocido precisamente como "saponificación" y que ocurre cuando un aceite o grasa se mezcla con una sustancia fuertemente alcalina (como la ceniza o la lejía). Al hervirse juntos, de las grasas se descomponen, se separan en ácidos grasos y se combinan con la sustancia alcalina en una reacción química que produce jabón y glicerina.

No hubo más novedades en el jabón salvo por refinamientos en su producción, añadiendo perfumes, haciéndolo más suave (para el cuidado personal) o más fuerte según las necesidades, quitando la glicerina en todo o en parte, usando distintos tipos de grasas y álcalis.

Después de la Primera Guerra Mundial, la escasez de grasas utilizadas para fabricar jabón en Alemania estimuló la creación, en 1916, de los detergentes artificiales comerciales, sobre los cuales se había estado experimentando desde mediados del siglo XIX en Francia.

El detergente, como todo nuevo desarrollo, tiene sus desventajas. Desde que se generalizó su uso en la década de 1940, se convirió en un problema ecológico relevante, principalmente porque sus componentes permanecían en el medio ambiente. A partir de la década de 1970 surgieron los detergentes biodegradables, que resolvían parte del problema pero causaban otros debido a la presencia de fosfatos. Actualmente empiezan a extenderse los detergentes sin fosfatos, más amables con el medio ambiente.

¿Funciona mejor con agua caliente?

Todo el que haya tratado de fregar platos o ducharse con agua fría sabe que los jabones y detergentes funcionan mejor con agua caliente. Esto se debe a que la alta temperatura funde las grasas y aceites, ayudando a despegarlos del sustrato. Sin embargo, en los últimos años se han desarrollado detergentes que funcionan perfectamente en agua fría y en lugares como Japón son los más comunes... pero su aceptación ha sido lenta porque estamos convencidos de que con agua caliente lava mejor.

La amenaza de la poliomielitis

Una terrible enfermedad que aún no se ha podido erradicar y contra la que, sin embargo, resulta enormemente sencillo protegernos.

El pabellón de pulmones de acero de un hospital californiano
a principios de la década de 1950.
(foto D.P. de la Food and Drug Administration, vía
Wikimedia Commons)
Imaginemos el pabellón de un hospital ocupado por enormes cilindros de acero, cada uno de ellos conectado a una bomba y ocupado por un niño del que sólo sobresale la cabeza a través de un orificio hermético. La bomba disminuye la presión dentro del cilindro y el pecho del niño se expande, haciendo que inspire. Luego invierte la acción y aumenta la presión, de modo que el pecho del niño se contrae, exhalando. Este ciclo mecánico permite la supervivencia de personas que tienen paralizados los músculos respiratorios.

El aparato, llamado "pulmón de acero" o, más técnicamente, "ventilador de presión negativa", fue la única esperanza de vida para miles de víctimas de las epidemias de poliomielitis que recorrieron el mundo en la primera mitad del siglo XX, la gran mayoría de ellos niños. Para las víctimas de las epidemias ocurridas anteriormente, no había ni siquiera esa esperanza.

Y dado que la mayoría de las víctimas eran menores de edad, principalmente por debajo de los cinco años, y que originalmente la enfermedad se llamaba simplemente "parálisis infantil", se entiende que durante mucho tiempo la sola palabra "poliomielitis" o su versión breve, "polio", fueran causa de terror entre los padres

La poliomielitis es una enfermedad aguda altamente infecciosa provocada por el poliovirus, miembro de la familia de los enterovirus, la cual incluye a más de 60 variedades capaces de provocar enfermedades al ser humano. Entra por la boca o la nariz y se reproduce infectando las células del tracto gastrointestinal para después entrar al torrente sanguíneo y el sistema linfático.

En realidad, el 95% de las infecciones de polio son asintomáticas, es decir, transcurren sin que el paciente tenga ninguna alteración y sólo es detectable mediante análisis.

En el 5% restante, la infección puede causar síntomas leves similares a una gripe. Pero si el virus llega al sistema nervioso, puede provocar una serie de síntomas dolorosos y muy molestos o, en los casos más graves, afectar al cerebro y la médula espinal provocando distintos tipos de parálisis, incluso la respiratoria.

Después de que la infección termina su curso, unos pocos días después de la aparición de los síntomas, la parálisis puede seguir agravándose durante semanas o meses, poniendo en peligro incluso la vida del paciente. Pasado ese tiempo, lo más frecuente es que el uso de los músculos afectados se recupere parcial o totalmente.

Sin embargo, en una de cada 200 infecciones la parálisis es irreversible, y causa la muerte de entre el 2 y el 5% de los niños infectados, y entre el 25 y el 30% de los adultos, principalmente por complicaciones respiratorias y cardiacas.

La enfermedad toma su nombre precisamente de sus más graves expresiones, pues proviene de las raíces griegas "gris" (polio), "médula" (myelos) e "itis" (inflamación), es decir, inflamación de la materia gris de la médula espinal, que es lo que provoca la parálisis.

Una vez que se ha declarado la enfermedad, la única opción que tienen los médicos es ofrecer alivio a los síntomas y tratar de evitar complicaciones mientras la infección sigue su curso. No hay cura, no hay tratamiento, no hay más opción que esperar.

Las epidemias y la derrota de la polio

Aunque hay menciones a lo largo de toda la historia de enfermedades que podrían identificarse con la poliomielitis. Así, una estela de la XVIII dinastía egipcia muestra a a un hombre con una pierna escuálida y ayudándose de un bastón. Podría ser un caso de polio, pero es sólo una conjetura.

La primera descripción de la enfermedad la realizó en Inglaterra, en 1789, el médico Michael Underwood. En los siguientes años se vivirían epidemias de polio en distintos países europeos. Los primeros casos bien documentados se dieron en los países escandinavos en la segunda mitad de ese siglo, que fue también cuando por primera vez se detectó la afección en los Estados Unidos.

El siglo XX fue el de las grandes epidemias en todo el mundo. En la de 1916, por ejemplo, quedó paralítico casi totalmente de la cintura para abajo el que sería presidente de los Estados Unidos durante la Segunda Guerra Mundial, Franklin Delano Roosevelt. Pero la mayor epidemia internacional alcanzó cotas sin precedentes en la década de 1950. En 1952 se reportaron casi 60.000 casos en Estados Unidos, con más de 20.000 casos de parálisis y más de 3.000 fallecimientos. En España, en 1958, llegaron a reportarse más de 2.000 casos que dieron como consecuencia más de 300 muertes.

La preocupación por la epidemia llevó en 1954 a la creación de la primera vacuna contra la polio, desarrollada en Estados Unidos por Jonas Salk. Le siguió la más perfeccionada vacuna de Albert Savin y, finalmente, la vacuna trivalente que se administra en la actualidad

El mundo se empeñó en una campaña de erradicación de la polio mediante la vacunación con un éxito extraordinario. Las tasas de incidencia de la enfermedad cayeron de media un 90% un año después del inicio de las campañas de vacunación. Los 350.000 casos que se reportaron mundialmente en 1988 se redujeron a tan solo 1.352 en 2010.

El último caso de polio natural en Estados Unidos ocurrió en 1979. Los pocos casos posteriores se deben a personas no vacunadas que han estado expuestas al virus mediante los países donde la enfermedad sigue siendo endémica. En España, la enfermedad fue erradicada en 1988.

Por desgracia, la poliomielitis sigue siendo endémica en Afganistán, Nigeria y Pakistán. Y según informa la Organización Mundial de la Salud, entre 2009 y 2010 la polio se reintrodujo mediante contagio desde estas zonas en otros 23 países donde ya se consideraba erradicada.

La amenaza es tal que resulta imperativo que los niños de todo el mundo sigan vacunándose. Mientras haya lugares donde exista el virus de la poliomielitis y vivamos en un mundo donde las personas y los bienes se trasladan globalmente con una facilidad sin precedentes, la amenaza no ha desaparecido. Aunque sus terribles secuelas no sean tan evidentes en nuestra sociedad. Mejor no olvidar.

Famosos y polio

Muchos personajes conocidos que nacieron durante la epidemia de los años 50 sufrieron poliomielitis y, en su mayoría, se recuperaron sin secuelas notables. Tal es el caso de actores como Donald Sutherland, Alan Alda o Mia Farrow (quien pasó un tiempo en un pulmón de acero), el director Francis Ford Coppola, el escritor de ciencia ficción Arthur C. Clarke o el músico de rock Neil Young. Otros, sin embargo, viven aún hoy con las consecuencias de su enfermedad infantil, como Itzhak Perlman, uno de los más aclamados violinistas clásicos actuales, quien se ve obligado a tocar sentado pues sólo puede mantenerse en pie con muletas.

Los asombrosos rayos inexistentes

Una de las bases del método científico es que sus experimentos son reproducibles, que cualquiera puede llegar a los mismos resultados a partir del mismo método. Cuando esto no ocurre, suenan las alarmas.


Robert Williams Wood, el
desenmascarador de los "rayos N"
(fotografía del Dominio Público)
El descubrimiento de los rayos X realizado por Wilhelm Conrad Roentgen en 1895 sacudió al mundo más allá de los espacios donde los científicos trabajaban en los inicios de la gran revolución de la física de fines del siglo XIX y principios del XX.

Esto se debió no sólo al descubrimiento en sí, sino a la difusión de una fotografía tomada unos días después con rayos X por Roentgen, donde la mano de su esposa mostraba con claridad sus huesos y la alianza matrimonial. Por primera vez que se podía ver así el interior del cuerpo humano y el público se unió en su fascinación a los científicos.

Uno de los entusiastas del trabajo subsecuente con los rayos X fue el notable científico francés René Prosper Blondlot, que ya había alcanzado notoriedad al medir la velocidad de las ondas de radio de distintas frecuencias, demostrando que era igual a la velocidad de la luz y confirmando así experimentalmente la visión de James Clerk Maxwell de que luz, magnetismo y electricidad eran manifestaciones de la misma fuerza: la electromagnética.

Habiendo además recibido tres premios de la Academia de Ciencias de Francia, Blondlot empezó a trabajar con rayos X. Mientras intentaba someterlos a polarización, en 1903 reportó haber descubierto otros rayos totalmente diferentes, a los que llamó "N" en honor de su ciudad natal, Nancy, en cuya universidad además trabajaba.

En poco tiempo, muchos otros científicos estaban estudiando los rayos N siguiendo las afirmaciones de Blondlot.

Los rayos X se habían detectado mediante mediciones y sus efectos eran espectaculares, como lo demostraba la fotografía de Anna Bertha Roentgen, eso que hoy llamamos una "radiografía". Pero los rayos N no se detectaban así. Era necesario ver un objeto en condiciones de oscuridad casi total y entonces, al surgir los rayos N, se veía mejor. Por ejemplo, una pequeña chispa producida por dos electrodos, cuya intensidad aparentemente aumentaba en presencia de los rayos N.

Irving Langmuir, ganador del Premio Nobel de Química, mencionaba otro procedimiento para producir rayos N: se calentaba un alambre en un tubo de hierro que tuviera una abertura y se ponía sobre ésta un trozo de aluminio de unos 3 milímetros de espesor, y los rayos N saldrían atravesando el aluminio. Al caer sobre un objeto tenuemente iluminado, éste podía verse mejor... según Blondlot y sus seguidores.

Dicho de otro modo, la presencia o ausencia de los rayos N se detectaba sólo subjetivamente, de acuerdo a la percepción del experimentador.

Y, sobre esta base, en poco tiempo se desató una verdadera locura de los rayos N, con cada vez más afirmaciones cada vez más extravagantes. Blondlot afirmaba que los rayos N atravesaban una hoja de platino de 4 mm de espesor, pero no la sal de roca, que podían almacenarse en algunos materiales, que una lima de acero templado sostenida cerca de los ojos permitía que se vieran mejor las superficies y contornos "iluminados" por los rayos N. Y afirmó haber descubierto los rayos N1, que en lugar de aumentar la luminosidad, la disminuían. Sus experiencias implicaban prismas y lentes hechos de materiales no ópticos, que usaba para refractar y difractar los rayos N.

Un biofísico, Augustin Charpentier, produjo una abundante serie de estudios sobre los rayos N, llegando a publicar siete artículos científicos en un solo mes. Entre sus descubrimientos, que los conejos y las ranas emitían rayos N, y que éstos aumentaban la sensibilidad de la vista, olor, sabor y audición en los humanos. Se afirmó que tenían propiedades terapéuticas, e incluso que los rayos N emitidos por la materia viviente eran distintos de alguna manera y se bautizaron como "rayos fisiológicos".

Pero no todo era entusiasmo.

Apenas un mes después de la publicación original aparecieron informes de científicos que no podían replicar o reproducir los experimentos de Blondlot, algo que fue más frecuente mientras más extravagante se volvía la ola de afirmaciones respecto de estos rayos que, pese a todo, seguían siendo detectados únicamente mediante la vista como variaciones de la luminosidad.

Uno de los científicos que no pudo replicar los resultados de Blondlot fue Robert W. Wood, autor de grandes aportaciones en el terreno de la óptica y la radiación ultravioleta e infrarroja, quien decidió ir a Francia a visitar a Blondlot.

Según el relato de Langmuir, Blondlot le mostró a Wood las fotografías de la variación en luminosidad de un objeto supuestamente por causa de los rayos N. pero Wood pudo determinar que las condiciones en que se habían tomado las fotografías eran poco fiables. Luego le mostró cómo un prisma de aluminio refractaba los rayos N permitiendo ver los componentes de dichos rayos. En un momento de la demostración, en la habitación oscura, Wood quitó el prisma de aluminio del aparato, pese a lo cual Blondlot afirmaba seguir viendo el espectro de rayos N.

Wood quedó convencido de que los rayos N eran un fenómeno ilusorio, un error de percepción que no tenía una contraparte medible real. Wood publicó sus resultados en la revista Nature en 1904 y su artículo fue un balde de agua fría para quienes trabajaban en los rayos N. Hubo intentos adicionales de medirlos con criterios objetivos, detectores y sensores, pero en un año habían desaparecido del panorama científico. Incluso Blondlot dejó de trabajar con ellos aunque, hasta su muerte en 1930, siguió creyendo que eran reales.

Para Irving Langmuir, el caso de los rayos N es ejemplo de lo que llamó, en una conferencia de 1953, "ciencia patológica", aquélla en que "no hay implicada falta de honradez, pero en la cual la gente se ve engañada para aceptar resultados falsos por una falta de comprensión acerca de lo que los seres humanos pueden hacerse a sí mismos para desorientarse por efectos subjetivos, deseos ilusorios o interacciones límite".

Un relato útil para que tanto científicos como público en general seamos cautos ante afirmaciones extraordinarias, aunque provengan de científicos respetados que, como todo ser humano, pueden equivocarse.

Más ciencia patológica

En 1989, los físicos Stanley Pons y Martin Fleischmann afirmaron haber conseguido un proceso de fusión en frío para obtener energía. Nadie pudo reproducir sus resultados, y ambos optaron por abandonar la comunidad científica para seguir trabajando en espacios pseudocientíficos donde nunca pudieron tampoco reproducir sus resultados. Lo mismo ocurrió con la supuesta demostración de Jacques Benveniste de que el agua tenía memoria de los materiales que había tenido disueltos. Pese a todo, hay gente que sigue creyendo en la fusión fría, la memoria del agua... y los rayos N.

Telescopios, gallinas y método científico

Antes de los grandes descubrimientos están los pequeños descubrimientos, los avances técnicos, la realización de todos los elementos, ideas, herramientas y conocimientos necesarios para empezar a hacer ciencia.

(Foto GFDL de Baksteendegeweldige, vía Wikimedia Commons)
Solemos representar al método científico como un ideal preciso de observación, postulado de hipótesis y nuevas observaciones o experimentos para confirmar o rechazar la hipótesis. Pero la realización de un experimento suele exigir un proceso previo que implica resolver gran cantidad de problemas técnicos que en ocasiones se vuelven grandes obstáculos para el avance del trabajo de los expertos.

Así, Galileo Galilei tuvo que diseñar sus telescopios con base en los relatos que llegaban del instrumento fabricado por Hans Lipperschey, conseguir los mejores vidrios, aprender a pulirlos para hacer sus lentes, producir los tubos con distintos materiales y determinar los principios ópticos del funcionamiento de las dos lentes, la curvatura exacta y la distancia ideal, antes de poner el ojo en el instrumento y, eventualmente, descubrir que Copérnico estaba en lo cierto y ser el primero en ver desde las manchas solares hasta las lunas de Júpiter.

Y, por supuesto, está el azar, lo inesperado, los descubrimientos que "no estaban en el guión original", los acontecimientos fortuitos llamados "serendipia", vocablo que llegó al inglés en el siglo XVIII, basado en el cuento de hadas persa "Los tres príncipes de Serendip", (nombre de Sri Lanka en farsi) en el cual los príncipes resuelven los problemas a los que se enfrentan mediante una enorme suerte o "chiripa", palabra que bien podría provenir de la misma "serendip".

Por supuesto, nadie hace un descubrimiento por azar si no está atento a él. En ocasiones un científico desprecia algún dato por considerarlo irrelevante o producto de un error de medición sólo para que otro más alerta revele que dicho dato es fundamental para una explicación.

Estos elementos se reúnen en una historia poco conocida de la biología, un terreno mucho más incierto y pantanoso que el de la astronomía o la física por la enorme variabilidad que tienen los organismos vivientes. El protagonista es Andrew Nalbandov, un fisiólogo nacido en la península de Crimea, refugiado de la revolución soviética y titulado en Alemania, pero que en 1940 trabajaba en la Universidad de Winsconsin como un reconocido biólogo especializado en reproducción que, a diferencia de la mayoría de sus colegas, prefería usar animales de granja como sujetos experimentales en lugar de la omnipresente rata de laboratorio.

El objeto de estudio de Nalbandov era una pequeña glándula endócrina situada en lo más recóndito del cerebro de todos los vertebrados: la hipófisis o pituitaria, que en los seres humanos tiene el tamaño de un guisante y un peso de 0,5 gramos y que, sin embargo, hoy sabemos que es fundamental para muchísimas funciones de nuestro cuerpo mediante la secreción de una gran cantidad de hormonas.

Nalbandov quería estudiar la función de la glándula pituitaria, y para ello desarrolló un diseño experimental que implicaba la remoción quirúrgica de la glándula pituitaria en gallinas, con objeto de observar las alteraciones químicas, biológicas y de conducta de los animales privados de este órgano.

Por supuesto, si la glándula pituitaria es pequeña en los seres humanos, en las gallinas es minúscula, de modo que, antes que nada, el biólogo tuvo que dominar una depurada técnica quirúrgica para extraer la pituitaria de sus animales experimentales.

Pero parecía difícil dominar la técnica. Como Nalbandov le relató a W. I. B. Beveridge, para su libro "El arte de la investigación científica": "Después de que había dominado la técnica quirúrgica, mis aves seguían muriendo y a las pocas semanas de la operación ya no quedaba ninguna". Todos los intentos del investigador por evitar esta mortandad fracasaron estrepitosamente.

Parkes y Hill, investigadores ingleses, habían desarrollado el delicado procedimiento para llegar a la pituitaria a través del paladar suave de las gallinas y extraerla, pero todos sus sujetos experimentales habían muerto. Su conclusión fue que las gallinas no podían sobrevivir sin esta glándula. Pero Nalbandov sabía que otros investigadores trabajaban con mamíferos y anfibios a los que se les había quitado la pituitaria y no sufrían de estos problemas.

Cuando había decidido "resignarse a hacer algunos experimentos a corto plazo y abandonar el proyecto", el 98% de un grupo de gallinas operadas sobrevivió hasta tres semanas, y algunas de ellas hasta 6 meses. Nalbandov concluyó orgullosamente que esto se debía a que su técnica quirúrgica se había perfeccionado finalmente gracias a la práctica y se alistó para emprender un experimento a largo plazo.

Y, entonces, sus gallinas operadas empezaron a morir nuevamente. No sólo las recién operadas, sino las que habían sobrevivido varios meses. Era evidente que la explicación para la supervivencia de las gallinas no estaba en la firme mano del experimentador. Nalbandov persistió en sus experimentos, atento a las variables que podrían marcar la diferencia entre la supervivencia y la muerte, descartando enfermedades, infecciones y otras posibles causas. "Pueden imaginar", escribió Nalbandov, "cuán frustrante era no poder aprovechar algo que obviamente estaba teniendo un profundo efecto en la capacidad de estos animales de sobrevivir a la operación".

Una noche, a las 2 de la mañana, Nalbandov volvía a casa de una fiesta. Al pasar frente al laboratorio notó que las luces del bioterio donde se mantenían sus gallinas y, culpando a algún alumno descuidado, se detuvo para apagarlas. Pocas noches después vovió a ver las luces encendidas y decidió investigar.

Resultó que estaba de servicio un conserje sustituto que prefería dejar las luces del bioterio encendidas para encontrar la salida, pues los interruptores de la luz no estaban junto a la puerta, cosa que no hacía el conserje habitual. Al profundizar en el asunto, Nalbandov pudo determinar que los períodos de supervivencia de sus gallinas coincidían con las épocas en que estuvo trabajando el conserje sustituto.

Nalbandov pudo demostrar rápidamente y con un experimento debidamente controlado que las gallinas que pasaban la noche a oscuras morían, mientras que las que tenían al menos dos horas de luz artificial durante la noche sobrevivían indefinidamente. La explicación química era que las aves en la oscuridad no comían y desarrollaban una hipoglicemia de la que no se podían recuperar, mientras que las que tenían luz comían más y seguían vivas indefinidamente.

Este descubrimiento fue la antesala de docenas de experimentos y publicaciones de Nalbandov que ayudaron a definir la función de la glándula pituitaria, y que se prolongaron durante cuatro décadas de trabajo científico.

La pituitaria

Entre otras muchas funciones, la pituitaria sintetiza y secreta numerosas hormonas importantes, como la hormona del crecimiento humano, la estimulante de la tiroides, la betaendorfina (un neurotransmisor), la prolactina (responsable de más de 300 efectos, entre ellos la producción de leche después del embarazo y la gratificación después del acto sexual), la hormona luteinizante y la estimulante de los folículos, que controlan la ovulación y la oxitocina, que interviene en el parto y en el orgasmo y aún no se comprende a fondo.

La vida en rojo

"Mi sangre es un camino", escribió Miguel Hernández, y el conocimiento del líquido esencial de nuestra vida es también un camino para salvar vidas y comprender nuestro organismo.

Glóbulos rojos o eritrocitos de sangre humana
sedimentados.
(Imagen D.P. de MDougM, vía Wikimedia Commons)
Pese a todo lo que conocemos hoy acerca de la sangre, sigue siendo un material misterioso y singular (al que Isaac Asimov llamó "el río viviente") que no solemos ver salvo en situaciones altamente desusadas y que se ha convertido en un arma fundamental del arsenal médico para salvar vidas.

Para las culturas antiguas, la sangre, que se podía extraer en pequeñas cantidades pero cuyo derramamiento más allá de cierto límite era sinónimo de muerte, tenía siempre un papel relevante en la mitología. Para los antiguos chinos, los seres humanos recibimos nuestra "esencia" del padre mientras que la madre nos da su sangre para vivir. La sangre se identificaba con la imaginaria "fuerza vital", esa creencia común a todas las culturas primitivas que en la India se llama "prana", en occidente "vis vitalis" y en la mitología china "qi".

El valor de la sangre, real y simbólico, era reconocido por todas las culturas. Se consideraba que era un elemento fundamental en la herencia, de modo que hablamos de familiares "de sangre" o de "hermanos de sangre" para implicar que están genéticamente relacionados, e incluso de cierta "pureza de sangre" para significar una imaginaria limpieza genética que pertenece al reino de la ideología y no al de la biología. El Antiguo Testamento dedica atención a evitar que las personas coman sangre (origen de las tradiciones del sacrificio "kosher" judío y el "halal" islámico, ambos destinados a extraer la mayor cantidad posible de la sangre de los animales destinados al consumo humano) por considerar que la sangre es la transmisora de la vida.

Como dato curioso, esta prohibición de comer la sangre de los animales es la justificación que utiliza la iglesia de los Testigos de Jehová desde 1945 para prohibir las transfusiones de sangre a sus adeptos, aunque esto les cueste la vida.

El conocimiento de la sangre ha estado además estrechamente relacionado con el de los órganos y tejidos relacionados con su circulación: venas y arterias, cuyas diferencias descubrió el filósofo griego Alcmeón de Crotona realizando algunas disecciones en el siglo VI a.n.e. y, por supuesto, el corazón y los pulmones.

La sangre está formada por plasma, leucocitos (o glóbulos blancos), eritrocitos (o glóbulos rojos) y plaquetas.

El plasma es un líquido formado en más del 91% por agua, mientras que el resto de su composición incluye distintos elementos. Lleva así proteínas son una reserva nutritiva para las células y también pueden servir como transportadoras de otras sustancias que se vinculan a ellas desde los órganos que las producen hasta las células que los necesitan. Entre esas proteínas está, por ejemplo, el colesterol, y el fibrinógeno, descubierto a fines del siglo XVIII por el anatomista británico William Hewson y que forma la estructura de los coágulos de sangre.

También transporta enzimas, nutrientes para las células de todo el cuerpo, se hace cargo de recoger los desechos del metabolismo celular y llevarlo para su proceso en los riñones y el hígado, del mismo modo en que transporta hormonas desde las glándulas que las producen a los puntos del cuerpo donde ejercen su actividad.

Los leucocitos o glóbulos se dividen en cinco tipos y forman la línea de defensa de nuestro cuerpo, nuestro sistema inmunitario. Los neutrófilos destruyen todo tipo de bacterias que entren al organismo, los eosinófilos destruyen las sustancias capaces de producir alergias o inflamación además de paralizar a posibles parásitos, los basófilos regulan la coagulación de la sangre, los linfocitos destruyen células cancerosas y células infestadas por virus, así como células invasoras diversas, y tienen capacidad de activar y coordinar a otras células del sistema inmunitario; finalmente, los monocitos pueden ingerir organismos patógenos, neutrófilos muertos y los desechos de las células muertas del cuerpo.

Los elementos más característicos de la sangre son, por supuesto, los eritrocitos o glóbulos rojos, que deben su color (como el planeta Marte) a la hemoglobina, por el hierro que contiene, fundamental para transportar oxígeno desde los pulmones a todas las células de nuestro cuerpo y el bióxido de carbono de desecho de las células a los pulmones, para deshacerse de él.

Estas células fueron descubiertas en 1658, por el joven microscopista holandés Jan Swammerdam (curiosamente, años después y ya como científico relevante, Swammerdam ofreció evidencias de que los impulsos para el movimiento de los músculos no se transmitían por medio de la sangre, sino que eran responsabilidad del sistema nervioso).

La ignorancia sobre lo que era la sangre no impidió que en 1667 se realizaran los primeros experimentos de transfusión, en este caso entre terneras y seres humanos, procedimiento que no alcanzó demasiado éxito. Algunas transfusiones entre humanos tuvieron mejor suerte, pero los motivos de las reacciones indeseables no se descubrieron sino hasta 1900, cuando el austriaco Karl Landsteiner descubrió que había tres tipos de sangre, A, B y 0 (cero u "o"), a los que se añadió un cuarto, el tipo AB, en 1902 y que marcaban ciertas incompatibilidades. La sangre tipo 0 puede transfundirse a gente con cualquier tipo; la A sólo a quienes tienen tipo A o AB, la B a quienes tienen B o AB y la sangre AB sólo a quienes tienen sangre AB.

40 años después, Landsteiner también realizó la clasificación de otro rasgo de compatibilidad sanguínea, el "factor Rh", que puede ser positivo o negativo. Y hay al menos otros 30 factores (menos conocidos) de tipología sanguínea que pueden ser importantes para determinar la compatibilidad para transfusiones.

Las transfusiones de sangre entera son poco frecuentes ahora. La práctica común es fraccionar la sangre mediante centrifugación para obtener plasma, eritrocitos, leucocitos y plaquetas y utilizarlos según sean necesarios para distintos casos,.

En la actualidad, una de las grandes búsquedas de la tecnología médica es la producción artificial de sangre, ya sea a partir de células madre o por clonación, para obtener sangre en cantidades suficientes y totalmente libre del riesgo de infecciones (por ejemplo, de hepatitis B o VIH).

Donar sangre

Mientras no haya sangre artificial abundante, barata y segura, la única esperanza de vida y salud de muchísimas personas es que otras donen sangre. Donar no representa ningún riesgo de enfermedad y siempre es necesario, aún si tenemos un tipo de sangre común como 0+ o A+. Nunca, en ningún país del mundo, ha sido suficiente la sangre donada para satisfacer todas las necesidades de atención sanitaria, de modo que es una de las acciones solidarias y altruistas más sencillas y relevantes que podemos realizar.