Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los mensajeros del sistema nervioso

Hace menos de cien años que se identificaron las sustancias químicas gracias a las cuales funciona todo nuestro sistema nervioso y, por tanto, nuestro organismo.

La comunicación sináptica entre dos neuronas
por medio de los neurotransmisores.
(Imagen D.P. de US National Institutes of Health
vía Wikimedia Commons, modificada y
traducida por "Los expedientes Occam")
Era la década de 1880 y Santiago Ramón y Cajal llegaba a una conclusión asombrosa. Las neuronas, las células cerebrales recién descubiertas y a las que el zaragozano había dado nombre, no formaban una red o malla en la que todas estaban interconectadas, sino que cada una transmitía impulsos únicamente en una dirección.

Y, además, lo hacían sin tocarse.

Ramón y Cajal descubrió una separación de entre 20 y 40 nanómetros (millonésimas de metro), en el punto de unión de cada neurona y la célula a la que le transmite los impulsos, ya sea otra neurona, un músculo o una glándula. El misterio era, entonces cómo se realizaba la transmisión de los impulsos en esa unión, llamada por el inglés Charles Scott Sherrington “sinapsis”, palabra griega que significa “conjunción”.

Los fisiólogos y químicos trabajaron para resolver el acertijo y al mismo tiempo explorando las sustancias presentes en el sistema nervioso, basados en dos hipótesis. Según la primera, los impulsos nerviosos se transmitían de modo eléctrico, comunicando un potencial a través de la sinapsis. Según la otra, la transmisión se debía a alguna sustancia química. Los científicos, que trabajaban en estrecha comunicación, se refirieron a este debate como “la guerra de las chispas y las sopas”.

Otto Leowi respondió en parte la pregunta mediante un elegante experimento que, según relataría él mismo, se le ocurrió durante un sueño. Tomó dos corazones vivientes de dos ranas, que se pueden conservar latiendo durante un tiempo en una solución salina tibia, y los colocó en recipientes separados. Uno de los corazones conservaba el nervio vago, que es el responsable de controlar el ritmo cardiaco, mientras que al otro no se le mantenía. Leowi estimuló eléctricamente el nervio vago del primer corazón haciendo que latiera más lentamente. A continuación, tomó parte del líquido en el que estaba sumergido el primer corazón y lo aplicó al recipiente que contenía el segundo corazón. Al estar expuesto al líquido, este segundo corazón también empezó a latir más lentamente.

La única conclusión posible era que se había producido una sustancia en el primer corazón que provocaba que el segundo tuviera la misma respuesta. La transmisión química quedaba demostrada y su publicación en 1921 le valdría a Loewi el Premio Nobel de Medicina o Fisiología en 1936.

Poco después, Loewi pudo demostrar que la sustancia que ralentizaba el corazón de las ranas era, como sospechaba, la acetilcolina, sustancia que había sido descubierta siete años antes por su amigo, el fisiólogo británico Henry Hallet Dale. Era el primer neurotransmisor identificado. Loewi también halló otra sustancia que hacía que se acelerara el ritmo cardiaco, que con el tiempo sería identificada como norepinefrina.

Funcionamiento

Las neuronas están formadas por un cuerpo o soma, una serie de ramificaciones llamadas dendritas que pueden recibir impulsos nerviosos y un axón, una prolongación que es la que transmite los impulsos a las células receptoras: otras neuronas, fibras musculares, glándulas, etc. En las sinapsis con esas células, las ramificaciones del axón cuentan con pequeñas vesículas que, al recibir un impulso nervioso, pueden liberar distintos tipos de neurotransmisores. Estas sustancias químicas ocupan el espacio sináptico y son atrapadas por receptores químicos en la célula receptora, que cambia su actividad en función de éstos.

Cada receptor químico reacciona sólo ante un neurotransmisor, en un mecanismo similar al de una llave y una cerradura. Los receptores de un neurotransmisor como la dopamina sólo reaccionan al capturar dopamina e “ignoran” completamente a todos los demás neurotransmisores que puedan estar en el líquido que ocupa el espacio sináptico.

Hay neurotransmisores “excitadores” que incrementan la actividad en la célula receptora, “inhibidores” que la disminuyen y “moduladores” que pueden cambiar la forma que adopta la actividad de la célula receptora. Y la respuesta de las células a ellos es compleja. Aunque se dice que, por ejemplo, la escasez de serotonina está relacionada con la depresión, esto no significa que consumir o inyectarse serotonina cure la depresión. Cada célula receptora obtiene información de muchos axones, recibiendo una mezcla de neurotransmisores cuyo equilibrio final determina, por ejemplo, si una fibra nerviosa se contrae o no, a qué velocidad, y con qué intensidad. Este cóctel de neurotransmisores con las distintas células de nuestros músculos permite que levantemos un brazo lenta o rápidamente, con fuerza o débilmente. Lo mismo ocurre con las secreciones de todas nuestras glándulas.

En el caso de algunas enfermedades, además, el problema puede ser que las moléculas del neurotransmisor no fluyen de las vesículas del axxón a la célula receptora, sino que fluyen de vuelta a la superficie del axón, interrumpiendo la comunicación.

Poco a poco, la forma de acción y la ubicación de cada uno de los neurotransmisores en distintos puntos del sistema nervioso central y en todo el cuerpo, nos van dando información sobre la causa de muchos trastornos mentales y permiten no sólo crear nuevos medicamentos, sino entender el mecanismo de acción de los que ya tenemos, como los antidepresivos, los ansiolíticos y los antipsicóticos.

Desde la acetilcolina se han descubierto más de 50 neurotransmisores que están presentes en distintos lugares de nuestro sistema nervioso central, y los investigadores siguen encontrando nuevas sustancias que colaboran en la compleja danza que determina cómo el sistema nervioso controla el resto del cuerpo. Apenas en 2011, por ejemplo, se descubría en Barcelona el ácido D-aspártico, un neurotransmisor implicado en el aprendizaje y la memoria.

Como nota curiosa, en la década de 1950 se empezaron a identificar sinapsis eléctricas, primero en cangrejos y después en vertebrados. En la “guerra de las chispas y las sopas” todos tenían razón, aunque el principal medio de transmisión de los impulsos nerviosos sean los apasionantes neurotransmisores.

Las adicciones

Los neurotransmisores nos han ayudado a entender cómo actúan las drogas en nuestro cerebro. Drogas como la cocaína o la metanfetamina aumentan el nivel de transmisión de la dopamina en nuestro cerebro, mientras que los opiáceos actúan imitando los neurotransmisores naturales que conocemos como “endorfinas” o “morfina interna”, eliminando el dolor y aumentando las sensaciones de placer. Se cree, además, que el alcohol actúa interactuando con los receptores del ácido gamma aminobutírico (GABA). Las drogas, pues, son como ganzúas o llaves maestras que engañan a nuestro cerebro simulando ser nuestros neurotransmisores naturales.

La sociedad de la ciencia

La revolución científica consiguió sobrevivir y desarrollarse gracias al trabajo de científicos que decidieron que la colaboración y el intercambio eran más fructíferos que el trabajo en solitario.

Portada de la historia de la Royal Society de 1667
de Thomas Sprat. Francis Bacon aparece a la
derecha. (D.P. vía Wikimedia Commons)
La Royal Society es un club exclusivo que ha tenido entre sus miembros a muchos de los más distinguidos científicos. El químico Robert Boyle y el físico Albert Einstein, el codescubridor del ADN James Crick, Charles Darwin y Richard Dawkins, el descubridor de la penicilina Alexander Fleming e Isaac Newton, el descubridor del oxígeno Joseph Priestley y el filósofo y matemático Bertrand Russell son sólo unos cuantos.

Quizá en todo el mundo no haya una sola institución que a lo largo de los siglos haya reunido a tantas mentes brillantes, más de 8.000. Pero quizá también es justo decir que no hay ninguna otra institución que se haya propuesto los fines que dieron origen a esta venerable sociedad y los haya conseguido durante 350 años.

La sociedad comenzó como un “colegio invisible” informal de filósofos naturales (los que hoy llamamos científicos), que a mediados de la década de 1640 empezaron a reunirse para hablar de la nueva filosofía postulada por Francis Bacon, y que buscaba conocer el mundo natural sometiendo toda idea a contrastación mediante una investigación organizada y metódica a través de la observación y la experimentación.

Bacon mismo había muerto en 1626 de una neumonía que, según la leyenda, contrajo al intentar demostrar experimentalmente que el frío conservaba la carne, rellenando de nieve un pollo durante una tormenta.

Esa “nueva filosofía” habría de conformar la revolución científica que abordaron entusiastas muchos estudiosos. Las primeras referencias al colegio invisible o colegio filosófico se encuentran en cartas escritas en 1646 y 1647 por el químico Robert Boyle, que había estado en Florencia en el momento de la muerte de Galileo, cuya influencia le llevó a intentar estudiar el mundo desde una perspectiva matemática y materialista.

Después de una conferencia del astrónomo y arquitecto Christopher Wren, el 28 de noviembre de 1660, 12 de estos científicos decidieron fundar lo que llamaron “un colegio para la promoción del aprendizaje experimental físico-matemático”. Su objetivo era reunirse una vez por semana para ser testigos de experimentos y comentarlos, bajo el lema “Nullius in verba”, que significa “no aceptes la palabra de nadie”, una forma de indicar que la autoridad y las afirmaciones no tienen valor si no están confirmadas por los hechos y los experimentos.

En una época de comunicaciones lentas e ineficientes, estos revolucionarios del conocimiento encontraban en sus reuniones la oportunidad de conocer nuevos libros, nuevos experimentos, nuevas ideas que ampliaran sus propios trabajos. Así, en su cédula real de 1663, obtenida gracias al apoyo del rey Carlos II, la organización adquiere el nombre de “Real Sociedad de Londres para Mejorar el Conocimiento Natural”.

El nombre, sin duda, sonaba bastante modesto. Y sin embargo, en la institución se dio forma a la ciencia moderna. Su enfoque pionero sería retomado, con mayor o menor exactitud y fortuna, por todas las academias de ciencias que vendrían después.

En 1665, la sociedad publicó su primera revista científica, “Philosophical Transactions”, que sigue siendo hoy la publicación periódica científica más antigua del mundo, y en 1723 estableció su secretaría internacional para establecer y desarrollar relaciones con academias de todo el planeta.

Los problemas que ha abordado la Royal Society no han sido únicamente los relacionados con el avance de cada una de las ramas del conocimiento, como los descubrimientos en física o en química, sino que han estado relacionados con la forma misma de ese conocimiento. ¿Qué es la ciencia? ¿Cuáles son los mejores métodos para abordar distintos temas de estudio, desde la materia hasta las sociedades humanas? ¿Era el ser humano materia de la ciencia en cuanto a su comportamiento individual, como lo analiza la psicología, o su comportamiento social desde el punto de vista de la antropología y la sociología? E incluso, ¿qué estilo de redacción es el más adecuado para comunicar la ciencia?, pregunta cuya respuesta ha dado forma al artículo o paper científico común en la actualidad.

La Royal Society se ocupó de estos temas y, en el proceso, fue evolucionando para ir más allá de ser un instrumento para la mayor gloria de la corona británica, o su aval colonial, para hacerse muchas preguntas que los políticos no se atrevían a hacer.

Los tiempos fueron con frecuencia detrás de la respetable organización. En 1900, una mujer propuso por primera vez que la sociedad aceptara en su seno como miembros de pleno derecho a mujeres “debidamente calificadas”, y la primera propuesta seria se hizo en 1902 para que fuera admitida Hertha Ayrton, ingeniera, matemática e inventora. Sin embargo, según la ley, en su calidad de mujer casada no tenía personalidad legal alguna, y la Royal Society no pudo admitirla como miembro, aunque sí la invitó dos años después a presentar un artículo sobre las ondas en la arena y el agua y le concedió su medalla Hughes en 1906, además de invitarla a presentar dos estudios más, en 1908 y en 1911.

No fue sino hasta 1945 cuando la Royal Society enmendó sus reglamentos para poder admitir a las primeras dos mujeres como miembros: la cristalógrafa Kathleen Lonsdale y la bioquímica Marjorie Stephenson. A la fecha, más de 110 mujeres han sido electas miembros o fellows de la Royal Society.

La Royal Society concede varios premios a sus miembros y a otros científicos. La Medalla Copley se entrega desde 1731 a logros notables en el terreno de la investigación. En 1826, el rey Jorge IV estableció la Medalla Real, otorgada a las más importantes aportaciones al avance del conocimiento natural. Concede desde 1901 la medalla Sylvester a grandes logros matemáticos, y desde 1902 la medalla Hughes que celebra los descubrimientos importantes en las ciencias físicas.

En la actualidad, la Royal Society financia más de 1.600 becas al año para británicos o para extranjeros que desean trabajar en Gran Bretaña, promueve el desarrollo de la ciencia en todo el mundo, especialmente en África.

Aunque sólo fuera por eso

En 1683, en una cena de la Royal Society con Edmond Halley (el del cometa) y Robert Hooke, Christopher Wren ofreció 40 chelines a quien explicara por qué la órbita de los planetas es elíptica y no circular. Para averiguarlo, Halley llamó a un matemático malhumorado pero genial, Isaac Newton, quien encontró la respuesta. Pero para ello hubo de crear el cálculo infinitesimal y escribir una de las obras cumbres de la ciencia, “Principia Mathematica”, que describía las leyes del movimiento universal y la mecánica celeste. Años después, Newton sería presidente de la Royal Society.

Los genes del neandertal... ¿y de usted?

Los neandertales recorrían Europa mucho antes de que nuestra especie saliera de África y se extendiera por el planeta. Sólo por eso serían uno de los más interesantes enigmas de la historia y la biología. Pero hay más.

Cráneo de Homo sapiens moderno a la izquierda comparado
con el de un Homo neardenthalensis.
(Imagen CC, foto de hairymuseummatt alterada por
DrMikeBaxter, vía Wikimedia Commons)
Durante muchos años se creyó que la evolución humana era una línea continua entre nuestro ancestro común con otros primates y nosotros. Pero no es así. A lo largo de los últimos seis millones de años han aparecido varias especies que vivieron al mismo tiempo, algunos fueron nuestros ancestros, otros no. Pero la historia completa de la evolución de las distintas especies relacionadas con el ser humano durante los últimos seis millones de años aún no es clara.

Lo que sí sabemos es que el ser humano apareció como tal hace unos 200.000 años en África. Cualquier Homo sapiens de esa época podría andar tranquilamente por las calles sin que nadie notara nada extraño.

Hace unos 125.000 años, nuestra especie salió de África hacia otros continentes, donde se encontró con otras especies humanas como los recientemente descubiertos Denisovianos y los más conocidos hombres de Neandertal, una especie que fabricaba herramientas, tenía un lenguaje, vivía en grupos sociales complejos, enterraba a sus muertos, cocinaba con fuego e incluso utilizaba adornos, y que vivió durante 300.000 años en Europa, Asia Central y el Oriente Medio.

¿Qué implicó la coexistencia de los humanos actuales con los neandertales en Europa y Asia durante unos 20 mil años?¿Los sapiens y los neandertales convivieron pacíficamente, se enfrentaron con violencia, compitieron o se ignoraron? ¿La desaparición de los neandertales hace 24.000 años estuvo relacionada con el sapiens o, incluso, fue provocada por esta especie? Y, por supuesto, el tema más apasionante para el ser humano, el sexo: ¿hubo relaciones sexuales, intercambio genético, mestizaje entre los sapiens y los neandertales?

Las primeras preguntas quizá puedan ser respondidas cuando obtengamos más evidencia física, excavaciones que puedan ayudarnos a reconstruir, poco a poco, cómo convivieron las dos especies, tan parecidas. La tercera se ha intenta resolver mediante nuestros conocimientos y nuestra tecnología relacionados con la genética.

El genoma neandertal

En 2006 se emprendió un esfuerzo concertado por secuenciar el genoma de los neandertales, un trabajo al frente del cual se puso al biólogo sueco especializado en genética evolutiva Svante Pääbo, director del Departamento de Genética del Instituto Max Planck de biología evolutiva situado en Leipzig, Alemania. Pääbo ya había demostrado, en 1997, con base en el ADN mitocondrial (que procede únicamente de la madre), que nuestra especie se había separado de los neandertales creando dos linajes distintos hace medio millón de años.

Apenas en 2003, se había presentado un boceto completo del genoma humano, que había sido uno de los proyectos más ambiciosos y amplios desarrollados en la biología. Pero para ése se había contado con la aportación de muchos donantes que habían dado muestras de ADN completas, mientras que para el proyecto de Pääbo se contaba con muestras de muy pocas muestras de restos neandertales de Croacia, Rusia, España y el neandertal original descubierto en el siglo XIX en Alemania.

Las muestras presentaban varios problemas. Primero, al paso del tiempo el ADN neandertal se había desintegrado en pequeños fragmentos. Después, en los antiguos huesos se hallaba también el ADN de los muchos microorganismos que habían vivido en en ellos desde la muerte de sus dueños originales. Según Pääbo, más del 95% de algunas muestras era de estos microorganismos. Además, al ser excavados, los huesos se veían expuestos a muchas otras fuentes de ADN, incluidos los investigadores, paleoantropólogos y técnicos que los habían estudiado. El desafío obligó a los científicos a desarrollar nuevas tecnologías para eliminar el ADN extraño e identificar el que era genuinamente del neandertal.

En 2010, el Proyecto del Genoma Neandertal publicó sus primeros resultados en la prestigiosa revista Science secuenciando alrededor de 4 mil millones de pares de bases del genoma neandertal (cada par de bases es un “escalón” de la doble espiral que forma la molécula de ADN.

Una de las más sugerentes interpretaciones del estudio de Pääbo y su equipo fue que entre el 1 y el 4% del ADN de las poblaciones humanas modernas de Europa y Asia era compartido con los neandertales, una cifra mucho mayor que la presente en gente del África subsahariana, lo que apuntaba a la posibilidad de que ambas especies hubieran tenido un intercambio genético.

Otro elemento importante fue la determinación de que el genoma del neandertal y el de los seres humanos actuales son iguales en un 99,7%, donde sólo el 0,03 del ADN explicaría las profundas diferencias anatómicas entre nosotros y nuestros primos. El neandertal carecía de barbilla, su frente se inclinaba hacia atrás a partir de unos pronunciados arcos o toros superciliares, protuberancias del cráneo por encima de los ojos. Igualmente mostraban clavículas más anchas, importantes diferencias respecto de nuestros dientes, buesos de las piernas combados, rótulas de gran tamaño y otros muchos aspectos que harían que un neandertal por las calles del siglo XXI probablemente sí llamaría la atención, por más que lo vistiéramos y peináramos a la última moda.

Pero esto, sin embargo, no era una prueba concluyente. Un estudio de la Universidad de Cambridge, dirigido por el Andrea Manico y publicado en 2012 señaló que el análisis original había sobreestimado la cantidad de ADN compartido con los neandertales, además de no haber tenido en cuenta la variabilidad genética que ya tenían las distintas poblaciones de los ancestros de los humanos modernos en África. Al tomar en cuenta estos aspectos, resulta probable que el ADN compartido proviniera más bien de un ancestro común de ambas especies que habría vivido hace medio millón de años. Pääbo, por su parte, ha realizado otros estudios que está aún por publicar y que, asegura, dan nuevo sustento a su tesis de que hubo un mestizaje sapiens-neandertal.

Mientras se resuelve la controversia, muchos esperan que nuevas excavaciones descubran otras especies humanas que podrían complicar aún más la historia de cómo nos convertirmos en el animal que trata de entender su propio devenir.

Qué nos hizo como somos

Svante Pääbo declaró en 2011 a Elizabeth Kolbert, de la revista New Yorker: “Quiero saber qué cambió en los humanos modernos en comparación con los neandertales, que marcó la diferencia. Qué hizo posible que nosotros construyéramos estas enormes sociedades, y dispersarnos por todo el planeta y desarrolar la tecnología que, me parece, nadie puede dudar que es singular de los humanos. Debe haber una base genética para ello”.

Ver el sonido para estudiarlo

El oído es probablemente el segundo sentido más importante después de la vista. La comprensión del sonido, sin embargo, se desarrolló casi cien años después de los descubrimientos de Newton sobre la luz y la óptica.

Figuras de Chladni en la tapa trasera de una guitarra.
(Foto GFDL de Mrspokito, vía Wikimedia Commons
Era 1500, en los inicios de la revolución científica, cuando Leonardo Da Vinci observó que no había sonido cuando no había movimiento o percusión del aire.

La fascinación de Leonardo por las ondas en el agua y los remolinos de agua y aire es dominante en sus libros de notas, y fue por ello que, viendo las olas que se generaban en la superficie del agua al arrojar una piedra sobre ésta, descubrió que el sonido se comportaba de forma similar, es decir, que se transmitía por el aire en círculos concéntricos sin que éste se moviera, igual que las olas en el agua.

Como con muchos otros aspectos de la realidad, los filósofos griegos se ocuparon de tratar de entender la música y, por extensión, el sonido. En el siglo VI antes de nuestra era, Pitágoras fue el primero en observar que un cuerpo vibratorio genera un movimiento igualmente vibratorio en el aire, que se puede oír y sentir. Describió matemáticamente las armonías que conocemos como intervalos de quinta y de cuarta, y descubrió la relación inversa entre la longitud de una cuerda y su tono, es decir, mientras más corta es una cuerda (y en general la fuente productora de sonido), más aguda es la nota.

El filósofo estoico del siglo III a.n.e., Crisipo de Solos, se aproximó a lo que descubriría Leonardo 800 años después proponiendo que el sonido viaja por el aire del mismo modo en el que la energía viaja a través del agua.

Pero los griegos se interesaron más en las leyes que regían los aspectos prácticos del sonido. Así, su amor por el teatro llevó al diseño de teatros con propiedades acústicas tales que todo el público pudiera escuchar a los actores. Como ejemplo, en Epidauro todavía podemos ver uno de los teatros mejor conservados de la antigüedad, construido en el 350 a.n.e. y cuyo diseño semicircular, una pared detrás del escenario y un graderío con gran inclinación tiene propiedades acústicas que aún nos sorprenden.

El sonido, finalmente, es tan sólo una onda que se difunde por un medio a partir de un objeto que vibra, como nuestras propias cuerdas vocales. Al moverse hacia adelante, el objeto comprime las moléculas del aire frente a él y, al moverse hacia atrás, las expande. La onda resultante, se transmite así por cualquier medio líquido, sólido o gaseoso, aunque nosotros nos interesamos más por la propagación del sonido a través del aire, que es como más usualmente lo percibimos.

La acústica científica

El estudio del sonido encontró a su Cristóbal Colón en el alemán Ernst Florens Friedrich Chladni, nacido en 1756 en Wittenberg. Desde muy joven, Ernst mostró interés por la música y por la ciencia, dos disciplinas que no eran bien vistas en modo alguno por su padre, Ernst Martin Chladni, profesor de leyes en la universidad de la misma ciudad, quien optó por obligar a su hijo a estudiar leyes.

Chladni obtuvo su título de leyes en 1782 en la Universidad de Leipzig, el mismo año que murió su padre, por lo cual no practicó nunca como abogado sino que se dedicó a sus pasiones originales.

Como músico aficionado, Chladni inventó dos instrumentos derivados de la armónica de vidrio, en la que una serie de piezas de cristal giratorias son pulsadas con los dedos humedecidos para provocar su vibración, el mismo principio utilizado por quienes interpretan melodías con copas de vidrio afinadas según la cantidad de líquido en su interior.

Pero su interés en la ciencia del sonido lo llevó de vuelta a las primeras observaciones de Pitágoras. Si un cuerpo que vibra provoca el sonido, ¿qué pasa cuando hacemos vibrar un cuerpo determinado?

Para averiguarlo, Chladni utilizó placas metálicas y de vidrio recubiertas de arena que hizo vibrar pasando por sus bordes un arco de violín. El asombroso resultado es que las vibraciones provocan que la arena se acumule en patrones simétricos, conocidos como “figuras de Chlandi”, que permiten ver las vibraciones de las ondas sonoras en un cuerpo sólido. Publicó los resultados de sus experimentos en 1787 atrayendo la atención de la sociedad europea de su época. Aprovechó este interés para empezar una serie de viajes por Europa en los que se presentaba en público para interpretar música en sus instrumentos y a demostrar las figuras de Chladni.

Como él mismo lo hacía notar, aunque desde tiempos de los griegos se había llegado a una sólida comprensión de cómo una cuerda que vibra produce sonido, no se sabía prácticamente nada de cómo lo producían las placas sólidas.

Al vibrar una placa, desplaza la arena en su superficie, que se acumula en las zonas donde no hay movimiento, llamadas “curvas nodales”. Las curvas varían en función del material del que está construida la placa y de la forma de ésta.

Chladni también estudió las vobraciones de varillas cilíndricas y en forma de distintos prismas. El análisis d el tono de varillas de distintas longitudes le permitió deducir la velocidad del sonido en los sólidos. Después experimentó llenando instrumentos de viento con distintos gases y utilizando los tonos que producían para determinar la velocidad del sonido en dichos gases. Sus estudios ampliados se publicaron en el libro Die Akustik (la acústica) de 1802.

Chladni era, además, un excelente experto en relaciones públicas. Sus viajes le permitieron conocer a grandes personajes de la europa del siglo XIX como Goethe o el matemático Laplace, mientras que sus demostraciones ante Napoleón en 1808 hicieron que éste ordenara que se realizara la traducción al francés de Die Akustik.

El trabajo de este pionero no fue solamente valioso para la ciencia. Hoy en día es común que durante la fabricación de instrumentos con caja de resonancia como los violines o las guitarras acústicas las tapas se sometan a vibraciones para determinar sus propiedades acústicas según las figuras de Chladni que forman. Las características de muchos instrumentos que nos deleitan proceden así del trabajo del hombre que no quiso ser abogado.

“Vienen del cielo”

Ernst Chladni fue también un entusiasta y coleccionista de meteoritos. Consultando diversos documentos, postuló que las bolas de fuego que se podían ver en el cielo y los meteoritos que se podían encontrar en tierra eran lo mismo. Aunque la opinión de los más racionales se inclinaba por creer que los meteoritos eran objetos lanzados por volcanes u otros fenómenos terrestres, en un folleto de 1794 Chladni propuso que, dada la velocidad de las bolas de fuego, debían provenir del espacio exterior. Pasaron 10 años para que, gracias a los estudios de otros científicos, se aceptara generalmente el origen extraterrestre de los meteoritos.

Los tipos duros del musgo

Han ido al espacio, los han congelado, los han bombardeado con radiación, desecado y hervido... después de lo cual siguen viviendo y reproduciéndose. Son los genuinos tipos duros de la evolución.

Un tardígrado adulto.
(Foto CC de Goldstein lab, vía Wikimedia Commons)
En la mitología popular, las cucarachas son los únicos animales que sobrevivirían a una guerra nuclear y son, por tanto, los campeones de la resistencia.

No es así.

El mito, nacido de la idea de que algunas cucarachas habían sobrevivido a las explosiones nucleares de Hiroshima y Nagasaki (como sobrevivieron otros seres vivos, incluidas muchas personas, los “hibakusha”, o “gente afectada por la explosión”), fue retomado y difundido por los activistas contra las armas nucleares en las décadas de 1960 y 1970.

El Comité Científico de Naciones Unidas sobre los Efectos de la Radiación Atómica ha determinado que las cucarachas pueden soportar dosis de radiación 10 veces superiores a la que mataría a un ser humano, 10.000 rads. Pero las humildes moscas de la fruta, las drosofilas, soportan casi 64.000 rads, y la avispa Habrobracon puede sobrevivir a 180.000 rads. A nivel unicelular, la bacteria Deinococcus radiodurans queda al frente soportando 1,5 millones de rads. (Por comparación la bomba de Hiroshima emitió rayos gamma a una potencia de unos 10.000 rads, y las bombas que hoy conforman los arsenales nucleares son miles de veces más potentes.)

Pero la supervivencia a la radiación es sólo uno de los elementos que forman a lo que podríamos llamar una especie de “tipos duros”. En general, los animales sólo podemos sobrevivir en una estrecha franja de temperaturas, presión, humedad, radiación y otros factores.

El caso excepcional, los campeones de resistencia en todos estos puntos, incluida la supervivencia a la radiación son unos diminuto seres llamados tardígrados, parientes tanto de los nematodos o gusanos redondos como de los artrópodos o seres con exoesqueleto.

Estos minúsculos invertebrados, llamados también osos de agua, pueden medir entre 0,05 y 1,5 milímetros y viven en entornos acuáticos o en zonas húmedas en tierra, como los lugares donde se cría el musgo.

Los tardígrados tienen un peculiar aspecto rechoncho, con cuatro pares de patas terminadas en largas garras. Su cuerpo está recubierto por una capa de cutícula que contiene quitina, proteínas y lípidos, y que debe mudar mientras crece, a través de la cual respiran.

Estos minúsculos seres tienen una anatomía muy compleja. Cuentan con manchas oculares cuya capacidad sensorial aún está siendo estudiada, un sistema nervioso con un pequeño cerebro, un aparato digestivo y un complejo aparato bucal que junto con las garras diferencia a las más de 1.000 especies de tardígrados que se han descrito hasta la fecha, y que varían según su alimentación: bacterias, líquenes, musgos, otros animales microscópicos e incluso, en algunas especies, otros tardígrados.

Algunas especies se reproducen mediante partenogénesis cuando escasean los machos, otras son hermafroditas que se autofertilizan y las hay donde machos y hembras se reproducen sexualmente. Y están donde quiera que uno los busque: en los bosques y los océanos, en el Ecuador y en los polos, en el suelo y en los árboles (siempre que haya humedad suficiente).

Todo esto, unido a la larga vida y el corto ciclo reproductivo de estos animales y al curioso hecho de que son seres que mantienen el mismo número de células a lo largo de toda su vida, ha sido responsable de que los científicos utilicen a los tardígrados como modelos para distintos estudios experimentales.

El secreto de la resistencia de los tardígrados es su capacidad de suspender el funcionamiento de su metabolismo ante condiciones adversas, un proceso llamado criptobiosis. En él, asumen un estado altamente duradero y reducido llamado “tun”. Si el animal enfrenta temperaturas demasiado bajas, por ejemplo, al formarse el tun se induce la producción de proteínas que impiden que se formen cristales de hielo, que son los que destruyen las células. Si enfrenta una situación de falta de agua, se encoge y deja salir el agua de su cuerpo. Y si encuentra situaciones de salinidad extrema que puedan sustraerle el agua por ósmosis, también pueden formar un tun.

Suspender el metabolismo significa, para la mayoría de los seres vivos, la muerte. Los tardígrados pueden permanecer en estado de tun hasta que las condiciones normales se restablecen y pueden volver a la vida normalmente. El récord, a la fecha, lo tienen unos tunes que se recuperaron después de 120 años desecados.

Cuando están en estado de tun, pueden sobrevivir hasta 200 horas a una temperatura de –273oC , muy cerca del cero absoluto (–273,15oC9, y hasta 20 meses a –200oC, mientras que en el otro extremo soportan temperaturas de 150oC (el agua hierve a 100oC). También pueden ser sometidos a 6.000 atmósferas de presión (el punto más bajo del océano, el fondo de la fosa de las Marianas, tiene una presión de 1.000 atmósferas, aproximadamente) y soportan altísimas concentraciones de sustancias como el monóxido y dióxido de carbono o el dióxido de azufre, y altas dosis de radiación: 570.000 rads.

Todo lo cual aniquilaría sin más a todos los insectos campeones de la radiación atómica.

Por esto, en 2007, la Agencia Espacial Europea envió al espacio ejempalres de dos especies de tardígrados, en estado de tun. Como parte de la misión BIOPAN 6/Fotón-M3 y a una altura de unos 260 kilómetros sobre el nivel del mar, algunos fueron expuestos al vacío y frío espacial, y otros a una dosis de radiación ultravioleta del sol 1.000 veces mayor que la que recibimos en la superficie de la Tierra.

Los pequeños sujetos experimentales no sólo sobrevivieron, sino que al volver y rehidratarse, comieron, crecieron y se reprodujeron dando como resultado una progenie totalmente normal. Esta hazaña sólo la habían logrado algunos líquenes y bacterias, nunca un animal multicelular.

En 2011, la Agencia Espacial Italiana envió a la ISS otro experimento en el último viaje del transbordador Endeavor, donde estos tipos duros volvieron a demostrar su resistencia a la radiación ionizante.

Dado lo mucho que pueden enseñarnos sobre la vida y la supervivencia, los tardígrados son sujetos, cada tres años de una reunión internacional dedicada a su estudio... un gran simposio para unos pequeños campeones de la resistencia.

Los lentos caminantes

“Tardígrado” quiere decir “de paso lento”. El nombre lo ideó el biólogo italiano Lazaro Spallanzani (descubridor de la ecolocalización en los murciélagos) en 1776 para estos animales, que habían sido descubiertos apenas tres años antes por el zoólogo alemán Johann August Ephraim Goeze. Fue Goeze el que les puso el nombre de “osos de agua” por su aspecto y movimiento. Su incapacidad de nadar y lentitud los distinguen de otros seres acuáticos microscópicos.

Pareto y la maldición de la revista

Dos curiosidades relacionadas con la estadística que, si no se tienen en cuenta, pueden llevarnos a conclusiones erróneas sobre nuestro mundo.

Sports Illustrated hizo referencia en 2001 a la
supuesta maldición de sus portadas.
Sabemos que la economía no es una ciencia, al menos no todavía, pues no puede predecir acontecimientos con un alto grado de certeza con base en leyes y observaciones diversas como lo hacen, por ejemplo, los astrónomos, cuando prevén el ciclo de 11 años de nuestro sol.

Pero la economía tiene algunos logros apasionantes por su peculiaridad, por ejemplo, el que se conoce popularmente como “Ley de Pareto”, aunque, curiosamente, no fue enunciada por Pareto.

Vilfredo Pareto fue un ingeniero, sociólogo, economista y matemático de fines del siglo XIX y principios del siglo XX, que buscó convertir la economía en ciencia mediante la observación, la medición y el análisis estadístico de los datos, pese a entender que la economía tiene una fuerte componente subjetiva debido a las emociones, creencias y demás peculiaridades de los seres humanos.

Pareto estableció el llamado “óptimo de Pareto” como medida de la eficiencia de una economía, por ejemplo la distribución de bienes en una sociedad, que ocurre cuando no se puede mejorar la situación de nadie sin dañar la de otros. Dicho de otro modo, cuando todos los participantes quedan al menos en la misma posición y al menos un participante queda en una situación claramente mejor.

En su intento por entender la riqueza, Pareto estudió la concentración de la riqueza en distintas sociedades y llegó a la conclusión de que en todos los países, los ingresos se concentraban más en las minorías y se iban distribuyendo a lo largo de la sociedad de forma decreciente. Esta ley se expresa coloquialmente como el llamado “principio de Pareto del 20-80”, es decir, más o menos el 20 por ciento de la población de cualquier país tiende a poseer el 80% de la riqueza.

Este principio fue ampliado por el economista Joseph Juran, que se dio cuenta de que el principio era aplicable a otros aspectos de la vida social y económica. Es decir, aunque la proporción puede ser distinta, una pequeña parte de todo esfuerzo para conseguir algo tiende a ser esencial y una gran parte es menos relevante. Juran fue quien lo llamó, “principio de Pareto”.

Aunque no se sabe cuál es la causa de este fenómeno, el principio de Pareto como aproximación general ha demostrado su validez empíricamente una y otra vez. Así, se ha descubierto que más o menos el 20% de los clientes de un negocio son responsables del 80% de sus ventas, o que el 80% de la contaminación está provocado por el 20% de los vehículos.

Una expresión del principio de Pareto fue la causante de la revolución del control de calidad (especialidad de Juran) que han vivido las empresas a partir de la década de los 70, permitiendo a las empresas concentrarse en los defectos o problemas que más ventas les costaban.

La regresión a la media

Entre los deportistas de Estados Unidos existe el mito de “la maldición de Sports Illustrated”, según la cual, cuando un deportista destaca tanto que llega a la portada de esta prestigiosa revista, automáticamente tiende a bajar su rendimiento.

Lo más curioso es que este mito se hace realidad en muchas ocasiones. Tantas que la propia revista hizo referencia a esta “maldición” en 2002, cuando puso un gato negro en la portada afirmando que ningún deportista quería posar para ella.

¿Es verdad que hay una maldición?

En realidad no. Lo que ocurre es que muchos deportistas llegan a la portada de esta revista debido a una serie de logros singulares y fuera de lo común en sus carreras, algo que los estadísticos conocen como un “valor atípico”. Ha superado, pues, su propia media, determinada en algún valor de su deporte: goles anotados, posición en la tabla de tenistas, asistencias en baloncesto o cualquiera otra variable. De pronto, durante una época determinada, el rendimiento sube alejándose de la media, el deportista llama la atención y su trabajo es más notorio, por lo cual la revista Sports Illustrated decide ponerlo en su portada.

Pero, por decirlo de algún modo, todo lo que sube tiene que bajar. O, puesto en lenguaje de los estadísticos, mientras más se aparte una variable aleatoria de su media, mayor será la probabilidad de que esa desviación disminuya en el futuro. O, en otras palabras, un acontecimiento extremo muy probablemente estará seguido de un acontecimiento menos extremo. Esto, para el jugador que durante unos cuantos partidos anotó más goles de los que solía anotar de media, significa que lo más probable es que regrese a su media en los siguientes partidos. O, como dirían los cronistas deportivos, tuvo una racha y se le terminó.

Los estadísticos le llaman a este fenómeno “regresión a la media”, un término bastante claro y que le debemos a Sir Francis Galton, quien lo descubrió estudiando la estatura media de hijos cuyos padres eran extremadamente altos o extremadamente bajos. Lo que descubrió este investigador fue que los hijos de padres muy altos tendían, claro, a ser altos... pero menos que sus padres, mientras que los hijos de padres muy bajitos tendían a ser de también de corta estatura, pero más altos que sus padres (todo esto en términos de poblaciones y grandes números, por supuesto que en casos individuales puede haber, y de hecho hay, excepciones).

La regresión a la media también nos explica fenómenos como el de la concesión de lotería que puede en un momento dar tres o cuatro premios gordos y luego no volver a dar ninguno durante muchos años, como suele ser normal. La regresión a la media también explica, asombrosamente, el alivio que nos pueden proporcionar algunos tratamientos pertenecientes a la pseudomedicina. Cuando hace crisis una enfermedad, afortunadamente, no tendemos a seguir cada vez peores hasta morir, sino que los síntomas (desde estornudos y moqueos hasta dolores de espalda) tienden, salvo excepciones, a volver a su situación anterior. Nuestro cuerpo regresa a su situación de salud media, el curandero se anota el éxito y pagamos la factura sin darnos cuenta de que ahí ha habido tanta relación causa-efecto entre los rituales del curandero y nuestra mejoría como la que hay entre aparecer en Sports Illustrated y caer hasta nuestro nivel habitual como golfistas. O como cualquier cosa que hagamos que nos haya salido bien por puro azar en un par de ocasiones.

No funciona cuando eres muy bueno

Hay deportistas excepcionales cuya media de rendimiento es muy alta. Son “los mejores”. A ellos, así, no les afecta la maldición de Sports Illustrated ni otras supersticiones, pues llegan a la portada por su media de rendimiento y no excepcionalmente. Así, el legendario Michael Jordan apareció 49 veces en la portada sin sufrir ninguna disminución de rendimiento. Lo mismo pasó con Rafael Nadal o Pau Gasol.

Insulina, la molécula de la discordia

Aunque la historia consagra a dos investigadores como los descubridores de la insulina y su uso en humanos, la historia real incluye puntos de vista contrarios, tensiones, desacuerdos e incluso algún puñetazo.

Moderno sistema de inyección de insulina, la única
forma de controlar la diabetes que hay a la fecha
(Foto D.P. de Mr Hyde, vía Wikimedia Commons)
El descubrimiento y uso de la insulina fue un episodio médico espectacular por los profundos y rápidos efectos que tuvo sobre una enorme cantidad de pacientes que sufrían de diabetes, con las atroces expectativas de enfrentar efectos devastadores, como la ceguera, daños graves a los riñones y al corazón, gangrena en las extremidades inferiores, mala cicatrización, úlceras e infecciones, sin contar crisis agudas como la cetoacidosis, una acumulación de sustancias llamadas "cuerpos cetónicos", que se producen cuando el cuerpo metaboliza grasas en lugar del azúcar, que no puede utilizar debido a la falta de insulina. Esta acumulación puede ser mortal en cuestión de horas.

A principios del siglo XX se sabía que los perros a los que se les extraía el páncreas presentaban síntomas similares a la diabetes, que las células del páncreas llamadas "islotes de Langerhans" jugaban un papel importante en la diabetes. Muchos investigadores intentaron preparar extractos de páncreas para tratar la diabetes, pero todos provocaban graves reacciones tóxicas, porque además de producir insulina, el páncreas produce enzimas digestivas y las lleva al tracto digestivo. Las células responsables de las enzimas eran las que causaban las reacciones de los pacientes.

En 1921, el médico canadiense Frederick Grant Banting tuvo la idea de ligar el ducto que va del páncreas al tracto digestivo para degenerar las células enzimáticas manteniendo vivas a las más resistentes de los islotes de Langerhans. Llevó la idea al profesor John James McLeod, de la Universidad de Toronto. Sin demasiado entusiasmo, McLeod le concedió a Banting un pequeño espacio experimental, algunos perros como sujetos experimentales y a un asistente, Charles Best, para que trabajaran durante las vacaciones de verano.

La idea era hacer un extracto del páncreas degenerado e inyectárselo a otro perro al que se le hubiera extraído el páncreas. Pronto aislaron una sustancia a la que llamaron "isletina", por los islotes de Langerhans (en 1922 cambiaron el nombre por "insulina", con la misma raíz etimológica).

La isletina reducía el azúcar en sangre de perros a los que se había extirpado el páncreas. McLeod se negó primero a creer en los resultados y se enfrentó con Banting, para finalmente decidir que debía reproducirse todo el estudio para tener certeza sobre los resultados. Les dio a Banting y Best mejores instalaciones y Banting pidió un salario, amenazando con llevar su investigación a otra institución. McLeod cedió, pero la tensión entre ambos ya nunca desaparecería, máxime porque Banting sentía injusto que McLeod se refiriera al proyecto hablando de "nuestros" experimentos y de "nosotros".

La insulina resultante era exitosa en perros. El éxito fue tal que en diciembre McLeod decidio dedicar todo su departamento de investigación al proyecto de la insulina y reclutó además la ayuda de un bioquímico, Bertram Collip, encargado de buscar formas de purificar la sustancia.

El 11 de enero de 1922 se realizó el primer ensayo en un ser humano. El niño de 14 años Leonard Thompson, que estaba al borde de la muerte por cetoacidosis, recibió la primera inyección de insulina. Además de sufrir una reacción alérgica, no experimentó ninguna mejoría. En una discusión, Collip amenazó con abandonar el equipo y dedicarse a producir insulina independientemente, asegurando que había encontrado un procedimiento y tenía la anuencia de McLeod para guardar el secreto. Banting estalló y, según algunos testimonios, golpeó a Collip derribándolo al suelo.

Los responsables de financiar los trabajos del laboratorio, Connaught Laboratories, intervinieron rápidamente e hicieron que los cuatro implicados firmaran un convenio comprometiéndose a no solicitar ninguna patente o colaboración comercial de modo independiente.

El 23 de enero, los investigadores volvieron a inyectar a Leonard Thompson con un extracto más puro. La reacción que tuvo el adolescente fue asombrosa. Empezó a recuperarse y en sólo un día se redujo la cantidad de azúcar en su sangre, desaparecieron los cuerpos cetónicos y empezó a mostrarse más activo. La espectacularidad de la reacción llevó a los médicos a tratar a otros seis niños el 23 de febrero, todos con resultados positivos, incluso alguno que se recuperó de un coma diabético.

En apenas ocho meses se había pasado de una hipótesis audaz de un médico poco experimentado en el laboratorio a un resultado dramático que pronto fue corroborado por estudios clínicos para determinar los efectos biológicos de la insulina, sus indicaciones y dosis. En menos de un año, la publicación de los resultados dio a conocer al mundo el nuevo tratamiento. La patente que obtuvieron los cuatro por la insulina y el método de obtenerla fue vendida a la Universidad de Toronto por el precio simbólico de un dólar canadiense para cada investigador.

Las disputas entre los investigadores seguirían cuando, en 1923, se concedió el Premio Nobel de Medicina o Fisiología a Frederick Banting y John James McLeod. El primero creía que el premio debería haber sido para su ayudante, Best, con quien de hecho compartió el dinero del premio, mientras que McLeod se enfureció por la exclusión de Collip, con quien él compartió su parte.

En medio de estos enfrentamientos, aparecieron además las reclamaciones de varios investigadores que habían trabajado en el tema de la diabetes. Nicolás Paulescu, de Rumania, había de hecho descubierto la insulina poco antes que Banting y Best. Georg Zuelzer, alemán, aseguraba que su trabajo había sido robado por los investigadores de Toronto. Ernest Lyman Scott exigió reconocimiento por haber realizado experimentos exitosos antes que los canadienses. E incluso fue notable que no se uniera al coro de indignación el bioquímico estadounidense Israel Kleiner, que había estado más cerca del éxito que todos los demás. El debate, que siguió durante todos los años posteriores y no está del todo resuelto aún ahora hace de la insulina uno de los descubrimientos más conflictivos de la ciencia, y muestra también sus peculiares debilidades humanas.

Transgénico para la vida

Primero, la diabetes se trató con insulina de páncreas de cerdos y de vacas, que es similar, pero no idéntica, a la humana, y puede provocar reacciones adversas. En 1978, Herbert Boyer modificó genéticamente bacterias E. coli para que produjeran insulina humana, la llamada "humulina", que además de ser más sostenible resultó más asequible. Hoy en día, la gran mayoría de la insulina que utilizan los diabéticos es producida por estas bacterias transgénicas.

¡Ellos fueron!

Se acaba de lanzar en Amazon, en formato Kindle, el libro electrónico ¡Ellos fueron!, formado por 50 biografías de científicos que se han publicado desde 2006 en la página de ciencia del suplemento "Territorios de la cultura" del diario El Correo, que escribo semanalmente desde 2006 y en este blog.

El libro está disponible en las tiendas de Amazon de España, Estados Unidos, Reino Unido, Francia e Italia,

El libro se dedica en parte a algunos de los más conocidos científicos y algunos detalles poco conocidos de sus vidas, pero también a gente como:

Un pirata cuya obra científica acompañó a Darwin en su viaje en el Beagle...

Una mujer sin cuyo trabajo habría sido imposible descubrir la forma del ADN...

Un mundialmente famoso guitarrista de rock que es doctor en astrofísica...

Un médico húngaro al que muy probablemente usted le debe la vida...

Un paleontólogo que quiso ser rey de Albania...

Un genio de la física que resolvía ecuaciones en clubes de striptease...

Un físico que regaló los derechos del invento que lo habría hecho multimillonario...

El matemático pobre que redescubrió toda la matemática moderna en su infancia...

Y otros 43 personajes peculiares que han participado en la investigación del universo y que han encontrado respuestas que dan forma a nuestra vida cotidiana, nuestro conocimiento, nuestro bienestar, nuestra salud y nuestro futuro.

William Dampier, Ignaz Semmelweis, Francis Bacon, Ambroise Paré, Richard Dawkins, Charles Darwin, María Sklodowska Curie, Leonardo Da Vinci, Isaac Newton, Alan Turing, Nicolás Copérnico, Srinivasa Ramanujan, Zahi Hawass, Konrad Lorenz, Giordano Bruno, Louis Pasteur, Stephen Hawking, Benjamin Franklin, Alexander Fleming, Vilayanur S. Ramachandran, Oliver Sacks, Gregor Mendel, Charles Babbage, Brian May, Bob Bakker, James Maxwell, Santiago Ramón y Cajal, Nicola Tesla, Rosalind Russell, Tim Berners-Lee, Philo T. Farnsworth, Miguel Servet, Ferenc Nopcsa, Harvey Cushing, Alberto Santos Dumont, Mateo Orfila, Niels Bohr, Bertrand Russell, Christiaan Barnard, Carl Sagan, Richard Feynman, Andreas Vesalio, Patrick Manson, Alfred Russell Wallace, John Snow, Wernher von Braun, Alexander Von Humboldt, Claude Bernard, Thomas Henry Huxley y Peter Higgs

El científico como conejillo de Indias

El científico no sólo es el frío y acucioso registrador de la realidad que investiga. En ocasiones, es el protagonista, el escenario, estudiándose a sí mismo.

La molécula del LSD creada por Hofmann
(Imagen D.P. de Benjah-bmm27,
vía Wikimedia Commons)
El 19 de abril de 1943, el químico suizo Albert Hofmann decidió tomar una dosis de 250 microgramos de una sustancia que había sintetizado en 1938, contratado por la empresa farmacéutica Sandoz... y tuvo la primera experiencia o "viaje" de LSD de la historia. Hofmann trabajaba con el ácido lisérgico, una sustancia producida naturalmente por el hongo conocido como cornezuelo, explorando sus posibilidades como estimulante de la circulación y la respiración. Su trabajo consistía en explorar distintos compuestos a partir de esa sustancia. El sintetizado en 1938 era el LSD-25 o dietilamida de ácido lisérgico.

Tres días antes, el 16 de abril, Hofmann había absorbido accidentalmente una pequeña cantidad de LSD-25 a través de la piel de los dedos, al parecer por un descuido de laboratorio. La experiencia que tuvo a continuación lo impulsó a experimentar en sí mismo consumiendo una cantidad de LSD-25 que luego se descubrió que era tremendamente alta. Pasó por una etapa de pánico y paranoia seguida de placidez y euforia. Había nacido la era de la psicodelia, y su descubrimiento sería uno de los signos distintivos de la contracultura hippie. Por desgracia, el uso recreativo del LSD llevó a que se prohibiera y se impidiera que se estudiara como droga psiquiátrica, que era el destino que Hofmann imaginaba para lo que llamó "mi hijo problemático", el LSD.

El de Hofmann era un caso más entre los muchos científicos que, en un momento dado, han optado por utilizarse a sí mismos como sujetos experimentales, antes que emplear a animales o a voluntarios.

Algunos casos resultan menos cinematográficos que el de Hofmann, pero mucho más dramáticos.

En 1922, el entomólogo estadounidense William J. Baerg intentaba determinar si las arañas conocidas como "viudas negras" y que están extendidas por todo el mundo eran venenosas para el ser humano. Después de ver el efecto del veneno en ratas, se hizo morder por una de sus arañas, pero sin sufrir más que un dolor agudo. Convencido de que la mordedura había sido demasiado superficial, al día siguiente se dejó morder durante cinco segundos. A lo largo de los siguientes tres días, Baerg sufrió los terribles dolores y reacciones del veneno, y los anotó para un artículo que publicó en 1923 en una revista de parasitología.

A partir de entonces, la práctica de dejarse morder por distintos arácnidos fue parte normal de las investigaciones de Baerg, pese a lo cual vivió hasta los 95 años.

Siguiendo sus pasos, el profesor Allan Walker Blair se hizo morder por una viuda negra doce años después, permitiendo que le inyectara veneno durante diez segundos, lo cual lo mantuvo varios días al borde de la muerte.

Pero quizá el campeón de los autoexperimentadores fue el biólogo, matemático y genetista británico J.B.S. Haldane, cuya principal aportación fue la conciliación de la genética mendeliana con la teoría de la evolución de Darwin, fundando la teoría sintética de la evolución y la genética de poblaciones por medio de las matemáticas. Fue también el autor de un ensayo que sería la inspiración de la novela "Un mundo feliz" de Aldous Huxley.

John Maynard Smith, alumno, colaborador y amigo de Haldane, cree que a éste le gustaban las emociones fuertes, la descarga de adrenalina que se produce cuando uno se enfada o cuando tiene miedo. De hecho, Haldane aseguraba haberlo pasado muy bien en las trincheras durante la Primera Guerra Mundial, donde fue considerado un soldado excepcional.

Pero también está el hecho de que el padre de Haldane, médico e investigador, también había realizado algunos experimentos empleándose a sí mismo como conejillo de indias. Y, al menos en una ocasión, a su hijo, a quien hizo respirar grisú en una mina hasta que el pequeño casi perdió el conocimiento.

Y seguramente sabía que uno de los grandes científicos ingleses, Humphry Davy, químico del siglo XVIII y XIX, había experimentado en sí mismo los efectos del óxido nitroso, el sedante también conocido como el "gas de la risa".

Haldane se implicó con las fuerzas armadas después del desastre del Thetis, un submarino británico que se hundió en maniobras en aguas poco profundas, causando la muerte de 99 de sus 103 ocupantes. Durante la recuperación del submarino, otro marino murió por los efectos de la descompresión.

El investigador se embarcó en una serie de experimentos sobre el buceo a gran profundidad, sometiéndose una y otra vez a experiencias dentro de una cámara de descompresión en la que sufría cambios de presión mientras respiraba distintas mezclas de gases y mientras se sometía a temperaturas de frío extremo. En un experimento en el que se envenenó con un exceso de oxígeno, además de sufrir violentas convulsiones se provocó un daño irreparable en algunas vértebras que lo dejó con un dolor crónico para el resto de su vida.

Los tímpanos de Haldane sufrieron varias rupturas a consecuencia de los cambios de presión a los que se sometió, dando pie a una de las más famosas citas del científico: "El tímpano generalmente cicatriza, y si le queda algún agujero, aunque uno queda un poco sordo, puede expulsar humo de tabajo por la oreja afectada, lo cual es todo un logro social".

La autoexperimentación de Haldane fue la base de mucho de lo que hoy sabemos acerca de los efectos de la compresión y la descompresión en los cuerpos de los buzos, especialmente la narcosis provocada por nitrógeno.

Ser su propio conejillo de indias permite a los científicos conocer de primera mano las experiencias subjetivas asociadas a algunas situaciones. Porque la subjetividad también juega un papel importante en la investigación científica, y no sólo por las inspiraciones, intuiciones y pasiones de los científicos. Mucho antes de que hubiera un instrumental adecuado para medir las características de las sustancias químicas, era práctica común entre los investigadores tomar un poco de la que estuvieran estudiando en ese momento y llevárselo a la boca para conocer su sabor.

Por supuesto, como en muchos otros casos, esta práctica fue letal para algunos audaces buscadores de la verdad científica.

Una bacteria y un Premio Nobel

Desde 1981, el doctor australiano Barry Marshall y el patólogo Robin Warren tenían indicios de que la úlcera gástrica estaba causada por una bacteria y no por el estrés, la dieta u otras causas que suponían los médicos. Al no poder infectar a unas ratas con la bacteria, Marshall optó por infectarse a sí mismo tragando un cultivo de bacterias. La gastritis que sufrió fue el primer paso para demostrar que la bacteria causaba úlceras y cánceres gástricos, lo que le valió el Premio Nobel de medicina a ambos asociados en 2005.

Medir y entender el tiempo

Dijo Baltasar Gracián: "Todo lo que realmente nos pertenece es el tiempo; incluso el que no tiene nada más, lo posee". Pero aún no sabemos qué es exactamente esa materia extraña que poseemos.

El reloj de la torre de Berna, Suiza, que inspiró
a Einstein sus ideas sobre la relatividad.
(Foto GFDL de Yann and Lupo, vía
Wikimedia Commons
"El tiempo es lo que impide que todo ocurra a la vez", dijo John Archibald Wheeler, uno de los más importantes físicos teóricos estadounidenses del siglo XX y recordado por su concepto del "agujero de gusano" como un túnel teórico a través del tiempo y el espacio.

Era un intento de explicar, con buen humor, uno de los más grandes misterios que el universo sigue ofreciéndonos como estímulo para la investigación. Porque aunque conocemos algunas de sus características esenciales, no sabemos exactamente qué es el tiempo.

El tiempo se desarrolla en un solo sentido, eso es lo más notable que podemos decir de él. Es decir, pese a afirmaciones y especulaciones en contrario, no podemos retroceder en el tiempo. Por ello los físicos hablan de la "flecha del tiempo" que sólo avanza en una dirección, del pasado al futuro.

También sabemos algo con lo que nos hemos reconciliado en las últimas décadas pero que en su momento fue todo un desafío a eso que llamamos, con cierta arrogancia inexplicable, "el sentido común": el tiempo es relativo.

Hasta 1905, se consideraba que el tiempo era constante, como lo proponía Newton. Pero según la teoría de la relatividad publicada ese año por Einstein, el tiempo es relativo, según el marco de referencia. El ejemplo clásico es el de un hombre que viaja al espacio cerca de la velocidad de la luz y su gemelo se queda en la Tierra. Para el viajero, el tiempo transcurrirá más lentamente o se "dilatará", y al volver será mucho más joven que su gemelo. Además, el tiempo también se dilata en presencia de la gravedad, a mayor atracción gravitacional, más lento transcurre.

La primera prueba de que lo predicho por las matemáticas de Einstein era real se realizó en 1971 utilizando dos relojes atómicos con precisión de milmillonésimas de segundo. Uno de ellos se quedó en tierra mientras que el otro se envió a dar la vuelta al mundo en un avión a 900 km por hora. Cuando el reloj del avión volvió a tierra, se demostró que había una diferencia entre ambos, una diferencia minúscula, de algunas milmillonésimas de segundo, pero coherente con la teoría.

Medir lo que no sabemos qué es

Mucho antes de siquiera plantearse definir el tiempo, o estudiarlo, el hombre enfrentó la necesidad de contarlo. Los períodos de tiempo más largos que un día tenían referentes claros: el propio ciclo del día y la noche, el de la luna, el del sol y los de distintos cuerpos celestes que le resultaron interesantes a distintas culturas, como Venus a los mayas y Probablemente Sirio a los egipcios.

Pero, sobre todo después de que los grupos humanos dejaron de ser nómadas, se hizo necesario dividir el día se dividiera en fragmentos medibles e iguales para todos, con objeto de coordinar las actividades del grupo.

Para ello se emplearon varios procesos repetitivos capaces de indicar incrementos de tiempo iguales: velas marcadas con líneas, relojes de arena, relojes de agua (clepsidras), tiras de incienso que se quemaban a un ritmo regular, y otros mecanismos. Los egipcios que trabajaban bajo tierra, como en las tumbas reales, recibían lámparas de aceite con una cantidad determinada. Al acabarse el aceite de sus lámparas, sabían que era hora de comer, o el fin de su jornada de trabajo.

Los egipcios fueron también los primeros en utilizar el sol, o, más precisamente, la sombra, para dividir el día en fragmentos. Los obeliscos eran relojes de sol que primero sólo marcaban la hora antes y después de mediodía, y luego se añadieron otras subdivisiones, las horas. Hace alrededor de 3.500 años, los egipcios crearon los primeros relojes de sol. Para ellos, los días tenían diez horas, más dos horas de crepúsculo y amanecer, y la noche tenía también 12 horas, determinadas mediante la aparición sucesiva en el horizonte de una serie de estrellas.

¿Por qué tiene 12 horas el día? Los sistemas decimales o vigesimales son los más comunes. pero el antiguo Egipto heredó su sistema numérico sexagesimal de los babilonios, que a su vez lo obtuvieron de la cultura sumeria.

Y los sumerios usaban un sistema duodecimal (de 12 unidades). Aunque no sabemos exactamente por qué lo eligieron, los matemáticos han notado que 12 tiene tres divisores (2, 3 y 4), lo cual simplifica bastante muchos cálculos realizados con esa base. Y al multiplicarlo también por 5 obtenemos 60. Otros creen que este sistema se origina en los 12 ciclos lunares de cada año, que han devenido en los doce meses del año. Los babilonios fraccionaron las horas en 60 minutos iguales y, al menos teóricamente, las horas en 60 segundos. La medición precisa del segundo, sin embargo, no fue viable sino hasta la invención del reloj en la edad media.

Por cierto, en esta práctica sumeria están divisiones como la venta de artículos por docenas o los doce signos del zodiaco (que omiten a dos porque no entran en el número "mágico", Cetus y Ofiuco).

Por supuesto, para medir lapsos de tiempo menores a un segundo no hemos seguido el sistema sexagesimal sumerio, sino que utilizamos décimas, centésimas, milésimas, etc. siguiendo el sistema decimal.

Pero, ¿existe el tiempo como existe la materia? Según algunos físicos y filósofos, el pasado y el futuro son creaciones de nuestra conciencia, pero no tienen una realidad física. Lo único que existe es un presente continuo, cuyos acontecimientos pueden dejar huella, como recuerdos, construcciones, ideas u obras de arte... pero sólo existen en el instante presente. Detectamos su paso sólo porque las cosas se mueven o cambian. E imaginamos el futuro especulando sobre los movimientos o cambios que pueden ocurrir.

En todo caso, el presente sigue siendo un acertijo, que se ha complicado con algunas teorías propuestas de gravedad cuántica según las cuales el tiempo no es un flujo continuo, sino que está formado por diminutas unidades discretas, paquetes de tiempo, llamados "cronones" que se suceden incesantemente, como los fotones se suceden para crear un rayo de luz que creímos continuo hasta que apareció la mecánica cuántica.

Quizá el problema que tenemos para entender el tiempo se ejemplifica con un pequeño ejercicio que todos podemos hacer: intente definir la palabra "tiempo" sin usar ni la palabra "tiempo" ni ningún concepto que implique el tiempo (como "duración" o "lapso").

Los límites de la medida

La menor unidad de tiempo que podríamos medir, teóricamente, es el "tiempo de Planck", propuesto por el físico Max Planck a fines del siglo XIX y que sería el tiempo necesario para que un fotón viajando a la velocidad de la luz recorra una distancia igual a una "longitud de Planck" (una medida 100 billones de veces menor que el diámetro de un protón).

El bulldog de Darwin

Thomas H. Huxley defendió a Darwin pese a no estar de acuerdo con todos los elementos de su teoría. Era un paso hacia el conocimiento que no podía permitir que se rechazara sin más.

Thomas Henry Huxley
(Foto D.P. de la National Portrait
Gallery of London vía Wikimedia Commons)
La escena que más claramente ha colocado a Thomas Henry Huxley en la percepción popular es el debate del 30 de junio de 1860 en el Museo Universitario de Historia Natural de Oxford con el cirujano y fisiólogo Benjamin Brodie, el botánico Joseph Dalton Hooker y el vicealmirante Robert Fitzroy, excapitán del "Beagle", legendario barco en el que Darwin reunió los datos para sus descubrimientos.

Curiosamente, Fitzroy se oponía virulentamente a las ideas de Darwin, y algunas de sus intervenciones se hicieron blandiendo la Biblia con enfado. Pero en leyenda, el centro del debate fue entre Huxley, el biólogo de las largas patillas, y Samuel Wilberforce, obispo de Winchester. El momento memorable ocurrió cuando el obispo, en un desdeñoso gesto retórico, le preguntó a Huxley si creía ser un mono a través de su abuelo o de su abuela. Nadie registró las palabras exactas de Huxley, pero quedó el sentido general de sus palabras: no se avergonzaba de tener un mono como ancestro, pero sí se avergonzaría de estar emparentado con un hombre que usaba sus grandes dones para oscurecer la verdad científica.

Thomas Henry Huxley había nacido el 4 de mayo de 1825, el séptimo de ocho hijos en una familia de recursos limitados. Su padre, profesor de matemáticas, no pudo darle escuela al joven Thomas, quien procedió a obtener una impresionante educación autodidacta que le permitió a los 15 años comenzar a ser aprendiz de médico y pronto ganarse una beca para estudiar en el mítico hospital de Charing Cross. Seis años después, Huxley embarcaba como cirujano asistente en el "Rattlesnake", una fragata de la marina destinada a cartografiar los mares que rodeaban a Australia y Nueva Guinea.

Durante el viaje, que le resultó enormemente penoso por las condiciones de las embarcaciones de la época, se ocupó en recoger y estudiar diversos invertebrados marinos, enviando periódicamente los resultados de sus observaciones por correo a Inglaterra, de modo que cuando volvió a casa tras cuatro años de viaje, ya se había ganado un lugar entre la comunidad científica y empezó a dedicarse a la divulgación y a la educación.

Después de la aparición de "El origen de las especies", dedicó buena parte de su trabajo a dar conferencias sobre la evolución, además de trabajar en paleontología y zoología práctica, y fue presidente de la Asociación Británica para el Avance de las Ciencias y de la Real Sociedad londinense. Pero fue también un divulgador convencido de que la ciencia se podía explicar a cualquier persona y un escéptico que no admitía ninguna idea sin bases sólidas, demostraciones y pruebas, fuera una proposición metafísica o la teoría de su amigo Darwin.

Murió en 1895 como uno de los más reconocidos científicos británicos de su época.

Cambiar de forma de pensar de acuerdo a los datos

Huxley estaba originalmente convencido de que no había cambios evolutivos, pensando que en el registro fósil se hallarían los mismos grupos de seres de la actualidad. Pero los datos que aportaba la realidad, desde el registro fósil hasta los estudios de Darwin, lo llevaron incluso a decir "Qué estúpido fui de no haberlo pensado".

Para 1859, Huxley estaba convencido de que las especies evolucionaban, pero dudaba que esto ocurriera mediante una sucesión de pequeños cambios, el llamado "gradualismo" que estaba en la base de la teoría de Darwin, y así se lo hizo saber. Pensaba que una especie podía aparecer completamente identificable a partir de una anterior sin pasos intermedios. Aún así, se vio impactado por "El origen de las especies".

El 23 de noviembre de 1859, al día siguiente de terminar de leerlo, le escribió una entusiasta carta a Charles Darwin que decía, entre otras cosas que aunque habrá perros callejeros que ladrarán y chillarán, "debe recordar que algunos de sus amigos como sea están dotados con una cantidad de combatividad (aunque usted la ha reprendido con frecuencia y de modo justo) pueden defenderlo con eficacia", para terminar diciendo "Me estoy afilando las garras y el pico para prepararme".

Darwin no era hombre de deabtes y enfrentamientos, de controversias y duelos verbales. Huxley, sin embargo, era un polemista brillante, agudo (demasiado agudo, llegó a decir Darwin) y que disfrutaba del enfrentamiento, así que se lanzó sin más a confrontar a los muchos detractores de Darwin.

Curiosamente "El origen de las especies" Darwin no había mencionado al ser humano que había sido centro del debate de Oxford. Aunque la inferencia era obvia, la había omitido, quizá ingenuamente, para no causar demasiado revuelo.

Fue, sin embargo, Huxley quien publicó en 1863 el primer libro que aplicaba los principios de la evolución a los orígenes de la especie humana, "Evidencia del lugar del hombre en la naturaleza". Algunos grandes científicos como Richard Owen, fundador del Museo Británico de Historia Natural y antievolucionista, habían afirmado que el cerebro humano contenía partes que no estaban presentes en otros primates, pero Huxley y sus colaboradores demostraron que anatómicamente no había prácticamente diferencias entre los cerebros humanos y los de otros primates.

Quizá la pasión y dedicación de Huxley, hicieron que se le distinguiera por encima de otros brillantes defensores de los descubrimientos de Darwin, como Joseph Dalton Hooker, el primer científico reconocido que había apoyado a Darwin públicamente apenas un mes después de la publicación de "El origen de las especies", y que también participó en el debate de Oxford, además de ser amigo, confidente y primer lector crítico de los manuscritos de Darwin.

Así, pese a que la relación entre Huxley y Darwin no estuvo exenta de roces, sus nombres quedaron unidos en la defensa de una idea esencial, aunque los detalles quedaran aún por definirse conforme avanzaba el conocimiento. Quizá parte de su sano escepticismo se vio satisfecho cuando un año antes de su muerte se enteró de que había sido descubierto el fósil entonces llamado "hombre de Java", hoy clasificado como Homo erectus, ancestro de nuestra especie.

Una familia singular

El zoólogo autodidacta Thomas Huxley fue la raíz de una familia de gran relevancia en el mundo de las ciencias y las letras. Su hijo Leonard Huxley fue profesior y biógrafo, entre otros, de su propio padre. Entre sus nietos destacan Julian Huxley, biólogo, divulgador y primer director de la UNESCO; Andrew Huxley, biofísico ganador del Premio Nobel en 1963, y Aldous Huxley, poeta y escritor autor de "Un mundo feliz". El más conocido descendiente de Huxley en la actualidad es Crispin Tickell, diplomático, ecologista y académico británico que es tataranieto del genio.

La ciencia de lavar las cosas

Jabones, arcillas, detergentes, aceites, ceniza... el ser humano ha hecho un continuo esfuerzo por mantenerse limpio creando en el proceso tecnologías e industrias diversas.

Jabones artesanales a la venta en Francia. Los antiguos
métodos de fabricar jabón siguen siendo válidos.
(Foto CC/GFDL de David Monniaux,
vía Wikimedia Commons)
Lavar la ropa, y lavarnos a nosotros mismos, parece una tarea bastante trivial. Agua, un poco de jabón o detergente, frotar o remover y la grasa, la suciedad y los desechos se van por el desagüe.

De hecho, a veces basta un chorro de agua para quitarnos, por ejemplo, el barro de las manos, dejándolas razonablemente limpias.

Pero cuando lo que tratamos de eliminar son grasas, el agua resulta bastante poco útil. El idioma popular por ello se refiere a cosas o personas incompatibles como "el agua y el aceite". Y aunque tratemos de mezclarlos agitándolos, no conseguiremos disolver el aceite en agua porque es un compuesto de los llamados hidrofóbicos, que repelen el agua, a diferencia de los que se mezclan con ella, los hidrofílicos.

Para unirlos necesitamos ayuda. Lo que llamamos jabón, o alguno de sus parientes cercanos, que son sustancias llamadas surfactantes porque reducen la tensión superficial de los líquidos.

Las moléculas de los surfactantes tienen dos extremos: una cabeza hidrofílica y una cola hidrofóbica. Los surfactantes forman diminutas esferas con un exterior hidrofílico y un centro hidrofóbico en el que se atrapan las grasas y aceites para poder ser enjuagados. Es la magia química que ocurre todos los días cuando fregamos los platos o lavamos la ropa y vemos cómo el aceite se disuelve en el agua gracias al detergente.

De hecho, parece muy afortunado que en un universo pletórico de suciedad, grasas, aceites, pringue y polvo, exista una sustancia capaz de lograr esta hazaña, convertida en puente entre lo que nos molesta y el agua que puede librarnos de ello.

Es de imaginarse que desde el invento de los textiles, o quizá desde que el hombre confeccionó sus primeras prendas con pieles, se buscó la forma de eliminar la suciedad. No tenemos informes de cuál era el equivalente de la lavadora para los hombres de antes de la era del bronce, pero la evidencia más antigua que hemos encontrado hasta ahora referente al jabón se halló en unas vasijas de barro babilónicas que datan del 2.800 antes de nuestra era, que contenían una sustancia similar al jabón, e inscripciones que muestran una receta básica para hacerlo hirviendo grasas con cenizas.

Pero no sabemos si los babilónicos usaban el jabón para lavarse o para otros fines, por ejemplo como fijadores del cabello. Sí sabemos, gracias a un papiro del 1550 a.N.E. llamado Ebers, que los antiguos egipcios mezclaban aceites animales y vegetales con diversas sales alcalinas para producir un material similar al jabón que se usaban como medicamento para la piel, pero también para lavarse.

A cambio, los griegos se bañaban sin jabón, utilizando bloques de arcilla, arena, piedra pómez y cenizas, para luego untarse el cuerpo de aceite y quitárselo con una herramienta llamada estrígil, mientras que la ropa se lavaba con cenizas, que tienen cierta capacidad de eliminar las grasas.

Diversas arcillas tienen también propiedades surfactantes y se han utilizado para lavar textiles. En los batanes de tela antiguos se solían utilizar lodos de distintas arcillas para agitar en ellos las telas y enjuagarlas. Al eliminar la arcilla, ésta se llevaba la grasa, la suciedad, los olores y los restos indeseables.

Según el historiador Plinio el Viejo, los fenicios del siglo VI a.N.E. hacían jabón con sebo de cabra y cenizas. Los romanos por su parte utilizaban orina como sustituto de la ceniza para fabricar jabón, que se usaba ampliamente en todo el imperio, aunque algunos seguían usando el aceite de oliva por distintos motivos. Por ejemplo, el sudor con aceite de oliva que los gladiadores más famosos se quitaban con el estrígil se vendía al público como hoy se pueden vender souvenirs de atletas o estrellas musicales.

La palabra "jabón" en sí se origina, según Joan Corominas, en la palabra latina "sapo", que procede del germánico "saipón", nombre que distintos grupos supuestamente bárbaros daban al jabón, que producían a partir de grasas animales y cenizas vegetales.

Otra opción de limpieza eran unas veinte especies de plantas que hoy conocemos como "saponarias" y que contienen una sustancia, la saponina, que produce espuma cuando se agita en el agua. Se han utilizado como jabón o como ingredientes del jabón en distintos momentos de la historia.

Pero el jabón era caro y su producción compleja. Hasta fines del siglo XIX no estaba al alcance de las grandes mayorías. Nuevos métodos de producción descubiertos por los químicos franceses Nicholas LeBlanc, primero, y Michel Eugene Chevreul después, redujeron notablemente el precio de producción del jabón.

De hecho, Chevreul fue quien explicó la naturaleza química del jabón, que hoy podemos definir como sales de ácidos grasos, que se producen debido un proceso conocido precisamente como "saponificación" y que ocurre cuando un aceite o grasa se mezcla con una sustancia fuertemente alcalina (como la ceniza o la lejía). Al hervirse juntos, de las grasas se descomponen, se separan en ácidos grasos y se combinan con la sustancia alcalina en una reacción química que produce jabón y glicerina.

No hubo más novedades en el jabón salvo por refinamientos en su producción, añadiendo perfumes, haciéndolo más suave (para el cuidado personal) o más fuerte según las necesidades, quitando la glicerina en todo o en parte, usando distintos tipos de grasas y álcalis.

Después de la Primera Guerra Mundial, la escasez de grasas utilizadas para fabricar jabón en Alemania estimuló la creación, en 1916, de los detergentes artificiales comerciales, sobre los cuales se había estado experimentando desde mediados del siglo XIX en Francia.

El detergente, como todo nuevo desarrollo, tiene sus desventajas. Desde que se generalizó su uso en la década de 1940, se convirió en un problema ecológico relevante, principalmente porque sus componentes permanecían en el medio ambiente. A partir de la década de 1970 surgieron los detergentes biodegradables, que resolvían parte del problema pero causaban otros debido a la presencia de fosfatos. Actualmente empiezan a extenderse los detergentes sin fosfatos, más amables con el medio ambiente.

¿Funciona mejor con agua caliente?

Todo el que haya tratado de fregar platos o ducharse con agua fría sabe que los jabones y detergentes funcionan mejor con agua caliente. Esto se debe a que la alta temperatura funde las grasas y aceites, ayudando a despegarlos del sustrato. Sin embargo, en los últimos años se han desarrollado detergentes que funcionan perfectamente en agua fría y en lugares como Japón son los más comunes... pero su aceptación ha sido lenta porque estamos convencidos de que con agua caliente lava mejor.