Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

junio 27, 2009

La resistencia a los antibióticos

La aparición de las sustancias que combatían a diversos gémenes patógenos a principios del siglo XX fue una revolución de primer orden en la medicina, que hasta entonces era una práctica empírica, basada en teorías de la enfermedad nunca comprobadas.

Hasta el siglo XIX, en occidente y el mundo islámico prevalecía la teoría de Hipócrates de que el cuerpo estaba lleno de cuatro humores o  sustancias básicas, la sangre, la flema, la bilis amarilla y la bilis negra, y que la enfermedad era causada por “desequilibrios” en los humores. El objetivo del médico implicaba restablecer el equilibrio de los humores. De allí que la medicina precientífica recomendara con frecuencia extraer sangre a los pacientes, práctica que causó innumerables problemas y muertes.

Pasteur, al proponer que las enfermedades infecciosas son causadas por pequeños organismos, dio a la medicina su primera base científica, una teoría que podía comprobarse. Los organismos podían verse en el microscopio, se podía experimentar con ellos, se podían detectar en los pacientes y, finalmente, se les podía atacar. Esta teoría permitía además determinar cómo y por qué funcionaban algunos remedios tradicionales y empíricos, y por qué la mayoría de ellos no lo hacían.

La aparición de los antibióticos para combatir a los organismos causantes de enfermedades marcó la primera posibilidad de atacar enfermedades que habían sido un azote incesante. El primer antibiótico, la arsfenamina, lanzada en 1910 con el nombre de Salvarsán, se usaba contra la sífilis y la tripanosomiasis o “enfermedad del sueño”. En 1936 aparecieron las sulfonamidas o “sulfas”, más potentes, y en 1942 Alexander Fleming cambió el mundo con su descubrimiento de la penicilina.

Los antibióticos empezaron a ser utilizados intensamente por todas las personas que podían tener acceso a ellos, en ocasiones de modo excesivo y con gran frecuencia para intentar tratar enfermedades que no eran producidas por bacterias, en particular las afecciones respiratorias como las gripes, alergias y brotes de asma.

Esa utilización era, sin que nadie lo viera en el momento, una forma de provocar que las bacterias se adaptaran. Un cambio en el medio se convierte en lo que los biólogos evolutivos llaman una “presión de selección”, que favorece la reproducción de los individuos naturalmente más resistentes o mejor adaptados al cambio.

Cuando el medio se mantiene estable, las poblaciones adaptadas a él pueden vivir durante generaciones sin sufrir cambios de consideración. Cada individuo tiene, por su herencia o por la mutación de sus genes, predisposición a adaptarse mejor a distintas circunstancias. Pero si el medio no convierte esa predisposición en un beneficio para el individuo, éste no tendrá ventajar para sobrevivir. Es cuando cambia el medio que los organismos evolucionan... o desaparecen.

Así, lo que ha ocurrido es, ni más ni menos, un proceso de selección genética como el que hemos utilizado para crear, a partir de ancestros salvajes, a animales y cultivos domésticos como los cerdos, las ovejas, el trigo, el tomate, los caballos, las reses y los perros. Nosotros impusimos una regla de presión arbitraria (por ejemplo, hacemos que las vacas que dan más y mejor leche se reproduzcan y le negamos esa posibilidad a las malas productoras) y conseguimos animales especializados para sobrevivir y reproducirse en función de esas reglas: más leche, más carne, más huevos, más lana, más granos de mayor tamaño y más nutritivos, mejor sabor o compañía y lealtad.

Cuando el factor causante de la presión de selección también puede evolucionar, se establece lo que los biólogos llaman una “carrera armamentista”, una competencia donde el objetivo es mantenerse un paso por delante del adversario. El mejor ejemplo de esta carrera armamentista es la añeja competencia entre la gacela y el guepardo.

El guepardo ejerce presión para que sobrevivan mejor las gacelas más rápidas. Por ello mismo, las gacelas cada vez más rápidas ejercen presión para que el guepardo más veloz tenga mejores posibilidades de alimentarse que sus congéneres menos ágiles. Incesantemente tenemos gacelas y guepardos más rápidos, conviviendo en un delicado equilibrio.

Es lo que nos ha pasado con los organismos infecciosos.

Las primeras sustancias antibióticas como la penicilina, arrasaban las poblaciones de bacterias con enorme eficiencia, como siempre que un ejército cuenta con un arma revolucionaria. Pero al paso del tiempo, las bacterias que se salvaron y reprodujeron fueron siendo cada vez más y más resistentes a esas primeras sustancias. Uno de los patógenos más comunes, el estafilococo dorado, uno de los principales agentes de las infecciones hospitalarias tan temidas, fue el primero en el que se detectó la resistencia, apenas cuatro años después de empezar a utilizarse la penicilina.

La resistencia de los organismos patógenos nos presionó para producir antibióticos más potentes y eficaces. El estafilococo dorado ha sido atacado sucesivamente con distintas generaciones de antibióticos: meticilina, tetraciclina, eritromicina y, en la década de 1990, oxazolidinonas. En 2003 se encontraron las primeras cepas de estafilococo dorado resistentes a estos últimos antibióticos, y la carrera sigue.

Enfermedades que ya parecían erradicadas, como la tuberculosis, resurgen ahora fortalecidas con resistencia a diversos antibióticos. Las neumonías causadas por estreptococos, la salmonelosis y otras enfermedades nos exigen creatividad cada vez mayor para superar su resistencia a las armas que hemos creado contra sus causantes y salvar a sus víctimas.

Es imposible detener esta carrera entre nosotros y los microorganismos que nos enferman. Sólo podemos disminuir su vertiginoso ritmo. La recomendación continua de los médicos de llevar a su término los tratamientos con antibióticos (para eliminar a todos los agentes patógenos posibles) y de no tomar antibióticos sin necesidad (para no crear en nuestro sano organismo cepas resistentes de patógenos que viven en nosotros sin atacarnos) son las únicas formas que tenemos de aliviar las exigencias sobre los laboratorios donde se crean los antibióticos que salvarán vidas mañana.

Creacionismo y bacterias

Curiosamente, la resistencia inducida en los patógenos por la presión selectiva que imponen los antibióticos es una prueba más de las muchísimas existentes de que la evolución no sólo existe, sino que se comporta según lo descubrió Darwin hace 200 años. Por eso, dice el chiste, nadie es creacionista al usar antibióticos, pues sabe que las bacterias han evolucionado y lo recomendable es usar los antibióticos nuevos, no los antiguos.

junio 20, 2009

Ver el universo visible e invisible

Telescopios del observatorio de Roque de los
Muchachos en La Palma de Gran Canaria.
(Foto de Bob Tubbs, Wikimedia Commons)
Hace 400 años, Galileo Galilei utilizó el telescopio, inventado un año antes probablemente por Hans Lippershey, para mirar a los cielos sobre Venecia, y cambió no sólo el mundo, sino todo el universo, al menos desde el punto de vista de la humanidad.

Los conceptos que el ser humano había desarrollado respecto del cosmos que lo rodea habían estado hasta entonces limitados únicamente por lo que se podía ver con el ojo desnudo en una noche despejada, lo que dejaba una enorme libertad para crear conceptos filosóficos que pudieran explicar las observaciones.

Las descripciones del cosmos cambiaban según la cultura y la época. Por ejemplo, para los indostanos, según el antiguo Rigveda, el universo vivía una eterna alternancia cíclica en la que se expandía y contraía, latiendo como un corazón. Esta idea se ajustaba a la creencia de que todo en el universo vive un ciclo permanente de nacimiento, muerte y renacimiento. Para los estoicos griegos, sin embargo, era una isla finita rodeada de un vacío infinito que sufría cambios constantes. Y para el filósofo griego Aristarco, la Tierra giraba sobre sí misma y alrededor del sol, conjunto rodeado por esferas celestiales que tienen como centro el sol, una visión heliocéntrica.

La cosmología que se había declarado oficialmente aceptada por el occidente cristiano era la de Claudio Ptolomeo, basada en el modelo de Aristóteles. En esta visión, el universo tiene como centro a nuestro planeta, inmóvil, rodeado por cuerpos celestiales perfectos que giran a su alrededor, y existe sin cambios para toda la eternidad.

Este modelo se ajustaba bien a la visión cristiana de la creación y el orden divino, y fue asumido como el aceptado en la Europa a la que Galileo sacudiría con su telescopio mediante el sencillísimo procedimiento de mirar hacia los cielos con el telescopio.

El telescopio de Galileo constaba simplemente de un tubo con dos lentes, una convexa en un extremo y una lente ocular cóncava por la que se miraba. Este telescopio se llamó “de refracción” precisamente porque refracta o redirige la luz para intensificarla y magnificarla. 59 años después, Newton erplanteaba el telescopio por medio de la reflexión de la luz, consiguiendo así un instrumento mucho más preciso.

Los telescopios de reflexión, o newtonianos, fueron la principal herramienta que tuvo la humanidad para la exploración del universo durante siglos. Permitió conocer mejor el sistema solar, ver más allá de él y comprender que ni la Tierra ni el Sol eran el centro del cosmos. La tecnología se ocupó de crear espejos cada vez más grandes y precisos para ver mejor y más lejos.

Pero hasta 1937, solamente podíamos percibir la luz visible del universo, un fragmento muy pequeño de lo que conocemos como el espectro electromagnético. En las longitudes de onda más pequeñas y de mayor frecuencia que el color violeta tenemos los rayos UV, los rayos X y los rayos gamma. En longitudes de onda más grandes que el color rojo y a frecuencias más bajas están la radiación infrarroja, las microondas y las ondas de radio.

En 1931, el físico estadounidense Karl Guthe Jansky descubrió que la Vía Láctea emitía ondas de radio, y en 1937 Grote Reber construyó el primer radiotelescopio, que era en realidad una gigantesca antena parabólica diseñada para recibir y amplificar ondas de radio provenientes del cosmos.

Lo que sobrevino entonces fue un estallido de información. El universo estaba animadamente activo en diversas frecuencias de radio, con fuentes de emisión hasta entonces desconocidas por todas partes. Surgían numerosísimos hechos que la cosmología tenía que estudiar para poder explicar.

Al descubrirse en 1964 la radiación de fondo de microondas cósmicas, empezaron a utilizarse los radiotelescopios para explorar el universo en esta frecuencia y longitud de onda. Si miramos el universo visible, el fondo es negro, sin luz, pero si lo miramos en la frecuencia de las microondas, hay un “resplandor” de microondas que es igual en todas direcciones y a cualquier distancia, asunto que resultó sorprendente.

El estudio del comportamiento del universo a nivel de microondas nos permitió saber que la radiación cósmica de fondo descubierta por Amo Penzias y Robert Wilson en 1964 era en realidad el “eco” del Big Bang, la gran explosión que dio origen al universo, y es una de las evidencias más convincentes de que nuestro cosmos tuvo un inicio hace alrededor de 13.800 millones de años.

Sin embargo, las microondas más cortas no pudieron ser estudiadas a fondo sino hasta 1989, cuando se puso en órbita el telescopio orbital Background Explorer. Las microondas más cortas son absorbidas por nuestra atmósfera, debilitándolas enormemente, mientras que en el espacio se las puede percibir y registrar con mucha mayor claridad.

La exploración espacial también permitió poner en órbita otros telescopios que detectaran niveles de radiación de los que nuestra atmósfera nos protege. Tal es el caso de los telescopios de rayos Gamma, que nos han permitido detectar misteriosas explosiones de rayos gamma que podrían ser indicación del surgimiento de agujeros negros por todo el universo.

Por su parte, los telescopios de rayos X también deben funcionar fuera de la atmósfera terrestre y nos informan de la actividad de numerosos cuerpos, como los agujeros negros, las estrellas binarias, y los restos de estrellas que hayan estallado formando una supernova.

El estudio del universo a nivel de rayos ultravioleta también debe hacerse desde órbita, mientras que los telescopios que estudian los rayos infrarrojos sí se pueden ubicar en la superficie del planeta, muchas veces utilizando los telescopios ópticos que siguen siendo utilizados por astrónomos profesionales y aficionados para conocer el universo visible.

Sin embargo, pese a la gran cantidad de información que los astrónomos obtienen de todo el espectro electromagnético, es lo visible lo que sigue capturando la atención del público en general. Cualquier explicación del universo palidece ante las extraordinarias imágenes que nos ha ofrecido el Hubble, que además de ver en frecuencia ultravioleta es, ante todo, un telescopio óptico. Liberado de la interferencia de la atmósfera, el Hubble nos ha dado no sólo información cosmológica de gran importancia para entender el universo... nos ha dado experiencias estéticas y emocionales profundas al mostrarnos cómo es nuestra gran casa cósmica.

Los telescopios espaciales europeos

Aunque el telescopio espacial Hubble es en realidad una colaboración entre la NASA y la agencia espacial europea ESA, Europa también tiene un programa propio de telescopios espaciales. Apenas en mayo, se lanzaron dos telescopios orbitales que pronto empezarán a ofrecer resultados, el Herschel, de infrarrojos, y el Planck, dedicado a las microondas de la radiación cósmica.

junio 13, 2009

La barrera entre “las dos culturas”


Los medios de comunicación, la publicidad y el boca a boca de nuestros tiempos en ocasiones consagran supuestos peligros contra la salud que tal vez no merecen tanta atención.

El 7 de mayo de 1959, la tradicional “Conferencia Rede” iniciada en el siglo XVIII fue dictada en la Universidad de Cambridge por Charles Percy Snow, más conocido simplemente como C.P. Snow, novelista y físico, además de tener el título nobiliario de barón y declararse socialista.

Pese a que la Conferencia Rede había sido dictada por destacadísimas personalidades a lo largo de los años, entre ellos Richard Owen, Thomas Henry Huxley (que la utilizó para promover la teoría de la evolución de las especies) o Francis Galton, la conferencia de Snow disparó una controversia que, medio siglo después, sigue en vigor. Su título fue “Las dos culturas” y posteriormente se publicó en forma de libro como Las dos culturas y la revolución científica.

La idea esencial de la conferencia de Snow fue que existía una brecha relativamente nueva entre la cultura de la ciencia y la cultura humanística de la literatura y el arte. Para Snow, los intelectuales provenientes de las humanidades se rehúsan, en general, a entender la revolución industrial y la explosión de la ciencia, a la que temen y sobre la cual albergan graves sospechas. Por su parte, los científicos tendían a no preocuparse demasiado por la cultura literaria y el legado histórico.

Al reunir a personas de ambos mundos en actos sociales o de trabajo, lo que Snow observaba era una profunda incomprensión por ambos lados, como si los participantes fueran, en realidad, miembros de culturas humanas distintas, con distintos conjuntos de valores e, incluso, idiomas. Y esta división, en última instancia, no beneficia a nadie. Un ejemplo que Snow hallaba especialmente relevante era que no conocía a ningún escritor capaz de enunciar la segunda ley de la termodinámica (la que establece que la entropía en el universo va en aumento constante, lo que hace imposibles las máquinas de movimiento perpetuo). Como miembro de ambos mundos, científico y novelista, consideró que era su responsabilidad levantar la voz de alarma.

Y la voz de alarma disparó un debate que aún continúa sobre la exactitud de la visión de Snow, que probablemente pretendía más generar un debate que pusiera en acción las ideas que dar una visión acabada y dogmática. Y su triunfo se hace evidente en la perdurabilidad de su conferencia.

La mayoría de los escritores siguieron adelante creando novelas donde los avances científicos y tecnológicos se hacían presentes mucho más tarde que en el mundo real, generalmente mediante caricaturas imprecisas que popularizaron y eternizaron figuras como el “científico loco”, el “sabio distraído” y el “arrogante científico que se cree dios”. Como ejemplo, el primer ordenador interesante de la literatura de “corriente principal” fue Abulafia, propiedad del protagonista de la novela El péndulo de Foucault, de Umberto Eco.

Al paso de medio siglo, las dos culturas parecen no sólo seguir existiendo por separado, sino que a veces dan la idea de estar más alejadas entre sí de lo que estaban cuando C.P. Snow les puso nombre. Se espera que así como la gente se define (o es definida) como “católica o musulmana”, “europea o estadounidense”, o “del Madrid o del Barça”, sean “de ciencias o de letras”. La idea de una persona multidisciplinaria, que pueda comprender aspectos esenciales de la ciencia, así sea a nivel de divulgación, y que al mismo tiempo pueda disfrutar y crear en el mundo de las letras y las humanidades no está claramente contemplada en nuestro esquema educativo y nuestro mundo laboral. Es como si fuera impensable siquiera que alguien pueda vivir en esto que apreciamos como dos mundos cuando unidos son una sola cultura, la humana.

Quienes no tienen formación científica siguen desconfiando profundamente de la ciencia, de sus conocimientos y su método. Baste señalar la furia que muestran ciertos activistas cuando la ciencia no les da la razón. Por ejemplo, un estudio tras otro sobre la telefonía móvil determina que no parece haber efectos notables graves y estadísticamente significativos de las ondas de la telefonía móvil en las personas. Quienes creen que las antenas aumentan los casos de cáncer en una comunidad, no suelen preocuparse por realizar estudios estadísticos que demuestren si realmente han aumentado tales casos, pero sí exigen que los científicos les den la razón y, de no ser así, proceden a acusarlos de actuar no en nombre de los hechos, sino por dinero o malevolencia.

Lo mismo ocurre con algunas otras percepciones de grupos políticos, organizaciones de consumidores y otros colectivos, y con los periodistas y creadores artísticos que suelen apoyarlos con toda buena fe, aunque desencaminada.

La postura anticientífica y antitecnológica de ciertos sectores (no todos) del humanismo ha tenido como consecuencia algunas posiciones posmodernistas que pretenden que toda afirmación es un simple “discurso” social, y que todos los “discursos” son igualmente válidos, cerrando los ojos a la evidencia de que algunas afirmaciones se pueden probar objetivamente con independencia de quien las haga, como las leyes de la termodinámica.

Porque a la realidad le importan poco nuestras ideas y percepciones.

Y el hecho es que nuestro mundo está dominado por la ciencia y la tecnología. Los materiales que usamos, los diseños de los productos que consumimos, la medicina que incrementa nuestra calidad y cantidad de vida, incluso las soluciones a los problemas de destrucción del medio ambiente y alteración del equilibrio ecológico pasan por la aplicación humana, racional y ética del conocimiento científico y su método. No parece justo, ni razonable, que la mayor parte de la humanidad viva sin tener una idea de cómo se hace cuanto la rodea.

La forma de unir las dos culturas en una sola pasa por la reestructuración de nuestro sistema educativo, del concepto mismo de educación. Más allá de formar para el mercado laboral, la tarea de educar para vivir exige que enseñemos ciencia a los futuros periodistas, escritores y abogados con el mismo entusiasmo que dedicamos a intentar que nuestros futuros físicos y biomédicos sepan apreciar a Cervantes y a Velázquez, y escribir sin faltas de ortografía.

El precio a pagar, si no lo hacemos, puede ser elevadísimo.


La ciencia ficción y Snow


Los escritores de ciencia ficción en todo el mundo sintieron que la conferencia de Snow era la gran reivindicación de sus esfuerzos por utilizar el conocimiento y el método científico en la creación de ficciones literarias, especialmente en la década de 1960, cuando la exclusión de la ciencia ficción de la idea de “gran literatura” y “gran cine” era aún más acusada que en la actualidad.


junio 06, 2009

Toxinas: riesgos y mitos

Los medios de comunicación, la publicidad y el boca a boca de nuestros tiempos en ocasiones consagran supuestos peligros contra la salud que tal vez no merecen tanta atención.

El veneno de la cobra (Naja naja) es una
potente toxina real.
(Foto CC-BY-2.5 de Saleem Hameed
via Wikimedia Commons)
La mordida de una víbora de cascabel, el envenenamiento por botulismo y el asesinato de un opositor búlgaro con una bola de metal impregnada en ricina y rocambolescamente disparada por un agente secreto mediante un paraguas tienen en común el que las sustancias activas que dañan a sus víctimas son, todas, producto de la actividad biológica, venenos hechos por seres vivos.

Una gran cantidad de los innumerables compuestos químicos que se encuentran a nuestro alrededor pueden alterar de modo perjudicial la actividad de nuestro cuerpo a nivel químico si los absorbemos en cantidades suficientes, son los venenos. Cuando el veneno es producido por un ser vivo, se llama “toxina”.

En sentido estricto, las toxinas son pequeñas moléculas, péptidos o proteínas producidas por acción biológica que causan daños concretos en la víctima. Una gran cantidad de seres vivos producen toxinas para su defensa o para cazar, o como resultado de sus procesos digestivos en forma de desechos y dichas toxinas pueden ser de una enorme potencia y de una refinada capacidad para atacar los órganos o procesos vitales esenciales de las víctimas.

Así, por ejemplo, la familia de las neurotoxinas ataca a la víctima alterando de manera radical el funcionamiento de su sistema nervioso. El temido tétanos, provocado por la bacteria anaerobia Clostridium tetani, es resultado de una toxina similar a la estricnina que produce esta bacteria como resultado de su actividad metabólica: la exotoxina tetanopasmina. Cuando esta toxina llega a las neuronas motoras del sistema nervioso central, inhibe o impide que produzcan algunas sustancias neurotransmisoras, lo que lleva a las temidas contracciones musculares y la parálisis que conducen a la muerte de la víctima.

De modo sorprendente, la más letal de todas las toxinas conocidas es una neurotoxina producida no por un insecto o reptil venenoso, sino por dos familias de diminutas ranas centro y sudamericanas de brillantes colores, las Phyllobates y Dendrobates, especialmente la llamada “dardo venenoso” o Phyllobates terribilis, de apenas 5 cm. La rana dardo lleva consigo aproximadamente 1 miligramo, que bastaría para matar a entre 10 y 20 seres humanos o dos elefantes machos africanos.

Existen igualmente toxinas que atacan a la sangre, impidiendo su coagulación, y destruyendo la piel, toxinas que provocan intensos dolores, las que provocan necrosis o muerte de tejidos, otras que aceleran el pulso y la presión arterial provocando asfixia, las que atacan al corazón paralizándolo y otras varias. Cada una de estas características identifica algunas de las toxinas que conocemos en el mundo viviente, desde el veneno de las abejas hasta la toxina que puede matar a quienes disfrutan de sushi preparado con el temido pez globo o quienes inadvertidamente comen una seta tóxica como la temida y mortal Amanita phalloides.

La primera línea de batalla contra las toxinas pasa por el propio cuerpo de la víctima. La acción enzimática del hígado, en nuestro caso, puede destruir, y de hecho lo hace, muchas toxinas antes de que puedan causarnos daños.

En otros casos, es necesario aplicar antitoxinas, que son anticuerpos producidos masivamente, como ocurre con los los anticrotálicos, que neutralizan el veneno de las víboras de cascabel. Se trata, en este caso, de una inmunoglobulina obtenida de suero de caballos a los que se les aplican dosis crecientes pero no perjudiciales de veneno de víbora de cascabel de modo que generen anticuerpos en grandes cantidades.

Los anticuerpos producidos en laboratorio se pueden emplear, igualmente, para generar en nosotros una inmunidad preventiva a ciertas toxinas, como en el caso de la toxina antitetánica, algo especialmente importante cuando, como ocurre con el tétanos, no existe una antitoxina para combatirlo una vez que se ha manifestado en el organismo, de modo que esta afección, como el botulismo, son ineludiblemente mortales.

La preocupación genuina por el riesgo que presentan las verdaderas toxinas, los venenos de origen viviente que conocemos, cuya estructura química podemos describir, cuya acción en nuestro organismo es conocida y cuya prevención o cura en muchos casos se ha podido desarrollar, no resulta sin embargo útil en el caso de otras toxinas más o menos misteriosas.

Los medios de comunicación, la publicidad y el boca a boca hablan con frecuencia de “toxinas” que nos amenazan y que incluso pueden acumularse en nuestro cuerpo con funestas consecuencias. Esta afirmación se encuentra, con gran frecuencia, entre los practicantes o comerciantes de diversas prácticas pseudomédicas llamadas en general “medicinas alternativas”.

Estas prácticas consideran que hay sustancias tóxicas que nuestro organismo, por alguna deficiencia no especificada, no puede eliminar y que nos ponen en grave riesgo. Por ello, recomiendan la “desintoxicación” frecuente con una serie de prácticas que van desde lo inocuo hasta lo altamente peligroso, desde la ingestión de productos hasta la práctica de violentas lavativas rebautizadas como “hidroterapia del colon”.

Sin embargo, los practicantes de estas disciplinas nunca han podido caracterizar dichas toxinas, es decir, no pueden informar dónde se encuentran, qué composición química tienen, cómo se originan, cómo se acumulan, cómo sabemos que una persona las ha acumulado o no y, mucho menos, pueden demostrar cómo las prácticas que recomiendan pudieran, efectivamente, obligar a nuestro organismo a finalmente eliminarlas.

La fisiología y la medicina nos dicen que nuestro cuerpo tiene sistemas sumamente eficaces para descartar sus desechos, desde las enzimas hepáticas hasta el sistema urinario y digestivo. Del mismo modo, nos ha demostrado que nadie acumula toxinas ni desechos salvo en casos médicamente relevantes como la diverticulitis intestinal. Quizá, entonces, valga la pena ser escépticos con quienes nos ofrecen vendernos productos, manipulaciones o sistemas más o menos mágicos para eliminar “toxinas” que ni siquiera pueden demostrar que estén allí. Si estuvieran, ciertamente nos enteraríamos con síntomas más allá de sentirnos nostálgicos e incómodos.


Las toxinas benéficas

Como en el caso de todos los venenos, una toxina no lo es a menos que exista en la cantidad o concentración suficiente para causar daño. La utilización controlada, médicamente comprobada y cuidadosamente supervisada de muchas toxinas es fuente de notables beneficios médicos, desde el uso de hemotoxinas para disminuir el índice de coagulación de la sangre hasta, más frívolamenet, la toxina botulínica usada en mínimas concentraciones para paralizar los músculos faciales, evitar arrugas y verse más joven.