Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El universo químico

¿Usted se preocupa por las sustancias químicas en nuestros alimentos, productos y ambiente? Quizá convenga recordar qué son esas sustancias y dónde podemos encontrarlas.

Un libro de 1938 ya resumía la composición química del cuerpo
humano y fijaba el precio de todos los elementos intervinientes
en 90 céntimos de dólar de la época.
Los medios de comunicación, la publicidad y los mensajes distribuidos en las redes sociales sugieren continuamente que las sustancias químicas son malas y debemos rechazarlas. Y, ocasionalmente, recibimos mensajes sin origen claro ni fuentes fiables que advierten contra tal o cual sustancia o producto, por efectos para la salud que no han detectado los encargados de garantizar la seguridad de los productos en sociedades como la europea o la estadounidense.

Esta actitud ha sido objeto de atención de los psicólogos, que han definido como “quimiofobia” al sentimiento irracional de rechazo o temor a la química y las sustancias químicas, tendiendo a considerarlas como venenosas.

La publicidad aprovecha para ofrecer productos como “naturales”, que “no tienen químicos” y sugiriendo que, por tanto, son mejores que su competencia.

E incluso hay la idea de que una misma sustancia química de origen “natural” es mejor que la misma sustancia química sintetizada en una fábrica o en un laboratorio, como si nuestro cuerpo pudiera identificar si una molécula de, por ejemplo, niacina (vitamina B3) proviene de una planta o no, algo que sería una verdadera hazaña.

¿Hay alguna base para pensar así?

El universo está formado por materia y energía, que son manifestaciones intercambiables de un mismo fenómeno, y la materia, esta formada de partículas que se unen en los átomos de los elementos.

Todos los elementos están organizados en la tabla periódica de los elementos. 94 pueden encontrarse en la naturaleza, algunos en mínimas cantidades, y hemos producido más de 20 sintéticos, todos ellos radiactivos, inestables y generalmente en pequeñísimas cantidades.

Así, nuestra realidad está hecha, toda, básicamente de 90 elementos químicos, que se unen según reglas que hemos descubierto en los últimos 350 años para formar compuestos químicos. Y los compuestos químicos se unen o ensamblan a su vez formando moléculas complejas.

Así, la madera, los bebés, el sol, los diamantes, las abejas y los ordenadores son todos mezclas de sustancias químicas. Lo que ahora el lenguaje popular llama “químicos” imitando al idioma inglés. Usted mismo, como seguramente sabe, está hecho principalmente de agua, la sustancia química fundamental para la vida. Pero el agua está formada por hidrógeno y oxígeno, así que podemos decir que el cuerpo humano es principalmente oxígeno.

El 65% de la masa de nuestro cuerpo es oxígeno, de hecho. 18% es carbono, 10% es hidrógeno, 3% es nitrógeno, 1,5% es calcio, 1,2% fósforo, 0,35% potasio, 0,2 azufre, 0,2% cloro, 0,2% sodio, 0,1 magnesio, 0,05% hierro y cantidades muy, muy pequeñas pero muy importantes de otros elementos como cobato, cobre, zinc, yodo, selenio y flúor.

Así que es imposible que exista ningún objeto, alimento, limpiador, cosmético o producto alguno “sin químicos” porque... ¿de qué estaría hecho, entonces?

El conocimiento de la química nos ha permitido no sólo entender las sustancias que están a nuestro alrededor, sino también reproducirlas o incluso crear nuevas sustancias. Esto no es un fenómeno nuevo. El beneficio y transformación de los metales, el curtido de pieles y la elaboración de vino y cerveza ya implicaban importantes transformaciones químicas. Pero a partir de la revolución científica, las posibilidades se multiplicaron.

Como era de esperarse, el hombre ha usado de modo incorrecto algunas sustancias de origen natural, no sabiendo que eran dañinas. La gota, afección prevaleciente en las articulaciones de los ricos romanos, era producida por el altísimo consumo de plomo, un metal que hoy sabemos que es venenoso, y que se usaba igual para fabricar las cañerías de agua (debido a su gran ductilidad) que en forma de azúcar de plomo para endulzar el vino.

Lo mismo ha ocurrido con otras sustancias sintéticas desarrolladas en los últimos 200 años. Aunque gracias a un conocimiento cada vez más amplio de los procesos químicos en el interior de nuestro organismo, y a los procedimientos de prueba de las sustancias que llegan al consumidor, los riesgos de efectos desconocidos de diversas sustancias naturales o no son cada vez menores.

Porque, pese a la propaganda quimiofóbica, lo que debe preocuparnos es el efecto de cada sustancia y la cantidad que podemos –o debemos, incluso– consumir de cada una.

No todo lo natural es bueno y no todo lo sintético es malo, como parecen creer algunas personas. De hecho, las tres sustancias más venenosas que conocemos, es decir, as que pueden matarnos con las dosis más pequeñas, son de origen natural. La bacteria del botulismo es mortal debido a que produce la toxina botulínica, una potente mezcla de siete neurotoxinas que pueden provocar la parálisis y la muerte. La bacteria del tétanos provoca la rigidez de los músculos y la muerte con la toxina tetánica, y es la segunda sustancia más venenosa. La tercera es la toxina que produce la bacteria que causa la difteria, y que nos puede matar provocando la destrucción del tejido del hígado y del corazón.

La química en muchas ocasiones ha producido sustancias sintéticas basadas en otras naturales. Un ejemplo bien conocido es el ácido acetilsalicílico, mejor conocido como aspirina. Era ya conocido por los sumerios hace 4.000 años que la corteza del sauce y el mirto tenían alguna sustancia capaz de aliviar los dolores. Esta sustancia es la salicina, que el cuerpo metaboliza convirtiéndola en ácido salicílico. A mediados del siglo XIX ya se podía obtener ácido salicílico como analgésico. Pero tenía un grave problema pese a su eficacia: era tremendamente agresivo para el estómago. En 1897, el químico Félix Hoffman alteró esta sustancia agregándole un radical llamado acetilo, desarrollando el ácido acetilsalicílico, un medicamento enormemente útil y que gracias a esta alteración prácticamente no tiene efectos secundarios.

Como ocurre con la utilización de todas las tecnologías que conocemos, desde el cuchillo, que puede hacer mucho daño o salvarnos en forma de escalpelo y en la mano de un cirujano hábil, lo más conveniente es pensar en las sustancias químicas en términos de sus ventajas y riesgos, para utilizarlas como mejor nos convenga de modo demostrable.

Todo es veneno

Absolutamente todas las sustancias químicas son venenosas en función de la cantidad que consumamos y de las condiciones de nuestro cuerpo. “La dosis hace el veneno” observó agudamente Paracelso, sabio renacentista que fundó la toxicología. Incluso el agua o el oxígeno en exceso pueden matarnos o causarnos graves daños. Todo lo que en cantidades correctas puede resultarnos benéfico, alimenticio, curativo o, cuando menos, inocuo, en dosis elevadas puede causarnos problemas.

Las conexiones cerebrales hackeadas

Estamos habituados a que nuestras percepciones nos den una representación fiable del mundo. Pero en algunos casos podemos perder hasta la capacidad de percibir nuestro propio rostro.

Un intento por representar cómo ve a la gente una persona
con prosopagnosia, la incapacidad de reconocer los rostros.
(Foto CC de Krisse via Wikimedia Commons)
Es común decir que no vemos con los ojos, sino que vemos con el cerebro (o, más precisamente, el encéfalo, que incluye a otras estructuras además del cerebro). Es decir: la luz efectivamente es detectada en nuestra retina por receptores llamados conos y bastones, que la convierten en impulsos que viajan a través del nervio óptico cruzando el área visual del tálamo antes de llegar a la parte de la corteza cerebral que se llama precisamente “corteza visual”, ubicada en la parte posterior de nuestra cabeza, arriba de la nuca. Pero en todo ese proceso aún no hemos “visto” nada. Sólo cuando la corteza visual registra e interpreta los impulsos nerviosos se produce el fenómeno de la visión, es decir, la representación mental de la realidad visible.

Lo mismo se puede aplicar, por supuesto, a los demás sentidos. Todos los impulsos viajan hasta llegar al encéfalo pero es allí donde se produce el proceso de interpretación.

Y cuando ese centro de interpretación falla, por trastornos físicos, fisiológicos o de otro tipo, nuestra percepción y comprensión del mundo puede verse profundamente alterada.

Una de las formas más conocidas de estas alteraciones de la percepción es la sinestesia, una condición neurológica que no es una enfermedad o un trastorno patológico, en la que la estimulación de un sentido o una percepción conceptual dispara percepciones en otros sentidos que normalmente no serían estimulados por ella.

Por ejemplo, al olfatear algún alimento o bebida, la mayoría de las personas sólo perciben el aroma, pero alguien con sinestesia, al percibir un aroma, puede ver determinados colores. Un catador sinestésico, por ejemplo, dice que el sabor de ciertos vinos blancos le evoca un color azul aguamarina. Otros sinestetas pueden experimentar sabores al escuchar sonidos o, alternativamente escuchar sonidos al ver ciertos objetos. Algunas personas con gran capacidad de realizar cálculos mentalmente “ven” los números como si tuvieran un color determinado, y en las operaciones matemáticas manipulan colores más que trabajar con los números.

Aunque la sinestesia fue descrita ya por Francis Galton, primo de Charles Darwin, a fines del siglo XIX, no empezó a ser estudiada científicamente sino hasta 1980 por el neurólogo Richard E. Cytowic, que eventualmente escribió el libro “El hombre que saboreaba las formas” explicando el trastorno. Aunque se sabe por tanto poco de esta condición, algunos estudios indican que en los sinestetas las conexiones neurales entre distintas áreas sensoriales del encéfalo tienen más mielina, sustancia que recubre las neuronas permitiendo que los impulsos nerviosos viajen más rápidamente. Esto podría ser parte de la explicación de esta curiosa unión de los sentidos en nuestro cerebro, comunicando zonas que generalmente estarían aisladas entre sí.

Las inquietantes agnosias

Otras alteraciones mucho más inquietantes y claramente patológicas son las diversas agnosias. La palabra “agnosia” significa ausencia de conocimiento, y se usa para denotar a las afecciones en las cuales la persona no puede reconocer ciertos objetos, sonidos, formas, aromas, personas o conceptos pese a que su sistema sensorial esté intacto. El problema se origina habitualmente con una lesión o enfermedad neurológicas.

Así, por ejemplo, una persona con agnosia del color puede reconocer el color verde y diferenciarlo de otros colores distintos, pero no distinguirlo y nombrarlo, de modo que puede parecerle perfectamente normal el proverbial perro verde.

Hay más de 25 formas de agnosia reconocidas, principalmente de tres tipos: visuales, auditivas y táctiles. Algunas sencillas como la sordera cortical, en la que los sonidos simplemente no son percibidos. Otras se expresan de modo más complejo, como la prosopagnosia o ceguera a los rostros, en la que los pacientes no pueden reconocer rostros que les deberían ser familiares. Incluso pueden no reconocer su propio rostro. Al verse en un espejo saben que ese rostro les pertenece, pero es como si lo vieran por primera vez. Igualmente, al ver una fotografía de una persona conocida o un familiar pueden describir el rostro, decir si es hombre o mujer, su edad aproximada y otras características, pero sin reconocer que pertenece a una persona que conocen previamente. Otra forma de agnosia visual hace que no se puedan reconocer ciertos objetos más que en su función general: un paciente puede identificar que un tenedor es una herramienta que sirve para comer, pero lo puede confundir con una cuchara o un cuchillo, que también sirven para comer, sin ser capaz de distinguirlos entre sí.

La negligencia es una de las más extrañas formas de agnosia en la que el afectado no reconoce nada que esté de uno de los lados: se peinan o afeitan o maquillan sólo un lado del rostro, pueden sólo ver un lado de un corredor o un cuadro e incluso comer sólo la comida que está en un lado del plato, como si todo lo que estuviera del otro lado simplemente no existiera.

Los trastornos pueden tener una expresión opuesta y en vez de afectar a las percepciones pueden alterar las acciones de las personas, la llamada “apraxia” o incapacidad de realizar c ciertos movimientos o acciones. Si en las agnosias el sistema de percepción está intacto, en las apraxias los afectados no tienen problemas musculares, pero su encéfalo es incapaz de ordenar, por ejemplo, que se muevan correctamente para crear expresiones faciales, mover uno o más miembros o incluso no poder hablar.

Las distintas formas de la agnosia y la apraxia, junto con la identificación de las lesiones encefálicas a las que está asociada cada una de ellas, han permitido ir haciendo un mapa que indica en qué punto se procesa determinada información, ayudando a la comprensión de nuestro cerebro, su estructura, organización y funcionamiento, mientras al mismo tiempo se indagan formas de diagnosticar correctamente las agnosias conseguir la curación de los afectados por la agnosia, o al menos una recuperación parcial que les permita funcionar en su vida cotidiana reduciendo los efectos del trastorno.

Oliver Sacks y las agnosias

El neurólogo Oliver Sacks, conocido por su trabajo con las víctimas de encefalitis letárgica relatado en la película “Despertares”, con Robin Williams en el papel de Sacks, también ha estudiado las agnosias. Sus casos más apasionantes están reunidos en el libro “El hombre que confundió a su mujer con un sombrero”, título referido a un paciente con agnosia visual un día tomó la cabeza de su mujer intentando calársela como un sombrero, incapaz de distinguir distintas cosas salvo por estar relacionadas con la cabeza.

Nuestro mundo por dentro

Vivimos, sin siquiera darnos cuenta, en la superficie de un planeta turbulento, en el que operan fuerzas colosales de presión, temperatura y movimiento.

Ilustración a partir de un original GNUFDL de Matts Haldin
(vía Wikimedia Commons)
Es muy probable que allí, donde quiera que usted esté, no sepa que se encuentra sobre un material tan caliente como la superficie del sol. Justo debajo de sus pies.

Incluso quizá más caliente.

Para su fortuna, usted está aislado de ese calor, que los científicos calculan hoy en alrededor de los 6.000 grados centígrados. Porque ésa sería la temperatura del núcleo más interno de la Tierra, el centro, del que nos separan unos 5.300 kilómetros de capas de distintos materiales que conforman un planeta que nos resulta casi un desconocido.

Aún no conocemos todos los rincones de la superficie del planeta, y mucho menos sus océanos, como decía Jacques-Yves Cousteau, sabemos más del espacio exterior que de los océanos que cubren más del 70% de la Tierra. Y aún más preguntas encierra el interior del planeta, que sólo conocemos indirectamente.

Los antiguos imaginaron la Tierra como una masa sólida de roca con un interior hueco o, cuando menos, con una enorme cantidad de espacio en su interior, que pudiera albergar ciudades, reinos y mundos enteros: el inframundo griego, el infierno cristiano, la mítica ciudad de Shambalah de los tibetanos o el tenebroso Mictlán o tierra de los muertos de los aztecas, creencias sustentadas en la existencia de cavernas que parecían estar a gran profundidad. Pero no lo estaban. La más profunda conocida es la de Krubera, en la República de Georgia, con unos 2.190 metros de profundidad.

Aunque para fines del siglo XVIII ya los geólogos consideraban inviable que nuestro planeta tuviera espacios vacíos en su interior, la fantasía siguió considerando la posibilidad, como en la novela “Viaje al centro de la Tierra” de Julio Verne, publicada en 1864.

Como las capas de una cebolla

Hoy sabemos que la Tierra tiene un radio medio de unos 6.370 kilómetros, que sería la longitud del pozo que necesitaríamos para llegar a su mítico centro. Mucho más que el pozo más profundo jamás perforado para investigación científica, el llamado Kola SG-3, en la península de Kola, en Rusia que en 1989 superó los 12 kilómetros. Desde entonces, algunos pozos destinados a la explotación petrolera han llegado un poco más hondo... pero no más de 0,187% del radio del planeta

Este agujero, perforado con tantos esfuerzos, es minúsculo incluso en la capa más superficial de la Tierra, la corteza, en la cual vivimos todos los seres terrestres. Tiene un espesor de entre 10 kilómetros en las cuencas océanicas y 70 kilómetros en suelo seco. Pero, además, no es una superficie uniforme, sino que está dividida en diversas placas que, como piezas de un rompecabezas en movimiento, “flotan” sobre la astenosfera, que es la parte más superior del manto terrestre, la siguiente capa viajando hacia el centro. Estas placas tectónicas están en constante, aunque muy lento movimiento, chocando entre sí, a veces hundiéndose una debajo de otra hacia el manto (un proceso llamado subducción), y provocando terremotos. Este movimiento ha sido además el responsable de los cambios que los continentes han experimentado a lo largo de la historia del planeta.

La astenosfera es una capa muy caliente y, por tanto, suave, viscosa y flexible, de unos 180 kilómetros de espesor. Es parte del manto superior, que en conjunto mide 600 kilómetros. Debajo de él está el manto inferior, con unos 2.700 kilómetros de espesor. Contrario a lo que se cree comúnmente, el manto no es líquido, sino fundamentalmente sólido, formado por rocas calientes suaves con una textura como la de una plastilina más viscosa. Estas rocas están formadas principalmente por óxidos de silicio (sílice, la arena común) y de magnesio, además de pequeñas cantidades de hierro, calcio y aluminio. En el manto hay algunas bolsas de roca totalmente fundida, el magma, que en determinadas circunstancias puede salir a la superficie en forma de lava en las erupciones volcánicas.

Debajo del manto se encuentra el núcleo, que también se divide en dos secciones, el núcleo exterior y el interior. El núcleo exterior tiene unos 2.200 kilómetros de espesor y está formado por níquel y hierro líquidos a una temperatura de entre 4.500 y 6.000 grados. Las diferencias en presión, temperatura y composicion de este océano metálico provocan corrientes de convexión, es decir, movimientos del material hacia arriba y hacia abajo, del mismo modo en que lo hace el agua en una olla de agua en ebullición. Estas corrientes en ocasiones podemos verlas en el movimiento circular entre la superficie del agua y el fondo de la olla que exhiben algunos ingredientes.

El flujo del hierro líquido en las corrientes de convexión del núcleo exterior genera corrientes eléctricas que, a su vez, son los que generan el campo magnético de la Tierra en un proceso que se conoce como “geodinamo”. El campo magnético producido por el núcleo exterior nos protege del viento solar y es, por tanto, responsable en gran medida de que pueda haber vida en el planeta.

Por debajo se encuentra el núcleo interior, formado principalmente por hierro sólido. Esta aparente paradoja se debe a las colosales presiones a las que está sometido el centro del planeta, calculadas en unas 3,5 millones de veces la presión atmosférica a nivel del mar. Debido a ellas, el hierro del núcleo no puede fluir como un líquido. De hecho, hay estudios que indican que es al menos plausible que el núcleo interno del planeta sea un gran cristal de hierro que gira dentro del núcleo exterior a una velocidad ligeramente mayor que la del resto del planeta.

La realidad es, sin embargo, que no sabemos cómo se puede comportar un elemento como el hierro a esas presiones y temperaturas. Para darnos una idea, los científicos hacen por igual experimentos donde ejercen gran presión sobre materiales calentados con láseres hasta cálculos que utilizan los conocimientos de la mecánica cuántica. Es una forma de conocer el mundo en el que vivimos y al que no podemos acceder directamente. Es más fácil, lo hemos demostrado seis veces, ir a la Luna.

El laboratorio de los terremotos

La mejor forma que tienen los geólogos de estudiar el interior de nuestro hogar es por medio de las ondas que provocan los terremotos. Al estudiar y comparar los registros de sismógrafos situados en distintos puntos del planeta que capturan los mismos movimiento, pueden calcular las diferentes densidades y, por tanto, la composición y estado de las capas por las que pasan –o se absorben– los componentes de movimiento de un terremoto, las ondas S, horizontales, y las ondas P, verticales. El movimiento más rápido o más lento de las ondas a diferentes distancias del epicentro se interpreta para ir mirando la Tierra por dentro, como en una ecografía.

Los animales y la investigación

El delicado tema del uso de animales en la indagación científica, la valoración de los beneficios que pueden dar y el esfuerzo por encontrar otras formas de investigar.

El virus de la poliomielitis se aisló en monos de
laboratorio. El resultado fue la vacuna que ha
salvado a millones de sufrir la enfermedad.
(Foto D.P. Charles Farmer, CDC
vía Wikimedia Commons) 
El estudio de los animales quizá comenzó cuando el Homo habilis empezó a utilizar herramientas para cazarlos y destazarlos, hace alrededor de 2,3 millones de años. Esta especie antecesora, y las que le siguieron hasta llegar a la nuestra (que apenas existe hace unos 200.000 años) tuvo que aprender al menos algunas cosas sobre los órganos internos de los animales con que se alimentaba para hacer de modo eficiente el trabajo de carnicería.

En algún momento, a través de observaciones diversas, el ser humano se hizo consciente de sus similitudes con los demás animales, en especial los mamíferos: cuatro miembros, dos ojos, dos oídos, dos fosas nasales y una boca, más la correspondencia de muchos órganos internos. Y en el siglo IV antes de nuestra era, Aristóteles hizo experimentos con animales como sus observaciones de huevos fertilizados de gallina en distintas etapas del desarrollo que dieron origen a la embriología.

Décadas después, Erisístrato realizó en Alejandría disecciones de animales y humanos con las que describió las estructuras del cerebro y especuló (correctamente) que las circunvoluciones de la corteza se relacionan con la inteligencia. Galeno, en el siglo II de nuestra era hizo los últimos experimentos con animales en 1000 años por la presión religiosa, hasta que en el siglo XII, Avenzoar, en la España morisca, empezó a probar sus procedimientos quirúrgicos en animales antes de aplicarlos a pacientes humanos.

Más allá del interés de la biología por conocer a los seres vivos, fue al desarrollarse la medicina científica a partir de los trabajos de Koch y Pasteur (quien demostró cómo inmunizar a los animales experimentando con ovejas a las que les inoculó ántrax, principio de su vacuna para la rabia), cuando los modelos animales empezaron a emplearse ampliamente en la investigación.

Las pruebas en animales para medicamentos se implantaron por una tragedia acontecida en 1937 en Estados Unidos. Un laboratorio mezcló sulfanilamida (un antibacteriano anterior a la penicilina) con glicol dietileno, producto que no sabían que era venenoso. La comercialización del medicamento provocó la muerte de un centenar de personas.

El escándalo público llevó a promulgar la Ley Federal de Alimentos, Medicamentos y Cosméticos de 1938, que dispuso que no se comercializara ninguno de estos productos si no se probaba primero su seguridad en estudios con animales.

Y así han sido probados absolutamente todos los medicamentos producidos después de la Segunda Guerra Mundial, cuando se generalizó el protocolo de investigación farmacéutica, que requiere primero pruebas en células en el laboratorio, después en animales y, si todo está bien, estudios clínicos con voluntarios.

Hay así dos tipos de investigación que utiliza animales. Una es la investigación básica dedicada a obtener conocimientos y técnicas nuevos en diversas áreas (fisiología, genética, anatomía, bioquímica, cirugía, etc.) y la otra es la prueba de medicamentos, alimentos y cosméticos para garantizar al público una mayor seguridad, reduciendo la frecuencia y gravedad de acontecimientos como el de 1937.

Prácticamente todos los avances de la medicina y gran cantidad de conocimientos de las ciencias de la vida han sido resultado de la experimentación animal, desde los anestésicos hasta los corazones artificiales, desde el aprendizaje y el condicionamiento de la conducta hasta los viajes espaciales. La vacuna para la difteria comenzó protegiendo a conejillos de indias de la enfermedad. Los estudios en perros permitieron descubrir la función de la insulina dándolele una vida mejor y más larga a los diabéticos. Antibióticos como la estreptomicina se usaron primero en animales de laboratorio. El virus de la polio se aisló en monos rhesus (los mismos monos en los que se identificó el factor Rh de la sangre) abriendo la puerta a la casi erradicación de la enfermedad en el mundo desarrollado. Y los primeros antibióticos para la lepra se desarrollaron en armadillos, animales que pueden albergar la bacteria sin ser afectados. Los experimentos con animales nos han permitido descubrir, por ejemplo, que los monos tienen una comprensión de la equidad y la solidaridad, que diversos animales pueden cooperar o que ciertos comportamientos innatos son tan inamovibles como algunas condiciones físicas determinadas genéticamente.

Al paso del tiempo, la preocupación ética por el bienestar de los animales que se utilizan para la experimentación ha llevado a cambios y reducciones drásticos en la experimentación animal, con una creciente atención a evitar todo el sufrimiento evitable y a utilizar otros modelos cuando sea posible.

Sin embargo, en este momento no contamos con modelos para reemplazar a la totalidad de los animales utilizados en investigación. Un caso ilustra esta situación por estar relacionado con nuestros más cercanos parientes evolutivos, los chimpancés. Precisamente por esa cercanía y similitud genética, son los únicos animales que se pueden infectar con el virus de la hepatitis C y por tanto siguen siendo utilizados en investigaciones.

El ideal a alcanzar es que finalmente dejen de usarse animales en la investigación científica. Para ello se ha acordado el modelo de las tres “R”, para el reemplazo de animales con otros modelos, la reducción del uso de animales y el refinamiento de las prácticas para hacerlas más humanitarias. Gracias a este esfuerzo, en 2012, según el periodista científico Michael Brooks, sólo el 2% de todos los procedimientos científicos realizados en animales en Estados Unidos podían causar una incomodidad o daño a los sujetos.

Y esos trabajos de investigación se hacen hoy en día bajo la vigilancia de comités éticos que determinan que sean absolutamente necesarios y se desarrollen en las mejores condiciones posibles... todo mientras nuestros conocimientos de genética, cultivo de tejidos, clonación y otras técnicas permiten prescindir de este tipo de estudios sin quitarle la esperanza a las personas que dependen de estos avances para el alivio a su dolor, sufrimiento y discapacidad.

El problema de la seguridad

En una carta al British Medical Journal, un farmacólogo explicaba el problema de la seguridad y el riesgo y beneficio: si tenemos 4 posibles medicamentos contra el VIH, pero el primero mata a 4 tipos de animales, el segundo a tres de ellos, el tercero a uno solo y el cuarto no mata a ninguno de los animales, aún administrado en grandes dosis, ¿cuál de ellos debemos probar en un pequeño grupo de voluntarios humanos? La respuesta es sencilla: el cuarto. La pregunta más difícil es ¿cómo lo sabríamos de otro modo?