Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Exoesqueleto: un cuerpo mecánicamente optimizado

Un segundo cuerpo que nos permita ser más fuertes, más ágiles, más resistentes está dejando de ser una simple especulación: los robots vestibles o exoesqueletos ya están en la calle.

Miembros de apoyo cibernéticos
de Cyberdyne Studio
(Foto CC Yuichiro C. Katsumoto
via Wikimedia Commons)
Una de las imágenes perdurables del cine de ciencia ficción es sin duda parte de la película Alien, cuando, al final, la teniente Ripley, interpretada por Sigourney Weaver, lucha contra el monstruo extraterrestre tripulando, o llevando puesta, una máquina utilizada para la carga y descarga de equipo, cuyos movimientos se ajustan a los del tripulante y que se conoce como “exoesqueleto” por ser duro y externo, sin contar con que está accionado por una potencia externa al usuario.

La idea de la máquina es sencilla: un aparato que reproduzca las articulaciones humanas, movido ya sea por medios hidráulicos, neumáticos o mecánicos para aumentar tremendamente la fuerza de quien lo lleva o tripula. El aparato tiene la ventaja adicional de que se controla directamente, el movimiento o los impulsos nerviosos son detectados por la máquina y reproducido de modo ampliado, como si fuera un pantógrafo para el cuerpo.

La idea de un exoesqueleto accionado mecánicamente, también llamado “traje robot”, nace, como tantos otros conceptos del siglo XX y XXI, en la ciencia ficción. El escritor estadounidense de aventuras espaciales (género también conocido como “ópera espacial”) Edward Elmer Smith introdujo el primero de estos dispositivos en una novela de su larga serie Lensman en 1937, en la forma de una armadura de combate motorizada.

El control fino de un exoesqueleto y sus posibilidades técnicas fueron examinados con todo detalle por el galardonado autor de ciencia ficción Robert Heinlein en dos novelas. En su clásico militarista Starship Troopers analiza las tácticas que implicaría el combate utilizando exoesqueletos. Esta novela fue, además, la que popularizó ampliamente la idea del exoesqueleto. Por otro lado, en su novela corta Waldo, Heinlein lleva al extremo la idea del pantógrafo del movimiento humano mediante los aparatos llamados, precisamente, “waldos”, que podían amplificar los movimientos de brazos y manos para manipular grandes cargas, como brazos robóticos controlados a distancia o, como se diría más adelante, por telepresencia, pero también podían reducirlos para permitir la manipulación de objetos extremadamente pequeños, por ejemplo, simplificando enormemente la realización de complejas microcirugías que implicaran la sutura de vasos sanguíneos, nervios y tendones.

La ciencia ficción, así, en sucesivas novelas y cuentos, dio a los exoesqueletos imaginarios sus características básicas: control directo mediante los movimientos del usuario, capacidad pantográfica para ampliar o reducir el tamaño o fuerza de dichos movimientos y la posibilidad de funcionar mediante telepresencia.
En el mundo del cómic, la armadura motorizada y los exoesqueletos han tenido también una larga carrera desde Iron Man, el hombre de hierro, personaje de Marvel que a falta de superpoderes cuenta con una potente armadura dotada de numerosas maravillas técnicas y que fue creado por el mítico Stan Lee en 1963. Y en el cine, además del exoesqueleto con el que Ripley vence a la madre extraterrestre, esta tecnología ha estado presente en numerosas películas, la más reciente Distrito 9, donde los extraterrestres llevan exoesqueletos que sólo pueden tripular ellos.

Un atractivo adicional de estos dispositivos sería su capacidad de permitir una vida más plena y de calidad a personas con movilidad disminuida, por ejemplo, pacientes de distrofia muscular o esclerosis múltiple.
Los intentos por hacer realidad el concepto del exoesqueleto mecanizado datan de 1960, cuando la compañía General Electric y el ejército estadounidense emprendieron para crear la máquina llamada Hardiman, cuyo objetivo era permitir que el usuario pudiera levantar grandes cargas. Era un aparato industrial que se esperaba que sirviera para diversas actividades civiles y militares. Pero diez años después, sólo se contaba con un brazo viable, capaz de levantar unos 400 kilos, pero que su vez pesaba un cuarto de tonelada. El diseño completo, sin embargo, entraba en violentas convulsiones al tratar de responder a su tripulante.

En 1986, el soldado estadounidense Monty Reed, que se había roto la espalda en un accidente de paracaídas, se inspiró en la novela Tropas del espacio de Robert Heinlein y diseñó el Lifesuit traje para caminar de nuevo. Lo propuso al ejército y desde 2001 se han creado catorce prototipos. El más reciente permite a Monty caminar kilómetro y medio con una carga de batería y levantar 92 kilos.

De entre los muchos proyectos que están en marcha, el gran salto parece haberlo dado la empresa japonesa Cyberdyne del profesor Yoshiyuki Sankai de la universidad de Tsukuba, con  su exoesqueleto llamado HAL, siglas en inglés de Miembro Asistente Híbrido. Los sensores de HAL detectan no sólo el movimiento, sino las señales de la superficie de la piel para ordenar a la unidad que mueva la articulación al mismo tiempo que la del usuario. El sistema de sensores y el sistema de control autónomo robótico que ofrece un movimiento similar al humano forman el híbrido que hace de este exoesqueleto algo revolucionario.

Desde septiembre de 2009, es posible alquilar en Tokio un prototipo de HAL o, para ser más precisos, de la parte inferior de HAL: una o dos piernas que pesan alrededor de 5 kilogramos cada una, con su sistema de abterías y control informatizado en la cintura, y que se atan al cuerpo del usuario. El alquiler de una pierna por un mes es de 1.120 euros, mientras que un sistema de dos piernas tiene un coste de casi 1.650 euros.

Otros proyectos son el XOS de Sarcos Raytheon que está siendo supuestamente probado en la actualidad por el ejército estadounidense, y las piernas de exoesqueleto que independientemente desarrollan Honda y el Massachusets Institute of Technology-

Quizá, en el futuro, llevar un exoesqueleto para caminar, levantar peso o manejar objetos delicados sea tan común como hoy es llevar gafas. Y probablemente a los primeros que llevaron gafas se les vio con la curiosidad que hoy despiertan los primeros usuarios de los HAL que recorren las calles de Tokio.

¿Para qué un robot vestible?

Un exoesqueleto viable tiene un amplio abanico de posibilidades de aplicación. Permite que los trabajadores manejen grandes cargas, puede ayudar a la rehabilitación de pacientes de diversas afecciones o cirugías, dar movilidad independiente a gente de avanzada edad o con distintos grados de discapacidad (y permitir a las enfermeras cargar y mover a los pacientes sin ayuda). Movilidad, fuerza, independencia... son promesas que, para muchos, representan la máxima promesa de la robótica.

El iconoclasta de los dinosaurios

Bob Bakker, paleontólogo
(foto CC Ed Schipul via
Wikimedia Commons)
Bob Bakker, el curioso paleontólogo que nos enseñó que las aves son dinosaurios, también se ha empeñado en compartir con todos su pasión por los dinosaurios y su suerte.

Ciertos errores sobre los dinosaurios permanecen en nuestro lenguaje habitual cuando consideramos que algo demasiado grande, lento, torpe o anticuado, o destinado a extinguirse por estar mal adaptado es “como los dinosaurios”.

Estos conceptos son remanentes de la visión que se popularizó sobre los dinosaurios a fines del siglo XIX y principios del XX, según la cual los dinosaurios eran criaturas poco inteligentes, lentas, torpes y, sobre todo, de sangre fría, aunque dentro de la comunidad científica estas ideas siempre estuvieron sometidas a debate.

Esta idea condicionó las primeras reconstrucciones de dinosaurios que se exhibieron en 1854 en el Palacio de Cristal de Londres, y que iniciaron lo que llamaríamos la manía por los dinosaurios, siguieron las primeras concepciones y mostraron únicamente esculturas de gigantescos reptiles cuadrúpedos. Los seres así imaginados, se pensó, se habían extinguido por haberse hecho, en lenguaje común, demasiado grandes para poder enfrentar los cambios de su entorno.

Nada de esto refleja fielmente lo que hoy sabemos de los seres dominantes en nuestro planeta durante casi 200 millones de años. Y lo que sabemos es resultado de los descubrimientos que se han dio acumulando: dinosaurios que evidentemente eran bípedos, el archaeopterix que sugería una relación entre las aves y los dinosaurios, y rasgos de depredadores feroces que no podían ser torpes seres de sangre fría.

Los dinosaurios, siempre apasionantes, fueron el tema de un artículo de la edición del 7 de septiembre de 1953 de la revista Life, que un par de años después caería en manos de un inquieto niño de 10 años, nacido en New Jersey, Robert T. Bakker, encendiendo en él una pasión por los dinosaurios que ocuparía toda su vida y lo llevaría a ser el motor del “Renacimiento de los Dinosaurios” a fines de la década de 1960 y principios de la de 1970.

Robert T. Bakker, o simplemente Bob Bakker, estudió paleontología en la Universidad de Yale bajo la tutela de John Ostrom, uno de los grandes revolucionarios del estudio de los dinosaurios, y se doctoró en Harvard. Para Ostrom, como ya había propuesto Thomas Henry Huxley a mediados del siglo XIX, los dinosaurios se parecían más a las grandes aves no voladoras, como los emús o los avestruces, que a torpes reptiles. En 1964, Ostrom descubrió el fósil de un dinosaurio bautizado como Deinonychus, uno de los más importantes hallazgos de la historia de la paleontología. Se trataba de un dinosaurio depredador activo, que claramente mataba a sus presas saltando sobre ellas para golpearlas con sus potentes espolones, y las inserciones musculares de la cola mostraban que la llevaba erguida tras él, como un contrapeso al cuerpo y la cabeza, pintando el retrato de un animal que no podía ser de sangre fría. Su alumno Robert T. Bakker, que además era un hábil dibujante, hizo la reconstrucción gráfica del animal.

Bob Bakker retomó las teorías y trabajos de Ostrom con una combatividad singular que lo puso al frente de un grupo de paleontólogos dispuestos a replantearse cuanto se sabía en el momento acerca de los dinosaurios. El resultado saltó a la luz pública en 1975, cuando Bakker publicó un artículo en la revista Scientific American hablando del “renacimiento de los dinosaurios”, concepto que se popularizó pronto, y dando una idea de los cambios que estaba experimentando la visión de la ciencia respecto de estos apasionantes animales.

Diez años después, convertido ya en un personaje de la paleontología, Bakker publicaría el libro The Dinosaur Heresies (Las herejías de los dinosaurios), donde presentaba los argumentos y evidencias que indicaban que los dinosaurios habían sido animales de sangre caliente; por ejemplo, la activa vida de algunos depredadores, el hecho de que algunos dinosaurios vivieron en latitudes demasiado al norte como para poder sobrevivir sin sangre caliente. Propuso además que las aves, todas las aves que conocemos hoy en día, habían evolucionado, en sus propias palabras “de un raptor pequeño”. Siguiendo a Ostrom, Bakker también sugirió que las plumas existieron mucho antes que existiera el vuelo, idea que se ha visto confirmada por posteriores descubrimientos que nos hablan de dinosaurios no voladores que usaban las plumas como aislamiento térmico.

El triunfo de Bakker se encuentra en el hecho de que, según la taxonomía actual, las aves, todas las aves son, sin más, una rama de los dinosaurios, con lo cual, es evidente, no todos los dinosaurios se extinguieron, convivimos con muchos y los apreciamos.

Pero Robert Bakker es un personaje ampliamente conocido no sólo por su extraordinaria capacidad como paleontólogo, su claridad expositiva como divulgador y su capacidad para pensar las cosas desde puntos de vista novedosos, sino también por ser un ejemplo de profundo anticonvencionalismo. Identificado por su ruinoso sombrero de cowboy, su cola de caballo siempre descuidada y su enmarañada barba, el aspecto es sólo una expresión más de una forma personal y singular de ver la realidad.

En parte su independencia se debe a que no está limitado por los nombramientos académicos y la poítica de claustro. Tiene trabajos y apoyos diversos que le permiten ser esa extraña especie llamada “científico independiente”, y trabajar con menos trabas que sus colegas. Durante más de 30 años ha estado excavando una cantera de fósiles de dinosaurio en Wyoming, donde ha hecho importantes descubrimientos como el único cráneo completo de brontosaurio que se ha encontrado hasta hoy. Y en el proceso se ha dado tiempo para escribir una novela narrada desde el punto de vista de un dinosaurio experto en artes marciales, o una dinosauria, para ser exactos, una hembra de utahraptor.

Documentalista, divulgador, dibujante y novelista, su presencia es tan imponente que Steven Spielberg, que lo tuvo como consultor en Parque Jurásico, lo utilizó como base del personaje ·Dr. Robert Burke” en la segunda parte de la serie, El mundo perdido, donde, por cierto, es devorado por un Tyrannosaurus Rex.

Lo cual, por otra parte, quizás fuera un fin adecuado para el hombre que, con su herejía paleontológica, nos devolvió la fascinación por esos animales que nos legaron el planeta.

Decirlo en lenguaje común

El Doctor Bob Bakker es opositor también del lenguaje académico que, considera, es alienante para las personas que aman a los dinosaurios sin ser científicos. “Hay algunas personas”, dice Bakker, “que piensan que no debemos hablar en lenguaje llano. Yo estoy contra el lenguaje técnico, totalmente contra él. Con frecuencia es una cortina de humo para ocultar un pensamiento descuidado”.

La revolución del cuidado parental

Reconstrucción de nido de maiasaurus
(CC Wikimedia Commons)
A lo largo de la evolución de la vida han aparecido varias formas de cuidado de las crías que mejoran las probabilidades de supervivencia de la especie y que nos permiten aproximarnos al complejo concepto de “el otro como yo”.

En 1924, Henry Fairfield Osborn describió un fósil de dinosaurio descubierto por el paleontólogo Roy Chapman en Mongolia, que había dado a su descubrimiento el nombre de oviraptor, que significa “ladrón de huevos” por encontrarse el cráneo del animal muy cerca de un nido de huevos que se pensó eran de otro dinosaurio llamado protoceratops. La disposición de los huesos fosilizados sugería que la muerte había encontrado al oviraptor en el proceso de rapiña de las crías no eclosionadas de otra especie, pero el propio Osborn advirtió que el nombre podía ser engañoso.

Y lo era.

La idea de que los dinosaurios no cuidaban de sus crías, influyó en la reconstrucción que hizo Chapman de la escena. Investigaciones posteriores demostraron que los huevos que yacían junto al cráneo de ese dinosaurio con aspecto que recordaba a un pavo eran de su propia especie. Con este dato, la interpretación se transformó radicalmente: lo que había encontrado Chapman no era un momento de ataque rapaz, sino la escena de un desastre en el que la muerte sorprendió a una madre cuidando de sus huevos hace 75 millones de años.

Una gran diferencia de concepto del ser humano sobre los dinosaurios media así entre el supuestamente malvado oviraptor y el “maiasaurio” o “dinosaurio buena madre” descubierto y bautizado en los años 60-70 por Jack Horner, el paleontólogo que asesoró Parque Jurásico.

El comportamiento de cuidado de las crías es una apuesta razonable desde el punto de vista de la evolución como alternativa a lanzar miles o millones de crías al mundo sin protección alguna, como es el caso de las tortugas marinas. El nacimiento masivo y sincronizado de miles y miles de tortuguitas marinas tiene por objeto que unas pocas lleguen al mar mientras la mayoría se convierte en alimento los depredadores. Pero el mar tampoco está exento de peligros, y por ello se calcula que por cada mil huevos depositados por las tortugas marinas, sólo llega una tortuga a la edad adulta.

El cuidado de las crías adquiere formas singulares entre los insectos sociales, que tienen numerosos individuos para cuidar, defender y alimentar a las crías. Una colmena de abejas, así, puede ser vista como una maternidad gigante, donde todos los individuos trabajan para garantizar que las crías sobrevivan: cada celdilla del panal es una incubadora con una cría, que es cuidada, defendida y alimentada por toda la colmena hasta que finaliza su estado larvario y puede asumir su propio puesto como coadyuvante de la siguiente generación.

La diferencia entre el comportamiento paternal de las abejas y el de animales con los que sentimos una mayor cercanía como otros mamíferos o las aves, es notable, pero hace lo mismo: emplear el cuerpo y comportamiento de los adultos en favor de la supervivencia de las crías.

Los sistemas de cuidado de las crías conforman comportamientos extremadamente complejos que aún no se comprenden del todo pese a los enormes avances que se han realizado en los últimos años. Cuidar a las crías exige una enorme serie de habilidades, entre ellas la capacidad de identificar y reconocer a las propias crías. Esto no es un problema entre los animales solitarios o en pareja, pero en colonias como las de los pingüinos en la Antártida, cada pareja debe ser capaz de distinguir a su cría de todas las demás, y lo hacen con una asombrosa precisión.

Las aves que cuidan a sus crías solas o en parejas pueden estar razonablemente seguras de que lo que hay en su nido son sus crías, certeza que por otro lado deja el hogar abierto a los ataques de parásitos como el cuclillo, que deposita sus huevos en los nidos de sus víctimas para que éstas sean las que hagan la inversión en cuidado, alimentación y defensa. Al cuclillo le basta camuflar sus huevos como los de sus víctimas, pues una vez eclosionado el huevo, los engañados padres actuarán sin reconocer la diferencia entre el cuclillo y sus crías, lo que puede llevar a que aves relativamente pequeñas se agoten alimentando a crías de cuclillo comparativamente gigantescas.

Así, el animal debe reconocer que una cría es, primero, miembro de su especie, segundo, que es una cría, uno “de los suyos” pero en forma juvenil, es decir, que no es un rival, un depredador, un atacante.

Entre los vertebrados que cuidan a sus crías existe un aspecto “de cría” al que todos somos sensibles: cabeza grande y redondeada, ojos grandes, nariz y boca pequeñas, cuerpo con formas redondas y, con frecuencia, piel, pelo o plumaje en extremo suaves. Este aspecto lo podemos ver no sólo en patos, perros, leones o niños, sino también en los juguetes y dibujos que, al acentuar los elementos “infantiles”, nos provocan sentimientos de ternura y una proclividad a la protección. Un oso de peluche con proporciones de bebé y grandes ojos tristes nos provoca una reacción mucho más positiva que un oso de peluche con las proporciones de un verdadero oso adulto.

Lo que llamamos “instinto materno” es en realidad “instinto parental” pues está presente tanto en el macho como en la hembra de nuestra especie, cosa que no ocurre en especies donde el cuidado de las crías ha quedado en manos sólo de las hembras o, en casos desusados como el del caballito de mar, en los machos.

Lo más relevante, quizá, es que el comportamiento parental, como salto notable en la evolución de distintos tipos de animales, no es sino el inicio de lo que conocemos como altruismo. La capacidad de reconocer a otro ser como similar o igual a nosotros, primero a nuestras crías, luego a otros adultos, es para muchos el inicio de la verdadera ética e, incluso, de la posibilidad de una mejor política humana.

La gran revolución que implica el cuidado de las crías, su reconocimiento y su defensa es, también, que nos da a los humanos la capacidad de ver y comprender conscientemente, que hay valores por encima de nuestro más elemental egoísmo. Y no es poco.

Química, entre otras cosas

De entre los muchos factores de los que depende el desarrollo del instinto maternal, uno al menos es tan aparentemente frío como la presencia de la sustancia llamada oxitocina cuya presencia en el cuerpo de la madre aumenta cuando el bebé estimula el pezón durante la lactancia. La oxitocina está implicada en el proceso de liberación de leche por parte de la glándula mamaria, pero también tiene efectos sedanets y de disminución de la ansiedad en la madre. Estudios resumidos en 2003 sugieren que la oxitocina y el contacto de piel con piel entre la madre y el bebé estimulan su lazo de unión y la compleja y singular relación que establecen.

Diabetes

Modelo tridimensional de la insulina
(CC Wikimedia Commons)

La diabetes y sus complicaciones son un desafío no sólo para los investigadores en busca de una cura, sino para los pacientes afectados física y emocionalmente por esta devastadora enfermedad.

El nombre “diabetes” fue acuñado hacia el año 150 de nuestra era por el médico Areteo de Capadocia. La palabra significa sifón, y Areteo la halló adecuada para describir la necesidad continua de orinar de los pacientes. En su descripción de la enfermedad dijo que era “el derretimiento de la carne y los miembros convirtiéndose en orina”. Señaló además que una vez que aparecía la enfermedad, la vida del paciente era “corta, desagradable y dolorosa”, descripción cruel pero precisa.

La enfermedad fue descrita por primera vez en el 1552 antes de la Era Común por el médico egipcio Hesy-Ra de la tercera dinastía, que observó la necesidad de orinar frecuentemente, lo que hoy llamamos poliuria y confirmó lo que los antiguos curanderos habían observado: que las hormigas se veían atraídas a la orina de las personas con diabetes. La tradicional medicina mágica ayurvédica, en un texto atribuido al médico Sushruta que vivió en el siglo 6 a.E.C., atribuye la enfermedad a la obesidad y una vida sedentaria y la llamó “enfermedad de la orina dulce”, concepto que existe también en las descripciones coreana, china y japonesa de la afección.

Fue el médico persa Avicena quien describió por primera vez algunas de las consecuencias atroces de la diabetes, como la gangrena y el colapso de las funciones sexuales.

Los autores históricos apenas rozaron algunos de los aspectos más desesperantes y angustiosos de la diabetes, que la convierten en una de las afecciones más terribles para sus pacientes. La falta de una curación (al menos en el caso de la diabetes de tipo 1) y el precio emocional que la enfermedad cobra a sus pacientes son motivos de que la diabetes aparezca con frecuencia en la oferta de todo tipo de curanderos. Prácticamente todas las terapias de dudosa utilidad ofrecen, no siempre abiertamente, curación para el cáncer, el sida y la diabetes, con resultados en ocasiones atroces.

La diabetes, o diabetes mellitus se caracteriza porque el cuerpo produce una cantidad insuficiente de insulina (la diabetes de tipo 1), o bien no responde adecuadamente a la insulina, volviéndose resistente a esta hormona, lo que impide que las células la utilicen correctamente (diabetes de tipo 2). En ambos casos, el resultado es la acumulación de azúcar en la sangre.

Hasta 1920, prácticamente todos los tratamientos para la diabetes asumían la forma de dietas especiales, algunas altamente caprichosas. Su origen fue la aguda observación del farmacéutico Apollinaire Bouchardat, que vio que que el azúcar en la orina (glucosuria) desapareció durante el racionamiento de alimentos en París a causa de la guerra francoprusiana de 1870-71. Bouchardat fue también el primero en proponer que la diabetes tenía su causa en el páncreas.

Esto fue confirmado en 1889 por Oscar Minkowski y Joseph von Mering, que extirparon el páncreas de un perro sano y observaron que esto le producía glucosuria. En 1901, Eugene Opie demostró que las células del páncreas llamadas “islotes de Langerhans” estaban implicadas en la diabetes mediante la sustancia que sería identificada por Nicolae Paulescu, la “insulina”. Finalmente, Frederick Grant Banting y Charles Best demostraron que la falta de insulina era precisamente la causante de la diabetes, hicieron el primer experimento en humanos en 1922 y desarrollaron los métodos y dosificaciones para ofrecer, por primera vez, una esperanza sólida de tratamiento eficaz para los diabéticos.

Este logro le valió a Banting y al director del laboratorio, John James Richard Macleod, el Premio Nobel de Medicina o Fisiología de 1923.

La insulina, sin embargo, es sólo eficaz en el tratamiento de la diabetes de tipo 1, y ciertamente no es una cura. Algunas de las complicaciones a largo plazo de la diabetes se pueden presentar en los pacientes aún cuando se traten cuidadosamente.

Las complicaciones crónicas son las responsables del fuerte desgaste emocional que produce esta enfermedad. Entre ellas tenemos posibilidades tales como daños a los vasos sanguíneos de la retina, que pueden ocasionar la pérdida parcial o total de la vista, hipersensibildad en pies y manos; daño a los riñones que puede llegar a provocar graves insuficiencias, daños al corazón, apoplejías, daños a los vasos sanguíneos periféricos que pueden llegar a provocar gangrena , sobre todo en los pies y piernas, dificultades para cicatrizar y sanar las heridas, úlceras diabéticas en los miembros inferiores y las infecciones correspondientes.

Este panorama es sin duda exasperante para todos quienes sufren diabetes. El diagnóstico de esta afección representa un cambio radical de vida, empezando por dietas adecuadas, la necesidad de estar informado y con frecuencia el requisito de administrar la enfermedad, lo que exige que el propio paciente aplique los procedimientos para medir los niveles de azúcar que tiene en sangre y actuar en consecuencia, porque además de las complicaciones crónicas, el diabético corre el riesgo de sufrir problemas agudos como la hipoglicemia o el coma diabético.

La diabetes de tipo 2, donde la cantidad de insulina es la adecuada pero se utiliza incorrectamente por el metabolismo, se trata actualmente con una serie de enfoques que incluyen el aumento en el ejercicio, omitir el consumo de grasas saturadas, reducir el de azúcar y carbohidratos y perder peso, pues este tipo se relaciona muy frecuentemente con la obesidad. También se utiliza la cirugía de bypass gástrico para equilibrar los niveles de glucosa en sangre en el caso de pacientes obesos.

Pese a todo esto, la diabetes sigue siendo una enfermedad que se puede controlar, pero no curar, y que una vez diagnosticada será siempre parte de la vida del paciente. Y es por ello que, además de luchar por una mayor investigación en pos de una cura, los diabéticos deben luchar contra las vanas esperanzas que les ofrecen todo tipo de supuestos terapeutas. Porque quizá el máximo desafío para el diabético es aprender a vivir en paz con su enfermedad mientras sea necesario.


Ingeniería genética e insulina

Desde 1922 los diabéticos tuvieron a su disposición únicamente insulina procedente de vacas y, posteriormente, de cerdos, debidamente purificada, pero que en un pequeño número de pacientes ocasionaba reacciones alérgicas. En 1977 se produjo por primera vez insulina humana sintética, al insertar el gen de la insulina en la secuencia genética de la bacteria E.coli, que se convirtió en una fábrica de esta hormona. La insulina así obtenida no provoca la reacción alérgica pues el cuerpo humano no la considera ajena. Hoy, la insulina humana se produce por toneladas en grandes recipientes de bacterias.

Babbage y sus máquinas matemáticas

El peculiar hombre que ideó el ordenador programable, y diseñó el primer ordenador mecánico, abuelo de los digitales de hoy en día.

En 1991 se presentó al público en Inglaterra un enorme dispositivo mecánico formado por más de 4000 piezas metálicas y un peso de tres toneladas métricas, cuya construcción había tomado más de dos años. Este aparato era, a todas luces, un anacronismo. Llamado “Segunda Máquina Diferencial” (o DE2 por su nombre en inglés), su objetivo era calcular una serie de valores numéricos polinomiales e imprimirlos automáticamente, algo que hacía veinte años podían hacer de modo rápido y sencillo las calculadora de mano electrónicas, compactas y de fácil fabricación.

De hecho, fue necesario esperar nueve años más para que los constructores produjeran el igualmente complejo y pesado mecanismo de impresión, la impresora mecánica que se concluyó en el año 2000, cuando ya existían muy eficientes y compactas impresoras electrónicas a color.

Sin embargo, la construcción de estos dos colosos mecánicos y la demostración de su funcionamiento, esfuerzos que estuvieron a cargo del Museo de Ciencia de Londres, sirvieron para subrayar el excepcional nivel de uno de los grandes matemáticos del siglo XIX y uno de los padres incuestionables de la informática y del concepto mismo de programas ejecutables: Charles Babbage, el genio que concibió la máquina diferencial y la tremendamente más compleja máquina analítica (que muchos sueñan hoy con construir) pero que nunca las pudo convertir en realidad tangible.

El matemático insatisfecho

Charles Babbage nació en Londres en 1791. Cualquier esperanza de que siguiera los pasos de su padre se disiparon en la temprana adolescencia de Babbage, cuando se hizo evidente no sólo su amor por las matemáticas, sino su innegable talento. Ese talento, sus estudios y sus lecturas y prácticas matemáticas autodidactas lo llevaron al renombrado Trinity College de Cambridge cuando apenas contaba con 19 años, donde pronto demostró que sus capacidades matemáticas estaban por delante de las de sus profesores.

Comenzó así una destacada carrera académica. Al graduarse, fue contratado por la Royal Institution para impartir la cátedra de cálculo y allí comenzó una serie de importantes logros, como su admisión en la Royal Society en 1816. Ocupó asimismo, de 1828 a 1839, la Cátedra Lucasiana de Matemáticas en Cambridge, probablemente el puesto académico más importante y conocido del mundo, que ha pertenecido a personalidades como el propio Isaac Newton, Paul Dirac y, desde 1980, por el profesor Stephen Hawking.

Sin embargo, la precisa mente matemática de Charles Babbage chocaba con un hecho impuesto por la realidad imperfecta: los cálculos manuales de las series de números que conformaban las tablas matemáticas tenían una gran cantidad de errores humanos. Evidentemente, estos errores no los cometerían las máquinas.

Máquinas como la construida por el alemán Wilhelm Schickard en 1623, la calculadora de Blas Pascal de 1645 y el aritmómetro de Gotfried Leibniz.

A partir de 1920 y hasta el final de su vida, Charles Babbage dedicó gran parte de su tiempo y su propia fortuna familiar a diseñar una máquina calculadora más perfecta. Diseñó y construyó una primera máquina diferencial en 1821, de la cual no queda nada. A continuación diseñó la segunda máquina diferencial, pero se enfrentó al hecho de que las capacidades tecnológicas de su época no permitían construir de acuerdo a las tolerancias exigidas por sus diseños, en los que grandes cantidades de engranajes inteactuaban, de modo que no pudo hacer un modelo funcional

Sin embargo, habiendo resuelto muchos problemas técnicos con sus diseños, cálculos y desarrollos, procedió a diseñar una tercera máquina, la “máquina analítica”.

Esta máquina analítica tendría un dispositivo de entrada (una serie de tarjetas perforadas que contendrían los datos y el programa), un espacio para almacenar una gran cantidad de números (1000 números de 50 cifras decimales cada uno), un procesador o calculador de números, una unidad de control para dirigir las tareas a realizarse y un dispositivo de salida para mostrar el resultado de la operación.

Estos cinco componentes son precisamente lo que definen a un ordenador: entrada, memoria, procesador, programa y salida. La máquina analítica era, sin más, un ordenador mecánico programable capaz, en teoría, de afrontar muy diversas tareas.

Después de haberla descrito por primera vez en 1837, Babbage continuó trabajando en su diseño y su concepto de la máquina analítica hasta su muerte en 1871.

Entre las pocas personas que entendían y apreciaban los esfuerzos de Babbage había una que resultaba especialmente improbable, Augusta Ada King, Condesa de Lovelace, la única hija legítima del poeta romántico y aventurero Lord Byron. Conocida como Ada Lovelace, brillante matemática de la época.

Ada Lovelace, a quien Babbage llamaba “La encantadora de los números”, llegó a conocer a fondo las ideas de Babbage, al grado que, al traducir la memoria que el matemático italiano Luigi Menabrea hizo sobre la máquina analítica, incluyó gran cantidad de notas propias, entre ellas un método detallado de calcular, en la máquina analítica una secuencia de los llamados números de Bernoulli.

Estudiado posteriormente con todo detalle, se ha podido determinar que el procedimiento de Ada Lovelace habría funcionado en la máquina de Babbage, por lo que numerosos estudiosos de la historia de la informática consideran que este método es el primer programa de ordenador jamás creado.

Ada murió a los 36 años en 1852, y Babbage hubo de continuar su trabajo, no sólo en la nunca finalizada máquina analítica, sino en gran cantidad de intereses: fue el creador del miriñaque o matavacas, el dispositivo colocado al frente de las locomotoras para apartar obstáculos, diseñó un oftalmoscopio y fue un destacado criptógrafo.

Pero nunca pudo, por problemas técnicos y de financiamiento, construir las máquinas que su genio concibió. De allí que la presentación de la segunda máquina diferencial funcional en 1991 resultara, así fuera tardíamente, el homenaje al hombre que soñó los ordenadores que hoy presiden, sin más, sobre la civilización del siglo XXI.

Homenajes

Charles Babbage ha sido homenajeado dando su nombre a un edificio de la Universidad de Plymouth, a un bloque en la escuela Monk’s Walk, a una locomotora de los ferrocarriles británicos y a un lenguaje de programación para microordenadores. El nombre de Ada Lovelace se ha dado a un lenguaje de programación y a una medalla que concede, desde 1998, la Sociedad Informática Británica.

La rata, esa benefactora

Rata albina de laboratorio
(Fotografía de Janet Stephens) 
La imagen negativa de la rata no se corresponde a lo que este animal ha hecho, y sigue haciendo, por nuestra salud y bienestar.

Mucho se identifica a la rata con elementos negativos. En nuestra cultura, a las ratas se les relaciona con la cobardía, con la suciedad, con la transmisión de enfermedades y con cierta dosis de malevolencia no muy bien justificada. Todo ello nos vuelve difícil hacernos a la idea de que la rata ha sido altamente beneficiosa para los seres humanos.

En realidad, “rata” es un nombre que se da a diversas especies de roedores que pertenecen a la superfamilia muroidea, que incluye a los hámsters, los ratones, los jerbos y otros muchos roedores pequeños. Las ratas “verdaderas” son únicamente las que pertenecen a las especies Rattus rattus, la rata negra, y Rattus norvegicus, la rata parda, pero hay muchas otras especies tan similares en tamaño y comportamiento a estas dos que las consideramos simplemente otros tipos de rata.

La rata, sin embargo, no ha sido considerada negativa por todas las culturas. En la antigua China se les consideraba animales creativos, honestos, generosos, ambiciosos, de enojo fácil y dados al desperdicio, y estas características se atribuyen, por medio de la magia representativa, a las personas nacidas en el año de la rata, según el horóscopo chino de 12 años representados por animales.

En la India, los visitantes occidentales suelen horrorizarse ante el trato que los creyentes dan a las ratas en el templo de Kami Mata. Las creencias indostanas suponen que las ratas son la reencarnación de los santones hindús y por tanto se les alimenta, cuida y venera.

En occidente, sin embargo, la imagen de la rata está estrechamente relacionada con la pandemia de la peste negra, la enfermedad que recorrió Europa a mediados del siglo XIV y que acabó con más de un tercio (algunos calculan hasta la mitad) de la población europea. Esta enfermedad, probablemente lo que conocemos hoy como peste bubónica, era transmitida por las pulgas de las ratas negras. Si a esto se añaden los daños innegables que la rata causa a las cosechas y los alimentos almacenados, su mala fama no es tan gratuita.

Esto no impidió, sin embargo, que las ratas fueran una importante fuente de proteínas en oriente y en occidente. La práctica de comer ratas, que hoy atribuimos a unos pocos grupos étnicos exóticos, estuvo presente en Europa hasta bien entrado el siglo XIX.

Sin embargo, la aparición de la una serie de ciencias experimentales, biología, fisiología celular, medicina, psicología y otras muchas requirió de un sujeto experimental fácil de manejar y mantener, barato, y que se reprodujera ferazmente. Y la rata parda resultó un candidato ideal. A partir de 1828, este animal empezó a utilizarse en laboratorios, y en pocas décadas se convirtió en el único animal que se domesticó única y exclusivamente para usos científicos. La rata blanca o albina más conocida como, sujeto experimental es, genéticamente, rata parda o Rattus norvegicus.

Y es en el laboratorio donde la rata ha dado sus más claros beneficios a la humanidad. Sin las ratas, gran parte de nuestros avances médicos y psicológicos habrían sido mucho más lentos y difíciles. De hecho, al paso del tiempo se han creado cepas con distintas características para facilitar el trabajo de investigación. La rata Long Evans o rata capuchona, por ejemplo, que es una rata blanca con la parte superior del cuerpo oscura, como si llevara capucha, se desarrolló como un organismo modelo para la investigación que es además resistente a las epidemias que pueden arruinar un proyecto de investigación de años si atacan un bioterio o espacio destinado a animales vivos en un laboratorio.

Entre otras variedades populares tenemos a la rata Zucker, modificada genéticamente para usarse como modelo genético de la obesidad y la hipertensión, cepas que desarrollan diabetes espontáneamente y a cepas especialmente seleccionadas para ser dóciles a la manipulación repetida por parte del ser humano.

La presencia de la rata en el laboratorio, y la aparición de cepas menos agresivas que la rata silvestre, ayudó a que se popularizara la rata como mascota en algunos países, donde se le considera al nivel de los hámsters, gerbos o conejillos de indias.

Pero la más reciente intervención benéfica de la rata en la vida humana es resultado de las observaciones y visión de Bart Weetjens, un ingeniero de desarrollo de productos belga. Bart se encontró trabajando en la detección de minas antipersonales abandonadas después de diversos conflictos armados, una causa importante de muerte y pérdida de miembros, principalmente en países africanos. Decepcionado por la ineficacia de los sistemas de detección de minas utilizados, Weetjens recordó las características de las ratas que tuvo como mascotas cuando era niño y en 1996 se planteó la posibilidad de que las ratas pudieran olfatear las minas eficazmente.

El trabajo realizado primero en Bélgica y después en Tanzania demostró que las ratas comunes en los campos de la zona, Cricetomys gambianus o ratas gigantes de Gambia, podían detectar las minas antipersonales con su extraordinario olfato. Weetjens fundó la ONG llamada APOPO para entrenar a las ratas que llamó HeroRATS o “ratas heroicas”. Estas ratas aprenden desde pequeñas a asociar el olor de los explosivos con recompensas en forma de comida, y luego, dotadas de pequeños arneses y trabajando en grupos grandes, peinan los campos para encontrar las minas enterradas, con poco riesgo de que la rata pueda detonarlas gracias a su poco peso, lo cual aumenta la seguridad de los humanos implicados en el proceso.

Aunque APOPO se fundó en 1997 para explorar y desarrollar la opción de las ratas detectoras de minas, no fue sino hasta 2003 cuando realmente empezaron a trabajar en el campo en Mozambique, y desde 2004 lo hacen de manera continuada con autorización y licencia de las autoridades mozambiqueñas.

No es extraño que hoy en día exista una pequeña industria casera de captura de ratas para su venta a APOPO, y se espera pronto ampliar las operaciones de APOPO a otros países victimizados por la plaga de las minas, como Angola, el Congo o Zambia, haciendo crecer el número de personas directamente beneficiadas por este roedor de larga cola y, desafortunadamente, con tan malas relaciones públicas en nuestra sociedad.

Ratas contra la tuberculosis


Bart Weetjens coordina actualmente un nuevo proyecto basado en observaciones realizadas en varias ocasiones. Su objetivo es que las ratas puedan detectar por medio del olfato la presencia de tuberculosis en muestras de saliva. Este sistema podría facilitar la detección a bajísimo costo en grandes poblaciones y detectar la enfermedad en sus primeras etapas, cuando es más fácil su curación y la recuperación posterior de los pacientes.

Manchas solares: el rostro del sol

Las manchas solares son una de las características observables del Sol que más información nos han dado sobre el funcionamiento y composición de la estrella central de nuestro sistema planetario.

Durante la mayor parte de la historia humana, el sol fue considerado el epítome de la perfección: redondo, dorado, dador de luz y calor, sin imperfecciones aparentes. No es extraño que fuera uno de los principales candidatos a dioses de muy diversas culturas.

Esto no quiere decir que no se hubieran observado imperfecciones en la faz del sol. Los astrónomos chinos informaron de la observación de manchas en el sol alrededor del año 30 antes de la Era Común, como lo hicieron otros al registrar una gran mancha en el sol al momento de la muerte de Carlomagno. El científico andalusí Averroes hizo una de las primeras descripciones de las manchas solares, y Johannes Kepler observó una mancha solar que atribuyó (como la descripción de la mancha de Carlomagno) a un tránsito de Mercurio ante el sol. Otros, como David Fabricius y su hijo Johannes observaron estas manchas y las describieron en 1611.

Tuvo que llegar Galileo Galilei con su telescopio para observar las manchas solares más o menos al mismo tiempo que los Fabricius y que el astrónomo inglés Thomas Harriot, y dar en 1612 la explicación insospechada de que esas manchas se hallaban en la superficie del sol, que por tanto no era perfecta como lo afirmaba la tradición aristotélica. Las manchas y la rotación del sol sobre su propio eje fueron elementos básicos para echar por tierra las creencias previas. Pronto se observó que la cantidad de manchas y su posición variaban cíclicamente, y se calculó que eran más frías que el resto de la superficie solar.

El sol es un esferoide de plasma, un estado de la materia que se describe como un gas parcialmente ionizado con electrones libres. El plasma del sol es principalmente hidrógeno, que se fusiona formando helio y desprendiendo la energía que nos da vida, como un gigantesco horno nuclear.

El movimiento de convección del plasma del sol provoca la aparición de ligeras depresiones en la superficie, las manchas solares, áreas relativamente oscuras donde la actividad magnética inhibe la convección del plasma solar y enfría la superficie radiante. Estas manchas tienen dos zonas. La central, llamada “umbra”, es más oscura y en ella el campo magnético es vertical respecto de la superficie del sol. A su alrededor está la “penumbra”, más clara y donde las líneas del campo magnético están más inclinadas. Estas manchas se forman en pares de polaridad opuesta, suelen aparecer en grupos y tienen una vida de aproximadamente dos semanas.

La observación de las manchas solares nos ha permitido conocer los ciclos de actividad solar, el más conocido de los cuales dura alrededor de once años, y se ha documentado con bastante precisión desde marzo de 1755. Este ciclo es la mitad de uno de 22 años, pues cada 11 años, el sol invierte su polaridad magnética.

Al inicio del ciclo solar, en su mínimo de actividad, las manchas se forman principalmente en las latitudes superiores, es decir, cerca de los polos del sol, y al avanzar el ciclo y aumentar la actividad del sol, la aparición de manchas se va trasladando hacia el ecuador de la estrella.

Además del conocido ciclo de 11 años, la actividad solar tiene otros que apenas estamos descubriendo. Así, en los casi cuatro siglos de observación de las manchas solares, hay un período singular conocido como el “mínimo de Maunder”, que ocupó prácticamente todo el siglo XVII y durante el cual el número de manchas solares disminuyó notablemente, a una decena o incluso menos, comparada con las casi 250 manchas solares observables en el máximo de 1951, pero no sabemos si haya un ciclo merced al cual dicho mínimo se repetirá en un futuro previsible.

Los cambios que sufre el sol no se refieren sólo a su irradiación de luz visible y calor, sino también a su radiación ultravioleta, de viento solar y flujo magnético. La aparición de grandes cantidades de manchas y fulguraciones solares, o tormentas solares advierte de una mayor actividad del viento solar y los efectos magnéticos en nuestro planeta.

La tormenta solar más potente que se ha registrado ocurrió a fines de agosto y principios de septiembre de 1859, y fue anunciada por la aparición de una gran cantidad de manchas solares en el ecuador solar el día 28 de agosto. La perturbación magnética que representó provocó el fallo de los sistemas de telégrafos en toda Europa y América del Norte, a hizo que se observaran auroras boreales an latitudes desusadas, como en Cuba, Roma y las Islas Hawai.

Con este antecedente, sabemos que la próxima tormenta solar fuerte puede ocasionar graves consecuencias dada la tecnología que utilizamos en la actualidad. Tormentas solares de menor intensidad han afectado a varios satélites de comunicaciones, afectando a Internet, señales de televisión, GPS y telefonía móvil.

Por esta causa práctica, además de la investigación científicamente pura, él interés de la ciencia por observar el sol e interpretar los cambios en su superficie continúa. El sol es continuamente observado por astrónomos profesionales y aficionados utilizando telescopios en tierra y en órbita, ópticos, de rayos X, ultravioletas, infrarrojos y con diversos detectores como los que se encuentran en el observatorio SOHO (siglas de Observatorio Solar y Heliosférico), que desde 1995 vigila a nuestra estrella.

Con todos los datos que se recopilan, se busca determinar si el calentamiento global es parte de un ciclo natural de nuestro planeta y del sol y en qué medida es producto de la actividad humana, pues ya casi ningún experto duda de que el hombre juega un papel en este aparente cambio climático.

El último máximo solar ocurrió en 2001, y por tanto estamos actualmente en un período de baja actividad. De hecho, hasta junio de este año se registraron más de 670 días sin que aparecieran manchas solares y el viento solar está en niveles desusadamente bajos que son ideales para el estudio de nuestro sol, con esas imperfecciones que, si bien destruyeron un modelo atractivo de un universo perfecto, nos han permitido saber mucho de la fuente misma de la vida en nuestro planeta, nuestra estrella madre.

Ver el sol con cuidado

Como en todos los trabajos astronómicos, los aficionados pueden hacer grandes aportaciones en la observación del sol. Sin embargo, siempre es bueno recordar que Galileo, el padre de la astronomía telescópica, acabó casi ciego por ver el sol sin protección. Los aficionados deben tener presente siempre que deben usar filtros especialmente diseñados para observar el sol, no sustitutos, por oscuros que parezcan, que pueden dejar pasar rayos UV que afectan la retina.

El misterio interior

Electrodos para una lectura
electroencefalográfica
(CC Bild Verbessert, vía
Wikimedia Commons) 
¿Cómo se producen nuestros pensamientos y emociones y dónde se asientan en nuestro cuerpo? Uno de los misterios más grandes se encuentra por igual dentro de nosotros y muy, muy lejos.

La máxima socrática “conócete a ti mismo” implica, de modo clarísimo, la necesidad de conocer cómo funcionan nuestros sentimientos, nuestras emociones y nuestras ideas o pensamientos. Somos lo que sentimos y pensamos, y la forma en que reaccionamos ante distintos estímulos o acontecimientos. Todo ello ocurre dentro de nuestro cerebro, y conocerlo ha sido una aventura singular de la que aún queda por contar la mayor –y mejor– parte.

En la antigua Grecia, hacia el 450 antes de la Era Común, el médico Alcmaeon realizó una serie de observaciones por las que dedujo que el asiiento de las emociones y los pensamientos no era el corazón, como creían los egipcios, sino ese misterioso órgano, el cerebro.

En años posteriores estudiosos como Herófilo de Calcedonia confirmaron que la inteligencia se encontraba en el cerebro, y su contemporáneo Erasístrato incluso relacionó la complejidad de la superficie del cerebro humano, comparado con los de otros animales, a una inteligencia más desarrollada.

Sin embargo, para la historia de occidente y durante muchos siglos, se impuso la visión de Aristóteles, según el cual era el corazón el que controlaba la razón, las emociones y los pensamientos cotidianos. Esta posición aristotélica dejó abierta la puerta a las más extrañas especulaciones sobre la genuina naturaleza del cerebro. Así, para el médico Galeno, en Roma, era una glándula que contenía los cuatro humores vitales que se creía que existían. Otros supusieron que servía únicamente para enfriar la sangre.

La prohibición de las disecciones en la Edad Media detuvo en gran medida todos los avances de la medicina y la biología humana. Pero incluso cuando se realizaron las primeras disecciones, como las de Vesalio, el cerebro daba al estudioso menos datos que otros órganos. Inmóvil, silencioso, no permitía que sus secretos se desentrañaran fácilmente y vinieron nuevas suposiciones más o menos caprichosas. No fue sino hasta 1664 cuando Tomas Willis ofreció las primeras pruebas de correlación entre estructuras del cerebro y funciones concretas y, en 1791 que el físico Luigi Galvani concluyó, a partir de sus experimentos, que las fibras nerviosas animales transmitían impulsos eléctricos.

Se sentaban así las bases para empezar a conocer ese órgano mudo, cuyo funcionamiento, a diferencia del de otras partes de nuestro cuerpo, sólo podemos ver y estudiar indirectamente, por medio de distintos métodos desarrollados al paso de los siglos.

El primer método, que hoy sigue utilizándose, fue observar a pacientes que hubieran sufrido distintos tipos de lesiones en el cerebro y correlacionar dichas lesiones con cambios en sus emociones, percepciones y comportamiento. El neurólogo parisino Paul Broca empleó este método en 1861 para concluir, mediante la autopsia, que un paciente había perdido la capacidad de hablar sufría una lesión grave en el lóbulo frontal. Estudiando los cerebros de varios pacientes con afasia o problemas del habla, Broca identificó con precisión la zona del cerebro responsable del lenguaje, la llamada “región de Broca” en el lóbulo frontal.

A principios del siglo, en la década de 1900, se intentó utilizar las innovadora técnicas radiográficas para estudiar el cerebro. Sin embargo, el hecho de que el cerebro sea fundamentalmente un tejido suave no radioopaco lo hace de hecho invisible para los rayos X comunes. No fue sino hasta 1929, cuando Hans Berger demostró públicamente su electroencefalógrafo, aparato que mide y registra la actividad eléctrica del cerebro, y que ofreció un nuevo método de observarlo indirectamente. Los datos electroencefalográficos, pese a ser muy limitados, son útiles en diagnósticos psiquiátricos y neurológicos, y en estudios como los del sueño.

Pero más allá de la función, era fundamental poder ver al cerebro en acción, con imágenes tanto estructurales como funcionales, es decir, de la forma y actividad del cerebro. El primer paso para esta observación fue la tomografía computada de rayos X o “tomografía axial computada”, nacida en la década de 1960, ofreciéndonos una imagen tridimensional del interior del cerebro. Las imágenes de resonancia magnética (MRI) fueron el siguiente paso, pues comenzaron ofreciendo únicamente imágenes estructurales, pero para la década de 1980 se había refinado a niveles que permitían la observación del cerebro en acción, naciendo así la fMRI o resonancia magnética funcional. Poco invasiva, sin dolor, sin riesgos y sin radiaciones, es hoy una de las formas de observación indirecta más extendidas, tanto para efectos de diagnóstico como de investigación neurológica.

Hoy en día es frecuente ver imágenes del cerebro en acción, y la activación de ciertas zonas del cerebro al realizar distintas actividades o al verse expuesto a determinados estímulos es un hecho común que aparece con frecuencia en los medios visuales, tanto electrónicos como impresos.

Pero pese al avance que representan, todos estos sistemas siguen siendo extremadamente imprecisos. Vemos que se activan o no ciertas zonas, pero aún no sabemos exactamente qué ocurre y cómo nuestras neuronas, por medio de las sustancias químicas que emplean para comunicarse, interpretan realmente una palabra o una imagen para convertirlas en algo que percibimos subjetivamente. Aún queda mucho por hacer para entender al cerebro, y mientras tanto todo método, incluso el de Paul Broca, sigue siendo una herramienta útil.

El más reciente descubrimiento relacionado con este método fue de investigadores del California Institute of Technology que, trabajando con una paciente que sufre de una lesión bilateral de la amígdala, una estructura que se encuentra en cada uno de los lóbulos temporales del cerebro, han podido determinar que ésta es muy probablemente la parte del cerebro que establece nuestra distancia personal, ese espacio que nos resulta extremadamente incómodo que lo invadan personas que no gozan de nuestra confianza, nuestro territorio individual.

Los pasos en falso

Desde la frenología, que pretendía desentrañar la personalidad mediante la forma e irregularidades del cráneo, hasta el psicoanálisis o los intentos por definir la inteligencia con métodos poco confiables, la investigación del cerebro y sus funciones padeció, quizá más que ninguna otra disciplina, de numerosos pasos en falso. Esto, muy probablemente, se debe a que las neurociencias han sido las disciplinas de desarrollo más lento, pues a los ojos de diversas religiones, su estudio de los pensamientos y emociones se acerca demasiado a un intento por comprender el alma, algo que, creen algunos, el ser humano no debería hacer, por ser un espacio reservado a la deidad.

El auto eléctrico: realidad y sueño

Auto eléctrico cargando su batería en 1919
(DP via Wikimedia Commons)
Los autos eléctricos siempre han existido junto a los de gasolina. El reto es conseguir que sean tan eficientes, atractivos y convenientes que sus contaminantes alternativas.

Los automóviles eléctricos son defendidos como una solución, así fuera parcial, a los problemas que implica la contaminación ambiental producto de la combustión de derivados del petróleo, sobre todo en zonas urbanas, así como ayudar a evitar el agotamiento de los combustibles fósiles y aliviar los problemas poíticos que rodean al tópico oro negro.

Incluso, hay quienes creen, con cierta paranoia, que los fabricantes de autos y las petroleras actúan de modo directo para obstaculizar el desarrollo de estos vehículos. Afirmaciones que suelen tener mucha difusión y ninguna prueba, menos ahora que la industria automovilística está apostando por vez primera cantidades serias al desarrollo del auto eléctrico ideal.

Los autos eléctricos han estado entre nosotros desde los inicios mismos del automovilismo. El motor eléctrico fue concebido en 1827 por el ingeniero, físico y monje benedictino Ányos Jedlik, que lo llamaba “autorrotor electromagnético”. Presentó su invento públicamente en 1828, y en ese mismo año presentó un modelo de auto que usaba su motor eléctrico. Lo siguieron de cerca en 1834 el herrero estadounidense Thomas Davenport, que creó un motor de corriente continua, y en 1837 el inventor escocés Robert Davidson que construyó la primera locomotora eléctrica.

Esta historia fue paralela a la del motor de combustión interna, que se desarrolló entre fines del siglo XVIII y 1823, cuando Samuel Brown patentó el primer motor de combustión interna utilizado industrialmente. Los primeros automóviles prácticos con motores de combustión interna se desarrollaron en Alemania gracias a los trabajos de varios ingenieros que permitieron a Karl Benz crear el primer automóvil en 1885 y empezar a venderlo comercialmente en 1888.

Uno de los problemas del auto eléctrico fue, y sigue siendo, que no puede estar conectado a la red de alimentación eléctrica, de modo que necesita un almacenamiento confiable y económicamente viable de la cantidad suficiente de energía eléctrica para sus necesidades. Los trenes, el metro y los casi olvidados tranvías han sido prácticos por estar conectados a la red eléctrica. Un automóvil, con las características de independencia, movilidad y libertad que le asignamos, necesita en cambio llevar consigo su electricidad.

Los primeros autos eléctricos viables aparecieron a partir de que Gastón Planté inventó, en 1885,  la batería de plomo-ácido, una batería recargable de gran eficiencia y capacidad de suministrar grandes picos de corriente en un momento. Esta batería es esencialmente la que utilizan todavía la mayoría de los automóviles de gasolina y muchos de los diseños de autos eléctricos que almacenan su energía en conjuntos dde baterías de plomo-ácido.

El invento de Planté promovió la aparición de muy diversos automóviles eléctricos, especialmente en Francia y el Reino Unido. Estados Unidos, por su parte, donde en 1859 nació la moderna industria petrolera, no mostró interés por los autos eléctricos sino hasta 1895, y dos años después Nueva York contaba con una foltilla completa de taxis eléctricos, el sueño de cualquier ambientalista del siglo XXI.

Para darnos una idea, al comenzar el siglo XX el 40% de los autos de Estados Unidos eran de vapor, el 38% eléctricos y sólo el 22% de gasolina.

Pero la abundancia del petróleo, la sencillez del motor de combustión y la posibilidad de alcanzar grandes velocidades en autos de gasolina sobre las redes de carreteras y autopistas que de pronto surgieron por todo el mundo, así como la producción en masa de Henry Ford que ofreció autos razonablemente baratos a sus compatriotas, dejaron atrás a los lentos, silenciosos, mansos y nobles autos eléctricos, que salieron de escena.

Pero desde 1990 se reanimó el interés por los autos eléctricos. La tecnología estaba allí. Lo que hacía falta eran mejores baterías, sistemas que permitieran alcanzar velocidades aceptables en los autos eléctricos, posibilidad de recargar más rápidamente las baterías en un mercado acostumbrado a llenar el tanque de combustible en unos minutos y, sobre todo, conjuntar todo esto en un vehículo con precios similares a los de los autos de gasolina. En ese esfuerzo participaron, y participan, desde los fabricantes de autos tradicionales con marcas mundialmente conocidas, hasta pequeñas empresas visionarias.

Una de las soluciones más equilibradas al auto eléctrico fue la de la empresa japonesa Honda: un vehículo híbrido que pueda usar electricidad o gasolina según sea necesario. Honda lanzó el primer híbrido hace apenas 10 años, en 1999.

Sin embargo, debemos tener presente que nuestra tecnología emplea la electricidad como una forma de energia intermedia, no obtenida directamente de la naturaleza. El movimiento de los ríos controlado en las presas hidroeléctricas, las turbinas accionadas por el vapor de agua calentada mediante la fusión controlada en un reactor nuclear, o directamente al quemar petróleo o  carbón, generan la electricidad que después se reconvierte en fuerza motriz para el auto.

Si para generar la electricidad tenemos que quemar carbón o petróleo, dicha energía no es realmente limpia, sólo lo parece porque la contaminación generada por su producción queda lejos del lugar donde se utiliza la electricidad, y en tal caso se plantea como fundamental el problema de la fuente de donde se obtiene la electricidad.

Los autos eléctricos que hoy son candidatos a poder competir realmente con los de gasolina utilizan formas novedosas de almacenamiento de energía, como los sistemas de recuperación de la energía cinética del frenado que en la Fórmula 1 ya se utilizan con el nombre de KERS, las células de energía que utilizan el hidrógeno para generar electricidad y la siempre elusiva presa que es la energía solar.

Mientras tanto, con sus baterías recargables de níquel e hidruro metálico (NiMH), sus opciones híbridas y el apoyo de distintos gobiernos para tener centros de reabastecimiento eléctrico en los mismos puntos de expendio de gasolina, las empresas siguen compitiendo por llegar a tener el auto eléctrico que los consumidores preferirán de modo entusiasta por encima de los de combustión interna. El premio, desde el punto de vista empresarial, podría ser inmenso.

Y además sería un paso hacia adelante en la lucha contra los contaminantes que son, sin duda alguna, amenazas para nuestra salud.

El auto eléctrico en la Luna

El vagabundo o explorador, el automóvil similar a un sand buggy que utilizaron en la Luna los astronautas de la misión Apolo 15, era eléctrico, en un ambiente sin el oxígeno necesario para la combustión de la gasolina, alimentado por baterías no recargables.

Los insectos nos cuentan historias

Cynomya mortuorum, uno de los insectos que
emplea la entomología forense para determinar
el momento de la muerte.
(foto CC James K. Lindsey via Wikimedia Commons)
Los procesos que se desarrollan a partir del momento de la muerte son elemento fundamental para que los científicos forenses puedan decir cuándo y dónde murió alguien, e incluso quién fue el culpable.

La naturaleza muestra poca piedad por los sentimientos de quienes sobreviven a la muerte de un ser vivo. No deja tiempo para el duelo: en el instante mismo en que se apaga la vida, y con ella los sistemas de defensa y protección del organismo, entran en acción multitud de mecanismos diseñados para que la materia orgánica se recicle en el mundo de los vivos.

Así, a los pocos momentos de la muerte, una serie de bacterias que vivían pacíficamente en el organismo, comienzan a devorarlo. La descomposición produce sustancias aromáticas que informan que allí hay proteína disponible, y a ellas responden carroñeros y comensales varios, especialmente insectos.

Para el ser humano, la muerte es otra cosa. La tememos, y mucho. Hemos creado complejos edificios culturales, ritos y sistemas de creencias para enfrentar el temor – y la furia – que nos provoca el hecho de la muerte, perder a los seres queridos, quedarnos solos el saber, como no lo sabe ningún otro ser vivo en este planeta, que ése es precisamente el destino que nos espera.

Quizás por ello, la investigación de los procesos de la muerte quedó postergada hasta tiempos muy recientes, cuando las necesidades de la investigación policiaca de diversos delitos y de la identificación de cuerpos impulsaron los avances de ciencias como la patología, la antropología y la entomología forenses.

La excepción fue el trabajo singular del estudioso chino Sun Tz’u, para muchos uno de los primeros detectives de la humanidad. En el libro El lavado de los males que escribió en 1235, este “investigador de muertes” relata un asesinato ocurrido en una pequeña aldea, en el cual la víctima sufrió numerosas cuchilladas. El juez pensó que las heridas podían haber sido infligidas con una hoz. Como los interrogatorios no sirvieron para identificar al asesino, el juez utilizó el ingenioso procedimiento de ordenar que todos los hombres de la aldea se reunieran en la plaza, un cálido día de verano, cada uno con su hoz. Pronto empezaron a arremolinarse moscas azules alrededor de una hoz en concreto, la que tenía restos de sangre y pequeños trozos invisibles de tejido en la hoja y el mango. El dueño de la hoz confesó el asesinato.

En el libro de Sun Tz’u se narran además observaciones sobre la actividad de las moscas en las heridas y los orificios naturales del cuerpo, una explicación de la relación entre las larvas y las moscas adultas y el tiempo que tardan en invadir un cuerpo muerto. En occidente, por ejemplo, no fue sino hasta 1668 cuando Francesco Redi demostró que las larvas y las moscas son el mismo organismo, dándole un golpe mortal a la teoría de la generación espontánea.

Pero fue en el siglo XX cuando todos los estudios de la entomología, con frecuencia minuciosos y poco apasionantes, se conjuntaron con la investigación criminal para crear lo que hoy conocemos como entomología forense en su aspecto más conocido: el médico legal. La entomología forense utiliza el conocimiento sobre los insectos y otros artrópodos, y sus subproductos, como evidencia en investigaciones criminales.

El aspecto más conocido es la ayuda que ofrece la entomología forense en la determinación de la hora de la muerte y del lugar donde ésta ocurrió. Lee Goff nos relata el primer caso de uso de la entomología forense en occidente se remonta a 1855, cuando durante una serie de trabajos de restauración en una casa parisina se encontró en una chimenea el cuerpecito momificado de un bebé. Los sospechosos de inmediato fueron una joven pareja que por entonces habitaba la casa. El médico forense que hizo la autopsia determinó que el bebé había muerto en 1848, obervando que una mosca de la carne, la Sarcophaga carnaria se había alimentado del cuerpo durante el primer año, y los ácaros habían puesto huevos en el cadáver seco al año siguiente. Estas pruebas revelaban que la muerte había ocurrido bastante antes de 1855, con lo cual se identificó como responsables a los anteriores habitantes de la casa.

Estudiando las larvas, huevos, restos de pupa o insectos con desarrollo incompleto en un cuerpo, el entomólogo puede leer la sucesión de una serie de hechos que han acontecido de modo previsible en el cadáver. Al momento de la muerte, un organismo atrae a una serie de insectos que lo modifican y alteran, donde depositan sus huevos y sus desperdicios; esas modificaciones atraen a otro grupo de insectos totalmente distinto, y así se va desarrollando una sucesión de habitantes, cada uno de ellos indicando una etapa posterior a la muerte.

Los insectos son la forma de vida con mayor variedad del planeta. Conocemos alrededor de 900.000 especies distintas, pero los expertos nos dicen que esto es sólo una pequeña fracción del número real de especies. Debido a esta variedad, cada tipo de animal en cada lugar del mundo atrae a una sucesión única de insectos. Un cadáver en el campo con infestación de insectos sólo presentes en las ciudades le dice al entomólogo que su muerte ocurrió en la ciudad, y que su traslado al campo es, probablemente, un intento por despistar a la policía.

El desarrollo de la entomología forense, sin embargo, no es siempre tan glamuroso como quisieran presentárnoslo los creadores de series de televisión. El entomólogo y acarólogo forense Lee Goff, por ejemplo, ha realizado una serie de poco atractivos experimentos colocando cuerpos de cerdos en distintos puntos de Hawai, donde trabaja, para determinar qué sucesión de qué especies de insectos hay en cada distinto punto de las islas, y los tiempos que tardan en darse las infestaciones (las moscas, por ejemplo, siempre llegan mucho más rápido que los escarabajos). Los entomólogos forenses también trabajan en la famosa “granja de cadáveres” que fundó el antropólogo forense Bill Bass en Tennessee para estudiar los procesos de la descomposición del cuerpo humano.

Sin estos conocimientos como marco de referencia, obtenidos con duro trabajo científico con frecuencia poco agradecido y lejos de los reflectores, los entomólogos forenses del espectáculo no podrían hacer ninguna de sus asombrosas actuaciones.

Más allá de la descomposición

La entomología forense no sólo se ocupa de los insectos que atacan un cuerpo muerto, tiene otros muchos usos en la investigación. En ese sentido, se recuerda a un grupo de policías atónitos ante una serie de manchas de sangre de aspecto totalmente desusado en la escena de un asesinato, hasta que un entomólogo explicó que esos rasgos eran rastros de las muchas cucarachas que infestaban el sitio y que habían pasado por encima de las manchas nomrlaes de sangre, alterándolas.

Mendel, el monje que entendió la herencia

Monumento a Gregor Mendel
en la ciudad de Brno
(Wikimedia Commons)
Entre 1865 y 1866 ocurrió un hecho fundamental para la historia de la ciencia, un descubrimiento que afectó de modo profundo e irreversible la forma en que entendemos la vida, y cómo nos vemos a nosotros mismos en relación con el resto del reino animal.

Y sin embargo, pasaron casi cuatro décadas para que el mundo celebrara este logro singular y revolucionario que se había logrado en lo que aún era el Imperio Austrohúngaro, en la ciudad de Brno o Brünn. Allí, el fraille agustino Gregor Mendel realizó una serie de experimentos sobre la herencia de ciertas características en los guisantes comunes (Pisum sativum). En 1865, presentó los resultados de sus experimentos ante la Sociedad de Historia Natural de Brünn y un año después los publicó en los anales de la proopia sociedad bajo el poco sugerente nombre de Experimentos sobre híbridos de plantas.

Era el primer trabajo experimental que demostraba que la herencia no era cuestión de azar, de o de magia y misterio, sino que respondía a leyes claras, como se había ido descubriendo que pasaba con el resto de la realidad en el proceso de la revolución científica.

Gregor Mendel no trabajaba a partir de cero. Conocía los trabajos de hibridación que granjeros, agricultores y ganaderos hacían a ciegas y de modo empírico, con experiencias de ensayo y error, pues precisamente no conocían cómo se daba la herencia.

La inquietud científica y los conocimientos de Mendel respecto de la tierra tienen su origen en la infancia de Mendel. Sus padres eran granjeros que trabajaban las tierras de la Condesa María Truchsess-Ziel, y su padre conocía los secretos de los injertos de distintos tipos de árboles, y se los enseñó al joven Mendel. La brillantez del joven hizo que sus padres se esforzaran por educarlo, hasta llevarlo a una carrera eclesiástica donde podía estudiar sin ser una carga para sus padres y para él mismo.

Mendel expresó su amor a la naturaleza interesándose en diversas disciplinas que lo llevaron a un puesto como profesor de ciencias naturales para chicos de educación secundaria. Lo apasionaban por igual la meteorología, la biología y, en particular, la evolución de la vida, en momentos en que el debate sobre la evolución estaba en un momento de gran agitación. Mendel realizó un experimento para determinar si era válida la teoría de Lamarck que sostenían que los esfuerzos realizados por un ser vivo a lo largo de su vida producían, de alguna manera, caracteres que podían heredar sus descendientes.

Al ver que el medio ambiente y los esfuerzos de un ser vivo no cambiaban a su descendencia, Mendel empezó a germinar la idea de la herencia. Realizó una serie de cruces de guisantes, por un lado, y de ratones, por otro, simplemente por curiosidad, pero los resultados fueron singulares y le indicaron el camino a seguir. Al parecer, los rasgos se heredaban en determinadas proporciones numéricas. Sus observaciones le llevaron a postular la idea de que algunos rasgos son dominantes mientras que otros son, en cambio, recesivos. Igualmente, se planteó que los genes estaban aislados unos de otros. Todos estos hechos lo llevaron a emprender un singular experimento científico.

Durante siete largos años, Mendel hizo estudios de cruces de la planta del guisante común, determinando que algunas características heredadas no eran una mezcla o resultado a medio camino entre las características de los padres, como lo proponían por entonces la mayoría de los científicos, sino que se presentaban de una u otra forma. Por ejemplo, las flores de la planta del guisante pueden ser moradas o blancas, pero al hacer una polinización cruzada entre plantas de flores de ambos colores, no se obtiene una flor color morado claro. Todas las plantas resultantes tendrán flores blancas o moradas.

Para sus experimentos, Mendel identificó primero siete características de los guisantes que fueran fácilmente observables y que sólo se presentaran en una de dos formas posibles: el color de la flor, la posición de la flor en la planta (en el eje del tallo o en su extremo), el tallo (largo o corto), la forma de la semilla (lisa o rugosa), el color del guisante (verde o amarillo), la forma de la vaina (inflada o constreñida) y el color de la vaina (amarillo o verde).

A lo largo de sus experimentos, Mendel pudo determinar cuáles de esas características eran dominantes (es decir, que se presentaban aunque sólo las tuviera uno de los padres) y cuáles eran recesivas (es decir, que sólo se presentaban si las tuvieran ambos padres), lo cual dio como resultado una proporción aritmética clara de cuántos de los descendientes, en promedio, exhibirían uno u otro de estos rasgos heredados.

Su larga y minuciosa experiencia lo llevó a tres conclusiones. Primero, que la herencia de estos rasgos está determinada por “unidades” o “factores” que se transmiten sin cambios de padres a hijos, lo que hoy llamamos “genes”. Segundo, que cada individuo hereda una de tales unidades de cada uno de los padres. Y, tercero, que un rasgo puede no hacerse presente en un individuo pero aún así puede transmitirse a la siguiente generación.

Esto le permitió enunciar dos principios o leyes de la herencia, los primeros intentos exitosos de describir el misterio de la transmisión de características de los padres a sus descendientes.

En primer lugar, estableció la “ley de la uniformidad”, según la cual al cruzarse dos variedades puras respecto de un determinado rasgo, los descendientes de la primera generación serán todos iguales en ese rasgo. La segunda, “de segregación de las características”, dice que de un par de características sólo una de ellas puede estar representada por un gene en un gameto (espermatozoide u óvulo). La segunda ley es la de la segregación, que dice que los dos genes que contiene cada célula no reproductora se segregan o separan al formar un espermatozoide o un óvulo. Finalmente, enunció que diferentes rasgos son heredados independientemente unos de otros, sin que haya relación entre ellos.

Dos años después de publicar sus resultados, Mendel fue ascendido a la categoría de abad en 1868, con responsabilidades tales que dejó de realizar trabajos científicos.

Mendel murió el 6 de enero de 1884 en la misma ciudad en la que había nacido, en el modesto silencio de un abad trabajador, y no como uno de los grandes científicos de la historia.



El jardinero complejo


Además de su actividad científica, Mendel fue en distintos momentos de su vida titular de la prelatura de la Imperial y Real Orden Austriaca del emperador Francisco José I, director emérito del Banco Hipotecario de Moravia, fundador de la Asociación Meteorológica Austriaca, miembro de la Real e Imperial Sociedad Morava y Silesia para la Mejora de la Agricultura, Ciencias Naturales y Conocimientos del País, y jardinero.


Perros agresivos: mitos y hechos

¿Por qué ataca un perro a una persona? Como en los ataques de cualquier mamífero superior, la respuesta no parece ser tan sencilla como nos gustaría.

Hellen Keller y su pitbull
(Fotografía D.P. vía Wikimedia Commons)
Un experto adiestrador de perros me decía recientemente que los perros pequeños tienden a ser muy agresivos, no debido a su raza, sino porque su tamaño transmite la idea de que son inofensivos y frágiles, y en consecuencia sus propietarios le ponen menos limitaciones a su comportamiento en casa, con pocas reglas demasiado flexibles. Y, acaso conscientes de su inferioridad física, estos animales parecen esforzarse mucho por destacar actuando de modo ostentoso.

La imagen de un perro de talla diminuta ladrándole altanero a otro perro de talla sensiblemente más grande es algo común en nuestras calles, y da fe de lo que comentaba el adiestrador.

Pero, señalaba también este especialista que compite internacionalmente en pruebas de obediencia con sus perros, la gente no suele denunciar el bocado de un caniche, un westy, un chihuahua o un Yorkshire terrier, y esos ataques no entran en las estadísticas. Un ataque proporcionalmente igual de un perro grande y de aspecto feroz no sólo es denunciado, sino que lo retoman los medios de comunicación, y se llega a convertir en arma política y motivo de alarma social.

Y es que, piensa uno, si hay “razas peligrosas”, ¿no es lógico restringir a esas razas y evitarnos molestias o, incluso, tragedias?

Ciertamente sí, si hubiera pruebas de que la “raza” o la herencia genética es la causa del comportamiento agresivo. Pero los datos estadísticos no son sólidos. Hay un total de alrededor de cuatro milloes de perros en España, y los ataques reportados no pasan de 500 al año. Los ataques de perros son fenómenos realmente infrecuentes, y no hay estadísticas fiables que nos digan en cuántos casos el perro actuó por dominancia, o en defensa de su integridad o de su territorio, o por haber sido entrenado para atacar, todo ello independientemente de su raza.

El pitbull se identifica frecuentemente con la agresividad. Se trata de una mezcla entre terriers pequeños y ágiles utilizados como ratoneros y para controlar poblaciones de conejos, con el bulldog inglés. Su fuerza, valor y sobre todo su disponibilidad en los Estados Unidos, hizo que se utilizaran para peleas de perros. Pero no porque tuvieran una agresividad especialmente acusada. Este tipo de perros, entrenados para pelear, enseñados a morder, desgarrar y atacar, son peligrosos no no por su genética, sino por el entrenamiento al que se han visto sujetos. Además, dado que los medios como el cine y la televisión han recogido y fortalecido el estereotipo, mucha gente espera que todo perro con aspecto de pitbull, actúe como si estuviera entrenado para atacar, y actúa inadecuadamente o a la defensiva ante estos perros, provocándolos.

Los dueños de perros supuestamente peligrosos pero que nunca han sido entrenados para pelear, han respondido a las acusaciones, por ejemplo con vídeos que se encuentran en YouTube con sólo teclear “pitbull baby” o “rottweiler baby” o “doberman baby” en la barra de búsqueda de ese sitio, para ver videos de perros supuestamente peligrosos jugando con bebés, conviviendo con ellos e, incluso, soportando con paciencia de santo los tirones, saltos y pellizcos del pequeño de casa.

La aparente contradicción entre la idea de que hay “razas peligrosas” y la experiencia diaria de los dueños de estos perros que no tienen comportamientos inadecuados encontró su respuesta en una investigación realizada en la Universidad de Córdoba y publicada en abril de este año en la revista Journal of Animal and Veterinary Advances.

Un grupo de investigadores encabezados por el Dr. Joaquín Álvarez-Guisado estudió a un total de 711 perros mayores de un año, 354 de ellos machos y 357 hembras, de los cuales 594 eran de “pura raza” y el resto mestizos. Se ocuparon de observar a variedades supuestamente agresivas como el bull terrier, el american pitbull, el pastor aleman, el rottweiler o el dóberman, así como a otras consideradas más dóciles, como los dálmatas, el setter irlandés, el labrador o el chihuahua.

El resultado de la investigación indicó que el factor más importante en la agresividad de un perro es la educación que sus dueños le den... o no le den. En cambio, los factores de menos peso son que el perro sea macho, que sea de tamaño pequeño, que tenga entre 5 y 7 años de edad o que pertenezca a alguna raza en concreto.

Este estudio se concentró en la agresividad surgida de la dominancia del perro, de su lucha por imponerse a todos a su alrededor, y determinó así que entre los factores importantes que provocan agresividad está el que los dueños no hayan tenido perro antes y no conozcan el comportamiento adecuado del amo con su perro, no someterlo a un entrenamiento básico de obediencia, consentir o mimar en exceso a la mascota, no emplear el castigo físico cuando es necesario, dejarle la comida en forma indefinida para que fije sus propias horas de comer y dedicarle poco tiempo y atención en casa además de pasearlo poco. Pérez-Guisado llama a esto simplemente “mala educación” del perro.

En resumen, cerca del 40% de las agresiones por dominancia o competencia de los perros está vinculado a que sus dueños son poco autoritarios y no han establecido la simple regla de que en ese grupo familiar, que el perro ve como su manada, los amos son los dirigentes, los dominantes, los “alfa” de la manada, como les llaman los etólogos.

En resumen, para Pérez-Guisado, “no es normal que los perros que reciben una educación adecuada mantengan comportamientos agresivos de dominancia”.

Conforme más aprendemos de genética, más claro es que salvo excepciones no existen genes “de” ciertas enfermedades o comportamientos, y que las instrucciones de nuestra herencia genética, más que un plano como el de un edificio, son, en metáfora de Richard Dawkins, más como una receta de cocina, donde el medio ambiente y la disponibilidad de ciertos materiales, el desarrollo y las experiencias que vivimos pueden hacer que ciertas características genéticas se expresen o no en la realidad. Y al culpar a la herencia genética del comportamiento de un perro muchas veces sólo estamos justificando a propietarios peligrosos.

La legislación

En España existen individuos y grupos que pretenden utilizar las evidencias científicas para que se derogue la ley de perros potencialmente peligrosos, como la Asociación Internacional de Defensa Canina y sus Dueños Responsables, bajo el lema “Castiga los hechos, no la raza”, con datos tanto del estudio de la Universidad de Córdoba como de los trabajos de expertos en etología y psicología canina. Tienen un antecedente relevante: en Holanda e Italia se han derogado leyes similares al demostrarse su falta de bases científicas.