Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Galvani, Frankenstein y el desfibrilador

El funcionamiento de nuestro cuerpo depende de impulsos eléctricos generados químicamente, algo que empezamos a descubrir hace 220 años.

Mary Wollstonecraft Shelley
(Retrato D.P. de Reginald Easton,
via Wikimedia Commons)
Era 1790 y la señora Galvani, afectada por una fiebre, pidió una curativa sopa de rana. Su marido, el fisiólogo Luigi Galvani, profesor de la universidad de Bolonia, se puso a preparar el brebaje y depositó la bandeja de ranas sobre su mesa de trabajo, donde jugueteaba con la electricidad. Una chispa saltó de un instrumento a la pata de una rana, ésta se contrajo violentamente y Luigi Galvani descubrió la relación entre los impulsos nerviosos y la electricidad.

Este relato tiene un gran atractivo literario, incluido el científico distraído que por error realiza un descubrimiento relevante, pero por desgracia es un simple mito. En realidad, el trabajo de Galvani había comenzado mucho antes, observando cómo la electricidad afectaba a los músculos de las ranas antes de publicar sus conclusiones en las actas del Instituto de Ciencias de Bolonia en 1791 con el título Comentario sobre la fuerza de la electricidad en el movimiento muscular.

La misteriosa electricidad había sido estudiada por primera vez con detenimiento en 1600, por el inglés William Gilbert, entre otras cosas médico de Isabel I, quien descubrió que nuestro planeta es magnético y acuñó el término “electricus” denotar lo que hoy llamamos “electricidad estática”, la capacidad del ámbar de atraer objetos ligeros después de frotarlo.

Pero fueron estudiosos como Benjamín Franklin (quien demostró que los relámpagos son electricidad) o Alessandro Volta los que dispararon el interés por la electricidad. Volta, colega, amigo y vecino de Galvani, consideraba que las convulsiones de las ranas se debían sólo a que el tejido servía como conductor, mientras que Galvani consideraba que los seres vivos tenían y generaban electricidad.

Para demostrar que su amigo se equivocaba, por cierto, Volta creó su primera pila, la madre de todas las baterías, con objeto de tener una corriente eléctrica continua para sus experimentos

Y entonces apareció Mary Shelley, que tenía todavía de apellido Wollstonecraft en 1816, cuando el poeta Percy Bysse Shelley con el que había huido a Ginebra (el escritor estaba casado con otra) les propuso a ella, al también poeta Lord Byron y al médico John Polidori escribir un cuento de terror.

Los miembros del grupo ya habían comentado los descubrimientos sobre electricidad y Mary, de sólo 18 años, leía sobre los descubrimientos del italiano. Tuvo entonces una pesadilla donde vio a un estudiante de “artes impías” dando vida a un ser utilizando una máquina. El resultado fue la novela Frankenstein o el moderno Prometeo, que publicaría finalmente en 1819, ya en Inglaterra y casada con el poeta. Por ese libro, para la mayoría de la gente el apellido “Shelley” evoca al monstruo y a su atormentado creador, antes que a los versos de Ozymandias o la Oda al viento del este.

El debate entre Galvani y Volta se habría resuelto en 1794 con la publicación de un libro de Galvani que incluía un experimento en el cual los músculos de una rana se contraían al ser tocados no por una placa metálica con una diferencia de potencial, sino con una fibra nerviosa de otra rana. Pero por alguna causa, la publicación se hizo de manera anónima.

Hubo de llegar el naturalista alemán Alexander von Humboldt a realizar una serie de experimentos que demostraron que el tejido animal era capaz por sí mismo de generar un potencial eléctrico, lo cual por cierto quedaba también demostrado con su trabajo sobre anguilas eléctricas, cuya capacidad de causar violentas reacciones en sus víctimas era bien conocida, pero no se había explicado hasta entonces.

Demostrado pues que las fibras nerviosas eran conductoras y generadoras de electricidad, se sucedieron los descubrimientos. Supimos que el sistema nervioso está formado por células cuyas prolongaciones forman las fibras nerviosas o que existe un aislante eléctrico natural en estas fibras, la mielina. Se midió la la velocidad de los impulsos nerviosos y se fue describiendo cómo el sistema nervioso transmite órdenes y recibe información electroquímicamente de célula en célula.

Las derivaciones médicas vinieron pronto. Además de los charlatanes que vendían por igual agua electrizada para curarlo todo o slips eléctricos para la impotencia masculina, la detección de los potenciales eléctricos se convirtió en procedimientos de diagnóstico como la electrocardiografía y la electroencefalografía, entre otros, mientras que las descargas eléctricas de intensidad variable se empezaron a utilizar para la estimulación muscular en rehabilitación, para el manejo del dolor, apoyando la cicatrización pues mejoran la microcirculación y la síntesis de proteínas en zonas lesionadas, y aplicadas directamente en el cerebro mediante electrodos para afecciones tan distintas como la enfermedad de Parkinson y la depresión grave.

Pero el más espectacular uso de la electricidad en medicina sigue siendo evocador de las ranas de Galvani y del momento en que Frankenstein le da vida a su criatura: es el desfibrilador. En 1899, los investigadores Jean-Louis Prévost y Frederic Batelli descubrieron que una descarga eléctrica podía provocar la fibrilación (el latido irregular del corazón, que lleva a un fallo catastrófico) mientras que una descarga aún mayor podía invertir el proceso, regularizando el ritmo cardíaco.

Desde 1947, cuando el médico estadounidense Claude Beck lo usó por primera vez para salvar a un paciente de 14 años, el desfibrilador se ha desarrollado y ha salvado una cantidad incalculable de vidas.

Pero el cine y la televisión suelen mostrar el uso de desfibriladores para “poner en marcha” un corazón que se ha detenido (la temida línea recta del electrocardiógrafo con su siniestro pitido). Pero esto no ocurre así. La descarga eléctrica no puede arrancar un corazón detenido. Al contrario, detiene momentáneamente el corazón, bloqueado por impulsos desordenados, de modo que su marcapasos natural, un grupo de células nerviosas llamado “nodo sinoatrial”, pueda entrar en acción. Es una forma de restaurar el funcionamiento corazón. Pero cuando el corazón se ha detenido y el nodo sinoatrial no está enviando impulsos, lo que se utiliza son distintos compuestos químicos para ponerlo nuevamente en marcha… lo cual es bastante menos cinematográfico por útil que resulte.

El temido electroshock

La terapia electroconvulsiva es materia de muchas historias de terror por la forma en que se utilizó en las décadas de 1940 y 1950. Sin embargo, hoy se aplica sólo con el consentimiento del paciente y bajo anestesia. Si bien no es una panacea, no es tampoco un procedimiento que afecte al paciente y sí es una herramienta útil en casos de depresión grave y otros problemas.

Microondas: de las telecomunicaciones a la cocina

Son simples ondas de radio, de longitud un poco más pequeña, pero cuyas características las han convertido en una de las herramientas clave de nuestra vida actual.

El Piruli close view02
Las antenas de Torrespaña, de RTVE
(Foto CC de Xauxa Håkan Svensson,
vía Wikimedia Commons)
Cuando ponemos las palomitas de maíz en el microondas para una sesión doméstica de cine o un partido de fútbol, estamos reproduciendo sin saberlo un experimento de 1945 que llevó el principio del radar a numerosas cocinas en todo el mundo.

El experimento en cuestión fue inspirado por un peculiar accidente. Percy Spencer, ingeniero autodidacta contratado por la empresa Raytheon, estaba investigando las características y fabricación de los magnetrones usados para producir ondas de radar. Un día, después de estar un tiempo frente a un potente magnetrón en funcionamiento, descubrió que se había derretido una chocolatina que llevaba en el bolsillo.

Al día siguiente, Spencer hizo un experimento informal llevando maíz para palomitas a su laboratorio y colocándolo frente al magnetrón, con los mismos resultados que obtenemos nosotros en nuestras cocinas. Un año después, Raytheon empezaba a vender un horno de microondas primitivo, basado en la patente de Spencer… y el público en general se familiarizaba con la palabra “microondas” aunque probablemente no con su significado.

Las microondas se definen son ondas de radio con longitudes de onda entre un metro y un milímetro o bien de frecuencias entre 1 y 100 GHz o gigaherzios (es decir, que oscilan entre 1.000 y 300.000 millones de veces por segundo). Son más potentes y de mayor frecuencia que las ondas que utilizamos para la transmisión de radio y menos potentes que la radiación infrarroja, la luz visible, los rayos X y los rayos gamma.

Una de las características peculiares de las microondas es que ciertas sustancias como las grasas o el agua absorben su energía y entran en movimiento, chocando entre sí y produciendo calor. Es un fenómeno que los físicos llaman “calentamiento dieléctrico” y que es el responsable de que nuestros pequeños hornos puedan calentar la comida “agitando” sus líquidos y grasas sin calentar ni el aire ni los recipientes. Las microondas que utilizan nuestros hornos tienen una longitud de onda de 122 milímetros.

Las microondas habían sido previstas por las ecuaciones publicadas en 1873 por el físico escocés James Clerk Maxwell. Al entender que el magnetismo y la electricidad eran una misma fuerza, la electromagnética, y describir su funcionamiento, preveía la posibilidad de que existieran ondas electromagnéticas invisibles con longitudes de onda mucho mayores que las de la luz visible (que tiene longitudes entre unos 400 y 700 nanómetros, o millonésimas de metro).

Fue Heinrich Hertz quien a partir de 1886 hizo los experimentos que demostraron que estas ondas existían y que se podían transmitir, convirtiéndose en el primer hombre que generó ondas de radio.

El siglo XX comenzó de lleno con el esfuerzo por generar, controlar y utilizar efectivamente esas ondas, con las experiencias y desarrollo de la radio por parte del italiano Guillermo Marconi. Con base en ellas, Nikola Tesla propuso que se podían utilizar ondas electromagnéticas para localizar objetos que las reflejaran, principio que fue utilizado por el francés Émile Girardeau en 1934 para crear el primer radar experimental utilizando el magnetrón, inventado en 1920 por Albert Hull, para emitir microondas, que son reflejadas por los objetos metálicos.

El radar, palabra procedente de las siglas en inglés de “detección y localización por radio”, se desarrolló rápidamente en varios países, pero fueron los británicos los primeros que lo emplearon con éxito para detectar la entrada de aviones enemigos en su espacio aéreo. Continuó siendo un elemento fundamental durante toda la Segunda Guerra Mundial.

Desde el radar y el horno, las microondas han encontrado una variedad asombrosa de usos en nuestra vida.

En el terreno de las comunicaciones, las microondas tienen la ventaja de que se pueden transmitir en haces muy estrechos que pueden ser captados por antenas igualmente pequeñas. Por ello se utilizaron, antes de que existiera la fibra óptica, para crear enlaces terrestres como los de telefonía y televisión. La comunicación por microondas se realiza en lo que se llama “línea de visión”, es decir, no debe haber obstrucciones (incluida la curvatura de la Tierra) entre antenas. Así, la señal se iba relevando de una a otra antena de microondas situadas generalmente en puntos geográficos elevados.

Los satélites se enlazan mediante microondas entre sí y a las estaciones terrestres que los controlan y dirigen, y a todos los puntos a los que envían su información. Todo lo que obtenemos de los satélites nos llega por microondas, sean datos meteorológicos, las fotografías del telescopio Hubble, mediciones del magnetismo terrestre o los datos para la navegación por satélite, como los del sistema GPS estadounidense que hoy está presente en la mayoría de los automóviles y el futuro Galileo de la Unión Europea.

Las microondas, además, permiten la existencia de la telefonía móvil y otros sistemas de comunicación inalámbrica como el bluetooth y el wifi. Su eficiencia a baja potencia permite tener transmisores y receptores pequeños y de bajo consumo. Y pese a todas las afirmaciones poco informadas en contrario, son, hasta donde sabemos, inocuas para la salud humana, lo cual se explica fácilmente al tener en cuenta que tienen mucho menos energía que la luz visible.

La radioastronomía, por su parte, observa la radiación de microondas del universo e incluso las utiliza para realizar tareas tan diversas como calcular la distancia de la Tierra a la Luna o para poder cartografiar la superficie de Venus a través de su eterna capa de nubes.

Estas peculiares ondas de radio podrían ser, además, protagonistas de uno de los avances más anhelados de nuestro tiempo: la fusión nuclear controlada, que podría darnos cantidades enormes de energía con mínima contaminación y a bajo coste. En los reactores, las microondas se emplean para ayudar a calentar el hidrógeno y disparar la reacción en la que las moléculas de este elemento se unen formando helio y generando energía tal como lo hace nuestro sol.

La huella del big bang

En 1948 un estudio predijo que el universo entero tenía una radiación de microondas cósmica de fondo, misma que fue descubierta en 1965 por Arno Penzias y Robert Woodrow Wilson, quienes acabarían recibiendo el Premio Nobel de Física por su descubrimiento. Estas microondas presentes de modo uniforme en todo el universo son ni más ni menos que el “eco” o el calor restante producto de la colosal explosión llamada “Big Bang” en la que se originó nuestro universo, el tiempo y el espacio. No sólo demuestran que ocurrió, sino que pueden decirnos mucho sobre cómo ocurrió.

Alfred Russell Wallace, el pionero oscuro

En la era de los grandes naturalistas ingleses del siglo XX, uno de los más brillantes es hoy uno de los más injustamente olvidados.

Alfred Russell Wallace en su libro sobre
sus viajes por el Río Negro.
(D.P., vía Wikimedia Commons)
La historia nos puede sonar conocida: joven británico emprende un viaje como naturalista de a bordo en una expedición hacia América. Analizando las especies que va encontrando empieza a germinar en su mente la idea de que cuanto ve es una prueba de que las especies se van formando, evolucionando por medio de un mecanismo llamado “selección natural”, mediante el cual los individuos mejor adaptados para la supervivencia tienen una probabilidad mayor de reproducirse, creándose una criba lenta que al paso de larguísimos períodos va llevando a una especie como tal a diferenciarse de otra, a cambiar, a mejorar su adaptación, a sobrevivir mejor.

Sin embargo, ésta no es la historia de Charles Darwin. Es la historia, paralela a la de éste,del segundo genio de la selección natural de la Inglaterra del siglo XIX, Alfred Russell Wallace.

Alfred Rusell Wallace, presuntamente descendiente del independentista escocés William Wallace, nació en Monmouthshire, Inglaterra (hoy Gales) en 1823, como el octavo de nueve hermanos. Cualquier inquietud intelectual que hubiera tenido en su niñez sufrió un duro golpe cuando, a los doce años de edad, su padre, arruinado a manos de unos estafadores, lo tuvo que sacar de la escuela y enviarlo con sus hermanos mayores, uno de los cuales, William, lo tomó como aprendiz de topógrafo.

En 1843, cuando sólo tenía 20 años, el joven Alfred consiguió un puesto como profesor de dibujo, topografía, inglés y aritmética en el Collegiate School de Leicester, donde además empezó a estudiar historia natural, disciplina que lo fascinó, especialmente en cuanto a los insectos y su clasificación.

En 1845, la lectura de un libro de Robert Chambers lo convenció de que la evolución (llamada por entonces “transmutación”) era un hecho real. Tres años después, en compañía de un amigo y colega entomólogo, emprendió el viaje a Brasil, inspirado por otros naturalistas como el propio Darwin, que había hecho su viaje en el “Beagle” en 1831.

Russell Wallace pasó cuatro años recorriendo las selvas brasileñas, recolectando especímenes, haciendo mapas, dibujando animales y escribiendo numerosas notas. Por desgracia, cuando decidió volver a Inglaterra en 1852, el barco en el que viajaba se hundió, dejándolo a la deriva durante 10 días y llevándose al fondo del mar todos los documentos reunidos por el joven naturalista. Sin arredrarse, en 1854 emprendió una nueva expedición, ahora al archipiélago malayo, donde pasó ocho años en total dedicado a documentar la fauna local, describiendo miles de especies hasta entonces desconocidas para la ciencia.

Fue en 1858 cuando, estando convalesciente de una enfermedad en la isla indonesia de Halmahera, Alfred Russell Wallace encontró finalmente una explicación plausible, integral y clarísima del proceso mediante el cual evolucionaban las especies, la selección natural. De inmediato escribió un extenso ensayo explicando su teoría y sus bases, y se la envió a Charles Darwin, con quien ya había tenido correspondencia sobre el tema de la evolución.

Darwin, por su parte, había descubierto el mecanismo de la selección natural años atrás, pero su visión sistemática y pausada (llevaba más de 25 años analizando los datos que había reunido en el “Beagle”, investigando e incluso experimentando sobre temas diversos relacionados con el tema) le había hecho mantener su idea en relativo secreto, hasta estar absolutamente seguro de que los datos la sustentaban. Ahora, sin embargo, el asunto debía saltar al público.

Asesorado por el geólogo Charles Lyell y el explorador y botánico Joseph Dalton Hooker, Darwin aceptó que ellos dos presentaran el ensayo de Wallace y dos extractos del libro que pacientemente había ido redactando Darwin (“El origen de las especies”) ante la Sociedad Linneana de Londres el 1º de julio de 1858, y que se publicaron ese año en la revista de la sociedad con el nombre conjunto de “Sobre la tendencia de las especies a formar variedades y sobre la perpetuación de las variedades y las especies por medios naturales de selección".

Durante los años siguientes, la teoría de la evolución por medio de la selección natural fue conocida como la teoría Darwin-Wallace, y los premios, reconocimientos y críticas recayeron por igual sobre los dos destacados naturalistas, el ya maduro (Darwin estaba por cumplir medio siglo) y el aún joven (Russell Wallace tenía casi la mitad, 25).

Mientras Darwin publicaba un año después su famoso libro y, con el apoyo de Thomas Henry Huxley, capeaba en el Reino Unido el temporal de críticas y malinterpretaciones que produjo, Alfred Russell Wallace continuó trabajando en Indonesia, clasificando, observando y tomando notas.

Cuando finalmente volvio a Inglaterra en 1862, Wallace se dedicó a difundir y explicar la teoría de la selección natural que había creado con Darwin, y a escribir más de 20 libros sobre viajes, zoología y biogeografía, entre ellos “El archipiélago malayo”, un clásico de la exploración y la aventura. Además de ello, tuvo tiempo bastante de disfrutar multitud de honores, premios y apoyos. Incluso cuando se vio en dificultades económicas, contó con la ayuda de Darwin, que consiguió que la corona inglesa le asignara a Wallace un estipendio vitalicio para que pudiera continuar su trabajo sin preocupaciones financieras.

Al morir Alfred Russell Wallace en 1913 a los 91 años, era probablemente el más conocido naturalista inglés. Y sin embargo, conforme la teoría de la selección natural se perfeccionó y afinó con nuevos descubrimientos como la genética para crear la síntesis que hoy explica el surgimiento de las especies, el nombre de Alfred Russell Wallace se fue borrando de la conciencia popular, pese al reconocimiento que Darwin siempre le dio como co-fundador de la teoría de la evolución mediante la selección natural.

Quizá haya alguna clave en el hecho de que Wallace escribiera, con base en las conferencias que dio sobre evolución en los Estados Unidos durante tres años, el libro simplemente intitulado “Darwinismo”, publicado en 1889 y que se convirtió en una de sus obras más citadas, dejándonos con la duda de por qué no lo llamó “Darwinismo-Wallacismo”.

La línea de Wallace

Alfred Russell Wallace fue también uno de los fundadores de la biogeografía, al notar que ,pese a que las islas de Bali y de Lombok, están separadas por apenas 35 kilómetros, la diferencia de su fauna era enorme. Las aves de Bali eran parientes de las que vivían en las islas mayores como Sumatra y Java, mientras que las de Lombok estaban relacionadas con las de Nueva Guinea y Australia. Había encontrado el punto que delimita dos zonas ecológicas distintas, lo que hoy se conoce como la Línea de Wallace.

Locura: la presa escurridiza

El antiguo temor a perder la razón apenas empieza a encontrar respuestas en el estudio científico de las patologías del comportamiento.

"El cirujano" de Jan Van Hemessen en el Museo del Prado
(Copyright ©  Directmedia Publishing GmbH,
Wikimedia Commons) 
En la pintura flamenca del renacimiento y posterior es común el tema de la extracción de la piedra de la locura. En el Museo del Prado podemos verla representada por Hieronymus Bosch (“El Bosco”) y Jan Van Hemessen, y también fue tocado por Pieter Brueghel “El viejo”, Jan Steen, Frans Hals y otros: un cirujano charlatán extrae de la frente de su paciente una piedra que, se decía, era la causante de la locura. Para los pintores es claramente un truco de prestidigitación, como el que hoy realizan “cirujanos psíquicos” que fingen extraer de sus pacientes objetos y supuestos tumores (vísceras de diversos animales).

Éste es un testimonio de la preocupación que el ser humano ha dedicado a la pérdida de la razón, la locura, según haya sido definida en distintos momentos y lugares para diferenciarla de la simple extravagancia, la excentricidad o la rebeldía ante el convencionalismo.

En el principio de la historia humana, y durante varios miles de años, toda enfermedad, y las del comportamiento no eran la excepción, se consideraron producto de la acción de espíritus maléficos o demonios, o un castigo divino como lo señala repetidamente la Biblia. En la Grecia clásica, Aristóteles o Plinio el Viejo afirmaron que la locura era inducida por la luna llena, creencia que en cierta forma persiste en la actualidad en forma de leyenda urbana pese a que la han contradicho diversos estudios.

No eran mejores las interpretaciones que atribuían la locura a una falla moral del propio paciente, visión probablemente reforzada por los efectos de la sífilis, que en su etapa terciaria puede provocar demencia (pérdida de memoria), violentos cambios de personalidad y otros problemas que se atribuían a la disipación sexual de la víctima.

El estudio científico de las alteraciones graves de la conducta y la percepción no se inició sino hasta la aparicion del pensamiento ilustrado, a fines del siglo XVIII, que empezó a considerar estas alteraciones como problemas orgánicos y no espirituales, abriendo el camino a su estudio médico y psicológico.

Tratamientos delirantes y definiciones cambiantes

Los criterios para considerar una conducta como patológica son en extremo variables según el momento, la cultura y las normas sociales, sin considerar casos extremos (la Unión Soviética fue ejemplo claro) donde se declaraba loco a quien no aceptara las ideas del poder político, actitud que, además, no ha sido privativa de las dictaduras.

Pero argumentar que algunos comportamientos pueden ser simples desviaciones de la media, incluso un derecho a disentir por parte del afectado, como plantean algunos críticos, queda el problema de ciertos estados que provocan un sufrimiento claro para quienes los padecen y una disminución de su capacidad de funcionar, como las alucinaciones, los delirios y los problemas de comportamiento y percepción propios de afecciones como la esquizofrenia.

Hasta el siglo XIX no había siquiera un intento de caracterización de los trastornos psicológicos, y sin embargo hubo numerosos intentos de tratamiento poco efectivos y sin bases científicas, desde el psicoanálisis hasta intervenciones directas, químicas o quirúrgicas, que parecen haber surgido como producto tanto de la impotencia ante las alteraciones observadas como de cierto oportunismo producto de la indefensión de los pacientes.

La lobotomía prefrontal (el corte de las conexiones entre la parte más delantera del cerebro y el resto del mismo), el shock insulínico, la terapia de sueño profundo inducido con barbitúricos y la terapia de electrochoques fueron procedimientos ampliamente practicados en pacientes durante la primera mitad del siglo XX, porque parecían tener cierta efectividad. Aunque fueron abandonados o su utilización se afinó para ciertos casos donde su eficacia finalmente se demostró, han servido para dar una imagen negativa de la psiquiatría bien aprovechada por sus detractores.

El cambio en el tratamiento se produjo en la década de 1950, con la aparición de los medicamentos antipsicóticos, que por primera vez ofrecieron, si no una curación, sí un alivio perceptible para los pacientes y sus familias, y a los que se añadieron antidepresivos y ansiolíticos (medicamentos que reducen la ansiedad) para el tratamiento de alteraciones emocionales. Estos medicamentos han ayudado, al menos en principio, a empezar a identificar algunos aspectos químicos de algunas de las escurridizas “enfermedades mentales”.

El desarrollo de estos medicamentos ha permitido el control de algunos de los aspectos de las psicosis que más sufrimiento causan a los pacientes y a sus familias, en particular las alucinaciones y los delirios, pese a no estar exentos de problemas, efectos secundarios indeseables y una eficacia inferior a la deseable.

Del lado de la psicología, las distintas terapias suelen no ser producto de una aproximación científica rigurosos, sino postuladas teóricamente por autoproclamados pioneros, con el resultado de que su eficacia es igualmente debatida. Es sólo en los últimos años cuando se han empezado a realizar estudios sobre los efectos de distintas terapias en busca de bases sólidas para las intervenciones psicológicas.

Finalmente, el área del comportamiento, al no tener en general criterios de diagnóstico objetivos, fisiológicos, anatómicos y medibles, se ha visto sujeta a la aparición de modas diversas en cuanto al diagnóstico y tratamientos, muchas veces en función de la percepción de los medios de comunicación. En distintos momentos se ha diagnosticado a grandes cantidades de personas como depresivas, autistas o bipolares sin una justificación clara, y al mismo tiempo florecen por cientos las más diversas terapias.

El cerebro humano, y en particular la conducta y la percepción, siguen siendo terreno desconocido en el que las neurociencias apenas empiezan a sondear las aguas. La esperanza es llegar a una caracterización clara de las psicopatologías (definidas por sus características fisiológicas, genéticas o neuroquímicas) y tratamientos basados en las mejores evidencias científicas. Pero aún mientras ello ocurre, al menos en parte se ha dejado atrás el embuste de la piedra de la locura que fascinó a los pintores holandeses.

Más allá del ser humano

Aunque no hay comunicación directa, se han observado patrones de comportamiento en primates cautivos que parecen indicar una alteración en los procesos de pensamiento y percepción similares a los desórdenes mentales: agresividad, automutilación, aislamiento de los compañeros de grupo y otras anormalidades del comportamiento que podrían ayudar a caracterizar algún día con más objetividad las psicopatologías humanas.