Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Babbage y sus máquinas matemáticas

El peculiar hombre que ideó el ordenador programable, y diseñó el primer ordenador mecánico, abuelo de los digitales de hoy en día.

En 1991 se presentó al público en Inglaterra un enorme dispositivo mecánico formado por más de 4000 piezas metálicas y un peso de tres toneladas métricas, cuya construcción había tomado más de dos años. Este aparato era, a todas luces, un anacronismo. Llamado “Segunda Máquina Diferencial” (o DE2 por su nombre en inglés), su objetivo era calcular una serie de valores numéricos polinomiales e imprimirlos automáticamente, algo que hacía veinte años podían hacer de modo rápido y sencillo las calculadora de mano electrónicas, compactas y de fácil fabricación.

De hecho, fue necesario esperar nueve años más para que los constructores produjeran el igualmente complejo y pesado mecanismo de impresión, la impresora mecánica que se concluyó en el año 2000, cuando ya existían muy eficientes y compactas impresoras electrónicas a color.

Sin embargo, la construcción de estos dos colosos mecánicos y la demostración de su funcionamiento, esfuerzos que estuvieron a cargo del Museo de Ciencia de Londres, sirvieron para subrayar el excepcional nivel de uno de los grandes matemáticos del siglo XIX y uno de los padres incuestionables de la informática y del concepto mismo de programas ejecutables: Charles Babbage, el genio que concibió la máquina diferencial y la tremendamente más compleja máquina analítica (que muchos sueñan hoy con construir) pero que nunca las pudo convertir en realidad tangible.

El matemático insatisfecho

Charles Babbage nació en Londres en 1791. Cualquier esperanza de que siguiera los pasos de su padre se disiparon en la temprana adolescencia de Babbage, cuando se hizo evidente no sólo su amor por las matemáticas, sino su innegable talento. Ese talento, sus estudios y sus lecturas y prácticas matemáticas autodidactas lo llevaron al renombrado Trinity College de Cambridge cuando apenas contaba con 19 años, donde pronto demostró que sus capacidades matemáticas estaban por delante de las de sus profesores.

Comenzó así una destacada carrera académica. Al graduarse, fue contratado por la Royal Institution para impartir la cátedra de cálculo y allí comenzó una serie de importantes logros, como su admisión en la Royal Society en 1816. Ocupó asimismo, de 1828 a 1839, la Cátedra Lucasiana de Matemáticas en Cambridge, probablemente el puesto académico más importante y conocido del mundo, que ha pertenecido a personalidades como el propio Isaac Newton, Paul Dirac y, desde 1980, por el profesor Stephen Hawking.

Sin embargo, la precisa mente matemática de Charles Babbage chocaba con un hecho impuesto por la realidad imperfecta: los cálculos manuales de las series de números que conformaban las tablas matemáticas tenían una gran cantidad de errores humanos. Evidentemente, estos errores no los cometerían las máquinas.

Máquinas como la construida por el alemán Wilhelm Schickard en 1623, la calculadora de Blas Pascal de 1645 y el aritmómetro de Gotfried Leibniz.

A partir de 1920 y hasta el final de su vida, Charles Babbage dedicó gran parte de su tiempo y su propia fortuna familiar a diseñar una máquina calculadora más perfecta. Diseñó y construyó una primera máquina diferencial en 1821, de la cual no queda nada. A continuación diseñó la segunda máquina diferencial, pero se enfrentó al hecho de que las capacidades tecnológicas de su época no permitían construir de acuerdo a las tolerancias exigidas por sus diseños, en los que grandes cantidades de engranajes inteactuaban, de modo que no pudo hacer un modelo funcional

Sin embargo, habiendo resuelto muchos problemas técnicos con sus diseños, cálculos y desarrollos, procedió a diseñar una tercera máquina, la “máquina analítica”.

Esta máquina analítica tendría un dispositivo de entrada (una serie de tarjetas perforadas que contendrían los datos y el programa), un espacio para almacenar una gran cantidad de números (1000 números de 50 cifras decimales cada uno), un procesador o calculador de números, una unidad de control para dirigir las tareas a realizarse y un dispositivo de salida para mostrar el resultado de la operación.

Estos cinco componentes son precisamente lo que definen a un ordenador: entrada, memoria, procesador, programa y salida. La máquina analítica era, sin más, un ordenador mecánico programable capaz, en teoría, de afrontar muy diversas tareas.

Después de haberla descrito por primera vez en 1837, Babbage continuó trabajando en su diseño y su concepto de la máquina analítica hasta su muerte en 1871.

Entre las pocas personas que entendían y apreciaban los esfuerzos de Babbage había una que resultaba especialmente improbable, Augusta Ada King, Condesa de Lovelace, la única hija legítima del poeta romántico y aventurero Lord Byron. Conocida como Ada Lovelace, brillante matemática de la época.

Ada Lovelace, a quien Babbage llamaba “La encantadora de los números”, llegó a conocer a fondo las ideas de Babbage, al grado que, al traducir la memoria que el matemático italiano Luigi Menabrea hizo sobre la máquina analítica, incluyó gran cantidad de notas propias, entre ellas un método detallado de calcular, en la máquina analítica una secuencia de los llamados números de Bernoulli.

Estudiado posteriormente con todo detalle, se ha podido determinar que el procedimiento de Ada Lovelace habría funcionado en la máquina de Babbage, por lo que numerosos estudiosos de la historia de la informática consideran que este método es el primer programa de ordenador jamás creado.

Ada murió a los 36 años en 1852, y Babbage hubo de continuar su trabajo, no sólo en la nunca finalizada máquina analítica, sino en gran cantidad de intereses: fue el creador del miriñaque o matavacas, el dispositivo colocado al frente de las locomotoras para apartar obstáculos, diseñó un oftalmoscopio y fue un destacado criptógrafo.

Pero nunca pudo, por problemas técnicos y de financiamiento, construir las máquinas que su genio concibió. De allí que la presentación de la segunda máquina diferencial funcional en 1991 resultara, así fuera tardíamente, el homenaje al hombre que soñó los ordenadores que hoy presiden, sin más, sobre la civilización del siglo XXI.

Homenajes

Charles Babbage ha sido homenajeado dando su nombre a un edificio de la Universidad de Plymouth, a un bloque en la escuela Monk’s Walk, a una locomotora de los ferrocarriles británicos y a un lenguaje de programación para microordenadores. El nombre de Ada Lovelace se ha dado a un lenguaje de programación y a una medalla que concede, desde 1998, la Sociedad Informática Británica.

La rata, esa benefactora

Rata albina de laboratorio
(Fotografía de Janet Stephens) 
La imagen negativa de la rata no se corresponde a lo que este animal ha hecho, y sigue haciendo, por nuestra salud y bienestar.

Mucho se identifica a la rata con elementos negativos. En nuestra cultura, a las ratas se les relaciona con la cobardía, con la suciedad, con la transmisión de enfermedades y con cierta dosis de malevolencia no muy bien justificada. Todo ello nos vuelve difícil hacernos a la idea de que la rata ha sido altamente beneficiosa para los seres humanos.

En realidad, “rata” es un nombre que se da a diversas especies de roedores que pertenecen a la superfamilia muroidea, que incluye a los hámsters, los ratones, los jerbos y otros muchos roedores pequeños. Las ratas “verdaderas” son únicamente las que pertenecen a las especies Rattus rattus, la rata negra, y Rattus norvegicus, la rata parda, pero hay muchas otras especies tan similares en tamaño y comportamiento a estas dos que las consideramos simplemente otros tipos de rata.

La rata, sin embargo, no ha sido considerada negativa por todas las culturas. En la antigua China se les consideraba animales creativos, honestos, generosos, ambiciosos, de enojo fácil y dados al desperdicio, y estas características se atribuyen, por medio de la magia representativa, a las personas nacidas en el año de la rata, según el horóscopo chino de 12 años representados por animales.

En la India, los visitantes occidentales suelen horrorizarse ante el trato que los creyentes dan a las ratas en el templo de Kami Mata. Las creencias indostanas suponen que las ratas son la reencarnación de los santones hindús y por tanto se les alimenta, cuida y venera.

En occidente, sin embargo, la imagen de la rata está estrechamente relacionada con la pandemia de la peste negra, la enfermedad que recorrió Europa a mediados del siglo XIV y que acabó con más de un tercio (algunos calculan hasta la mitad) de la población europea. Esta enfermedad, probablemente lo que conocemos hoy como peste bubónica, era transmitida por las pulgas de las ratas negras. Si a esto se añaden los daños innegables que la rata causa a las cosechas y los alimentos almacenados, su mala fama no es tan gratuita.

Esto no impidió, sin embargo, que las ratas fueran una importante fuente de proteínas en oriente y en occidente. La práctica de comer ratas, que hoy atribuimos a unos pocos grupos étnicos exóticos, estuvo presente en Europa hasta bien entrado el siglo XIX.

Sin embargo, la aparición de la una serie de ciencias experimentales, biología, fisiología celular, medicina, psicología y otras muchas requirió de un sujeto experimental fácil de manejar y mantener, barato, y que se reprodujera ferazmente. Y la rata parda resultó un candidato ideal. A partir de 1828, este animal empezó a utilizarse en laboratorios, y en pocas décadas se convirtió en el único animal que se domesticó única y exclusivamente para usos científicos. La rata blanca o albina más conocida como, sujeto experimental es, genéticamente, rata parda o Rattus norvegicus.

Y es en el laboratorio donde la rata ha dado sus más claros beneficios a la humanidad. Sin las ratas, gran parte de nuestros avances médicos y psicológicos habrían sido mucho más lentos y difíciles. De hecho, al paso del tiempo se han creado cepas con distintas características para facilitar el trabajo de investigación. La rata Long Evans o rata capuchona, por ejemplo, que es una rata blanca con la parte superior del cuerpo oscura, como si llevara capucha, se desarrolló como un organismo modelo para la investigación que es además resistente a las epidemias que pueden arruinar un proyecto de investigación de años si atacan un bioterio o espacio destinado a animales vivos en un laboratorio.

Entre otras variedades populares tenemos a la rata Zucker, modificada genéticamente para usarse como modelo genético de la obesidad y la hipertensión, cepas que desarrollan diabetes espontáneamente y a cepas especialmente seleccionadas para ser dóciles a la manipulación repetida por parte del ser humano.

La presencia de la rata en el laboratorio, y la aparición de cepas menos agresivas que la rata silvestre, ayudó a que se popularizara la rata como mascota en algunos países, donde se le considera al nivel de los hámsters, gerbos o conejillos de indias.

Pero la más reciente intervención benéfica de la rata en la vida humana es resultado de las observaciones y visión de Bart Weetjens, un ingeniero de desarrollo de productos belga. Bart se encontró trabajando en la detección de minas antipersonales abandonadas después de diversos conflictos armados, una causa importante de muerte y pérdida de miembros, principalmente en países africanos. Decepcionado por la ineficacia de los sistemas de detección de minas utilizados, Weetjens recordó las características de las ratas que tuvo como mascotas cuando era niño y en 1996 se planteó la posibilidad de que las ratas pudieran olfatear las minas eficazmente.

El trabajo realizado primero en Bélgica y después en Tanzania demostró que las ratas comunes en los campos de la zona, Cricetomys gambianus o ratas gigantes de Gambia, podían detectar las minas antipersonales con su extraordinario olfato. Weetjens fundó la ONG llamada APOPO para entrenar a las ratas que llamó HeroRATS o “ratas heroicas”. Estas ratas aprenden desde pequeñas a asociar el olor de los explosivos con recompensas en forma de comida, y luego, dotadas de pequeños arneses y trabajando en grupos grandes, peinan los campos para encontrar las minas enterradas, con poco riesgo de que la rata pueda detonarlas gracias a su poco peso, lo cual aumenta la seguridad de los humanos implicados en el proceso.

Aunque APOPO se fundó en 1997 para explorar y desarrollar la opción de las ratas detectoras de minas, no fue sino hasta 2003 cuando realmente empezaron a trabajar en el campo en Mozambique, y desde 2004 lo hacen de manera continuada con autorización y licencia de las autoridades mozambiqueñas.

No es extraño que hoy en día exista una pequeña industria casera de captura de ratas para su venta a APOPO, y se espera pronto ampliar las operaciones de APOPO a otros países victimizados por la plaga de las minas, como Angola, el Congo o Zambia, haciendo crecer el número de personas directamente beneficiadas por este roedor de larga cola y, desafortunadamente, con tan malas relaciones públicas en nuestra sociedad.

Ratas contra la tuberculosis


Bart Weetjens coordina actualmente un nuevo proyecto basado en observaciones realizadas en varias ocasiones. Su objetivo es que las ratas puedan detectar por medio del olfato la presencia de tuberculosis en muestras de saliva. Este sistema podría facilitar la detección a bajísimo costo en grandes poblaciones y detectar la enfermedad en sus primeras etapas, cuando es más fácil su curación y la recuperación posterior de los pacientes.

Manchas solares: el rostro del sol

Las manchas solares son una de las características observables del Sol que más información nos han dado sobre el funcionamiento y composición de la estrella central de nuestro sistema planetario.

Durante la mayor parte de la historia humana, el sol fue considerado el epítome de la perfección: redondo, dorado, dador de luz y calor, sin imperfecciones aparentes. No es extraño que fuera uno de los principales candidatos a dioses de muy diversas culturas.

Esto no quiere decir que no se hubieran observado imperfecciones en la faz del sol. Los astrónomos chinos informaron de la observación de manchas en el sol alrededor del año 30 antes de la Era Común, como lo hicieron otros al registrar una gran mancha en el sol al momento de la muerte de Carlomagno. El científico andalusí Averroes hizo una de las primeras descripciones de las manchas solares, y Johannes Kepler observó una mancha solar que atribuyó (como la descripción de la mancha de Carlomagno) a un tránsito de Mercurio ante el sol. Otros, como David Fabricius y su hijo Johannes observaron estas manchas y las describieron en 1611.

Tuvo que llegar Galileo Galilei con su telescopio para observar las manchas solares más o menos al mismo tiempo que los Fabricius y que el astrónomo inglés Thomas Harriot, y dar en 1612 la explicación insospechada de que esas manchas se hallaban en la superficie del sol, que por tanto no era perfecta como lo afirmaba la tradición aristotélica. Las manchas y la rotación del sol sobre su propio eje fueron elementos básicos para echar por tierra las creencias previas. Pronto se observó que la cantidad de manchas y su posición variaban cíclicamente, y se calculó que eran más frías que el resto de la superficie solar.

El sol es un esferoide de plasma, un estado de la materia que se describe como un gas parcialmente ionizado con electrones libres. El plasma del sol es principalmente hidrógeno, que se fusiona formando helio y desprendiendo la energía que nos da vida, como un gigantesco horno nuclear.

El movimiento de convección del plasma del sol provoca la aparición de ligeras depresiones en la superficie, las manchas solares, áreas relativamente oscuras donde la actividad magnética inhibe la convección del plasma solar y enfría la superficie radiante. Estas manchas tienen dos zonas. La central, llamada “umbra”, es más oscura y en ella el campo magnético es vertical respecto de la superficie del sol. A su alrededor está la “penumbra”, más clara y donde las líneas del campo magnético están más inclinadas. Estas manchas se forman en pares de polaridad opuesta, suelen aparecer en grupos y tienen una vida de aproximadamente dos semanas.

La observación de las manchas solares nos ha permitido conocer los ciclos de actividad solar, el más conocido de los cuales dura alrededor de once años, y se ha documentado con bastante precisión desde marzo de 1755. Este ciclo es la mitad de uno de 22 años, pues cada 11 años, el sol invierte su polaridad magnética.

Al inicio del ciclo solar, en su mínimo de actividad, las manchas se forman principalmente en las latitudes superiores, es decir, cerca de los polos del sol, y al avanzar el ciclo y aumentar la actividad del sol, la aparición de manchas se va trasladando hacia el ecuador de la estrella.

Además del conocido ciclo de 11 años, la actividad solar tiene otros que apenas estamos descubriendo. Así, en los casi cuatro siglos de observación de las manchas solares, hay un período singular conocido como el “mínimo de Maunder”, que ocupó prácticamente todo el siglo XVII y durante el cual el número de manchas solares disminuyó notablemente, a una decena o incluso menos, comparada con las casi 250 manchas solares observables en el máximo de 1951, pero no sabemos si haya un ciclo merced al cual dicho mínimo se repetirá en un futuro previsible.

Los cambios que sufre el sol no se refieren sólo a su irradiación de luz visible y calor, sino también a su radiación ultravioleta, de viento solar y flujo magnético. La aparición de grandes cantidades de manchas y fulguraciones solares, o tormentas solares advierte de una mayor actividad del viento solar y los efectos magnéticos en nuestro planeta.

La tormenta solar más potente que se ha registrado ocurrió a fines de agosto y principios de septiembre de 1859, y fue anunciada por la aparición de una gran cantidad de manchas solares en el ecuador solar el día 28 de agosto. La perturbación magnética que representó provocó el fallo de los sistemas de telégrafos en toda Europa y América del Norte, a hizo que se observaran auroras boreales an latitudes desusadas, como en Cuba, Roma y las Islas Hawai.

Con este antecedente, sabemos que la próxima tormenta solar fuerte puede ocasionar graves consecuencias dada la tecnología que utilizamos en la actualidad. Tormentas solares de menor intensidad han afectado a varios satélites de comunicaciones, afectando a Internet, señales de televisión, GPS y telefonía móvil.

Por esta causa práctica, además de la investigación científicamente pura, él interés de la ciencia por observar el sol e interpretar los cambios en su superficie continúa. El sol es continuamente observado por astrónomos profesionales y aficionados utilizando telescopios en tierra y en órbita, ópticos, de rayos X, ultravioletas, infrarrojos y con diversos detectores como los que se encuentran en el observatorio SOHO (siglas de Observatorio Solar y Heliosférico), que desde 1995 vigila a nuestra estrella.

Con todos los datos que se recopilan, se busca determinar si el calentamiento global es parte de un ciclo natural de nuestro planeta y del sol y en qué medida es producto de la actividad humana, pues ya casi ningún experto duda de que el hombre juega un papel en este aparente cambio climático.

El último máximo solar ocurrió en 2001, y por tanto estamos actualmente en un período de baja actividad. De hecho, hasta junio de este año se registraron más de 670 días sin que aparecieran manchas solares y el viento solar está en niveles desusadamente bajos que son ideales para el estudio de nuestro sol, con esas imperfecciones que, si bien destruyeron un modelo atractivo de un universo perfecto, nos han permitido saber mucho de la fuente misma de la vida en nuestro planeta, nuestra estrella madre.

Ver el sol con cuidado

Como en todos los trabajos astronómicos, los aficionados pueden hacer grandes aportaciones en la observación del sol. Sin embargo, siempre es bueno recordar que Galileo, el padre de la astronomía telescópica, acabó casi ciego por ver el sol sin protección. Los aficionados deben tener presente siempre que deben usar filtros especialmente diseñados para observar el sol, no sustitutos, por oscuros que parezcan, que pueden dejar pasar rayos UV que afectan la retina.

El misterio interior

Electrodos para una lectura
electroencefalográfica
(CC Bild Verbessert, vía
Wikimedia Commons) 
¿Cómo se producen nuestros pensamientos y emociones y dónde se asientan en nuestro cuerpo? Uno de los misterios más grandes se encuentra por igual dentro de nosotros y muy, muy lejos.

La máxima socrática “conócete a ti mismo” implica, de modo clarísimo, la necesidad de conocer cómo funcionan nuestros sentimientos, nuestras emociones y nuestras ideas o pensamientos. Somos lo que sentimos y pensamos, y la forma en que reaccionamos ante distintos estímulos o acontecimientos. Todo ello ocurre dentro de nuestro cerebro, y conocerlo ha sido una aventura singular de la que aún queda por contar la mayor –y mejor– parte.

En la antigua Grecia, hacia el 450 antes de la Era Común, el médico Alcmaeon realizó una serie de observaciones por las que dedujo que el asiiento de las emociones y los pensamientos no era el corazón, como creían los egipcios, sino ese misterioso órgano, el cerebro.

En años posteriores estudiosos como Herófilo de Calcedonia confirmaron que la inteligencia se encontraba en el cerebro, y su contemporáneo Erasístrato incluso relacionó la complejidad de la superficie del cerebro humano, comparado con los de otros animales, a una inteligencia más desarrollada.

Sin embargo, para la historia de occidente y durante muchos siglos, se impuso la visión de Aristóteles, según el cual era el corazón el que controlaba la razón, las emociones y los pensamientos cotidianos. Esta posición aristotélica dejó abierta la puerta a las más extrañas especulaciones sobre la genuina naturaleza del cerebro. Así, para el médico Galeno, en Roma, era una glándula que contenía los cuatro humores vitales que se creía que existían. Otros supusieron que servía únicamente para enfriar la sangre.

La prohibición de las disecciones en la Edad Media detuvo en gran medida todos los avances de la medicina y la biología humana. Pero incluso cuando se realizaron las primeras disecciones, como las de Vesalio, el cerebro daba al estudioso menos datos que otros órganos. Inmóvil, silencioso, no permitía que sus secretos se desentrañaran fácilmente y vinieron nuevas suposiciones más o menos caprichosas. No fue sino hasta 1664 cuando Tomas Willis ofreció las primeras pruebas de correlación entre estructuras del cerebro y funciones concretas y, en 1791 que el físico Luigi Galvani concluyó, a partir de sus experimentos, que las fibras nerviosas animales transmitían impulsos eléctricos.

Se sentaban así las bases para empezar a conocer ese órgano mudo, cuyo funcionamiento, a diferencia del de otras partes de nuestro cuerpo, sólo podemos ver y estudiar indirectamente, por medio de distintos métodos desarrollados al paso de los siglos.

El primer método, que hoy sigue utilizándose, fue observar a pacientes que hubieran sufrido distintos tipos de lesiones en el cerebro y correlacionar dichas lesiones con cambios en sus emociones, percepciones y comportamiento. El neurólogo parisino Paul Broca empleó este método en 1861 para concluir, mediante la autopsia, que un paciente había perdido la capacidad de hablar sufría una lesión grave en el lóbulo frontal. Estudiando los cerebros de varios pacientes con afasia o problemas del habla, Broca identificó con precisión la zona del cerebro responsable del lenguaje, la llamada “región de Broca” en el lóbulo frontal.

A principios del siglo, en la década de 1900, se intentó utilizar las innovadora técnicas radiográficas para estudiar el cerebro. Sin embargo, el hecho de que el cerebro sea fundamentalmente un tejido suave no radioopaco lo hace de hecho invisible para los rayos X comunes. No fue sino hasta 1929, cuando Hans Berger demostró públicamente su electroencefalógrafo, aparato que mide y registra la actividad eléctrica del cerebro, y que ofreció un nuevo método de observarlo indirectamente. Los datos electroencefalográficos, pese a ser muy limitados, son útiles en diagnósticos psiquiátricos y neurológicos, y en estudios como los del sueño.

Pero más allá de la función, era fundamental poder ver al cerebro en acción, con imágenes tanto estructurales como funcionales, es decir, de la forma y actividad del cerebro. El primer paso para esta observación fue la tomografía computada de rayos X o “tomografía axial computada”, nacida en la década de 1960, ofreciéndonos una imagen tridimensional del interior del cerebro. Las imágenes de resonancia magnética (MRI) fueron el siguiente paso, pues comenzaron ofreciendo únicamente imágenes estructurales, pero para la década de 1980 se había refinado a niveles que permitían la observación del cerebro en acción, naciendo así la fMRI o resonancia magnética funcional. Poco invasiva, sin dolor, sin riesgos y sin radiaciones, es hoy una de las formas de observación indirecta más extendidas, tanto para efectos de diagnóstico como de investigación neurológica.

Hoy en día es frecuente ver imágenes del cerebro en acción, y la activación de ciertas zonas del cerebro al realizar distintas actividades o al verse expuesto a determinados estímulos es un hecho común que aparece con frecuencia en los medios visuales, tanto electrónicos como impresos.

Pero pese al avance que representan, todos estos sistemas siguen siendo extremadamente imprecisos. Vemos que se activan o no ciertas zonas, pero aún no sabemos exactamente qué ocurre y cómo nuestras neuronas, por medio de las sustancias químicas que emplean para comunicarse, interpretan realmente una palabra o una imagen para convertirlas en algo que percibimos subjetivamente. Aún queda mucho por hacer para entender al cerebro, y mientras tanto todo método, incluso el de Paul Broca, sigue siendo una herramienta útil.

El más reciente descubrimiento relacionado con este método fue de investigadores del California Institute of Technology que, trabajando con una paciente que sufre de una lesión bilateral de la amígdala, una estructura que se encuentra en cada uno de los lóbulos temporales del cerebro, han podido determinar que ésta es muy probablemente la parte del cerebro que establece nuestra distancia personal, ese espacio que nos resulta extremadamente incómodo que lo invadan personas que no gozan de nuestra confianza, nuestro territorio individual.

Los pasos en falso

Desde la frenología, que pretendía desentrañar la personalidad mediante la forma e irregularidades del cráneo, hasta el psicoanálisis o los intentos por definir la inteligencia con métodos poco confiables, la investigación del cerebro y sus funciones padeció, quizá más que ninguna otra disciplina, de numerosos pasos en falso. Esto, muy probablemente, se debe a que las neurociencias han sido las disciplinas de desarrollo más lento, pues a los ojos de diversas religiones, su estudio de los pensamientos y emociones se acerca demasiado a un intento por comprender el alma, algo que, creen algunos, el ser humano no debería hacer, por ser un espacio reservado a la deidad.