Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La descubridora olvidada del ADN

Rosalind Franklin
(foto © utilizada como fair use no comercial ni difamatorio)
Una serie de circunstancias incontrolables ha dejado fuera de la historia del ADN a uno de sus personajes clave, la doctora Rosalind Franklin.

La historia registra, a nivel popular, sólo al británico Francis Crick y al estadounidense James Watson como descubridores de la estructura del ADN. Pero el Premio Nobel de Medicina o Fisiología de 1962 se entregó también a Maurice Frederick Wilkins.

En esa ceremonia, sin embargo, faltaba un personaje fundamental en los trabajos que llevaron al premio concedido a estos tres científicos, la doctora Rosalind Franklin, personaje omitido con demasiada frecuencia en la historia del inicio de la genética moderna, excluida de un premio que se otorgaba a Crick, Watson y Wilkins, según el Comité del Nobel, “por sus descubrimientos referentes a la estructura molecular de los ácidos nucleicos y su importancia en la transferencia de información en el material vivo”.

Estas palabras explicaban, en el austero estilo de los Premios Nobel, que Crick, Watson y Wilkins habían determinado por primera vez en la historia la estructura del ácido desoxirribonucleico, una sustancia aislada por primera vez apenas en 1869 por el médico suizo Friedrich Miescher. En 1944 se demostró que el ADN era un “principio transformador” que llevaba información genética, lo que se confirmó plenamente en 1952.

Crick y Watson son los más conocidos en la saga del descubrimiento de la estructura del ADN porque fueron ellos los que en 1953 establecieron que el ADN estaba formado por una doble hélice. Su descubrimiento, publicado en abril en la reconocida revista Nature, estaba destinado a dar inicio a una de las mayores revoluciones en la historia de la biología.

Pero es necesario saber cómo llegaron a esta conclusión los dos científicos para poder determinar con certeza el papel que jugó en esta historia la científica británica Rosalind Elsie Franklin, biofísica, física, química, bióloga y cristalografista de rayos X, una lista de logros académicos impresionante, máxime si tenemos en cuenta que la consiguió en una vida trágicamente breve, pues nació en 1920 y murió de cáncer en 1958.

Para mirar lo más pequeño

Sería muy sencillo determinar la forma de la molécula de ADN con un potentísimo microscopio de tunelado por escaneo. Este microscopio, inventado en 1981, puede “ver” perfiles tridimensionales a nivel de átomos. Es un logro tal que sus creadores ganaron el Premio Nobel de Física en 1986.

Pero en la década de 1950, las herramientas al alcance de los investigadores eran mucho más limitadas.

Uno de los sistemas utilizados era la cristalografía de rayos X, un método indirecto para determinar la disposición de los átomos en un cristal. Al pasar un haz de rayos X por un cristal, los rayos X se difractan, sufren una distorsión que cambia según el medio por el que se mueve la onda electromagnética. (La difracción de la luz es la responsable de que un lápiz en un vaso de agua parezca quebrarse al nivel del agua.)

Los ángulos e intensidades de los rayos X difractados captados en una película fotográfica permiten a los cristalógrafos generar una imagten tridimensional de la densidad de los electrones del cristal y, a partir de ello, calcular las posiciones de los átomos, sus enlaces químicos y su grado de desorden, entre otros muchos datos.

En enero de 1951, la joven doctora Rosalind Franklin entró a trabajar como investigadora asociada al King’s College de Londres, bajo la dirección de John Randall. Éste la orientó de inmediato a la investigación del ADN, continuando con el trabajo, precisamente, de Maurice Wilkins.

Lo que siguió no suele salir en las películas y narraciones porque fue el duro y poco espectacular trabajo de Franklin para afinar sus herramientas (un tubo de rayos X de foco fino y una microcámara), y determinar las mejores condiciones de sus especímenes para obtener imágenes útiles. En este caso, el nivel de hidratación de la muestra era esencial.

Habiendo determinado la existencia de dos tipos de ADN, se dividió el trabajo. Wilkins se ocupó de estudiar el tipo “B”, determinando poco después que su estructura era probablemente helicoidal. Rosalind Franklin, por su parte, trabajó con el tipo “A”, generando imágenes que descritas como poseedoras de una gran belleza, y abandonando la teoría de la estructura helicoidal sólo para retomarla después, afinada y perfeccionada.

Una de las fotografías de difracción de rayos X tomada por Franklin en 1952, y que es famosa en el mundo de la ciencia como la “fotografía 51”, fue vista por James Watson a principios de 1953, cuando todos los científicos se apresuraban por resolver el enigma ante el fracaso espectacular del modelo de ADN propuesto por Linus Pauling. Esa fotografía sería fundamental para consolidar el modelo de Crick y Watson.

Rosalind Franklin había redactado dos manuscritos sobre la estructura helicoidal del ADN que llegaron a la revista especializada Acta Cristallographica el 6 de marzo de 1953, un día antes de que Crick y Watson finalizaran su modelo del ADN. Ese mismo día, Franklin dejó el King’s College para ocupar un puesto en el Birbeck College y su trabajo quedó al alcance de otros científicos. Pero ella, al parecer, nunca miró atrás.

El trabajo de Rosalind Franklin se publicó en el mismo número de Nature que el modelo de Crick y Watson, como parte de una serie de artículos (incluido también uno de Wilkins) que apoyaban la idea de la estructura helicoidal doble de la molécula de la vida.

Como la idea de esa estructura helicoidal rondaba por todos los laboratorios de la época, el debate de quién fue el verdadero descubridor de la forma del ADN probablemente no se resolverá nunca. Lo que es claro es que tanto Crick como Watson, Wilkins y Franklin fueron los padres comunes de este descubrimiento que literalmente cambió nuestro mundo y nuestra idea de nosotros mismos.

El modelo de Crick y Watson no fue aceptado y confirmado del todo sino hasta 1960, cuando Rosalind Franklin ya había fallecido. Y como al concederse el Premio Nobel a los descubridores de la doble hélice, el reglamento del galardón impedía que se diera el premio de modo póstumo, Rosalind Franklin quedó sin el reconocimiento al que tenía, sin duda alguna, tanto derecho como los otros tres premiados, y cayó en un olvido del que apenas se le empezó a rescatar en la década de 1990.

Sexismo y más allá

En un mundo académico todavía sexista, como incluso lo admitió Francis Crick años después, Rosalind Franklin dejó atrás el caso del ADN para concentrarse en el ARN, la otra molécula de la vida, y el genoma de muchos vírus. Siguió produciendo artículos científicos (siete en 1956 y seis en 1957) y estudiando el virus de la poliomielitis hasta su muerte. Y probablemente nunca supo que su trabajo había sido la base del éxito de Crick y Watson.

Las células de la empatía

Una neurona de la zona del hipocampo
(foto CC MethoxyRoxy vía
Wikimedia Commons)
Las neuronas espejo, reaccionan tanto al observar una acción como cuando la realizamos nosotros mismos. Las implicaciones del descubrimiento pueden ser arrolladoras.

A principios de la década de 1990, Giacomo Rizzolatti, al frente de un grupo de neurocientíficos formado por Giuseppe Di Pellegrino, Luciano Fadiga, Leonardo Fogassi y Vittorio Gallese de la Universidad de Parma informó del hallazgo de un tipo de neuronas en macacos que se activan cuando el animal realiza un acto motor, como tomar un trozo de comida con la mano, pero también se activan cuando el animal observa a otro realizar dicha acción.

No se trata de neuronas motrices, sino de neuronas situadas en la corteza premotora, y no se activan simplemente al presentarle al mono la comida como estímulo, ni tampoco se activan cuando el mono observa a otra persona fingir que toma la comida. El estímulo visual efectivo implica la interacción de la mano con el objeto.

Los investigadores llamaron a estas neuronas “espejo”, y el descubrimiento dio pie a una enorme cantidad de especulaciones e hipótesis sobre el papel funcional que podrían tener estas neuronas, y muchos investigadores emprendieron experimentos para determinar si el ser humano y otros animales tenían un sistema de neuronas espejo.

El salto de las neurociencias

De todos los objetos y mecanismos del universo, curiosamente, del que sabemos menos es precisamente el que empleamos para entender, para sentir y para ser humanos: el cerebro.

El estudio de nuestro sistema nervioso se vio largamente frenado quizá por influencia de visiones religiosas que consideran que la esencia humana misma tiene algo de sagrado y por tanto no debe ser sometida al mismo escrutinio que dedicamos al resto del universo. Pero hoy en día estamos viviendo un desarrollo acelerado de la neurociencia y se espera que en los próximos años veamos una explosión del conocimiento similar a la que experimentó la astronomía con Galileo, la biología con Darwin o la cosmología y la cuántica con Einstein.

Las neurociencias son un sistema interdisciplinario que incluye a la biología, la psicología, la informática, la estadística, la física y varias ciencias biomédicas y que tiene por objeto estudiar científicamente el sistema nervioso. Esto implica estudiar desde el funcionamiento de su unidad esencial, la neurona, hasta la compleja interacción de los miles de millones de neuronas que dan como resultado la actividad cognitiva, las sensaciones, los sentimientos, la conciencia, el amor, el odio y la comprensión, entre otras experiencias humanas.

Aunque a lo largo de toda la historia humana se ha pretendido comprender la función del sistema nervioso, su estudio científico nace prácticamente con el trabajo de Camilo Golgi y Santiago Ramón y Cajal a finales del siglo XIX. Su desarrollo sin embargo tuvo que esperar a que la biología molecular, la electrofisiología y la informática avanzaran lo suficiente para aproximarse en detalle al sistema nervioso, lo que ocurrió apenas a mediados del siglo XX.

La identificación de los neurotransmisores, los sistemas de generación de imágenes del cerebro en funcionamiento, la electrofisiología que permite estudiar las descargas electroquímicas de todo el cerebro, de distintas estructuras e incluso de una sola célula, una sola neurona.

Y fue la posibilidad de medir la reacción de una sola neurona la que permitió a los investigadores realizar el experimento que descubrió las neuronas espejo.

Las implicaciones

El doctor Vilanayur S. Ramachandran, considerado uno de los principales neurocientíficos del mundo, especuló sobre el significado y función de las neuronas espejo, a partir de otro estudio, en el que investigadores de la Universidad de Califonia en Los Ángeles descubrieron un grupo de células en el cerebro humano que disparan normalmente cuando se pincha a un paciente con una aguja, es decir, “neuronas del dolor”, pero que también se activaban cuando el paciente miraba que otra persona recibía el pinchazo. Era una indicación adicional de que el sistema nervioso humano también tiene neuronas espejo.

Pero también le daba una dimensión completamente nueva a la idea de “sentir el dolor de otra persona”. Ante los resultados de esa investigación, esa capacidad empática parecía salir del reino de la filosofía, la moral y la política social para insertarse en nuestra realidad biológica. Una parte de nuestro cerebro, al menos, reacciona ante el dolor ajeno como reaccionaría ante nuestro propio dolor.

Para Ramachandran, las neuronas espejo podrían ser a las neurociencias lo que el ADN fue para la biología, un marco unificador que podría explicar gran cantidad de las capacidades del cerebro humano. Incluso, este reconocido estudioso especuló que el surgimiento de las neuronas espejo pudo haber sido la infraestructura para que los prehomínidos desarrollaran hablidades como el protolenguaje, el aprendizaje por imitación, la empatía, la capacidad de "ponerse en los zapatos del otro" y, sobre todo, la "teoría de las otras mentes” que no es sino nuestra capacidad de comprender que otras personas pueden tener mentes, creencias, conocimientos y visiones distintas de la nuestra. Es gracias a esa comprensión que preguntamos cosas que no conocemos pero otros pueden conocer... y que le decimos a otros cosas que quizás ignoran.

Ramachandran también sugería que el sistema de neuronas espejo podría ser responsable de una de las habilidades más peculiares del nuestro cerebro: la de leer la mente.

Evidentemente no leemos la mente como lo proponen las fantasías telepáticas, pero tenemos una gran capacidad para deducir las intenciones de otras personas, predecir su comportamiento y ser más astutos que ellos. Los negocios, las guerras y la política son pródigos en ejemplos de este “maquiavelismo” que caracteriza al primate humano.

Quizás el sistema de neuronas espejo, desarrollado desde sus orígenes bajo una presión evolutiva determinada, es precisamente el que nos hace humanos, el responsable de que hace 40.000 años se diera el estallido de eso que llamamos civilización.

Para Ramachandran, de ser cierto incluso un fragmento de todas estas especulaciones, el descubrimiento de las neuronas espejo podría demostrar ser uno de los descubrimientos más importantes de la historia humana.

El aprendizaje cambia el cerebro

Entre los más recientes avances en el estudio de las neuronas espejo se encuentra un estudio de Daniel Glaser que demostró que las neuronas espejo de los bailarines se activan más intensamente cuando el bailarín ve movimientos o acciones que él domina que al ver movimientos que no están en su repertorio de movimientos. “Es la primera prueba de que ... las cosas que hemos aprendido a hacer cambian la forma en que el cerebro responde cuando ve el movimiento”, dice Glaser.

Los números de los mayas


Numerales mayas del 1 al 29.
(CC via Wikimedia Commons)


La asombrosa matemática maya y sus estrecha relación con la astronomía son fuente de asombros por sus logros... y de temores infundados por parte de quienes poco conocen de esta cultura.

De todos los aspectos de la cultura maya, desarrollada entre el 1800 a.C. y el siglo XVII d.C., uno de los más apasionantes es sin duda el desarrollo matemático que alcanzó este pueblo.

El logro que se cita con más frecuencia como punto culminante de la cultura maya es el cero. El cero ya existía como símbolo entre los antiguos babilonios como indicador de ausencia, pero se perdió y no se recuperaría sino hasta el siglo XIII con la numeración indoarábiga.

El cero era de uso común en las matemáticas mayas, simbolizado por un caracol o concha marina, fundamental en su numeración de base vigesimal. Es decir, en lugar de basarse en 10, se basaba en el número 20, quizá por los veinte dedos de manos y pies.

Sin embargo, hay indicios de que los mayas, aunque lo aprovecharon y difundieron, no fueron los originadores del cero en Mesoamérica. Probablemente lo recibieron de la cultura ancestral de los olmecas, desarrollada entre el 1400 y el 400 antes de nuestra era. Los olmecas fueron, de hecho, los fundadores de todas las culturas mesoamericanas posteriores (incluidas la azteca o mexica y la maya, entre otras), aunque por desgracia no contaban con escritura, por lo que siguen siendo en muchos aspectos un misterio.

El otro gran logro maya fue la utilización del sistema posicional, donde el valor de los números cambia de acuerdo a su posición. El punto que representa uno en el primer nivel, se interpreta como veinte en el segundo nivel y como 400 en el tercero, como nuestro “1” puede indicar 10, 100 o 1000.

Los números mayas se escribían con puntos y rayas. Cada punto era una unidad, y cada raya representaba cinco unidades. Así, los números 1, 2, 3 y 4 se representaban con uno, dos, tres y cuatro puntos, mientras que el cinco era una raya. Cuatro puntos adicionales sobre la raya indicaban 6, 7, 8 y 9, y el diez eran dos rayas una sobre la otra. Así se podía escribir hasta el número 19: tres rayas de cinco unidades cada una y cuatro puntos unitarios. Al llegar allí, se debía pasar a la casilla superior, del mismo modo que al llegar a 9 nosotros pasamos al dígito de la izquierda. El número 20 se escribía con un punto en la casilla superior (que en esa posición valía 20 unidades) y un cero en la inferior.

El sistema funcionaba para cifras de cualquier longitud y permitía realizar cálculos complejos con relativa facilidad si los comparamos con los mismos cálculos utilizando números romanos.

El desarrollo de las matemáticas entre los mayas se relacionó estrechamente con su pasión astronómica, producto a su vez de la cosmovisión religiosa de su cultura. Su atenta y minuciosa observación y registro de los diversos acontecimientos de los cielos llevó a los mayas a tener cuando menos 17 calendarios distintos referidos a distintos ciclos celestes, como los de Orión, o los planetas Mercurio, Venus, Marte Júpiter y Saturno, que se interrelacionaban matemáticamente.

Pero los dos calendarios fundamentales de los mayas eran el Tzolk’in y el Haab.

El calendario sagrado, el Tzolk’in se basa en el ciclo de las Pléyades, de 26000 años, generando un año de 260 días dividido en cuatro estaciones de 65 días cada una. Cabe señalar que las Pléyades, grupo de siete estrellas de la constelación de Tauro, atrajeron la atención de numerosos pueblos, como los maorís, los aborígenes australianos, los persas, los aztecas, los sioux y los cheroqui. A los recién nacidos se les daba su nombre a partir de cálculos matemáticos basados en un patrón de 52 días en este calendario.

El Haab, por su parte, era civil y se utilizaba para normar la vida cotidiana. Su base es el ciclo de la Tierra y ha sido uno de los motivos de admiración del mundo occidental, pues resultaba altamente preciso con 365,242129 días, mucho más preciso que el Gregoriano que se utiliza en la actualidad. Nosotros tenemos que hacer un ajuste de un día cada 4 años (con algunas excepciones matemáticamente definidas), mientras que los mayas sólo tenían que hacer una corrección cada 52 años.

La interacción matemática de los años de 260 y 365 días formaba la “rueda calendárica”. Los pueblos mesoamericanos se esforzaban por hacer calendarios no repetitivos, donde cada día estuviera identificado y diferenciado. Esto lo hacemos nosotros numerando los años, de modo que el 30 de marzo de 1919 no es igual al 30 de marzo de 2006. Los mayas no numeraban los años, y cada día se identificaba por su posición en ambos calendarios, el sagrado y el civil, de modo que un día concreto no se repetía sino cada 18.980 días o 52 años.

Los mayas usaban también la llamada “cuenta larga”, un calendario no repetitivo de más de 5 mil años que señalaba distintas eras. La era actual comenzó el 12 ó 13 de agosto del 3114 antes de nuestra era y terminará alrededor del 21 de diciembre de 2012. Esta cuenta larga utiliza varios grupos de tiempo: kin (día), uinal (mes de 20 kines), tun (año de 18 uinales, 360 días), katún (20 tunes o 7200 días) y baktún (20 katunes o 144.000 días).

Cada fecha se identifica con cinco cifras, una por cada grupo de tiempo. La fecha 8.14.3.1.12 que aparece en la placa de Leyden, por ejemplo, indica el paso de 8 baktunes, 14 katunes, 3 tunes, 1 uinal y 12 días desde el comienzo de la era. Convertidos todos dan 1.253.912 días, que divididos entre los 365,242 días del año nos dan 3.433,1 años, que restados de la fecha de inicio de la era nos da el año 320 de nuestra era.

Esta proeza matemática, por cierto, ha sido malinterpretada por grupos de nuevas religiones. Dado que esta era maya termina hacia el 21 de diciembre de 2012, se ha hablado de una inexistente “profecía maya” que señala ese día como el fin del mundo. Ninguna estela, códice o resto maya indican tal cosa. Sólo señalan que matemáticamente ese día termina una era, y al día siguiente, como ha pasado al menos cinco veces en el pasado según creían los mayas (en cinco eras), comenzará una nueva era. Como el 1º de enero comienza otro año para nosotros y el mundo no se acaba el 31 de diciembre.

El trabajo detrás de la precisión

El calendario lunar maya, Tun’Uc, tenía meses de cuatro semanas de 7 días, una por cada fase lunar. Los mayas calcularon el ciclo lunar en 29,5308 días, contra los 29,5306 calculados hoy, una diferencia de sólo 24 segundos. Para conseguir este cálculo, los mayas usaron sus matemáticas además de una aproximación científica. Al contar sólo con sistemas de observación directos, los astrónomos mayas registraron minuciosamente 405 ciclos lunares durante 11.960 días, más de 30 años de observaciones que, tratadas matemáticamente, permitieron la precisión que aún hoy nos asombra.

¿Qué vemos cuando vemos los colores?

Descomposición de la luz con un prisma
(D.P. via Wikimedia Commons)
Los seres vivos vemos los colores de formas muy distintas. Es un código que cada especie descifra de acuerdo a sus necesidades de supervivencia.

Dentro del amplio espectro de radiación electromagnética, cuyas longitudes de onda van desde las frecuencias muy bajas hasta las altísimas frecuencias de los peligrosos rayos gamma, llamamos “luz visible” a un segmento muy pequeño de ondas de una longitud más o menos entre 380 y 760 nanómetros (un nanómetro es una milmillonésima de metro). Por debajo de los 380 nm está la radiación infrarroja y, por encima de los 760 nanómetros, los rayos ultravioleta.

Una pregunta razonable desde el punto de vista de la biología evolutiva es por qué vemos este intervalo de radiación no las radiaciones más o menos potentes. Un posible motivo es que estas radiaciones son precisamente las que pueden pasar por nuestra atmósfera casi sin verse atenuadas o alteradas, a diferencia de los rayos ultravioleta (filtrados por las nubes) y los infrarrojos.

Pero lo que nosotros vemos no es la única forma de ver.

Experimentos de elegante diseño han explorado qué tipos de radiación ven distintas especies. No sólo tenemos a depredadores nocturnos (incluido nuestro compañero frecuente, el gato) que pueden percibir intensidades de luz muy inferiores a las de nuestros ojos, sino ejemplos como el de las abejas, muchas aves y peces, que pueden “ver” la radiación ultravioleta. De hecho, cuando utilizamos sensores de ultravioleta para ver las flores de las que se suelen alimentar las abejas, observamos patrones que parecen indicar el centro de la flor. Aves, peces e insectos parecen tener los “mejores” sistemas visuales del reino animal.

En el otro extremo del espectro visible, muchos reptiles tienen fosas térmicas que les permiten percibir, o “ver” dentro del rango infrarrojo. En el caso de muchos mamíferos que dependen para su supervivencia más del olfato que de la vista, al parecer no pueden discriminar muchos colores. Animales como el toro parecen ver en blanco y negro, de modo que el color de la capa para citarlo es irrelevante, mientras que los perros al parecer ven en dos colores, con una sensibilidad similar a la de los humanos ciegos al rojo y verde (daltónicos).

Sin embargo, aunque nuestros experimentos nos pueden enseñaren cierta meedida qué ven o distinguen los animales, no pueden decirnos cómo lo ven. Porque la luz en sí no tiene información del color.

No hay nada que indique que la luz de unos 475 nm sea “azul”, o que la luz de 650 nm sea “roja”. No hay una correspondencia precisa entre el impulso y la interpretación que hace nuestro cerebro de ella. La presión de la evolución ha hecho que nuestro sistema nervioso “codifique” la luz visible creando las sensaciones del arcoiris para facilitarnos la percepción cuando dos colores tienen el mismo brillo. Esto es claro en la fotografía y el cine en blanco y negro donde, por ejemplo, el rojo y el verde del mismo brillo dan como resultado el mismo tono de gris.

El color es, ante todo, subjetivo, una experiencia, una ilusión perceptual.

Historia e investigación

El hombre se ha interesado siempre por el color. Llenó de simbolismo y contenido las sensaciones del color, tiñéndolos, valga la metáfora, con sus percepciones culturales. Por ejemplo, el negro, color regio del cielo y la tierra en la antigua China, es símbolo de duelo en occidente ya desde el antiguo Egipto.

Los primeros intentos por entender el color en occidente se remontan a la antigua Grecia, donde primero Empédocles y luego Platón pensaron que el ojo emitía luz para permitir la visión. Aristóteles, por su parte, propuso que el color se basaba más bien en la interacción del brillo de los objetos y la luz ambiente.

Sin embargo, la comprensión del color hubo de esperar a la llegada de Isaac Newton y su demostración de que la luz blanca del sol es en realidad una mezcla de todas las frecuencias o longitudes de onda de la luz visible. Con una intuición magnífica, Newton concluyó que el color es una propiedad del ojo y no de los objetos.

Sobre las bases de Newton, en el siglo XIX Thomas Young propuso que con sólo tres receptores en el ojo podríamos percibir todos los colores, teoría “tricromática” que sólo se confirmaría con experimentos fisiológicos detallados realizados en la década de 1960.

En nuestras retinas hay tres tipos de células de las llamadas “conos”, sensibles especialmente a uno de los colores aditivos primarios: el rojo, el verde o el azul, según el pigmento que contienen. La mayor o menor estimulación de cada uno de estos tipos de cono determina nuestra capacidad de ver todos los colores, incluidos aquéllos que no están en el arcoiris como el rosado o el magenta.

La visión tricromática es característica de los primates, y se cree que se desarrolló conforme los ancestros de todos los primates actuales hicieron la transición de la actividad nocturna a la diurna. Los animales nocturnos no necesitan visión de color, y sí una gran sensibilidad a la luz poco intensa. Pero a la luz del día, las necesidades cambian para detectar tanto fuentes de alimento como a posibles depredadores.

¿Cómo llega a nuestros ojos una longitud de onda que nuestro sistema nervioso interpreta como color? Así como decimos que el color no está en la luz, tampoco está en los objetos. De hecho, ocurre todo lo contrario. Una manzana nos parece roja porque su superficie absorbe todas las longitudes de onda de la luz visible excepto las del rojo, las cuales son reflejadas y por tanto percibidas por nuestros ojos.

El principio de la tricromía de nuestra percepción es aprovechado a la inversa en dispositivos como nuestros televisores y monitores, que tienen partículas fosforescentes rojas, verdes y azules. La mayor o menor intensidad de iluminación de cada uno de éstos nos permite ver todos los colores. Así, los colores en informática se definen por valores RGB, siglas en inglés de rojo (Red), verde (Green) y azul (Blue). Esto lo podemos ver fácilmente con una lupa aplicada a nuestro monitor, la magia doble de una sensación absolutamente subjetiva, la experiencia del color

El color relativo

Nuestros ojos pueden adaptarse rápidamente a las cambiantes condiciones de luz. Verán una hoja de papel de color blanco así esté bajo tubos de luz neón (que son en realidad de color verdoso), bombillas incandescentes tradicionales (cuya luz es realmente rojizo-anaranjada) o bajo la luz blanca del sol de mediodía. Nuestros sentidos no funcionan absolutamente, sino que hacen continuamente comparaciones relativas para hacer adaptaciones. Las cámaras fotográficas y de vídeo no pueden hacer esto y por ello tienen un “balance de blancos” con el que establecemos qué es “blanco” en nuestras condiciones de luz para que los aparatos interpreten los demás colores a partir de ello.

El misterio de los aromas

El aroma del café
(foto ©Mauricio-José Schwarz)
Los aromas nos hablan en uno de los idiomas más antiguos de la historia de la vida, con uno de los sentidos más intensos que tenemos, y al que le prestamos atención insuficiente.

Todos conocemos la experiencia. Un aroma dispara una cadena de recuerdos altamente emocionales, profundos y nítidos, como si con sólo un olor recreáramos todo lo que lo rodeó alguna vez. La experiencia es notable porque, como han descubierto estudios de la Universidad de Estocolmo, los aromas suelen evocarnos sobre todo memorias de la infancia, de la primera década de vida, pero al mismo tiempo las memorias que nos provoca son especialmente intensas.

La intensidad de las memorias evocadas por los olores ha sido objeto incluso de estudios por imágenes de resonancia magnética. En 2004, un grupo de la Universidad de Brown demostró que las memorias evocadas por aromas activaban de modo especial la zona del cerebro conocida como la amígdala, estructura situada profundamente en los lóbulos temporales del cerebro y que se ocupa de procesar y recordar de las reacciones emocionales.

Una de las razones propuestas para la profundidad de las emociones que nos evocan los olores es, precisamente, que su percepción y procesamiento están entre los componentes más antiguos de nuestro cerebro, estrechamente vinculados a nuestros centros emocionales.

En el cerebro, la zona más externa, la corteza cerebral, dedicada a las capacidades intelectuales y racionales, es el área evolutivamente más reciente. Bajo ella está el cerebro mamífero antiguo, con las estructuras encargadas de las emociones, la memoria a largo plazo, la memoria espacial y las funciones autonómicas del ritmo cardiaco, la tensión arterial y el procesamiento de la atención, entre otras.

Finalmente, en el centro anatómico de nuestro cerebro, está el arquipalio o “cerebro reptil”, una serie de estructuras que los mamíferos compartimos con los reptiles, responsables de las emociones básicas y las respuestas de “luchar o huir” esenciales para la supervivencia.

El bulbo olfatorio, la estructura que percibe e interpreta los olores es de las partes más antiguas del cerebro, y está estrechamente asociado a las emociones más básicas: miedo, atracción sexual, furia, etc. Se encuentra en la parte superior de la cavidad nasal.

El olor es esencial para la supervivencia. Los seres humanos apenas apreciamos una mínima parte del universo olfatorio a nuestro alrededor. Los seis millones de células receptoras olfativas que tenemos en el bulbo olfatorio palidecen ante los 100 millones que tiene un pequeño conejo, o los 220 millones de receptores que tienen los perros.

Pero esa mínima parte es sensible. El imperfecto sentido del olfato humano puede detectar sustancias diluidas a concentraciones de menos de una parte por varios miles de millones de partes de aire. Hay aromas que nos atraen, estimulan la actividad sexual o el apetito, y los hay repelentes, que nos invitan a alejarnos, incluso a huir, informándonos así, por ejemplo, de si un alimento está en buenas o malas condiciones.

Aunque el hombre siempre fue consciente de la importancia de los aromas, inventando perfumes e inciensos, tratando de sazonar de modo atractivo sus alimentos, empezar a explicar cómo funciona este sentido tuvo que esperar hasta el siglo XX.

Esencialmente, la intuición del filósofo romano Lucrecio, del siglo I antes de la era común era correcta. Lucrecio proponía que las partículas aromáticas tenían formas distintas y nuestro sentido del olfato reconocía dichas formas y las interpretaba como olores. La doctora Linda B. Buck publicó en 1991 un artículo sobre la clonación de receptores olfativos que le permitió determinar que cada neurona receptora es sensible sólo a una clase de moléculas aromáticas, funcionando como un sistema de llave y cerradura. Sólo se activa cuando está presente una sustancia química que se ajuste a la neurona. La forma precisa en que los impulsos se perciben, codifican e interpretan es, sin embargo, uno de los grandes misterios que las neurociencias todavía están luchando por desentrañar.

Analizando la genética detrás de nuestro olfato, la doctora Buck pudo determinar que los mamíferos tenemos alrededor de mil genes distintos que expresan la recepción olfativa, y la especie de mamíferos con la menor cantidad de genes activos de este tipo somos, precisamente, nosotros.

Estos genes, sin embargo, son responsables de dos sistemas olfativos que coexisten en la mayoría de los mamíferos.y reptiles. El sistema olfativo principal detecta sustancias volátiles que están suspendidas en el aire, mientras que el sistema olfativo accesorio, situado en el órgano vomeronasal, entre la boca y la nariz. Este sistema percibe entre otros aromas las feromonas, hormonas aromáticas de carácter social, además de ser utilizado por los reptiles para oler a sus presas, sacando la lengua y después tocando el órgano con ella.

Sin embargo, al parecer (aunque el debate está abierto) el ser humano no tiene un órgano vomeronasal identificable, lo que haría imposible la comunicación dentro de nuestra especie mediante feromonas.

Pero con o sin feromonas, nos comunicamos con otros aromas. Los bebés utilizan el sentido del olfato para identificar a sus madres y para econtrar el pezón cuando desean alimentarse. Y según varios estudios, las madres pueden identificar con gran precisión a sus bebés únicamente por medio del olor, como si fuera un mensaje atávico, o precisamente por serlo.

Entre los descubrimientos más interesantes de Rachel Herz, psicóloga y neurocientífica de la ya mencionada Universidad de Brown está el determinar que nuestros cambios emocionales alteran la forma en la que percibimos los distintos olores, al grado de haber conseguido en su laboratorio crear verdaderas “ilusiones olfatorias” utilizando palabras para llevar a sus sujetos a percibir olores que “no están allí”.

Omnipresente aunque a veces no estemos conscientes de él, nuestro sentido del olfato nos pone en contacto con nuestros más antiguos antepasados evolutivos y es una de las áreas que más respuestas nos debe en el curioso sistema nervioso humano que apenas estamos descubriendo.

El sabor es olor

La lengua sólo puede detectar los sabores básicos: amargo, salado, ácido, dulce y umami, además de sensaciones como la de la grasa, la resequedad, la cualidad metálica, el picor, la frescura, etc. La mayor parte de lo que llamamos “sabor” es en realidad un conjunto de aromas que se transmiten a los bulbos olfativos por detrás del velo del paladar. Por eso hablamos de “paladear” un alimento, cuando lo movemos cerca del velo para que su aroma suba hasta nuestro sistema olfativo. Este hecho explica por qué no percibimos el sabor de los alimentos cuando tenemos la nariz tapada: perdemos toda la riqueza de nuestro olfato.

Nicola Tesla, creador de luz, habitante de la oscuridad

Nicola Tesla en la portada de Time, 20 de julio de 1931.
(D.P. via Wikimedia Commons)
El creador de la corriente alterna que hoy acciona nuestros dispositivos eléctricos fue uno de los grandes innovadores de la tecnología, y también un entusiasta proponente de ideas descabelladas que nunca pudo probar.

Nicola (Nikla) Tesla nació en la aldea de Smiljan, en la actual Croacia, entonces parte del imperio Austrohúngaro, el 10 de julio de 1856. Deseoso de estudiar física y matemáticas, estudió en el Politécnico Austriaco en Graz y en la Universidad de Praga. Pero pronto el alumno Nicola decidió adoptar una carrera de reciente creación: la de ingeniero eléctrico, aunque nunca obtuvo un título universitario.

Su primer trabajo en 1881 fue en una compañía telefónica de Budapest. Allí, durante un paseo, Tesla resolvió de súbito el problema de los campos magnéticos giratorios. El diagrama que hizo en la tierra con una varita era el principio del motor de inducción, en el que la inducción magnética generada con electroimanes fijos provoca que gire el rotor. El motor de inducción de Tesla sería eventualmente el detonador de la segunda revolución industrial a fines del siglo XIX y principios del XX.

Ya entonces se habían hecho evidentes algunas peculiaridades del pensamiento de Tesla. Por una parte, era capaz de memorizar libros enteros, y al parecer tenía memoria eidética. Al mismo tiempo, tenía ataques en los cuales sufría alucinaciones, y podía diseñar complejos mecanismos tridimensionales sólo en su cabeza.

En 1882 se empleó en París en la Continental Edison Company del genio estadounidense Tomás Alva Edison (1847-1931). Allí construyó, con sus propios medios, su primer motor de inducción, y lo probó con éxito aunque ante el desinterés general. Dos años después, aceptó una oferta del propio Edison para ir a Nueva York a trabajar con él.

Pronto, sin embargo, se enfrentaron. Tesla creía en la corriente alterna como la mejor forma de distribuir la electricidad, pero Edison defendía la corriente continua, ya comercialmente desarrollada, aunque sólo podía transportarse por cable a lo largo de tres kilómetros antes de necesitar una subestación.

La corriente alterna de Tesla que usamos hoy en día se transmite en una dirección y luego en la contraria cambiando 50 o 60 veces por segundo. Si en vez de dos cables se tienen tres o más, se puede transmitir corriente en varias fases. La corriente trifásica es hoy en día la más común en aplicaciones industriales. Y esa forma de distribución polifásica de la electricidad fue también uno de los desarrollos de Tesla.

Separado de Edison, Tesla formó su propia compañía, pero sus inversores lo destituyeron, y tuvo que trabajar en labores manuales durante dos años hasta que construyó su nuevo motor de inducción y diseñó la “bobina de Tesla”, un tipo de transformador que genera corriente alterna de alto voltaje y baja potencia. Su sistema de corriente alterna fue adquirido por George Westinghouse, el gran rival de Edison.

Tesla se ocupó entonces en otros proyectos. Diseñó la primera planta hidroeléctrica en 1895 en las cataratas del Niágara, logro que le atrajo la atención y el respeto mundiales. El brillante ingeniero descubrió también la iluminación fluorescente, las comunicaciones inalámbricas, la transmisión inalámbrica de energía eléctrica, el control remoto, elementos de la robótica, innovadoras turbinas y aviones de despegue vertical, además de ser, ya sin duda, el padre de la radio y de los modermos sistemas de transmisión eléctrica, y uno de los pioneros de los rayos X.

En total, Nicola Tesla registró unas 800 patentes en todo el mundo. Y más allá de los inventos eléctricos, diseñó diversos dispositivos mecánicos y se permitió especular con la energía solar, la del mar y los satélites.

Una de las más interesantes propuestas de Tesla fue la transmisión inalámbrica de electricidad, idea iniciada por Heinrich Rudolph Hertz. Tesla la demostró en 1893 encendiendo una lámpara fosforescente a distancia. A partir de entonces, numerosos inventores e inversores han buscado una forma segura y barata de transmitir electricidad sin cables, incluyendo un grupo dedicado del famoso MIT.

Al paso de los años, sin embargo, y sin disminuir las aportaciones que hizo a la ciencia y la tecnología, Tesla empezó a realizar afirmaciones extrañas y sin el apoyo de las demostraciones públicas y prácticas que habían cimentado su fama.

Así, en 1900 Tesla aseguró que podía curar la tuberculosis con electricidad oscilante, en 1909 aseguró que podía construir motores eléctricos que impulsaran transatlánticos a una velocidad de 50 nudos (90 kilómetros por hora), en 1911 prometía dirigibles sin hélice a prueba de tormentas, en 1931 declaró que haría innecesarios todos los combustibles aprovechando cierta energía cósmica, en 1934 anunció otro invento que nadie vio jamás: el rayo de la muerte y en 1937 aseguró que había desarrollado una teoría dinámica de la gravedad que contradecía la relatividad de Einstein.

Probablemente algunas de estas ideas tenían como base una especulación científica razonable y libre, pero ciertamente no eran inventos como los que le dieron fama. Al parecer, alrededor de 1910 Tesla empezó a presentar síntomas pronunciados de un desorden obsesivo compulsivo que sin embargo no le impidió seguir trabajando. Así, en 1917 hizo los primeros cálculos de de frecuencia y potencia para las primeras unidades de radar.

Tesla murió solo y sin dinero en el Hotel New Yorker el 7 de enero de 1943. Su legado científico fue confiscado temporalmente por el gobierno estadounidense, temeroso de que sus notas contuvieran elementos de importancia militar. Hoy están en el Museo Nicola Tesla. Sin embargo, este hecho junto con lo apasionante de sus afirmaciones especulativas, le volvieron atractivo para el mundo de lo misterioso y lo paranormal. Esto, quizá, influyó para que Tesla cayera en un injusto olvido pese a ser uno de los científicos más importantes e influyentes de la historia.

Ejecuciones por electricidad

Cuando se planteó la posibilidad de utilizar la electrocución como medio de ejecución sustituyendo al ahorcamiento, Nueva York contrató a dos ingenieros que eran empleados de Tomás Alva Edison. Para promover la corriente continua y demostrar que la alterna era peligrosa, Edison influyó para que sus empleados diseñaran la silla eléctrica empleando la corriente alterna de Tesla. Incluso, pese a considerarse un opositor a la pena de muerte, Edison promovió exhibiciones públicas en las que se mataba a animales con corriente alterna. En 1890 se llevó a cabo la primera ejecución con la silla eléctrica, un espectáculo atroz que sometió a la víctima a una tortura de más de ocho minutos. Y ni aún así logró Edison impedir el triunfo de la idea, mucho mejor, de Nikola Tesla que hoy abastece de electricidad al mundo.

Visión estereoscópica: de la cacería al cine en 3D

La vida transcurre en tres dimensiones, y la visión estereoscópica es fundamental para nuestra especie. Pero representar las tres dimensiones es otra historia.

Daguerrotipo estereoscópico  de Auguste Belloc,
de mediados del siglo XIX.
(D.P. vía Wikimedia Commons)
Apreciamos el mundo en tres dimensiones. Esto, que parece tan natural, tiene un origen y unas consecuencias sumamente complejas.

La visión estereoscópica o binocular es el resultado de un delicado mecanismo cerebral que toma los datos que mandan los dos ojos, que ven lo mismo desde ángulos ligeramente distintos. El cerebro, en la zona dedicada a la visión, la llamada corteza visual situada en la zona occipital, compara estas dos visiones, nota las similitudes, analiza las pequeñas diferencias entre ambas, las fusiona y realiza la interpretación de la profundidad.

No todos los animales tienen visión estereoscópica, pues ésta responde, como todas las demás características de los seres vivos, de la presión de selección. Para un conejo, por ejemplo, y para los animales cuyo papel es el de presas, es importante tener una visión lo más amplia posible para detectar a los posibles depredadores. Estos animales tienen los ojos a ambos lados de la cabeza y la visión de los dos casi no se superpone.

Sin embargo, los depredadores suelen tener visión estereoscópica para identificar a la presa, perseguirla y dar el golpe final con la máxima precisión posible. Búhos, águilas, tigres, lobos, tienen ambos ojos al frente, y una corteza visual de altísima precisión para aumentar sus posibilidades de éxito en la cacería.

La visión estereoscópica o en tres dimensiones nos parece tan natural que no solemos darle su justo valor. Un experimento interesante para comprender cuán importante es esta capacidad de nuestro sistema de percepciones es el de pasar un tiempo con un ojo vendado. Al hacerlo, descubrimos que muchas de las actividades cotidianas se vuelven difíciles o imposibles.

La visión estereoscópica nos permite calcular la distancia a la que está un objeto que deseamos levantar, enhebrar una aguja, verter líquido en un recipiente y subir y bajar peldaños, entre otras cosas. Conducir con un solo ojo se vuelve una tarea incluso peligrosa para alguien habituado a usar los dos ojos.

Por esto mismo, algunas actividades humanas serían imposibles si no apreciáramos las tres dimensiones, entre ellas los deportes como el fútbol que requieren una apreciación rápida y exacta de la velocidad y la dirección de una pelota y de los demás jugadores, o profesiones que van desde la de cirujano hasta la de camarero.

No es extraño pues que el hombre siempre haya querido representar artísticamente el mundo en tres dimensiones. La escultura en sus muy diversas formas es, finalmente, una representación así. Pero la pintura, la fotografía y el cine han intentado también utilizar diversos trucos para crear la ilusión de 3D.

Los estereogramas crean la ilusión de tres dimensiones a partir de dos imágenes bidimensionales. En fotografía, estas imágenes se obtienen utilizando cámaras fotográficas dobles, en las que los objetivos tienen la misma separación entre sí que los ojos humanos. Utilizando un visor que hace que cada ojo vea sólo una de las imágenes, se obtiene la ilusión de 3D. También se han creado pinturas y dibujos que utilizan el mismo principio.

En blanco y negro, esa ilusión se puede obtener también colocando en el mismo plano las dos imágenes, una en rojo y la otra en verde, y dotando al espectador de unas gafas que tengan filtros también rojo y verde. El ojo con el filtro rojo verá en color negro la imagen en verde y no verá la imagen en rojo, mientras que con el verde ocurrirá lo contrario, de modo que, de nuevo, cada ojo percibe sólo una de dos imágenes ligeramente distintas. Este sistema se conoce como anaglifo.

Los intentos de conseguir la ilusión de 3D en el cine datan de 1890, con procedimientos diversos para conseguir que cada ojo viera sólo una de dos imágenes estereoscópicas. En 1915, por ejemplo, se usó un anaglifo rojo y verde para proyectar películas 3D de prueba, y entre 1952 y 1955 se realizaron varias cintas de 3D en color que utilizaban polarizadores tanto en el proyector como en las gafas del público para separar las imágenes destinadas a cada ojo. Pero el sistema era propenso a errores, y la sincronización de los dos proyectores necesarios se alteraba fácilmente, de modo que se abandonó hasta su rescate por el sistema IMAX en la década de 1980.

El renacimiento del cine en 3D comenzó en 2003 gracias a la utilización de un nuevo sistema de cámaras de vídeo de alta definición en lugar de película y una mayor precisión matemática en la diferenciación de las imágenes. Este sistema de 3D proyecta las dos imágenes sucesivamente pero empleando un solo proyector. El cine normal en dos dimensiones se hace a 24 cuadros por segundo, y el moderno cine en 3D utiliza desde 48 cuadros por segundo, alternando los del ojo/objetivo izquierdo y derecho, hasta 144 cuadros por segundo, 72 para cada ojo.

Las gafas de 3D que llevamos cuando vamos a ver una película en 3D están hechas de cristal líquido. Controlados por infrarrojos, los cristales de estas gafas se oscurecen alternadamente, de modo que cada ojo sólo ve los cuadros correspondientes a su imagen. Si uno obstruye la entrada de infrarrojos con el dedo en el puente de la nariz, entre ambos cristales, dejan de reaccionar y vemos las dos imágenes a la vez, lo que no es nada agradable de ver.

Este sistema se empieza a utilizar también en monitores de vídeo que pueden hacer realidad la soñada televisión en 3D, aunque para los verdaderos conocedores de las imágenes en tres dimensiones, es preferible el sistema de la realidad virtual, que utiliza cascos o grandes gafas con dos diminutas pantallas de vídeo, cada una ante un ojo, con las imágenes correspondientes.

Los avances que han permitido que el cine en 3D sea comercialmente viable son, sin embargo, insuficientes. La ciencia y la industria siguen esperando la solución perfecta para crear ilusiones que simulen efectivamente la realidad tal como la vemos.

Los hologramas

El uso de dos imágenes en dos dimensiones para dar la ilusión de tres no consigue sin embargo que lo que vemos se comporte como la realidad. En el cine en 3D no podemos dar la vuelta a un árbol para ver qué hay detrás. Pero esto sí es posible mediante la holografía, una forma de registro de imágenes que emplea un láser que se separa en dos haces para registrar los objetos en su totalidad (de allí el uso de la raíz “holos”, que significa la totalidad). Por desgracia, después de un prometedor inicio en la década de 1970 que incluyó una exposición de hologramas de Dalí en 1972, no se consiguió un desarrollo adecuado, y la holografía se orientó más a la seguridad y el almacenamiento de datos, quedando apenas un puñado de creadores de hologramas artísticos.

El difícil oficio de seguir vivo: las defensas en la naturaleza

Un lenguado confundiéndose con el fondo marino
(CC Wikimedia Commons)
La vida es un asunto peligroso. En la naturaleza, ese peligro se conjura con los más originales y sorprendentes sistemas de defensa.

Todo ser vivo tiene un enorme valor... como alimento. Visto exclusivamente desde el punto de vista gastronómico, es una colección de proteínas que se pueden descomponer en aminoácidos en el sistema digestivo de otro ser vivo que usará éstos para hacer sus propias proteínas, y contiene además carbohidratos, grasas para obtener energía, azúcares, vitaminas, minerales... una enorme riqueza que debe protegerse o algún otro ser vivo la robará, nos comerá.

Pero ser fuente de nutrientes para otro ser vivo (cosa que finalmente somos todos al morir, reciclados por roedores, gusanos, insectos varios y diversas plantas) es sólo uno de los riesgos que comporta ser parte del concierto vital.

En este enfrentamiento destacan las armas más diversas, y un arsenal defensivo de primer orden que es en gran medida responsable de la diversidad en la naturaleza.

Si a uno no lo puede ver el enemigo, no necesita defensas mucho más complejas. El camuflaje (palabra procedente del francés “camouflet”, bocanada de humo) es la primera línea de defensa para muchos seres. Además de confundir al enemigo, permite acechar a las presas con tranquilidad hasta el momento del golpe final.

Famosos por su camuflaje fundiéndose con el entorno son los distintos tipos de insectos que semejan ramas, palitos u hojas. Muchos animales nos informan con su aspecto de cómo son su entorno o su sociedad, aunque no se camuflen para defenderse. El color del león refleja la sabana donde caza, mientras que el tigre se confunde en la espesura de la jungla. Las polillas se ocultan a la vista en la corteza de los árboles y las cebras utilizan el mismo sistema de defensa que las grandes manchas de peces: su número y el dibujo de su piel han evolucionado para confundir al depredador y dificultarle la tarea base de toda cacería exitosa: elegir a una sola presa de entre todas, concentrarse en ella y hacer caso omiso del resto de la manada.

Un camuflaje sencillo lo muestran los peces que han evolucionado para ser más oscuros en su mitad superior y más claros por debajo, pues así se confunden con el fondo contra el que se les ve: la oscura profundidad abajo o el claro cielo arriba.

El problema de este tipo de camuflaje es que el animal, fuera de su entorno habitual, es totalmente vulnerable. El mejor camuflaje es el que cambia, y ese lo exhiben varias especies de pulpo que pueden cambiar la coloración, opacidad y reflectividad de su epidermis, e incluso su textura, a gran velocidad. Entre sus defensas secundarias, el pulpo utiliza la velocidad, arma defensiva esencial para numerosas presas, desde la liebre hasta la gacela, desde el atún hasta la mosca.

Los seres vivos, en general, son de constitución más bien suave, gelatinosa, pues el agua es el principal componente de todos los seres vivos. El desarrollo de partes duras, como cuernos y corazas, es una excelente estrategia que vemos en acción en la corteza de los árboles o los gruesos cuernos quitinosos de los escarabajos rinoceronte, en el caparazón de las tortugas (tan eficaz que lleva más de 200 millones de años de éxito) o los cuernos de cabras, rebecos o bisontes. A algunos animales les ha bastado que su piel evolucione para ser gruesa y fuerte, aunque no rígida, como al rinoceronte o el propio elefante.

Para encontrar las más impresionantes armaduras, sin embargo, debemos trasladarnos hacia atrás en el tiempo, a la época (o, más precisamente, las épocas) en que vivieron los dinosaurios, con enormes placas óseas en el cuerpo, amenazantes espinas a lo largo del lomo y cuernos de aspecto aterrador. En esta armería prehistórica destacan los anquilosaurios, dinosaurios blindados que vivieron en los períodos jurásico y cretácico y que, creemos, convivieron con depredadores tan terribles como el Tirannosaurus Rex.

El más asombroso miembro de este género fue el euplocephalus, que además de desarrollar una especie de maza al final de la cola, tenía blindados incluso los párpados. Seguramente un animal difícil de cazar.

En el mundo vegetal, la dureza también es una eficaz defensa. Muchas semillas han evolucionado para ser duras de modo que sobrevivan al paso por el tracto digestivo de diversos animales. La estrategia que ha evolucionado es asombrosa: la planta envuelve la semilla en una fruta atractiva para ciertos animales, que la comen junto con las semillas y se alejan, esparciendo las semillas en distintos lugares. La dureza de la semilla es una forma de aprovechar la movilidad de los animales para extender la presencia de la especie.

Distintas sustancias químicas son el arma defensiva de elección de muchas especies animales y vegetales, en ocasiones con resultados inesperados. La savia aceitosa de la hiedra venenosa evolucionó con el componente llamado urushiol, que le ayuda a combatir las enfermedades, pero por azar esta sustancia resultó causar alergia al 90% de los seres humanos (y no a ningún otro animal).

El veneno resulta un eficaz disuasor que sirve como defensa y como ataque. Curiosamente, el animal más venenoso de la tierra es una diminuta rana de apenas unos 4 centímetros de largo, cuyo nombre científico ya es revelador: Phyllobates terribilis. Cada pequeña rana dardo, de vivo color dorado, tiene veneno suficiente para matar entre 10 y 20 seres humanos, lo que hace palidecer a envenenadores más conocidos como la víbora de cascabel, la cobra real, el escorpión o la viuda negra.

En este incompleto listado de los sistemas defensivos que nos ofrece la naturaleza no pueden quedar fuera las diez especies de pacíficas mofetas y su arma de pestilencia masiva. Una combinación de sustancias químicas que contienen azufre, y cuyo olor se ha descrito como una mezcla de huevos podridos, ajo y caucho quemado, bastan para mantener a buen recaudo a posibles depredadores, sin causarles más daño que un terrible mal rato. Pacifismo eficaz, dirían algunos.

Las defensas del ser humano

El ser humano carece de una dentadura aterradora, garras potentes, partes acorazadas, cuernos, la capacidad de camuflarse o alguna sustancia química tan aterradora como la de la mofeta o la rana dardo. Sus defensas se limitan a las que rechazan o atacan invasores microscópicos: la piel, las mucosas y el sistema inmune. Pero el ser humano inventó un sistema de defensa totalmente original en la naturaleza: un cerebro flexible, capaz de la abstracción y el pensamiento original, que puede crear defensas tan eficaces como las de muchos animales. La eficacia de estas defensas se demuestra en el hecho de que hace muchos miles de años que Homo sapiens sapiens ya no está en el menú habitual de las especies que consumieron como alimento a sus antepasados.

La modificación genética

ADN replicándose
(D.P. vía Wikimedia
Commons)
Todos los seres vivos modifican genéticamente a todos los seres con los que interactúan. Ése es uno de los hechos principales de la evolución y de toda la biología.

La relación entre el guepardo y los tipos de gacela que caza es un buen ejemplo. Durante los millones de años de su interacción, esta pareja de depredador y presa han establecido una verdadera carrera armamentística. Las gacelas más rápidas tienen más posibilidad de sobrevivir, y así la presión de selección hace que las gacelas sean cada vez más rápidas. Pero los guepardos más rápidos serán los que tengan más probabilidades de alimentarse y por tanto la especie en general es cada vez más rápida.

El resultado es que el guepardo es hoy el animal terrestre más rápido, con capacidad de alcanzar los 120 Km/H durante breves períodos. Pero también ocurre que el guepardo fracasa con frecuencia, o en ocasiones queda tan exhausto después de una cacería exitosa que su presa es robada por otros oportunistas, en particular los leones. En su modificación genética del otro, ambas especies se han puesto en peligro sin saberlo.

De hecho, fue la observación de las variaciones genéticas de los pinzones de las Galápagos lo que le dio a Charles Darwin la pista sobre la forma en que se daba la evolución. El pico de los pinzones en las distintas islas estaba adaptado a distintas formas de alimentarse: fruta, insectos, cactus, semillas.

En este concierto biológico, el ser humano ha sido una poderosa influencia en la modificación genética de gran cantidad de plantas y animales. De hecho, el proceso de domesticación, sea del trigo o de las reses, es modificación genética, tanta que la gran mayoría de las plantas y animales domesticados por el ser humano no se encuentran en la naturaleza y sus versiones originales desaparecieron hace mucho.

Sin embargo, no es esto en lo que pensamos cuando se habla de modificación genética, sino en procedimientos de ingeniería genética que alteran directamente a los organismos.

La ingeniería genética nació en 1973, cuando Herbert Boyer y Stanley Cohen utilizaron enzimas para cortar el ADN extranuclear de una bacteria e insertar un segmento de ADN entre los dos extremos cortados. La cadena de ADN resultante, no existente hasta entonces, se llama ADN recombinante. Este logro abría posibilidades que iban desde la creación de complejos híbridos hasta la clonación.

La primera aplicación práctica de las nuevas herramientas de modificación genética llegó a la vida de la gente tan sólo nueve años después. En se autorizó la insulina producida por bacterias a las que se les había añadido el gen humano que produce esta hormona.

Hasta 1982, la insulina que necesitaban los diabéticos se obtenía de cerdos y reses. Hoy, la ingeniería genética le ofrece a los diabéticos distintas variedades de insulina producida por distintas bacterias, plantas y levaduras, y que permite un mejor control de la afección.

La introducción en un ser de una especie de un gen de otra especie, como en el caso de la insulina, es lo que se conoce como “ingeniería transgénica”. Esto, que el ser humano está empezando a hacer es, sin embargo, un fenómeno relativamente común en la naturaleza, especialmente en seres unicelulares, llamado “transferencia genética horizontal”, que se descubrió en 1959 y que hoy se considera que ocurre también en plantas y animales superiores.

La ingeniería genética aplicada a los alimentos, que es motivo de fuertes campañas por parte de diversos grupos, se ha utilizado para introducir cambios en los alimentos con distintos objetivos, como hacerlos resistentes a ciertos insectos, virus o herbicidas, o hacer que maduren más lentamente para que lleguen al mercado en mejores condiciones sin necesidad de conservantes.

Sin embargo, los organismos genéticamente modificados, sean o no transgénicos, presentan varias interrogantes que la ciencia está tratando de responder. Existen temores razonables de que los genes modificados de un organismo puedan transferirse a otro. No al que los consume, pues los procesos digestivos lo impiden y así lo han demostrado diversos estudios, pero sí, por ejemplo, a bacterias de su flora intestinal. Igualmente, se pueden introducir en una especie genes de otra a la que existan alergias. Existe también la preocupación de que se afecte la biodiversidad y el equilibrio ecológico.

Sin embargo, los mayores escándalos son de orden económico. Los organismos con ADN recombinante pueden ser patentados, lo que crea un nuevo universo de problemas legales. Además, las prácticas de algunas multinacionales que producen semillas son, cuando menos, cuestionables, por ejemplo al diseñar sus semillas de modo que su descendencia sea estéril, de modo que los agricultores se vean obligados a comprarle semillas a la empresa año tras año.

Estas prácticas, que pertenecen al reino de la economía y los riesgos del mercado sin controles, han contaminado sin embargo la visión del público respecto de los alimentos sometidos a ingeniería genética, sin que por otra parte haya información suficiente sobre estas modificaciones y si realmente pueden o no afectar al ser humano. El debate, por desgracia, se está moviendo en terrenos de la propaganda y lo emocional antes que en los niveles de la razón y los datos.

La promesa de la ingeniería genética es, sin embargo, demasiado grande. La posibilidad de curar o prevenir multitud de enfermedades, de alargar nuestra vida o de contar con alimentos más baratos, más nutritivos o más fáciles de transportar para luchar contra el hambre, entre otros muchos posibles beneficios, son también parte del debate, y la solución a ese debate está en los estudios que se realizan sobre el verdadero impacto de los organismos genéticamente modificados.

Hoy, afortunadamente, podemos debatir y orientar la modificación de organismos por medio de la ingeniería genética, cuidando del medio ambiente y la biodiversidad. Durante los anteriores 20.000 años, el hombre modificó irreversiblemente miles de organismos sin tener ni esa conciencia ni las herramientas para minimizar los efectos negativos de su, por otro lado, natural incidencia en la genética de otros organismos.

El arroz dorado

En el año 2000, el científico suizo Ingo Potrykus creó una variedad de arroz capaz de sintetizar beta-caroteno, un precursor de la vitamina A, para ayudar a los niños, principalmente en el sureste asiático donde el arroz es el alimento básico, que sufren deficiencia de la vitamina A. Esta afección provoca ceguera o la muerte a cientos de miles de niños cada año. Siendo gratuito para los agricultores de subsistencia del Tercer Mundo, el arroz dorado no se ha extendido porque grupos como Greenpeace se oponen a su cultivo, manteniendo una política estricta contra todos los organismos genéticamente modificados.

La ciencia que estudia nuestras decisiones

John Von Neumann, fundador de la
teoría de juegos.
(foto CC via Wikimedia Commons)
Suponga que usted es uno de dos detenidos como sospechosos de un delito. No teniendo pruebas, la policía los separa y le dice a cada uno que si uno testifica traicionando al otro, y el otro se mantiene callado, el traidor saldrá libre y el otro irá 10 años a la cárcel. Sin embargo, si ambos callan (son leales entre sí), ambos serán encarcelados durante sólo seis meses por una acusación menor. Y si ambos hablan (cada uno traicionando al otro) ambos recibirán una condena de cinco años. Se les dice que no se informará al otro si hay una traición. La pregunta es, “¿cómo debe actuar el prisionero, o sea usted?”

Esta situación, conocida como el “dilema del prisionero”, se puede estudiar matemáticamente, con objeto de determinar qué estrategia es la más conveniente para cada uno de los jugadores. De hecho, resulta que independientemente de lo que haga el otro, matemáticamente el mayor beneficio para un jugador se encuentra siempre en traicionar y hablar.

Si el otro calla, al traicionarlo saldremos libres en vez de pasar seis meses en la cárcel. Si el otro habla, al traicionarlo reducimos a la mitad la posible pena, de diez a cinco años. Quizá no sea lo más moral o cooperativo, pero es la estrategia más conveniente.

Sin embargo, si el juego se repite varias veces, el llamado “dilema del prisionero iterativo” y sabemos qué hizo el otro prisionero la vez anterior, como se hizo en un torneo organizado por Robert Axelrod, profesor de ciencias políticas de la Universidad de Michigan, la mejor estrategia parte de no traicionar, pero en caso de que el otro traicione, responder traicionando en la siguiente partida, saber perdonar cuando el otro vuelva a la actitud cooperativa y finalmente nunca tratar de ganar más que el oponente.

Interacciones estratégicas como la que se presenta en el dilema del prisionero, con participantes o jugadores racionales y sus resultados de acuerdo con las preferencias o beneficios de los jugadores son, precisamente, el campo de estudio de la “teoría de juegos”. En estas situaciones, el éxito de las decisiones que tomamos depende de las decisiones que tomen otros, de la forma en que tales decisiones se interrelacionan entre sí, y de los distintos resultados posibles, pueden ser analizados matemáticamente y darnos una visión más amplia y clara de las distintas avenidas que pueden recorrer los acontecimientos.

La teoría de juegos como tal, más allá de los antecedentes y trabajos previos tanto en filosofía como en matemáticas, fue la creación del matemático estadounidense John Von Neumann, considerado como uno de los más destacados científicos de su ramo del siglo XX por sus aportaciones a disciplinas tan diversas como la teoría de conjuntos, el análisis funcional, la mecánica cuántica, la economía, la informática, el análisis numérico, la hidrodinámica de las explosiones y la estadística.

Von Neumann se interesaba principalmente por el área de las matemáticas aplicadas, como lo demuestran las aportaciones arriba enumeradas, y en 1928 enunció el teorema “minimax”, según el cual en juegos de suma cero (donde las ganancias de uno dependen de las pérdidas del otro) y de información perfecta (ambos jugadores saben qué movimientos se han hecho hasta el momento), hay una estrategia concreta para cada jugador de modo que ambos reduzcan al mínimo sus pérdidas máximas.

Este teorema fue el punto de partida para que el matemático estudiara otros tipos de juegos con información imperfecta o con resultados distintos de la suma cero. El resultado de su trabajo fue el libro La teoría de juegos y el comportamiento económico, escrito en colaboración con Oskar Morgenstern y publicado de 1944.

A partir de entonces, la teoría de juegos se desarrolló a gran velocidad y se determinó su utilidad en el estudio de numerosas disciplinas más allá de la economía, desde la biología, concretamente en la evolución de individuos y especies en un medio determinado, hasta la ingeniería, las ciencias políticas, las relaciones internacionales y la informática.

En la teoría de juegos participan agentes que buscan obtener utilidades o beneficios mediante sus acciones, utilidades que pueden ser económicas, alimenticias, estéticas, sexuales o simplemente de supervivencia, entre otras posibilidades.

El juego al que se refiere la teoría no tiene nada que ver con una diversión, por supuesto. Se trata de una situación en la que un agente sólo puede actuar para conseguir la máxima utilidad adelantándose a las respuestas que otros agentes puedan tener ante sus acciones. Y los agentes son racionales sólo en tanto que tienen capacidad de evaluar los posibles resultados y determinar las rutas que llevan a tales resultados. Pero esto no forzosamente significa un análisis abstracto, un organismo que busca alimentarse tiene una actitud racional en términos de la teoría de juegos, aunque no realice operaciones mentales de alto nivel.

La teoría de juegos tiene al menos dos aplicaciones de gran valor. En algunos casos, puede utilizarse para ayudar a encontrar la mejor estrategia en una situación compleja, o al menos eliminar las estrategias más débiles. La situación puede ser política, militar, diplomática o de relaciones humanas. Si puede cuantificarse, se puede analizar.

En otros casos, la teoría de juegos ayuda a comprender la forma en que se dan ciertos procesos, como la evolución de las especies o el desarrollo vital de una persona, puede analizar cómo las consideraciones de tipo ético, por ejemplo, pueden alterar profundamente las estrategias de personas y grupos, o encontrar los beneficios ocultos en estrategias aparentemente incorrectas o débiles.

Desde determinar si nos conviene más comprar una entrada para el cine el día antes por Internet con un sobreprecio o llegar temprano al cine a hacer cola hasta decidir la compra de una casa o la renuncia a un empleo, todos los días tomamos decisiones, sin imaginar que estamos resolviendo problemas de teoría de juegos y definiendo las rutas que calculamos nos llevarán a obtener el resultado que deseamos. Y eso ciertamente no es ningún juego.

El altruismo en la teoría de juegos

Cuando un organismo actúa de modo tal que beneficia a otros en perjuicio de sí mismo, actúa de modo altruista. Generalmente la acción altruista no es racional y calculada, sino instintiva, un impulso irrefrenable. La teoría de juegos demuestra, sin embargo, que este hecho biológico aparentemente incongruente tiene explicaciones en las otras "utilidades" que puede obtener el altruista, desde el sentimiento de actuar como es debido hasta el ayudar indirectamente a aumentar la probabilidad de supervivencia del grupo a futuro. Lo que parece irracional resulta así la mejor forma de actuar, y la biológicamente natural, aunque a algunos cínicos la idea no les agrade.

Ramón y Cajal, padre de las neurociencias

El cerebro, ese órgano que ha sido capaz de cuestionar al universo, empezó a entenderse sólo cuando supimos que lo formaban las asombrosas neuronas.

Santiago Ramón y Cajal
(D.P. via Wikimedia Commons)
Si el científico se caracteriza por su visión creativa, por su rebeldía, por su cuestionamiento continuo de todo cuanto lo rodea, por su tenacidad y su amplitud de miras, Santiago Ramón y Cajal jugó a la perfección su papel, desde una niñez conflictiva hasta la obtención de los máximos galardones de la ciencia durante su vida, incluido el Premio Nobel de Medicina en 1906 y, quizás de modo más importante, por ser considerado hoy en día como el gran pionero de las neurociencias.

Es difícil sobreestimar la aportación de Ramón y Cajal al conocimiento. Simplemente en número, sus más de 100 publicaciones científicas y artículos escritos en español, francés o alemán, superan con mucho a las de la gran mayoría de los científicos, de su tiempo y posteriores.

Pero el número de sus publicaciones no es lo fundamental, sino su calidad, pues su observación y descripción de los tejidos nerviosos llevó a una de las grandes revoluciones en la comprensión de nuestro cuerpo.

En 1839, el fisiólogo alemán Theodor Schwann había propuesto la hipótesis de que los tejidos de todos los organismos estaban compuestos de células, una idea que hoy parece evidente, pero que era inimaginable antes del siglo XIX. Desde el antiguo Egipto, se creía que los seres vivos eran resultado de una fuerza misteriosa, diferente de la materia común y distinta de los procesos y reacciones bioquímicos.

La supuesta energía vital recibió distintos nombres y explicaciones en distintas culturas. Para los latinos era la vis vitalis, para los chinos el chi, para el hinduísmo el prana, y eran los desequilibrios de esta energía los que se consideraban las causas de las enfermedades, y las prácticas curativas precientíficas estaban todas orientadas a restablecer el equilibrio de la energía vital: por ejemplo mediante sangrías, aplicación de agujas o las prácticas ayurvédicas.

Incluso los proponentes de la “teoría celular” que cambió nuestra forma de vernos a nosotros mismos mantenían, sin embargo, que el sistema nervioso, supuestamente residencia del alma, era una excepción y no estaba formado por células, sino que era una materia singular, distinta.

El tenaz trabajo de Ramón y Cajal al microscopio, observando atentamente los tejidos del cerebro, y dibujando cuanto veía con una mano de artista que aún hoy asombra, junto con el de coetáneos como Camillo Golgi, permitió que, en 1891, el anatomista alemán Heinrich Wilhelm Gottfried von Waldeyer-Hartz propusiera que el tejido nervioso también estaba formado por células. Las células estudiadas por Ramón y Cajal, y a las que llamó neuronas. De hecho, Waldeyer aprendió español con el único propósito de poderse comunicar con el genio español, con el que formó una estrecha amistad.

Santiago Ramón y Cajal nació en Petilla de Aragón, Navarra, el 1º de mayo de 1852, y desde niño reaccionó con rebeldía ante el autoritarismo de la educación de su tiempo, lo que influyó para que recorriera diversas escuelas. Sus inquietudes lo llevaron, por ejemplo, a la construcción de un cañón empleando un tronco de árbol. Al probar su funcionamiento, el joven Santiago destrozó el portón de un vecino.

Su inquietud también se tradujo al aspecto profesional. Además de ser desde pequeño un hábil dibujante, fue aprendiz de barbero y de zapatero remendón, y un enamorado del físicoculturismo. Fue su padre, que era profesor de anatomía aplicada en la universidad de Zaragoza, quien lo convenció de orientarse a la medicina, carrera en la que se licenció en 1873.

Un año después, Ramón y Cajal se embarcaba en la expedición a Cuba como médico militar. Allí contrajo malaria y tuberculosis, llegando a sufrir un debilitamiento y adelgazamiento crónico extremos, lo que llevó al ejército español a licenciarlo como “inutilizado en campaña”.

A su vuelta, adquirió su primer microscopio, de su propio bolsillo, y entró a trabajar como asistente en la escuela de anatomía de la facultad de medicina en Zaragoza, además de realizar su doctorado, que completó en 1877.

A partir de entonces, se dedicó no sólo a los puestos como catedrático que fue alcanzando, sino a la investigación, gran parte de ella realizada en su cocina, reconvertida como laboratorio. Se ocupó primero de la patología de la inflamación, la microbiología del cólera y la estructura de las células y tejidos epiteliales.

Por entonces, otro pionero del estudio científico de los tejidos humanos, el italiano Camillo Golgi, que también trabajaba en su cocina, desarrolló un método que permitía teñir sólo ciertas partes de un preparado histológico, lo que permitía ver las células nerviosas individuales. Ramón y Cajal, que acudía continuamente a textos de otros países para mantenerse al día en investigación, se interesó por el sistema de tinturas de Golgi y orientó su atención hacia el sistema nervioso central.

Golgi y una parte de los científicos de la época consideraban que el cerebro era una red, una especie de malla homogénea en la que la información fluía en todas direcciones, hipótesis llamada “reticular”. Por su parte, Ramón y Cajal se orientaba a la teoría celular, y su trabajo fue poco a poco sustentando la idea de que existían células independientes, individuales, en las que la información fluía en un solo sentido.

Las evidencias observadas por el científico zaragozano, ilustradas con sus brillantes y precisos dibujos, empezaron a desentrañar la composición del tejido nervioso, los distintos tipos de células que lo conformaban en las distintas regiones del cerebro y los puntos de contacto entre ellas, las sinapsis, donde la información pasa de una a otra neurona, todo lo cual se iba revelando en sucesivas publicaciones.

El trabajo Ramón y Cajal consiguió, conjuntamente con el de su amigo Camillo Golgi, el Premio Nobel de Medicina en 1906. Ramón y Cajal obtuvo además doctorados honorarios en las universidades de Cambridge, Würzburg y Clark, y fue miembro de las más destacadas academias científicas de la época. Pero su máximo logro fue, sin duda, la creación del instituto de biología experimental que hoy lleva su nombre, el Instituto Cajal, que dirigió hasta su merte en 1934.

Ramón y Cajal, autor de ciencia ficción

En 1905, Santiago Ramón y Cajal publicó Cuentos de vacaciones, un volumen con cinco relatos satíricos y pedagógicos que él llamó “seudocientíficos” y que son muy cercanos a lo que hoy llamamos ciencia ficción. Acaso preocupado por no comprometer su prestigio profesional, o bien temeroso de la censura imperante en la época, firmó el libro como “Doctor Bacteria”. La primera edición la hizo de modo privado para sus amigos y conocidos, y quizás no esperaba que tuviera mayor difusión, aunque en la actualidad es de fácil acceso en varias ediciones firmadas no por “Doctor Bacteria”, sino por el ganador del Premio Nobel de Medicina en 1906.

Medir la inteligencia

Kim Peek, el famoso savant.
(Copyright Dr. Darold A. Treffert
y la Wisconson Medical Society,
usada con permiso)
La inteligencia: intentamos medirla sin tener, todavía, una definición debidamente consensuada de ella. En el proceso, hemos aprendido mucho de nuestros errores metodológicos.

Para llamar a un perro “inteligente”, basta que responda a un adiestramiento para realizar tareas de rescate, actuar en cine, descubrir drogas o ser el lazarillo de un ciego. Sin embargo, los científicos hablan de la inteligencia de animales mucho más sencillos, y por otra parte, socialmente solemos imponer estrictos –y variables– niveles de exigencia para señalar que alguien es “inteligente”.

Llamamos inteligencia a muchísimos atributos distintos sin tener la certeza de que están relacionados entre sí: una memoria prodigiosa, una acumulación desusada de datos, la capacidad de resolver problemas complejos, la capacidad de inducción o predicción, la creatividad, al pensamiento original, el uso del idioma y a el pensamiento abstracto, entre otros muchos. El propio diccionario de la RAE ofrece cuatro acepciones distintas de “inteligencia”,

Quizá estos elementos no están interrelacionados, o quizá tienen relaciones diversas y en grados variables. De hecho, la ciencia se ha visto enfrentada a casos que dejan muy claro que estos elementos pueden existir con independencia, obligándonos a replantearnos algunas ideas.

Kim Peek, el recientemente fallecido modelo del protagonista de la película Rain Man, leía los libros dos páginas a la vez, una con cada ojo, podía realizar cómputos matemáticas a una enorme velocidad y exhibía una impresionante memoria fotográfica o eidética que reunía datos por igual deportivos que sobre la monarquía británica, compositores, películas, literatura, etc., y se sabía de memoria en un 98% los más de 76.000 libros que había leído en toda su vida.

Sin embargo, por su macrocefalia congénita no podía arreglárselas solo en la vida cotidiana, tardó hasta los 4 años en aprender a caminar, nunca supo abotonarse la ropa, y le resultaba casi imposible entender los giros idiomáticos, los chistes y las metáforas.

Como Peek, muchos otros savants exhiben simultáneamente rasgos que consideraríamos de gran inteligencia y otros de graves retrasos mentales, desarrollo social insuficiente o problemas de autismo.

Por otra parte, en las primeras “pruebas de inteligencia" realizadas en Estados Unidos, los negros alcanzaron notas muy inferiores a las de los blancos, y pasó tiempo antes de determinar que tales pruebas de inteligencia en realidad tenían un fuerte sesgo al medir en realidad conocimientos escolares a los que los blancos tenían un mayor acceso, y habilidades culturales concretas de la clase media blanca.

Así como las pruebas parecieron validar algunas concepciones racistas, negaban el sexismo, pues desde el principio no mostraron diferencia entre hombres y mujeres. Ello no obstó, sin embargo, para que socialmente siguiera vigente la falacia de una inteligencia deficiente de la mujer como pretexto para justificar los obstáculos a su acceso a la educación, a puestos de responsabilidad, a los procesos electorales y a espacios en numerosas disciplinas.

En 1983, el Doctor Howard Gardner, de la Universidad de Harvard, propuso que en realidad existen múltiples inteligencias: lingüística, lógico-matemática, espacial, corporal-cinestésica, musical, interpersonal, intrapersonal y naturalista. Aunque tiene numerosos críticos por motivos metodológicos y falta de constatación experimental, la visión de Gardner sirve al menos para ilustrar el problema de la definición de inteligencia y sus aspectos, tanto en el terreno de la ciencia como en el de la sociedad, y el debate (más político que biológico) sobre las raíces biológicas y medioambientales de la inteligencia.

El primer intento por medir la inteligencia lo hizo el británico Francis Galton en el siglo XIX, al fundar la psicometría. Poco después, Alfred Binet creó una prueba para medir el desarrollo intelectual (o edad mental) de los niños. En 1912, el psicólogo alemán Wiliam Stern desarrolló el concepto de cociente intelectual o IQ (Intelligenz-Quotient), resultado de dividir la edad mental por la edad cronológica, para cuantificar los resultados de las pruebas de Binet, sin que éste aceptara dicha escala.

Aunque el concepto de IQ o CI ya no es el de Stern, su uso sigue extendido en las diversas pruebas que se han desarrollado para esdudiar a la elusiva inteligencia. Tales pruebas se afinan continuamente para eliminar los sesgos raciales, culturales o de otro tipo, y ponderar las diferencias conocidas, por ejemplo, en las habilidades espaciales de hombres y mujeres. Pero aún así, la abrumadora cantidad de factores que influyen en el desarrollo de la inteligencia (o las inteligencias) sigue haciendo que estas pruebas sean sólo indicadores generales y en modo alguno predictores precisos como lo serían algunos análisis médicos.

Esto no significa, sin embargo, que las pruebas de inteligencia no tengan utilidad, aunque sean perfectibles. Los estudios estadísticos demuestran una correlación importante entre las altas puntuaciones de las pruebas y resultados como el desempeño en el trabajo o el rendimiento escolar que les dan una cierta utilidad si se interpretan como indicadores más que como diagnósticos.

De otra parte, numerosos estudios demuestran que la inteligencia no es un valor estático, sino que puede cambiarse, moldearse, incrementarse o, ciertamente, disminuirse, es decir, que nuestro cerebro es neuroplástico. Por ello, aunque desde un punto de vista estadístico, un cociente intelectual de 100 idealmente debería ser la media de la población, una cifra inferior no es forzosamente medida de tontería, ni una puntuación alta indica directamente genialidad.

El conocimiento de nosotros mismos, nuestra conducta y procesos mentales, es una de las más recientes disciplinas, compartido por la psicología, la sociología y las neurociencias. Sus rápidos avances nos permiten esperar que en pocas décadas tendremos mejores herramientas para conocer la inteligencia, su definición, sus procesos químicos y fisiológicos, su medición y, sobre todo, cómo ampliarla en todos los seres humanos. Que sería lo verdaderamente importante.

La inteligencia en el cerebro

El estudio de la inteligencia requiere conocer al órgano del que es función, el cerebro. En 2004, científicos de la Universidad de California utilizaron la resonancia magnética (MRI) para determinar que la inteligencia en general se relacionada con el volumen de la materia gris (neuronas y sus conexiones) en el cerebro, y su ubicación en diversos puntos del cerebro, sugiriendo que las fortalezas y debilidades intelectuales de una persona pueden depender de su materia gris en cada zona. Sin embargo, de toda la materia gris del cerebro, sólo el 6% parece relacionado con el cociente intelectual.