Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

¿Qué vemos cuando vemos los colores?

Descomposición de la luz con un prisma
(D.P. via Wikimedia Commons)
Los seres vivos vemos los colores de formas muy distintas. Es un código que cada especie descifra de acuerdo a sus necesidades de supervivencia.

Dentro del amplio espectro de radiación electromagnética, cuyas longitudes de onda van desde las frecuencias muy bajas hasta las altísimas frecuencias de los peligrosos rayos gamma, llamamos “luz visible” a un segmento muy pequeño de ondas de una longitud más o menos entre 380 y 760 nanómetros (un nanómetro es una milmillonésima de metro). Por debajo de los 380 nm está la radiación infrarroja y, por encima de los 760 nanómetros, los rayos ultravioleta.

Una pregunta razonable desde el punto de vista de la biología evolutiva es por qué vemos este intervalo de radiación no las radiaciones más o menos potentes. Un posible motivo es que estas radiaciones son precisamente las que pueden pasar por nuestra atmósfera casi sin verse atenuadas o alteradas, a diferencia de los rayos ultravioleta (filtrados por las nubes) y los infrarrojos.

Pero lo que nosotros vemos no es la única forma de ver.

Experimentos de elegante diseño han explorado qué tipos de radiación ven distintas especies. No sólo tenemos a depredadores nocturnos (incluido nuestro compañero frecuente, el gato) que pueden percibir intensidades de luz muy inferiores a las de nuestros ojos, sino ejemplos como el de las abejas, muchas aves y peces, que pueden “ver” la radiación ultravioleta. De hecho, cuando utilizamos sensores de ultravioleta para ver las flores de las que se suelen alimentar las abejas, observamos patrones que parecen indicar el centro de la flor. Aves, peces e insectos parecen tener los “mejores” sistemas visuales del reino animal.

En el otro extremo del espectro visible, muchos reptiles tienen fosas térmicas que les permiten percibir, o “ver” dentro del rango infrarrojo. En el caso de muchos mamíferos que dependen para su supervivencia más del olfato que de la vista, al parecer no pueden discriminar muchos colores. Animales como el toro parecen ver en blanco y negro, de modo que el color de la capa para citarlo es irrelevante, mientras que los perros al parecer ven en dos colores, con una sensibilidad similar a la de los humanos ciegos al rojo y verde (daltónicos).

Sin embargo, aunque nuestros experimentos nos pueden enseñaren cierta meedida qué ven o distinguen los animales, no pueden decirnos cómo lo ven. Porque la luz en sí no tiene información del color.

No hay nada que indique que la luz de unos 475 nm sea “azul”, o que la luz de 650 nm sea “roja”. No hay una correspondencia precisa entre el impulso y la interpretación que hace nuestro cerebro de ella. La presión de la evolución ha hecho que nuestro sistema nervioso “codifique” la luz visible creando las sensaciones del arcoiris para facilitarnos la percepción cuando dos colores tienen el mismo brillo. Esto es claro en la fotografía y el cine en blanco y negro donde, por ejemplo, el rojo y el verde del mismo brillo dan como resultado el mismo tono de gris.

El color es, ante todo, subjetivo, una experiencia, una ilusión perceptual.

Historia e investigación

El hombre se ha interesado siempre por el color. Llenó de simbolismo y contenido las sensaciones del color, tiñéndolos, valga la metáfora, con sus percepciones culturales. Por ejemplo, el negro, color regio del cielo y la tierra en la antigua China, es símbolo de duelo en occidente ya desde el antiguo Egipto.

Los primeros intentos por entender el color en occidente se remontan a la antigua Grecia, donde primero Empédocles y luego Platón pensaron que el ojo emitía luz para permitir la visión. Aristóteles, por su parte, propuso que el color se basaba más bien en la interacción del brillo de los objetos y la luz ambiente.

Sin embargo, la comprensión del color hubo de esperar a la llegada de Isaac Newton y su demostración de que la luz blanca del sol es en realidad una mezcla de todas las frecuencias o longitudes de onda de la luz visible. Con una intuición magnífica, Newton concluyó que el color es una propiedad del ojo y no de los objetos.

Sobre las bases de Newton, en el siglo XIX Thomas Young propuso que con sólo tres receptores en el ojo podríamos percibir todos los colores, teoría “tricromática” que sólo se confirmaría con experimentos fisiológicos detallados realizados en la década de 1960.

En nuestras retinas hay tres tipos de células de las llamadas “conos”, sensibles especialmente a uno de los colores aditivos primarios: el rojo, el verde o el azul, según el pigmento que contienen. La mayor o menor estimulación de cada uno de estos tipos de cono determina nuestra capacidad de ver todos los colores, incluidos aquéllos que no están en el arcoiris como el rosado o el magenta.

La visión tricromática es característica de los primates, y se cree que se desarrolló conforme los ancestros de todos los primates actuales hicieron la transición de la actividad nocturna a la diurna. Los animales nocturnos no necesitan visión de color, y sí una gran sensibilidad a la luz poco intensa. Pero a la luz del día, las necesidades cambian para detectar tanto fuentes de alimento como a posibles depredadores.

¿Cómo llega a nuestros ojos una longitud de onda que nuestro sistema nervioso interpreta como color? Así como decimos que el color no está en la luz, tampoco está en los objetos. De hecho, ocurre todo lo contrario. Una manzana nos parece roja porque su superficie absorbe todas las longitudes de onda de la luz visible excepto las del rojo, las cuales son reflejadas y por tanto percibidas por nuestros ojos.

El principio de la tricromía de nuestra percepción es aprovechado a la inversa en dispositivos como nuestros televisores y monitores, que tienen partículas fosforescentes rojas, verdes y azules. La mayor o menor intensidad de iluminación de cada uno de éstos nos permite ver todos los colores. Así, los colores en informática se definen por valores RGB, siglas en inglés de rojo (Red), verde (Green) y azul (Blue). Esto lo podemos ver fácilmente con una lupa aplicada a nuestro monitor, la magia doble de una sensación absolutamente subjetiva, la experiencia del color

El color relativo

Nuestros ojos pueden adaptarse rápidamente a las cambiantes condiciones de luz. Verán una hoja de papel de color blanco así esté bajo tubos de luz neón (que son en realidad de color verdoso), bombillas incandescentes tradicionales (cuya luz es realmente rojizo-anaranjada) o bajo la luz blanca del sol de mediodía. Nuestros sentidos no funcionan absolutamente, sino que hacen continuamente comparaciones relativas para hacer adaptaciones. Las cámaras fotográficas y de vídeo no pueden hacer esto y por ello tienen un “balance de blancos” con el que establecemos qué es “blanco” en nuestras condiciones de luz para que los aparatos interpreten los demás colores a partir de ello.

El misterio de los aromas

El aroma del café
(foto ©Mauricio-José Schwarz)
Los aromas nos hablan en uno de los idiomas más antiguos de la historia de la vida, con uno de los sentidos más intensos que tenemos, y al que le prestamos atención insuficiente.

Todos conocemos la experiencia. Un aroma dispara una cadena de recuerdos altamente emocionales, profundos y nítidos, como si con sólo un olor recreáramos todo lo que lo rodeó alguna vez. La experiencia es notable porque, como han descubierto estudios de la Universidad de Estocolmo, los aromas suelen evocarnos sobre todo memorias de la infancia, de la primera década de vida, pero al mismo tiempo las memorias que nos provoca son especialmente intensas.

La intensidad de las memorias evocadas por los olores ha sido objeto incluso de estudios por imágenes de resonancia magnética. En 2004, un grupo de la Universidad de Brown demostró que las memorias evocadas por aromas activaban de modo especial la zona del cerebro conocida como la amígdala, estructura situada profundamente en los lóbulos temporales del cerebro y que se ocupa de procesar y recordar de las reacciones emocionales.

Una de las razones propuestas para la profundidad de las emociones que nos evocan los olores es, precisamente, que su percepción y procesamiento están entre los componentes más antiguos de nuestro cerebro, estrechamente vinculados a nuestros centros emocionales.

En el cerebro, la zona más externa, la corteza cerebral, dedicada a las capacidades intelectuales y racionales, es el área evolutivamente más reciente. Bajo ella está el cerebro mamífero antiguo, con las estructuras encargadas de las emociones, la memoria a largo plazo, la memoria espacial y las funciones autonómicas del ritmo cardiaco, la tensión arterial y el procesamiento de la atención, entre otras.

Finalmente, en el centro anatómico de nuestro cerebro, está el arquipalio o “cerebro reptil”, una serie de estructuras que los mamíferos compartimos con los reptiles, responsables de las emociones básicas y las respuestas de “luchar o huir” esenciales para la supervivencia.

El bulbo olfatorio, la estructura que percibe e interpreta los olores es de las partes más antiguas del cerebro, y está estrechamente asociado a las emociones más básicas: miedo, atracción sexual, furia, etc. Se encuentra en la parte superior de la cavidad nasal.

El olor es esencial para la supervivencia. Los seres humanos apenas apreciamos una mínima parte del universo olfatorio a nuestro alrededor. Los seis millones de células receptoras olfativas que tenemos en el bulbo olfatorio palidecen ante los 100 millones que tiene un pequeño conejo, o los 220 millones de receptores que tienen los perros.

Pero esa mínima parte es sensible. El imperfecto sentido del olfato humano puede detectar sustancias diluidas a concentraciones de menos de una parte por varios miles de millones de partes de aire. Hay aromas que nos atraen, estimulan la actividad sexual o el apetito, y los hay repelentes, que nos invitan a alejarnos, incluso a huir, informándonos así, por ejemplo, de si un alimento está en buenas o malas condiciones.

Aunque el hombre siempre fue consciente de la importancia de los aromas, inventando perfumes e inciensos, tratando de sazonar de modo atractivo sus alimentos, empezar a explicar cómo funciona este sentido tuvo que esperar hasta el siglo XX.

Esencialmente, la intuición del filósofo romano Lucrecio, del siglo I antes de la era común era correcta. Lucrecio proponía que las partículas aromáticas tenían formas distintas y nuestro sentido del olfato reconocía dichas formas y las interpretaba como olores. La doctora Linda B. Buck publicó en 1991 un artículo sobre la clonación de receptores olfativos que le permitió determinar que cada neurona receptora es sensible sólo a una clase de moléculas aromáticas, funcionando como un sistema de llave y cerradura. Sólo se activa cuando está presente una sustancia química que se ajuste a la neurona. La forma precisa en que los impulsos se perciben, codifican e interpretan es, sin embargo, uno de los grandes misterios que las neurociencias todavía están luchando por desentrañar.

Analizando la genética detrás de nuestro olfato, la doctora Buck pudo determinar que los mamíferos tenemos alrededor de mil genes distintos que expresan la recepción olfativa, y la especie de mamíferos con la menor cantidad de genes activos de este tipo somos, precisamente, nosotros.

Estos genes, sin embargo, son responsables de dos sistemas olfativos que coexisten en la mayoría de los mamíferos.y reptiles. El sistema olfativo principal detecta sustancias volátiles que están suspendidas en el aire, mientras que el sistema olfativo accesorio, situado en el órgano vomeronasal, entre la boca y la nariz. Este sistema percibe entre otros aromas las feromonas, hormonas aromáticas de carácter social, además de ser utilizado por los reptiles para oler a sus presas, sacando la lengua y después tocando el órgano con ella.

Sin embargo, al parecer (aunque el debate está abierto) el ser humano no tiene un órgano vomeronasal identificable, lo que haría imposible la comunicación dentro de nuestra especie mediante feromonas.

Pero con o sin feromonas, nos comunicamos con otros aromas. Los bebés utilizan el sentido del olfato para identificar a sus madres y para econtrar el pezón cuando desean alimentarse. Y según varios estudios, las madres pueden identificar con gran precisión a sus bebés únicamente por medio del olor, como si fuera un mensaje atávico, o precisamente por serlo.

Entre los descubrimientos más interesantes de Rachel Herz, psicóloga y neurocientífica de la ya mencionada Universidad de Brown está el determinar que nuestros cambios emocionales alteran la forma en la que percibimos los distintos olores, al grado de haber conseguido en su laboratorio crear verdaderas “ilusiones olfatorias” utilizando palabras para llevar a sus sujetos a percibir olores que “no están allí”.

Omnipresente aunque a veces no estemos conscientes de él, nuestro sentido del olfato nos pone en contacto con nuestros más antiguos antepasados evolutivos y es una de las áreas que más respuestas nos debe en el curioso sistema nervioso humano que apenas estamos descubriendo.

El sabor es olor

La lengua sólo puede detectar los sabores básicos: amargo, salado, ácido, dulce y umami, además de sensaciones como la de la grasa, la resequedad, la cualidad metálica, el picor, la frescura, etc. La mayor parte de lo que llamamos “sabor” es en realidad un conjunto de aromas que se transmiten a los bulbos olfativos por detrás del velo del paladar. Por eso hablamos de “paladear” un alimento, cuando lo movemos cerca del velo para que su aroma suba hasta nuestro sistema olfativo. Este hecho explica por qué no percibimos el sabor de los alimentos cuando tenemos la nariz tapada: perdemos toda la riqueza de nuestro olfato.

Nicola Tesla, creador de luz, habitante de la oscuridad

Nicola Tesla en la portada de Time, 20 de julio de 1931.
(D.P. via Wikimedia Commons)
El creador de la corriente alterna que hoy acciona nuestros dispositivos eléctricos fue uno de los grandes innovadores de la tecnología, y también un entusiasta proponente de ideas descabelladas que nunca pudo probar.

Nicola (Nikla) Tesla nació en la aldea de Smiljan, en la actual Croacia, entonces parte del imperio Austrohúngaro, el 10 de julio de 1856. Deseoso de estudiar física y matemáticas, estudió en el Politécnico Austriaco en Graz y en la Universidad de Praga. Pero pronto el alumno Nicola decidió adoptar una carrera de reciente creación: la de ingeniero eléctrico, aunque nunca obtuvo un título universitario.

Su primer trabajo en 1881 fue en una compañía telefónica de Budapest. Allí, durante un paseo, Tesla resolvió de súbito el problema de los campos magnéticos giratorios. El diagrama que hizo en la tierra con una varita era el principio del motor de inducción, en el que la inducción magnética generada con electroimanes fijos provoca que gire el rotor. El motor de inducción de Tesla sería eventualmente el detonador de la segunda revolución industrial a fines del siglo XIX y principios del XX.

Ya entonces se habían hecho evidentes algunas peculiaridades del pensamiento de Tesla. Por una parte, era capaz de memorizar libros enteros, y al parecer tenía memoria eidética. Al mismo tiempo, tenía ataques en los cuales sufría alucinaciones, y podía diseñar complejos mecanismos tridimensionales sólo en su cabeza.

En 1882 se empleó en París en la Continental Edison Company del genio estadounidense Tomás Alva Edison (1847-1931). Allí construyó, con sus propios medios, su primer motor de inducción, y lo probó con éxito aunque ante el desinterés general. Dos años después, aceptó una oferta del propio Edison para ir a Nueva York a trabajar con él.

Pronto, sin embargo, se enfrentaron. Tesla creía en la corriente alterna como la mejor forma de distribuir la electricidad, pero Edison defendía la corriente continua, ya comercialmente desarrollada, aunque sólo podía transportarse por cable a lo largo de tres kilómetros antes de necesitar una subestación.

La corriente alterna de Tesla que usamos hoy en día se transmite en una dirección y luego en la contraria cambiando 50 o 60 veces por segundo. Si en vez de dos cables se tienen tres o más, se puede transmitir corriente en varias fases. La corriente trifásica es hoy en día la más común en aplicaciones industriales. Y esa forma de distribución polifásica de la electricidad fue también uno de los desarrollos de Tesla.

Separado de Edison, Tesla formó su propia compañía, pero sus inversores lo destituyeron, y tuvo que trabajar en labores manuales durante dos años hasta que construyó su nuevo motor de inducción y diseñó la “bobina de Tesla”, un tipo de transformador que genera corriente alterna de alto voltaje y baja potencia. Su sistema de corriente alterna fue adquirido por George Westinghouse, el gran rival de Edison.

Tesla se ocupó entonces en otros proyectos. Diseñó la primera planta hidroeléctrica en 1895 en las cataratas del Niágara, logro que le atrajo la atención y el respeto mundiales. El brillante ingeniero descubrió también la iluminación fluorescente, las comunicaciones inalámbricas, la transmisión inalámbrica de energía eléctrica, el control remoto, elementos de la robótica, innovadoras turbinas y aviones de despegue vertical, además de ser, ya sin duda, el padre de la radio y de los modermos sistemas de transmisión eléctrica, y uno de los pioneros de los rayos X.

En total, Nicola Tesla registró unas 800 patentes en todo el mundo. Y más allá de los inventos eléctricos, diseñó diversos dispositivos mecánicos y se permitió especular con la energía solar, la del mar y los satélites.

Una de las más interesantes propuestas de Tesla fue la transmisión inalámbrica de electricidad, idea iniciada por Heinrich Rudolph Hertz. Tesla la demostró en 1893 encendiendo una lámpara fosforescente a distancia. A partir de entonces, numerosos inventores e inversores han buscado una forma segura y barata de transmitir electricidad sin cables, incluyendo un grupo dedicado del famoso MIT.

Al paso de los años, sin embargo, y sin disminuir las aportaciones que hizo a la ciencia y la tecnología, Tesla empezó a realizar afirmaciones extrañas y sin el apoyo de las demostraciones públicas y prácticas que habían cimentado su fama.

Así, en 1900 Tesla aseguró que podía curar la tuberculosis con electricidad oscilante, en 1909 aseguró que podía construir motores eléctricos que impulsaran transatlánticos a una velocidad de 50 nudos (90 kilómetros por hora), en 1911 prometía dirigibles sin hélice a prueba de tormentas, en 1931 declaró que haría innecesarios todos los combustibles aprovechando cierta energía cósmica, en 1934 anunció otro invento que nadie vio jamás: el rayo de la muerte y en 1937 aseguró que había desarrollado una teoría dinámica de la gravedad que contradecía la relatividad de Einstein.

Probablemente algunas de estas ideas tenían como base una especulación científica razonable y libre, pero ciertamente no eran inventos como los que le dieron fama. Al parecer, alrededor de 1910 Tesla empezó a presentar síntomas pronunciados de un desorden obsesivo compulsivo que sin embargo no le impidió seguir trabajando. Así, en 1917 hizo los primeros cálculos de de frecuencia y potencia para las primeras unidades de radar.

Tesla murió solo y sin dinero en el Hotel New Yorker el 7 de enero de 1943. Su legado científico fue confiscado temporalmente por el gobierno estadounidense, temeroso de que sus notas contuvieran elementos de importancia militar. Hoy están en el Museo Nicola Tesla. Sin embargo, este hecho junto con lo apasionante de sus afirmaciones especulativas, le volvieron atractivo para el mundo de lo misterioso y lo paranormal. Esto, quizá, influyó para que Tesla cayera en un injusto olvido pese a ser uno de los científicos más importantes e influyentes de la historia.

Ejecuciones por electricidad

Cuando se planteó la posibilidad de utilizar la electrocución como medio de ejecución sustituyendo al ahorcamiento, Nueva York contrató a dos ingenieros que eran empleados de Tomás Alva Edison. Para promover la corriente continua y demostrar que la alterna era peligrosa, Edison influyó para que sus empleados diseñaran la silla eléctrica empleando la corriente alterna de Tesla. Incluso, pese a considerarse un opositor a la pena de muerte, Edison promovió exhibiciones públicas en las que se mataba a animales con corriente alterna. En 1890 se llevó a cabo la primera ejecución con la silla eléctrica, un espectáculo atroz que sometió a la víctima a una tortura de más de ocho minutos. Y ni aún así logró Edison impedir el triunfo de la idea, mucho mejor, de Nikola Tesla que hoy abastece de electricidad al mundo.

Visión estereoscópica: de la cacería al cine en 3D

La vida transcurre en tres dimensiones, y la visión estereoscópica es fundamental para nuestra especie. Pero representar las tres dimensiones es otra historia.

Daguerrotipo estereoscópico  de Auguste Belloc,
de mediados del siglo XIX.
(D.P. vía Wikimedia Commons)
Apreciamos el mundo en tres dimensiones. Esto, que parece tan natural, tiene un origen y unas consecuencias sumamente complejas.

La visión estereoscópica o binocular es el resultado de un delicado mecanismo cerebral que toma los datos que mandan los dos ojos, que ven lo mismo desde ángulos ligeramente distintos. El cerebro, en la zona dedicada a la visión, la llamada corteza visual situada en la zona occipital, compara estas dos visiones, nota las similitudes, analiza las pequeñas diferencias entre ambas, las fusiona y realiza la interpretación de la profundidad.

No todos los animales tienen visión estereoscópica, pues ésta responde, como todas las demás características de los seres vivos, de la presión de selección. Para un conejo, por ejemplo, y para los animales cuyo papel es el de presas, es importante tener una visión lo más amplia posible para detectar a los posibles depredadores. Estos animales tienen los ojos a ambos lados de la cabeza y la visión de los dos casi no se superpone.

Sin embargo, los depredadores suelen tener visión estereoscópica para identificar a la presa, perseguirla y dar el golpe final con la máxima precisión posible. Búhos, águilas, tigres, lobos, tienen ambos ojos al frente, y una corteza visual de altísima precisión para aumentar sus posibilidades de éxito en la cacería.

La visión estereoscópica o en tres dimensiones nos parece tan natural que no solemos darle su justo valor. Un experimento interesante para comprender cuán importante es esta capacidad de nuestro sistema de percepciones es el de pasar un tiempo con un ojo vendado. Al hacerlo, descubrimos que muchas de las actividades cotidianas se vuelven difíciles o imposibles.

La visión estereoscópica nos permite calcular la distancia a la que está un objeto que deseamos levantar, enhebrar una aguja, verter líquido en un recipiente y subir y bajar peldaños, entre otras cosas. Conducir con un solo ojo se vuelve una tarea incluso peligrosa para alguien habituado a usar los dos ojos.

Por esto mismo, algunas actividades humanas serían imposibles si no apreciáramos las tres dimensiones, entre ellas los deportes como el fútbol que requieren una apreciación rápida y exacta de la velocidad y la dirección de una pelota y de los demás jugadores, o profesiones que van desde la de cirujano hasta la de camarero.

No es extraño pues que el hombre siempre haya querido representar artísticamente el mundo en tres dimensiones. La escultura en sus muy diversas formas es, finalmente, una representación así. Pero la pintura, la fotografía y el cine han intentado también utilizar diversos trucos para crear la ilusión de 3D.

Los estereogramas crean la ilusión de tres dimensiones a partir de dos imágenes bidimensionales. En fotografía, estas imágenes se obtienen utilizando cámaras fotográficas dobles, en las que los objetivos tienen la misma separación entre sí que los ojos humanos. Utilizando un visor que hace que cada ojo vea sólo una de las imágenes, se obtiene la ilusión de 3D. También se han creado pinturas y dibujos que utilizan el mismo principio.

En blanco y negro, esa ilusión se puede obtener también colocando en el mismo plano las dos imágenes, una en rojo y la otra en verde, y dotando al espectador de unas gafas que tengan filtros también rojo y verde. El ojo con el filtro rojo verá en color negro la imagen en verde y no verá la imagen en rojo, mientras que con el verde ocurrirá lo contrario, de modo que, de nuevo, cada ojo percibe sólo una de dos imágenes ligeramente distintas. Este sistema se conoce como anaglifo.

Los intentos de conseguir la ilusión de 3D en el cine datan de 1890, con procedimientos diversos para conseguir que cada ojo viera sólo una de dos imágenes estereoscópicas. En 1915, por ejemplo, se usó un anaglifo rojo y verde para proyectar películas 3D de prueba, y entre 1952 y 1955 se realizaron varias cintas de 3D en color que utilizaban polarizadores tanto en el proyector como en las gafas del público para separar las imágenes destinadas a cada ojo. Pero el sistema era propenso a errores, y la sincronización de los dos proyectores necesarios se alteraba fácilmente, de modo que se abandonó hasta su rescate por el sistema IMAX en la década de 1980.

El renacimiento del cine en 3D comenzó en 2003 gracias a la utilización de un nuevo sistema de cámaras de vídeo de alta definición en lugar de película y una mayor precisión matemática en la diferenciación de las imágenes. Este sistema de 3D proyecta las dos imágenes sucesivamente pero empleando un solo proyector. El cine normal en dos dimensiones se hace a 24 cuadros por segundo, y el moderno cine en 3D utiliza desde 48 cuadros por segundo, alternando los del ojo/objetivo izquierdo y derecho, hasta 144 cuadros por segundo, 72 para cada ojo.

Las gafas de 3D que llevamos cuando vamos a ver una película en 3D están hechas de cristal líquido. Controlados por infrarrojos, los cristales de estas gafas se oscurecen alternadamente, de modo que cada ojo sólo ve los cuadros correspondientes a su imagen. Si uno obstruye la entrada de infrarrojos con el dedo en el puente de la nariz, entre ambos cristales, dejan de reaccionar y vemos las dos imágenes a la vez, lo que no es nada agradable de ver.

Este sistema se empieza a utilizar también en monitores de vídeo que pueden hacer realidad la soñada televisión en 3D, aunque para los verdaderos conocedores de las imágenes en tres dimensiones, es preferible el sistema de la realidad virtual, que utiliza cascos o grandes gafas con dos diminutas pantallas de vídeo, cada una ante un ojo, con las imágenes correspondientes.

Los avances que han permitido que el cine en 3D sea comercialmente viable son, sin embargo, insuficientes. La ciencia y la industria siguen esperando la solución perfecta para crear ilusiones que simulen efectivamente la realidad tal como la vemos.

Los hologramas

El uso de dos imágenes en dos dimensiones para dar la ilusión de tres no consigue sin embargo que lo que vemos se comporte como la realidad. En el cine en 3D no podemos dar la vuelta a un árbol para ver qué hay detrás. Pero esto sí es posible mediante la holografía, una forma de registro de imágenes que emplea un láser que se separa en dos haces para registrar los objetos en su totalidad (de allí el uso de la raíz “holos”, que significa la totalidad). Por desgracia, después de un prometedor inicio en la década de 1970 que incluyó una exposición de hologramas de Dalí en 1972, no se consiguió un desarrollo adecuado, y la holografía se orientó más a la seguridad y el almacenamiento de datos, quedando apenas un puñado de creadores de hologramas artísticos.

El difícil oficio de seguir vivo: las defensas en la naturaleza

Un lenguado confundiéndose con el fondo marino
(CC Wikimedia Commons)
La vida es un asunto peligroso. En la naturaleza, ese peligro se conjura con los más originales y sorprendentes sistemas de defensa.

Todo ser vivo tiene un enorme valor... como alimento. Visto exclusivamente desde el punto de vista gastronómico, es una colección de proteínas que se pueden descomponer en aminoácidos en el sistema digestivo de otro ser vivo que usará éstos para hacer sus propias proteínas, y contiene además carbohidratos, grasas para obtener energía, azúcares, vitaminas, minerales... una enorme riqueza que debe protegerse o algún otro ser vivo la robará, nos comerá.

Pero ser fuente de nutrientes para otro ser vivo (cosa que finalmente somos todos al morir, reciclados por roedores, gusanos, insectos varios y diversas plantas) es sólo uno de los riesgos que comporta ser parte del concierto vital.

En este enfrentamiento destacan las armas más diversas, y un arsenal defensivo de primer orden que es en gran medida responsable de la diversidad en la naturaleza.

Si a uno no lo puede ver el enemigo, no necesita defensas mucho más complejas. El camuflaje (palabra procedente del francés “camouflet”, bocanada de humo) es la primera línea de defensa para muchos seres. Además de confundir al enemigo, permite acechar a las presas con tranquilidad hasta el momento del golpe final.

Famosos por su camuflaje fundiéndose con el entorno son los distintos tipos de insectos que semejan ramas, palitos u hojas. Muchos animales nos informan con su aspecto de cómo son su entorno o su sociedad, aunque no se camuflen para defenderse. El color del león refleja la sabana donde caza, mientras que el tigre se confunde en la espesura de la jungla. Las polillas se ocultan a la vista en la corteza de los árboles y las cebras utilizan el mismo sistema de defensa que las grandes manchas de peces: su número y el dibujo de su piel han evolucionado para confundir al depredador y dificultarle la tarea base de toda cacería exitosa: elegir a una sola presa de entre todas, concentrarse en ella y hacer caso omiso del resto de la manada.

Un camuflaje sencillo lo muestran los peces que han evolucionado para ser más oscuros en su mitad superior y más claros por debajo, pues así se confunden con el fondo contra el que se les ve: la oscura profundidad abajo o el claro cielo arriba.

El problema de este tipo de camuflaje es que el animal, fuera de su entorno habitual, es totalmente vulnerable. El mejor camuflaje es el que cambia, y ese lo exhiben varias especies de pulpo que pueden cambiar la coloración, opacidad y reflectividad de su epidermis, e incluso su textura, a gran velocidad. Entre sus defensas secundarias, el pulpo utiliza la velocidad, arma defensiva esencial para numerosas presas, desde la liebre hasta la gacela, desde el atún hasta la mosca.

Los seres vivos, en general, son de constitución más bien suave, gelatinosa, pues el agua es el principal componente de todos los seres vivos. El desarrollo de partes duras, como cuernos y corazas, es una excelente estrategia que vemos en acción en la corteza de los árboles o los gruesos cuernos quitinosos de los escarabajos rinoceronte, en el caparazón de las tortugas (tan eficaz que lleva más de 200 millones de años de éxito) o los cuernos de cabras, rebecos o bisontes. A algunos animales les ha bastado que su piel evolucione para ser gruesa y fuerte, aunque no rígida, como al rinoceronte o el propio elefante.

Para encontrar las más impresionantes armaduras, sin embargo, debemos trasladarnos hacia atrás en el tiempo, a la época (o, más precisamente, las épocas) en que vivieron los dinosaurios, con enormes placas óseas en el cuerpo, amenazantes espinas a lo largo del lomo y cuernos de aspecto aterrador. En esta armería prehistórica destacan los anquilosaurios, dinosaurios blindados que vivieron en los períodos jurásico y cretácico y que, creemos, convivieron con depredadores tan terribles como el Tirannosaurus Rex.

El más asombroso miembro de este género fue el euplocephalus, que además de desarrollar una especie de maza al final de la cola, tenía blindados incluso los párpados. Seguramente un animal difícil de cazar.

En el mundo vegetal, la dureza también es una eficaz defensa. Muchas semillas han evolucionado para ser duras de modo que sobrevivan al paso por el tracto digestivo de diversos animales. La estrategia que ha evolucionado es asombrosa: la planta envuelve la semilla en una fruta atractiva para ciertos animales, que la comen junto con las semillas y se alejan, esparciendo las semillas en distintos lugares. La dureza de la semilla es una forma de aprovechar la movilidad de los animales para extender la presencia de la especie.

Distintas sustancias químicas son el arma defensiva de elección de muchas especies animales y vegetales, en ocasiones con resultados inesperados. La savia aceitosa de la hiedra venenosa evolucionó con el componente llamado urushiol, que le ayuda a combatir las enfermedades, pero por azar esta sustancia resultó causar alergia al 90% de los seres humanos (y no a ningún otro animal).

El veneno resulta un eficaz disuasor que sirve como defensa y como ataque. Curiosamente, el animal más venenoso de la tierra es una diminuta rana de apenas unos 4 centímetros de largo, cuyo nombre científico ya es revelador: Phyllobates terribilis. Cada pequeña rana dardo, de vivo color dorado, tiene veneno suficiente para matar entre 10 y 20 seres humanos, lo que hace palidecer a envenenadores más conocidos como la víbora de cascabel, la cobra real, el escorpión o la viuda negra.

En este incompleto listado de los sistemas defensivos que nos ofrece la naturaleza no pueden quedar fuera las diez especies de pacíficas mofetas y su arma de pestilencia masiva. Una combinación de sustancias químicas que contienen azufre, y cuyo olor se ha descrito como una mezcla de huevos podridos, ajo y caucho quemado, bastan para mantener a buen recaudo a posibles depredadores, sin causarles más daño que un terrible mal rato. Pacifismo eficaz, dirían algunos.

Las defensas del ser humano

El ser humano carece de una dentadura aterradora, garras potentes, partes acorazadas, cuernos, la capacidad de camuflarse o alguna sustancia química tan aterradora como la de la mofeta o la rana dardo. Sus defensas se limitan a las que rechazan o atacan invasores microscópicos: la piel, las mucosas y el sistema inmune. Pero el ser humano inventó un sistema de defensa totalmente original en la naturaleza: un cerebro flexible, capaz de la abstracción y el pensamiento original, que puede crear defensas tan eficaces como las de muchos animales. La eficacia de estas defensas se demuestra en el hecho de que hace muchos miles de años que Homo sapiens sapiens ya no está en el menú habitual de las especies que consumieron como alimento a sus antepasados.

La modificación genética

ADN replicándose
(D.P. vía Wikimedia
Commons)
Todos los seres vivos modifican genéticamente a todos los seres con los que interactúan. Ése es uno de los hechos principales de la evolución y de toda la biología.

La relación entre el guepardo y los tipos de gacela que caza es un buen ejemplo. Durante los millones de años de su interacción, esta pareja de depredador y presa han establecido una verdadera carrera armamentística. Las gacelas más rápidas tienen más posibilidad de sobrevivir, y así la presión de selección hace que las gacelas sean cada vez más rápidas. Pero los guepardos más rápidos serán los que tengan más probabilidades de alimentarse y por tanto la especie en general es cada vez más rápida.

El resultado es que el guepardo es hoy el animal terrestre más rápido, con capacidad de alcanzar los 120 Km/H durante breves períodos. Pero también ocurre que el guepardo fracasa con frecuencia, o en ocasiones queda tan exhausto después de una cacería exitosa que su presa es robada por otros oportunistas, en particular los leones. En su modificación genética del otro, ambas especies se han puesto en peligro sin saberlo.

De hecho, fue la observación de las variaciones genéticas de los pinzones de las Galápagos lo que le dio a Charles Darwin la pista sobre la forma en que se daba la evolución. El pico de los pinzones en las distintas islas estaba adaptado a distintas formas de alimentarse: fruta, insectos, cactus, semillas.

En este concierto biológico, el ser humano ha sido una poderosa influencia en la modificación genética de gran cantidad de plantas y animales. De hecho, el proceso de domesticación, sea del trigo o de las reses, es modificación genética, tanta que la gran mayoría de las plantas y animales domesticados por el ser humano no se encuentran en la naturaleza y sus versiones originales desaparecieron hace mucho.

Sin embargo, no es esto en lo que pensamos cuando se habla de modificación genética, sino en procedimientos de ingeniería genética que alteran directamente a los organismos.

La ingeniería genética nació en 1973, cuando Herbert Boyer y Stanley Cohen utilizaron enzimas para cortar el ADN extranuclear de una bacteria e insertar un segmento de ADN entre los dos extremos cortados. La cadena de ADN resultante, no existente hasta entonces, se llama ADN recombinante. Este logro abría posibilidades que iban desde la creación de complejos híbridos hasta la clonación.

La primera aplicación práctica de las nuevas herramientas de modificación genética llegó a la vida de la gente tan sólo nueve años después. En se autorizó la insulina producida por bacterias a las que se les había añadido el gen humano que produce esta hormona.

Hasta 1982, la insulina que necesitaban los diabéticos se obtenía de cerdos y reses. Hoy, la ingeniería genética le ofrece a los diabéticos distintas variedades de insulina producida por distintas bacterias, plantas y levaduras, y que permite un mejor control de la afección.

La introducción en un ser de una especie de un gen de otra especie, como en el caso de la insulina, es lo que se conoce como “ingeniería transgénica”. Esto, que el ser humano está empezando a hacer es, sin embargo, un fenómeno relativamente común en la naturaleza, especialmente en seres unicelulares, llamado “transferencia genética horizontal”, que se descubrió en 1959 y que hoy se considera que ocurre también en plantas y animales superiores.

La ingeniería genética aplicada a los alimentos, que es motivo de fuertes campañas por parte de diversos grupos, se ha utilizado para introducir cambios en los alimentos con distintos objetivos, como hacerlos resistentes a ciertos insectos, virus o herbicidas, o hacer que maduren más lentamente para que lleguen al mercado en mejores condiciones sin necesidad de conservantes.

Sin embargo, los organismos genéticamente modificados, sean o no transgénicos, presentan varias interrogantes que la ciencia está tratando de responder. Existen temores razonables de que los genes modificados de un organismo puedan transferirse a otro. No al que los consume, pues los procesos digestivos lo impiden y así lo han demostrado diversos estudios, pero sí, por ejemplo, a bacterias de su flora intestinal. Igualmente, se pueden introducir en una especie genes de otra a la que existan alergias. Existe también la preocupación de que se afecte la biodiversidad y el equilibrio ecológico.

Sin embargo, los mayores escándalos son de orden económico. Los organismos con ADN recombinante pueden ser patentados, lo que crea un nuevo universo de problemas legales. Además, las prácticas de algunas multinacionales que producen semillas son, cuando menos, cuestionables, por ejemplo al diseñar sus semillas de modo que su descendencia sea estéril, de modo que los agricultores se vean obligados a comprarle semillas a la empresa año tras año.

Estas prácticas, que pertenecen al reino de la economía y los riesgos del mercado sin controles, han contaminado sin embargo la visión del público respecto de los alimentos sometidos a ingeniería genética, sin que por otra parte haya información suficiente sobre estas modificaciones y si realmente pueden o no afectar al ser humano. El debate, por desgracia, se está moviendo en terrenos de la propaganda y lo emocional antes que en los niveles de la razón y los datos.

La promesa de la ingeniería genética es, sin embargo, demasiado grande. La posibilidad de curar o prevenir multitud de enfermedades, de alargar nuestra vida o de contar con alimentos más baratos, más nutritivos o más fáciles de transportar para luchar contra el hambre, entre otros muchos posibles beneficios, son también parte del debate, y la solución a ese debate está en los estudios que se realizan sobre el verdadero impacto de los organismos genéticamente modificados.

Hoy, afortunadamente, podemos debatir y orientar la modificación de organismos por medio de la ingeniería genética, cuidando del medio ambiente y la biodiversidad. Durante los anteriores 20.000 años, el hombre modificó irreversiblemente miles de organismos sin tener ni esa conciencia ni las herramientas para minimizar los efectos negativos de su, por otro lado, natural incidencia en la genética de otros organismos.

El arroz dorado

En el año 2000, el científico suizo Ingo Potrykus creó una variedad de arroz capaz de sintetizar beta-caroteno, un precursor de la vitamina A, para ayudar a los niños, principalmente en el sureste asiático donde el arroz es el alimento básico, que sufren deficiencia de la vitamina A. Esta afección provoca ceguera o la muerte a cientos de miles de niños cada año. Siendo gratuito para los agricultores de subsistencia del Tercer Mundo, el arroz dorado no se ha extendido porque grupos como Greenpeace se oponen a su cultivo, manteniendo una política estricta contra todos los organismos genéticamente modificados.

La ciencia que estudia nuestras decisiones

John Von Neumann, fundador de la
teoría de juegos.
(foto CC via Wikimedia Commons)
Suponga que usted es uno de dos detenidos como sospechosos de un delito. No teniendo pruebas, la policía los separa y le dice a cada uno que si uno testifica traicionando al otro, y el otro se mantiene callado, el traidor saldrá libre y el otro irá 10 años a la cárcel. Sin embargo, si ambos callan (son leales entre sí), ambos serán encarcelados durante sólo seis meses por una acusación menor. Y si ambos hablan (cada uno traicionando al otro) ambos recibirán una condena de cinco años. Se les dice que no se informará al otro si hay una traición. La pregunta es, “¿cómo debe actuar el prisionero, o sea usted?”

Esta situación, conocida como el “dilema del prisionero”, se puede estudiar matemáticamente, con objeto de determinar qué estrategia es la más conveniente para cada uno de los jugadores. De hecho, resulta que independientemente de lo que haga el otro, matemáticamente el mayor beneficio para un jugador se encuentra siempre en traicionar y hablar.

Si el otro calla, al traicionarlo saldremos libres en vez de pasar seis meses en la cárcel. Si el otro habla, al traicionarlo reducimos a la mitad la posible pena, de diez a cinco años. Quizá no sea lo más moral o cooperativo, pero es la estrategia más conveniente.

Sin embargo, si el juego se repite varias veces, el llamado “dilema del prisionero iterativo” y sabemos qué hizo el otro prisionero la vez anterior, como se hizo en un torneo organizado por Robert Axelrod, profesor de ciencias políticas de la Universidad de Michigan, la mejor estrategia parte de no traicionar, pero en caso de que el otro traicione, responder traicionando en la siguiente partida, saber perdonar cuando el otro vuelva a la actitud cooperativa y finalmente nunca tratar de ganar más que el oponente.

Interacciones estratégicas como la que se presenta en el dilema del prisionero, con participantes o jugadores racionales y sus resultados de acuerdo con las preferencias o beneficios de los jugadores son, precisamente, el campo de estudio de la “teoría de juegos”. En estas situaciones, el éxito de las decisiones que tomamos depende de las decisiones que tomen otros, de la forma en que tales decisiones se interrelacionan entre sí, y de los distintos resultados posibles, pueden ser analizados matemáticamente y darnos una visión más amplia y clara de las distintas avenidas que pueden recorrer los acontecimientos.

La teoría de juegos como tal, más allá de los antecedentes y trabajos previos tanto en filosofía como en matemáticas, fue la creación del matemático estadounidense John Von Neumann, considerado como uno de los más destacados científicos de su ramo del siglo XX por sus aportaciones a disciplinas tan diversas como la teoría de conjuntos, el análisis funcional, la mecánica cuántica, la economía, la informática, el análisis numérico, la hidrodinámica de las explosiones y la estadística.

Von Neumann se interesaba principalmente por el área de las matemáticas aplicadas, como lo demuestran las aportaciones arriba enumeradas, y en 1928 enunció el teorema “minimax”, según el cual en juegos de suma cero (donde las ganancias de uno dependen de las pérdidas del otro) y de información perfecta (ambos jugadores saben qué movimientos se han hecho hasta el momento), hay una estrategia concreta para cada jugador de modo que ambos reduzcan al mínimo sus pérdidas máximas.

Este teorema fue el punto de partida para que el matemático estudiara otros tipos de juegos con información imperfecta o con resultados distintos de la suma cero. El resultado de su trabajo fue el libro La teoría de juegos y el comportamiento económico, escrito en colaboración con Oskar Morgenstern y publicado de 1944.

A partir de entonces, la teoría de juegos se desarrolló a gran velocidad y se determinó su utilidad en el estudio de numerosas disciplinas más allá de la economía, desde la biología, concretamente en la evolución de individuos y especies en un medio determinado, hasta la ingeniería, las ciencias políticas, las relaciones internacionales y la informática.

En la teoría de juegos participan agentes que buscan obtener utilidades o beneficios mediante sus acciones, utilidades que pueden ser económicas, alimenticias, estéticas, sexuales o simplemente de supervivencia, entre otras posibilidades.

El juego al que se refiere la teoría no tiene nada que ver con una diversión, por supuesto. Se trata de una situación en la que un agente sólo puede actuar para conseguir la máxima utilidad adelantándose a las respuestas que otros agentes puedan tener ante sus acciones. Y los agentes son racionales sólo en tanto que tienen capacidad de evaluar los posibles resultados y determinar las rutas que llevan a tales resultados. Pero esto no forzosamente significa un análisis abstracto, un organismo que busca alimentarse tiene una actitud racional en términos de la teoría de juegos, aunque no realice operaciones mentales de alto nivel.

La teoría de juegos tiene al menos dos aplicaciones de gran valor. En algunos casos, puede utilizarse para ayudar a encontrar la mejor estrategia en una situación compleja, o al menos eliminar las estrategias más débiles. La situación puede ser política, militar, diplomática o de relaciones humanas. Si puede cuantificarse, se puede analizar.

En otros casos, la teoría de juegos ayuda a comprender la forma en que se dan ciertos procesos, como la evolución de las especies o el desarrollo vital de una persona, puede analizar cómo las consideraciones de tipo ético, por ejemplo, pueden alterar profundamente las estrategias de personas y grupos, o encontrar los beneficios ocultos en estrategias aparentemente incorrectas o débiles.

Desde determinar si nos conviene más comprar una entrada para el cine el día antes por Internet con un sobreprecio o llegar temprano al cine a hacer cola hasta decidir la compra de una casa o la renuncia a un empleo, todos los días tomamos decisiones, sin imaginar que estamos resolviendo problemas de teoría de juegos y definiendo las rutas que calculamos nos llevarán a obtener el resultado que deseamos. Y eso ciertamente no es ningún juego.

El altruismo en la teoría de juegos

Cuando un organismo actúa de modo tal que beneficia a otros en perjuicio de sí mismo, actúa de modo altruista. Generalmente la acción altruista no es racional y calculada, sino instintiva, un impulso irrefrenable. La teoría de juegos demuestra, sin embargo, que este hecho biológico aparentemente incongruente tiene explicaciones en las otras "utilidades" que puede obtener el altruista, desde el sentimiento de actuar como es debido hasta el ayudar indirectamente a aumentar la probabilidad de supervivencia del grupo a futuro. Lo que parece irracional resulta así la mejor forma de actuar, y la biológicamente natural, aunque a algunos cínicos la idea no les agrade.

Ramón y Cajal, padre de las neurociencias

El cerebro, ese órgano que ha sido capaz de cuestionar al universo, empezó a entenderse sólo cuando supimos que lo formaban las asombrosas neuronas.

Santiago Ramón y Cajal
(D.P. via Wikimedia Commons)
Si el científico se caracteriza por su visión creativa, por su rebeldía, por su cuestionamiento continuo de todo cuanto lo rodea, por su tenacidad y su amplitud de miras, Santiago Ramón y Cajal jugó a la perfección su papel, desde una niñez conflictiva hasta la obtención de los máximos galardones de la ciencia durante su vida, incluido el Premio Nobel de Medicina en 1906 y, quizás de modo más importante, por ser considerado hoy en día como el gran pionero de las neurociencias.

Es difícil sobreestimar la aportación de Ramón y Cajal al conocimiento. Simplemente en número, sus más de 100 publicaciones científicas y artículos escritos en español, francés o alemán, superan con mucho a las de la gran mayoría de los científicos, de su tiempo y posteriores.

Pero el número de sus publicaciones no es lo fundamental, sino su calidad, pues su observación y descripción de los tejidos nerviosos llevó a una de las grandes revoluciones en la comprensión de nuestro cuerpo.

En 1839, el fisiólogo alemán Theodor Schwann había propuesto la hipótesis de que los tejidos de todos los organismos estaban compuestos de células, una idea que hoy parece evidente, pero que era inimaginable antes del siglo XIX. Desde el antiguo Egipto, se creía que los seres vivos eran resultado de una fuerza misteriosa, diferente de la materia común y distinta de los procesos y reacciones bioquímicos.

La supuesta energía vital recibió distintos nombres y explicaciones en distintas culturas. Para los latinos era la vis vitalis, para los chinos el chi, para el hinduísmo el prana, y eran los desequilibrios de esta energía los que se consideraban las causas de las enfermedades, y las prácticas curativas precientíficas estaban todas orientadas a restablecer el equilibrio de la energía vital: por ejemplo mediante sangrías, aplicación de agujas o las prácticas ayurvédicas.

Incluso los proponentes de la “teoría celular” que cambió nuestra forma de vernos a nosotros mismos mantenían, sin embargo, que el sistema nervioso, supuestamente residencia del alma, era una excepción y no estaba formado por células, sino que era una materia singular, distinta.

El tenaz trabajo de Ramón y Cajal al microscopio, observando atentamente los tejidos del cerebro, y dibujando cuanto veía con una mano de artista que aún hoy asombra, junto con el de coetáneos como Camillo Golgi, permitió que, en 1891, el anatomista alemán Heinrich Wilhelm Gottfried von Waldeyer-Hartz propusiera que el tejido nervioso también estaba formado por células. Las células estudiadas por Ramón y Cajal, y a las que llamó neuronas. De hecho, Waldeyer aprendió español con el único propósito de poderse comunicar con el genio español, con el que formó una estrecha amistad.

Santiago Ramón y Cajal nació en Petilla de Aragón, Navarra, el 1º de mayo de 1852, y desde niño reaccionó con rebeldía ante el autoritarismo de la educación de su tiempo, lo que influyó para que recorriera diversas escuelas. Sus inquietudes lo llevaron, por ejemplo, a la construcción de un cañón empleando un tronco de árbol. Al probar su funcionamiento, el joven Santiago destrozó el portón de un vecino.

Su inquietud también se tradujo al aspecto profesional. Además de ser desde pequeño un hábil dibujante, fue aprendiz de barbero y de zapatero remendón, y un enamorado del físicoculturismo. Fue su padre, que era profesor de anatomía aplicada en la universidad de Zaragoza, quien lo convenció de orientarse a la medicina, carrera en la que se licenció en 1873.

Un año después, Ramón y Cajal se embarcaba en la expedición a Cuba como médico militar. Allí contrajo malaria y tuberculosis, llegando a sufrir un debilitamiento y adelgazamiento crónico extremos, lo que llevó al ejército español a licenciarlo como “inutilizado en campaña”.

A su vuelta, adquirió su primer microscopio, de su propio bolsillo, y entró a trabajar como asistente en la escuela de anatomía de la facultad de medicina en Zaragoza, además de realizar su doctorado, que completó en 1877.

A partir de entonces, se dedicó no sólo a los puestos como catedrático que fue alcanzando, sino a la investigación, gran parte de ella realizada en su cocina, reconvertida como laboratorio. Se ocupó primero de la patología de la inflamación, la microbiología del cólera y la estructura de las células y tejidos epiteliales.

Por entonces, otro pionero del estudio científico de los tejidos humanos, el italiano Camillo Golgi, que también trabajaba en su cocina, desarrolló un método que permitía teñir sólo ciertas partes de un preparado histológico, lo que permitía ver las células nerviosas individuales. Ramón y Cajal, que acudía continuamente a textos de otros países para mantenerse al día en investigación, se interesó por el sistema de tinturas de Golgi y orientó su atención hacia el sistema nervioso central.

Golgi y una parte de los científicos de la época consideraban que el cerebro era una red, una especie de malla homogénea en la que la información fluía en todas direcciones, hipótesis llamada “reticular”. Por su parte, Ramón y Cajal se orientaba a la teoría celular, y su trabajo fue poco a poco sustentando la idea de que existían células independientes, individuales, en las que la información fluía en un solo sentido.

Las evidencias observadas por el científico zaragozano, ilustradas con sus brillantes y precisos dibujos, empezaron a desentrañar la composición del tejido nervioso, los distintos tipos de células que lo conformaban en las distintas regiones del cerebro y los puntos de contacto entre ellas, las sinapsis, donde la información pasa de una a otra neurona, todo lo cual se iba revelando en sucesivas publicaciones.

El trabajo Ramón y Cajal consiguió, conjuntamente con el de su amigo Camillo Golgi, el Premio Nobel de Medicina en 1906. Ramón y Cajal obtuvo además doctorados honorarios en las universidades de Cambridge, Würzburg y Clark, y fue miembro de las más destacadas academias científicas de la época. Pero su máximo logro fue, sin duda, la creación del instituto de biología experimental que hoy lleva su nombre, el Instituto Cajal, que dirigió hasta su merte en 1934.

Ramón y Cajal, autor de ciencia ficción

En 1905, Santiago Ramón y Cajal publicó Cuentos de vacaciones, un volumen con cinco relatos satíricos y pedagógicos que él llamó “seudocientíficos” y que son muy cercanos a lo que hoy llamamos ciencia ficción. Acaso preocupado por no comprometer su prestigio profesional, o bien temeroso de la censura imperante en la época, firmó el libro como “Doctor Bacteria”. La primera edición la hizo de modo privado para sus amigos y conocidos, y quizás no esperaba que tuviera mayor difusión, aunque en la actualidad es de fácil acceso en varias ediciones firmadas no por “Doctor Bacteria”, sino por el ganador del Premio Nobel de Medicina en 1906.

Medir la inteligencia

Kim Peek, el famoso savant.
(Copyright Dr. Darold A. Treffert
y la Wisconson Medical Society,
usada con permiso)
La inteligencia: intentamos medirla sin tener, todavía, una definición debidamente consensuada de ella. En el proceso, hemos aprendido mucho de nuestros errores metodológicos.

Para llamar a un perro “inteligente”, basta que responda a un adiestramiento para realizar tareas de rescate, actuar en cine, descubrir drogas o ser el lazarillo de un ciego. Sin embargo, los científicos hablan de la inteligencia de animales mucho más sencillos, y por otra parte, socialmente solemos imponer estrictos –y variables– niveles de exigencia para señalar que alguien es “inteligente”.

Llamamos inteligencia a muchísimos atributos distintos sin tener la certeza de que están relacionados entre sí: una memoria prodigiosa, una acumulación desusada de datos, la capacidad de resolver problemas complejos, la capacidad de inducción o predicción, la creatividad, al pensamiento original, el uso del idioma y a el pensamiento abstracto, entre otros muchos. El propio diccionario de la RAE ofrece cuatro acepciones distintas de “inteligencia”,

Quizá estos elementos no están interrelacionados, o quizá tienen relaciones diversas y en grados variables. De hecho, la ciencia se ha visto enfrentada a casos que dejan muy claro que estos elementos pueden existir con independencia, obligándonos a replantearnos algunas ideas.

Kim Peek, el recientemente fallecido modelo del protagonista de la película Rain Man, leía los libros dos páginas a la vez, una con cada ojo, podía realizar cómputos matemáticas a una enorme velocidad y exhibía una impresionante memoria fotográfica o eidética que reunía datos por igual deportivos que sobre la monarquía británica, compositores, películas, literatura, etc., y se sabía de memoria en un 98% los más de 76.000 libros que había leído en toda su vida.

Sin embargo, por su macrocefalia congénita no podía arreglárselas solo en la vida cotidiana, tardó hasta los 4 años en aprender a caminar, nunca supo abotonarse la ropa, y le resultaba casi imposible entender los giros idiomáticos, los chistes y las metáforas.

Como Peek, muchos otros savants exhiben simultáneamente rasgos que consideraríamos de gran inteligencia y otros de graves retrasos mentales, desarrollo social insuficiente o problemas de autismo.

Por otra parte, en las primeras “pruebas de inteligencia" realizadas en Estados Unidos, los negros alcanzaron notas muy inferiores a las de los blancos, y pasó tiempo antes de determinar que tales pruebas de inteligencia en realidad tenían un fuerte sesgo al medir en realidad conocimientos escolares a los que los blancos tenían un mayor acceso, y habilidades culturales concretas de la clase media blanca.

Así como las pruebas parecieron validar algunas concepciones racistas, negaban el sexismo, pues desde el principio no mostraron diferencia entre hombres y mujeres. Ello no obstó, sin embargo, para que socialmente siguiera vigente la falacia de una inteligencia deficiente de la mujer como pretexto para justificar los obstáculos a su acceso a la educación, a puestos de responsabilidad, a los procesos electorales y a espacios en numerosas disciplinas.

En 1983, el Doctor Howard Gardner, de la Universidad de Harvard, propuso que en realidad existen múltiples inteligencias: lingüística, lógico-matemática, espacial, corporal-cinestésica, musical, interpersonal, intrapersonal y naturalista. Aunque tiene numerosos críticos por motivos metodológicos y falta de constatación experimental, la visión de Gardner sirve al menos para ilustrar el problema de la definición de inteligencia y sus aspectos, tanto en el terreno de la ciencia como en el de la sociedad, y el debate (más político que biológico) sobre las raíces biológicas y medioambientales de la inteligencia.

El primer intento por medir la inteligencia lo hizo el británico Francis Galton en el siglo XIX, al fundar la psicometría. Poco después, Alfred Binet creó una prueba para medir el desarrollo intelectual (o edad mental) de los niños. En 1912, el psicólogo alemán Wiliam Stern desarrolló el concepto de cociente intelectual o IQ (Intelligenz-Quotient), resultado de dividir la edad mental por la edad cronológica, para cuantificar los resultados de las pruebas de Binet, sin que éste aceptara dicha escala.

Aunque el concepto de IQ o CI ya no es el de Stern, su uso sigue extendido en las diversas pruebas que se han desarrollado para esdudiar a la elusiva inteligencia. Tales pruebas se afinan continuamente para eliminar los sesgos raciales, culturales o de otro tipo, y ponderar las diferencias conocidas, por ejemplo, en las habilidades espaciales de hombres y mujeres. Pero aún así, la abrumadora cantidad de factores que influyen en el desarrollo de la inteligencia (o las inteligencias) sigue haciendo que estas pruebas sean sólo indicadores generales y en modo alguno predictores precisos como lo serían algunos análisis médicos.

Esto no significa, sin embargo, que las pruebas de inteligencia no tengan utilidad, aunque sean perfectibles. Los estudios estadísticos demuestran una correlación importante entre las altas puntuaciones de las pruebas y resultados como el desempeño en el trabajo o el rendimiento escolar que les dan una cierta utilidad si se interpretan como indicadores más que como diagnósticos.

De otra parte, numerosos estudios demuestran que la inteligencia no es un valor estático, sino que puede cambiarse, moldearse, incrementarse o, ciertamente, disminuirse, es decir, que nuestro cerebro es neuroplástico. Por ello, aunque desde un punto de vista estadístico, un cociente intelectual de 100 idealmente debería ser la media de la población, una cifra inferior no es forzosamente medida de tontería, ni una puntuación alta indica directamente genialidad.

El conocimiento de nosotros mismos, nuestra conducta y procesos mentales, es una de las más recientes disciplinas, compartido por la psicología, la sociología y las neurociencias. Sus rápidos avances nos permiten esperar que en pocas décadas tendremos mejores herramientas para conocer la inteligencia, su definición, sus procesos químicos y fisiológicos, su medición y, sobre todo, cómo ampliarla en todos los seres humanos. Que sería lo verdaderamente importante.

La inteligencia en el cerebro

El estudio de la inteligencia requiere conocer al órgano del que es función, el cerebro. En 2004, científicos de la Universidad de California utilizaron la resonancia magnética (MRI) para determinar que la inteligencia en general se relacionada con el volumen de la materia gris (neuronas y sus conexiones) en el cerebro, y su ubicación en diversos puntos del cerebro, sugiriendo que las fortalezas y debilidades intelectuales de una persona pueden depender de su materia gris en cada zona. Sin embargo, de toda la materia gris del cerebro, sólo el 6% parece relacionado con el cociente intelectual.

Evidencias y dudas sobre el calentamiento global

Previsiones del calentamiento global según
8 distintas instituciones científicas.
(Imagen CC de Robert A. Rohde para
Global Warming Art, vía Wikimedia Commons)
Más allá de los intereses creados, del temor de las grandes industrias o el entusiasmo de algunas organizaciones ciudadanas, de la propaganda y las afirmaciones no siempre muy precisas de los medios, es importante conocer los datos reales sobre el calentamiento global, datos que nos dan bases sólidas para tomar posición en un debate más mediático que científico.

El clima es un conjunto de condiciones meteorológicas con complejas interrelaciones entre las que están la temperatura, las lluvias, el viento, la humedad, la presión atmosférica, la irradiación solar, la nubosidad, y la evapotranspiración (la suma de la evaporación del agua y la transpiración de las plantas hacia la atmósfera), promediadas a lo largo del tiempo.

El clima nunca ha sido constante en la historia de nuestro planeta. En ese sentido, la frase “cambio climático” podría ser considerado una obviedad.

Dada la complejidad del sistema meteorológico de nuestro planeta, son numerosos los factores que pueden influir en la forma que adopte este cambio: los ciclos solares, como el del aumento y disminución de las manchas solares, la deriva continental, la dinámica del océano y sus corrientes, las erupciones volcánicas, las variaciones en la órbita de la Tierra o los niveles de gases de invernadero en nuestra atmósfera.

Los cambios del clima ocurren sobre todo a escalas de tiempo muy grandes, y nuestro registro del clima en distintos puntos del planeta es relativamente reciente. Tenemos datos previos a que hubiera mediciones precisas gracias al estudio de aspectos como las morrenas o restos dejados atrás por los glaciares al retirarse o el hielo de la Antártida, que nos ha permitido conocer la composición de la atmósfera en otros tiempos.

Existe, pues, un enorme acervo de conocimientos sobre un sistema enormemente complejo, pero en modo alguno se podría decir que conocemos perfectamente nuestro clima y su dinámica.

A escalas más humanas, tenemos informes relevantes acerca del clima. Por ejemplo, en la época medieval hubo un período cálido de temperaturas cercanas a la media histórica, y a continuación hubo un notable descenso en la temperatura que se ha llamado, como metáfora únicamente, la “pequeña edad del hielo” europea. Hacia 1300, los veranos dejaron de ser tan cálidos en el norte de Europa. Entre 1315 y 1317, las torrenciales lluvias y las bajas temperaturas hicieron fracasar las cosechas disparando una terrible hambruna y en 1650 se llegó a una temperatura mínima que desde ese momento empezó a subir.

Y ese ascenso es precisamente lo que se ha llamado “calentamiento global”.

La observación de las temperaturas a nivel mundial durante el siglo XX ha determinado que existe una tendencia al aumento en la temperatura media del planeta. A lo largo del siglo XX, la temperatura superficial media del planeta aumentó entre 0,56 y 0,92 ºC, superando rápidamente las temperaturas medias del período cálido medieval y, a nivel medio, las de los últimos dos mil años, que se han mantenido relativamente estables independientemente de variaciones locales como la “pequeña edad del hielo” limitada a Europa.

Esto podría parecer poco, pero se calcula que la diferencia entre una Tierra totalmente glacial y una tierra sin hielo en la superficie es únicamente de 10°C.

En realidad no existe forma de saber en qué medida este aumento en la temperatura, imperceptible para las personas, pero de gran relevancia a nivel del clima, está provocada por el hombre o, en términos técnicos, es antropogénico, y en qué medida es parte de un ciclo totalmente natural debido a los factores que ya conocemos o incluso a factores de los que aún no estamos conscientes o no se han probado.

Sin embargo, hay evidencias e indicaciones de que el hombre puede tener una influencia cuando menos relevante en este proceso. El proceso en sí, sin embargo, no está en duda salvo para un minúsculo grupo de personas. El aumento en las temperaturas es un hecho observado, aunque algunos, sin ofrecer evidencia, sostienen que las mediciones podrían ser imprecisas o tendenciosas.

Uno de los elementos fundamentales para determinar la temperatura en la superficie de nuestro planeta es la presencia de gases de invernadero en la atmósfera. Se trata de gases que absorben y emiten calor, causando así el “efecto invernadero” al atrapar el calor de las capas inferiores de la atmósfera. Se ha calculado que la temperatura media de la Tierra sería de unos -19 ºC (19 grados Celsius bajo cero), pero es mucho más alta por el efecto invernadero, de unos 14 ºC.

Los gases de invernadero son el sello distintivo de la civilización industrial, ya que son producto de quemar combustibles fósiles para la producción de energía y para el transporte. Las emisiones de CO2 de las actividades humanas son el aspecto en que más podemos hacer, y más rápidamente, para mitigar la posible influencia humana en el cambio climático, según los modelos con los que contamos. Es por ello que gran parte del debate político sobre el calentamiento global se han centrado en la emisión de CO2 a la atmósfera.

Los científicos, en su enorme mayoría, consideran muy poco probable que este calentamiento ocurriera sólo por causas naturales y que, por contraparte, es muy probable (95% de probabilidad) que el aumento en las temperaturas se deba al aumento de emisiones antropogénicas de gases de invernadero.

La complejidad del tema, nuestros limitados conocimientos sobre la dinámica del clima, y una cautela natural en los científicos, parece dejar un espacio de duda mucho mayor que el que realmente existe, y del que se aprovechan los medios para presentar un panorama de debate e incertidumbre alejado de la realidad científica.

El debate esencial es, en todo caso, cuánto influye la actividad humana en el calentamiento global. Y esta interpretación se hace, con frecuencia, más en base a posiciones económicas, políticas o ideológicas que de acuerdo a las mejores evidencias.

En todo caso, por simple precaución, muchos consideran preferible emprender acciones para disminuir la emisión de CO2 a la atmósfera, lo cual además tendrá la ventaja de disminuir el ritmo de gasto de los combustibles fósiles. En una situación de incertidumbre, probablemente es mejor ser cauto, pero no catastrofista, que ser audaz e irreflexivo.

El consenso científico

En los Estados Unidos, uno de los países más afectados económicamente por las reducciones propuestas en emisiones de CO2, la totalidad de las organizaciones, academias y sociedades científicas apoyan la idea básica de que “hay evidencia nueva y más fuerte de que el calentamiento observado en los últimos 50 años es atribuíble a actividades humanas”. Y desde 2007, ningún grupo científico internacional reconocido ha mantenido lo contrario, a diferencia de algunos científicos individuales.

El sueño de la fusión nuclear

Dispositivo Tokamak de contención
en un reactor de fusión en Suisse Euratom
(foto CC de Claude Raggi)
Más allá de los mitos, el hombre desarrolló diversas explicaciones científicas para el sol, esa asombrosa bola incandescente que daba luz y calor, marcaba las estaciones y era fuente de vida. Anaxágoras lo imaginó como una bola de metal ardiente, y otros intentaron entender su naturaleza, su tamaño, la distancia que nos separaba de él y la fuente de su asombroso fuego.

El desarrollo de la física y la aparición de la teoría atómica de la materia permitió que en 1904 Ernest Rutherford especulara sobre la posibilidad que la energía del sol fuera producto de la desintegración radiactiva recién descubierta, la fisión nuclear.

Sin embargo, una vez que Albert Einstein estableció en 1906 que la materia y la energía eran equivalentes, y que se podían convertir una en la otra con la fórmula más famosa de la historia, se abrió la posibilidad de una mejor explicación.

La fórmula de Einstein es, claro, E=mC2, y explica en cuánta energía se puede convertir una porción de masa. La energía es igual a la masa por la velocidad de la luz al cuadrado. Esto significa que la masa contiene o es igual a una enorme cantidad de energía. En una bomba atómica como la que arrasó Hiroshima, por ejemplo, sólo se convirtieron en energía alrededor de 600 miligramos de la masa del uranio 235 que la conformaba. Cada pequeña porción de materia es una colosal cantidad de energía concentrada, y por tanto la materia puede ser la mejor fuente para satisfacer el hambre energética del ser humano, si podemos convertirla en energía.

En 1920, Sir Arthur Eddington propuso que la presión y temperaturas en el centro del sol podrían producir una reacción de en la que se unieran, fundieran o fusionaran dos núcleos de hidrógeno para obtener un elemento más pesado, un núcleo de helio y convirtiendo un neutrón en energía en el proceso. En 1939, el germanoestadounidense Hans Bethe consiguió explicar los procesos del interior del sol, lo que le valió el Premio Nobel de Física en 1967. Muy pronto, en 1941, el italiano Enrico Fermi propuso la posibilidad de lograr una fusión nuclear controlada y autosostenida que generaría energía abundante, barata y limpia, un verdadero ideal en términos de economía, ecología, sociedad e incluso política.

Allí comenzó un sueño que todavía no se ha realizado.

Mientras que para realizar una fisión nuclear simplemente es necesario alcanzar una “masa crítica” a partir de la cual se desarrolla una reacción en cadena y los núcleos se dividen, ya sea descontroladamente como en una bomba nuclear, o de modo controlado, como en una central nucleoeléctrica, la fusión nuclear exige condiciones mucho más complejas. Podemos crear una fusión nuclear descontrolada, en las aterradoras bombas H o de hidrógeno, en las que se produce una fusión brutal y súbita, pero no una fusión controlada y sostenida, pese a que una y otra vez se ha anunciado este logro en falso.

Los obstáculos que impone una fusión controlada son varios. Primero, los núcleos se repelen simplemente por la fuerza electrostática entre sus protones, de carga positiva, como se repelen dos imanes cuando se enfrentan sus polos positivos o negativos. Esta repulsión es mayor conforme más se acercan los núcleos, formando la llamada “barrera de Coulomb”. Para superarla, se deben calentar los núcleos a enormes temperaturas para que pueda producirse la reacción de fusión nuclear, y se debe poder confinar o aprisionar una cantidad suficiente de núcleos que estén reaccionando, de modo que la energía producida sea mayor que la que se ha utilizado para calentar y aprisionar a los núcleos.

Al calentar el hidrógeno a alrededor de 100.000 ºC, todos sus átomos se ionizan o liberan sus electrones, por lo que se encuentra en el estado de la materia llamado plasma, con núcleos positivos y electrones libres negativos. Con temperaturas tan elevadas, no es posible contener el plasma en recipientes materiales, ya que el calor los destruiría. Las opciones son un fuerte campo gravitacional, como el que existe en las estrellas, o un campo magnético.

Desde mediados del siglo pasado se han diseñado distintas formas de lograr la confinación magnética del plasma, sin éxito hasta ahora. Se han producido reacciones termonucleares artificiales, algunas de ellas triviales desde 1938, cuando el inventor de la primera televisión totalmente electrónica, creó un fusor que demuestra en la práctica la fusión nuclear. Pero, hasta hoy, la energía obtenida por la fusión siempre ha resultado menor a la que se consume en el calentamiento y confinamiento magnético del plasma.

Se han propuesto otros sistemas, como el confinamiento inercial, donde el combustible se coloca en una esfera de vidrio y es bombardeado en varios sentidos por haces láser o de iones pesados, que disparan la fusión al imposionar la esfera, pero hasta hoy el confinamiento magnético parece la mejor opción.

En la búsqueda de una fusión controlada, las afirmaciones exageradas y cierta charlatanería están presentes desde 1951, cuando un proyecto secreto peronista afirmó haber conseguido el sueño.

Especialmente conocidos fueron Martin Fleischmann y Stanley Pons, que en 1989 afirmaron haber conseguido la fusión fría con un sencillo aparato de electrólisis. El anuncio fue un verdadero sismo en la comunidad científica, que se lanzó a confirmar los datos y replicar los experimentos, pese a que desde el principio se entendía que las afirmaciones de los dos físicos contravenían lo que sabemos de física nuclear.

Fue imposible reproducir los resultados presentados, pese a que países como Japón y la India invirtieron en ello, y finalmente se concluyó que simplemente habían realizado mal sus mediciones. Ambos científicos pasaron al mundo de la energía gratis y las máquinas de movimiento perpetuo, donde siguen afirmando que sus resultados eran reales aunque nadie pudiera replicarlos.

La promesa de la fusión nuclear como fuente de energía con muchas ventajas y pocas desventajas provoca entusiasmos desmedidos y, como ocurrió con la fusión fría, puede llevar a creencias irracionales. El trabajo, sin embargo, como en todos los emprendimientos humanos, con tiempo y originalidad, será el único que podrá, eventualmente, conseguir este santo grial de la crisis energética.

Europa a la cabeza

Un esfuerzo conjunto europeo llamado Joint European Torus, JET (Toro Conjunto Europeo, no por el animal, sino por la forma de donut que los topólogos llaman precisamente “toro”), es el mayor experimento de física de plasma en confinamiento magnético que existe en el mundo. Esta instalación situada en Oxfordshire, Reino Unido, está en operación desde 1983, y en 1991 consiguió por primera vez una fusión nuclear que produjera más energía de la que consumía. Sigue en operación, explorando cómo crear un reactor de fusión viable, y en él trabajan asociaciones EURATOM de más de 20 países europeos.

Las misteriosas causas

Un péndulo de Foucault en el Museo de Ciencias de Valencia.
Su comportamiento se debe a la rotación de la Tierra.
(foto CC Manuel M. Vicente via Wikimedia Commons)
En ocasiones no es tan fácil como quisiéramos saber por qué ocurren ciertas cosas, y muchas veces aplicamos un pensamiento poco riguroso, y poco recomendable, a los acontecimientos.

Supongamos que sufrimos una larga enfermedad y nos sometemos a tratamiento con dos o tres médicos o, desesperados por la duración de las molestias, acudimos a una persona que afirma poder lograr curas milagrosas, y que puede ser igual el practicante de alguna terapia dudosa o, directamente, un brujo.

Y supongamos que al cabo de una semana, nuestra enfermedad empieza a remitir y dos semanas después ha desaparecido sin dejar rastro.

No es desusado que le adjudiquemos el efecto (nuestra curación) a la causa más cercana en el tiempo, en este caso el terapeuta dudoso o el brujo. La convicción que produce en nosotros esa atribución de curación es tal que no dudaremos en recomendar al terapeuta dudoso o al brujo a cualquier persona con una afección similar... o con cualquier afección. La frase que solemos escuchar en tales casos es: “A mí me funcionó”.

Pero la verdad es que en tal caso, como en muchos otros, no tenemos bases reales para atribuirle la curación a ninguna de todas sus posibles causas, como la acción retardada de una de las terapias médicas, la sinergia de la dos terapias médicas, un cambio ambiental que altere las condiciones de la enfermedad, algún alimento que disparara nuestro sistema inmune o, incluso, que nuestro cuerpo se haya curado sin ayuda externa, con sus procesos de defensa. Hasta podría ser que un hada invisible proveniente de Islandia se haya apiadado de nosotros en su viaje a ver a su novio sátiro en Ibiza y nos señalara con su varita mágica.

Gran parte de la historia de la ciencia es la historia de la identificación de las causas reales de ciertos acontecimientos y de los hechos que se correlacionan con dichos efectos sin realmente causarlos.

Un ejemplo clásico es un estudio estadístico sobre el tamaño del calzado y la capacidad de lectura, que sin duda demostraría que mientras mayor es el tamaño del calzado de una persona, más tiende a tener buenas habilidades de lectoescritura. Esto podría interpretarse como que la alfabetización hace crecer los pies o que el tamaño de los pies afecta la inteligencia, cuando en realidad lo que ocurre, simplemente, es que los niños pequeños tienen pies pequeños y sus pies crecen paralelamente a su aprendizaje de la lectura.

Dos acontecimientos pueden estar relacionados porque que uno de ellos cause al otro, o que ambos sean producto de una tercera causa, que se influyan entre sí de distintos modos o, simplemente, a una coincidencia.

La ciencia debe enfrentarse a la natural tendencia de nuestro cerebro de encontrar patrones y relaciones donde no los hay, como cuando vemos formas en las nubes o en las rocas, o convertimos el ruido blanco de la ducha en voces que creemos oír.

Por ello, hemos desarrollado armas como el “control de variables”. Hacemos uniformes todas las variables que pueden incidir en un efecto, como la temperatura, la presión atmosférica la iluminación, etc., menos aquélla que estamos poniendo a prueba, digamos un medicamento. Si se observa que al ocurrir nuestra variable se produce el efecto, tenemos una buena indicación de que lo ha causado. Esto es lo que se conoce como un “estudio controlado”.

Cuando en los experimentos intervienen seres humanos, los controles se multiplican debido al hecho de que los resultados pueden verse influidos por las opiniones, prejuicios, deseos, expectativas, rechazos y preconcepciones de los sujetos experimentales, y también los del experimentador. Si un experimentador, digamos, tiene una sólida convicción de que un medicamento es altamente efectivo, o por el contrario cree que es inservible, puede enviarle una gran cantidad de mensajes sutiles a los pacientes y afectar sus expectativas de éxito.

Por ello, la medicina utiliza el control llamado “de doble ciego”, donde ni los médicos que llevan a cabo el experimento ni los sujetos experimentales saben quiénes están tomando un medicamento y quiénes reciben un placebo o sustancia neutra. Al hacer estos estudios en poblaciones razonablemente grandes, tenemos bases para creer que los efectos observados que se aparten del azar están siendo efectivamente causados por el medicamento.

Finalmente, muchas relaciones causales las inferimos a partir de evidencias indirectas. Nadie ha visto al humo del tabaco entrar al pulmón, mutar una célula y provocar un cáncer, pero hay evidencias estadísticas suficientes para suponer que existe una relación causal, observando por ejemplo que los fumadores tienden a una mayor incidencia de cáncer sin importar dónde viven, su edad y otras variables.

Muchos estudios de los que informan los medios de comunicación establecen correlaciones, pero se presentan con frecuencia como si hablaran de relaciones causales. Por ejemplo, una sustancia puede estar correlacionada con un aumento de cáncer en ratas, pero los medios tienden a presentar el estudio como si afirmara que dicha sustancia “causa” cáncer, aunque no exista tal certeza. Al traducirse al público en general, la cautela habitual de los informes científicos suele desvanecerse.

La discusión sobre el calentamiento global se centra en saber si la actividad del hombre es una causa (al menos parcial) del calentamiento global o si la actividad industrial y el calentamiento están sólo correlacionados. Esto aún no se sabe, y las posiciones se toman por convicciones políticas y no con bases científicas. La evidencia parece indicar que hay una relación causal y la cautela nos dice que quizás convenga controlar la emisión de gases de invernadero, pero mientras no haya pruebas más contundentes, o más evidencia, no se puede afirmar que quienes promueven la irresponsabilidad en emisiones de gas carbónico estén equivocados, aunque puedan resultarnos antipáticos.

Las herramientas de la ciencia también son útiles en nuestra vida cotidiana. Es muy sano cuestionarnos la posibilidad de que estemos atestiguando una correlación simple cada vez que tenemos la tentación de adjudicarle a un acontecimiento una causa, especialmente si ésta nos resulta agradable, va de acuerdo con nuestras ideas u opiniones, o parece demasiado buena como para ser cierta.

Piratas y calentamiento global

La religión paródica del Monstruo Volador de Espagueti ha propuesto una correlación que, si se asumiera como causación, daría un resultado curioso. En el período histórico en el que ha disminuido el número de piratas tradicionales de parche en el ojo y pata de palo, ha aumentado el calentamiento global. Si en vez de profundizar en las causas de esta correlación inferimos que el calentamiento global está causado por la falta de piratas, lo mejor que podríamos hacer para controlar dicho cambio climático sería, claro, volvernos piratas.