Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Genética no es destino

Dos ratones clonados, genéticamente idénticos,
pero con distinta expresión genética de la cola por
factores epigenéticos.
(foto CC Emma Whitelaw via Wikimedia Commons)
¿Por qué somos como somos?

Durante gran parte de la historia humana, se atribuyó la respuesta a una fuerza más o menos misteriosa llamada “destino”, o a los designios, caprichos y devaneos de los dioses.

Aún entonces se entendía ya que existía una herencia. Los padres rubios o de baja estatura tendían a tener hijos rubios o de baja estatura. Así, incluso en la mitología griega, los hijos de los dioses con seres humanos eran semidioses, y tenían algunas de las características de sus padres divinos.

A partir del siglo XIX, con los trabajos de Darwin y Mendel, empezaron a descubrirse los mecanismos de la herencia. Y pronto supimos que nuestras células albergan largas cadenas de ADN que heredamos de nuestros progenitores, y en las que están presentes los genes, segmentos de esta molécula que producen proteínas.

La herencia genética se convirtió pronto en una pseudoexplicación para casi cualquier rasgo humano. Si los negros o las mujeres tenían calificaciones más bajas en la escuela, no se pensaba que su entorno social, familiar, económico, alimenticio y formativo temprano podría tener la culpa, sino que se echaba mano rápidamente de la “genética” para explicarlo.

La incomprensión de la herencia llevó muy pronto a aberraciones tales como la eugenesia, el racismo con coartada, el darwinismo social y otras ideas sin sustento científico que, sin embargo, marcaron la historia humana, especialmente en el origen y trágicos resultados de la Segunda Guerra Mundial.

Así se empezaron a buscar los “genes de” las más distintas características físicas y conductuales del ser humano, y los medios de comunicación procedieron a informar, no siempre con el rigor y la cautela necesarios, de la existencia de “genes de” la calvicie, el cáncer, el alcoholismo, la esquizofrenia, la capacidad matemática, la genialidad musical y muchos más.

En la percepción pública, nuestros genes marcaban de manera fatal, decisiva e irreversible todo acerca de nosotros. Las compañías de seguros se plantearon rápidamente la discriminación genética, para no venderle seguros de salud a personas genéticamente predestinadas a sufrir tales o cuales afecciones, y no pocas empresas se plantearon más o menos lo mismo

Sin embargo, al finalizarse el proyecto de codificación del genoma humano en 2003 y empezarse a estudiar sus resultados, se descubrió que en nuestro ADN hay únicamente alrededor de 25.000 genes que efectivamente codifican proteínas, entre el 1% y el 2% del ADN.

Evidentemente, eran demasiado pocos genes para explicar la enorme cantidad de rasgos físicos y de comportamiento, emociones, sentimientos y procesos intelectuales del ser humano. Más aún, el nombre dado al ADN restante "junk" o "basura" parecía indicar que el 98% de toda nuestra carga genética era inservible.

Como suele ocurrir en la ciencia, se ha ido demostrando, sin embargo, que las cosas son bastante más complicadas.

Los genes codifican proteínas, que son cadenas más o menos largas formadas a partir de sólo 20 elementos básicos, los aminoácidos. Los 25.000 genes codificadores de nuestro ADN son capaces de sintetizar entre uno y dos millones de proteínas distintas. Para ello, el gen produce una copia de uno de sus lados en ARN mediante el proceso llamado “transcripción”, y el ARN resultante es “editado” (cortado y vuelto a unir) para convertirlo en el ARN mensajero que directamente toma los aminoácidos y “arma” una molécula de proteína que puede contener casi 30.000 aminoácidos en distintas secuencias.

Pero, ¿cómo “sabe” un gen que debe iniciar este proceso? Si existe un elemento que le informa que debe hacerlo, la ausencia de dicho elemento provocaría que el gen nunca actuara, nunca produjera ARN mensajero ni proteínas... dicho de otro modo, el gen nunca se “expresaría”.

Es decir, por encima de nuestra carga genética existen mecanismos y procesos que controlan la actividad de los genes en el tiempo y en el espacio, que “encienden” y “apagan” su actividad y que pueden realizar una gran cantidad de operaciones sobre nuestros genes que van más allá de activarlos o desactivarlos.

Estos mecanismos no son inamovibles como el ADN, que sólo puede alterarse mediante mutaciones o manipulación directa de ingeniería genética, sino que están sometidos las condiciones del medio ambiente y responden a ellas activando y desactivando los genes como un pianista pulsa o no una tecla para producir una melodía.

Los elementos del medio ambiente que actúan sobre estos mecanismos, llamados “epigenoma”, son muy variados: la alimentación, la actividad deportiva, la actividad intelectual, el estrés, los contaminantes, las emociones... todo lo que nos afecta puede afectar a la expresión de nuestros genes mediante el epigenoma.

Además de la enorme complejidad que la epigenética introduce en nuestra comprensión de la herencia y la expresión de los genes, los biólogos moleculares están llegando a la convicción de que el mal llamado “ADN basura” que forma el 98% de nuestra carga de ADN no es un sobrante inútil, sino que forma parte de un complejo entramado químico que regula la activación y desactivación de los genes, su expresión y la forma y momento en la que ésta se realiza.

El biólogo evolutivo y divulgador Richard Dawkins ha escrito que nuestro ADN, nuestra carga genética, no es un plano, sino una receta. Nuestro ADN no indica de modo estricto y preciso las medidas y datos milimétricos del cuerpo que va a construir y hacer funcionar durante varias décadas, lo que sería tremendamente arriesgado pues la falta de un material haría imposible la construcción.

En cambio, el ADN ofrece indicaciones que dejan libertad para utilizar alternativas. Un ingrediente puede ser sustituido, o las cantidades alteradas según su disponibilidad. Así, sujeta a la materia prima y las capacidades del “chef” medioambiental, la tarta saldrá mejor o peor, pero comestible en la mayoría de los casos.

Como suele ocurrir con las explicaciones que parecen “demasiado sencillas”, la historia que nos cuentan los genes y nuestro ADN no está completa. Aún queda mucho por descubrir para poder responder a esa pregunta breve: ¿Por qué somos como somos?

Los gemelos no tan idénticos

Al nacer, y en las primeras etapas de su vida, los gemelos “idénticos”, aquéllos que tienen exactamente la misma carga genética, el mismo ADN, son realmente difíciles de diferenciar. Pero al paso del tiempo, y todos hemos tenido esa experiencia, los gemelos evolucionan de manera distinta, hasta que en su edad madura son relativamente fáciles de diferenciar por sus rasgos físicos y de conducta. Son el testimonio más claro que tenemos de la influencia del medio ambiente sobre nuestros genes. “Genéticamente idéntico” puede dar como resultado dos personas bastante distintas. La herencia no es la totalidad del destino.

Conocimientos e independencias americanas

Estatua de José Quer en el
jardín botánico de Madrid que él fundó
(D.P. vía Wikimedia Commons)
Los procesos de independencia de los países americanos a principios del siglo XIX ocurren ciertamente como culminación del pensamiento ilustrado y el enciclopedismo, durante las guerras napoleónicas, cuando Napoleón Bonaparte domina el accionar político europeo.

Menos evidente es que estos procesos se dan en el entorno de una revolución del conocimiento, cuando la semilla sembrada por los primeros científicos, de Copérnico a Newton, empieza a florecer aceleradamente. El estudio de las reacciones químicas, la electricidad, los fluidos, los gases, la luz, los colores, las matemáticas y demás disciplinas ofrecían un panorama vertiginoso de descubrimientos, revoluciones incesantes, innovación apresurada.

Sólo en 1810, cuando se inicia la independiencia de Venezuela, Colombia, la Nueva España (que incluye a México y a gran parte de Centroamérica), Chile, Florida y Argentina, se aísla el segundo aminoácido conocido, la cisteína, iniciando la comprensión de las proteínas, se publica el primer atlas de anatomía y fisiología del sistema nervioso humano y Humphrey Davy da su nombre al cloro.

El despotismo ilustrado no sólo tuvo una expresión pólítica y social sino que también se orientó hacia la revolución científica y tecnológica que vivía Europa. Así, Carlos III, además de conceder la ciudadanía igualitaria a los gitanos en 1783 y de su reforma de la agricultura y la industria, fue un impulsor del conocimiento científico, sobre todo botánico, y ordenó el establecimiento de las primeras escuelas de cirugía en la América española.

Estudiosos como el historiador Carlos Martínez Shaw señalan que el siglo XVIII fue, en España, el siglo de oro de la botánica, desde que José Quer creó en Madrid el primer jardín botánico y recorrió la península catalogando la flora ibérica.

Varias serían las expediciones científicas emprendidas hacia el Nuevo Mundo en el siglo XVII con el estímulo de Carlos III, como la ambiciosa Real Expedición Botánica a Nueva España, que duraría de 1787 a 1803, dirigida por el oscense Martín Sessé y el novohispano José Mariano Mociño.

A lo largo de diversas campañas, y desde 1788 apoyada por el nuevo monarca, Carlos IV, la expedición recorrió América desde las costas de Canadá hasta las Antillas, y desde Nicaragua hasta California. Habrían de pasar más de 70 años para que sus resultados, debidamente analizados y sistematizados, se publicaran finalmente.

Más prolongada fue, sin embargo, la Real Expedición Botánica del Nuevo Reino de Granada, que transcurriría desde 1782 hasta 1808, donde se estudiarían por primera vez los efectos de la quina, mientras la Expedición Malaspina de 1789 en Argentina también aportó materiales para el jardín botánico español. Tan sólo dos años antes, el fraile dominico Manuel Torres había excavado y descrito el fósil de un megaterio en el río Luján.

Las expediciones científicas solían tener una doble intención, como delimitar la frontera entre las posesiones españolas y portuguesas o identificar posibles recursos valiosos, como la Expedición a Chile y Perú de Conrado y Cristián Heuland, organizada por el director del Real Gabinete de Historia Natural, José Clavijo, y que buscaba minerales valiosos para la corona.

No era el caso de una de las principales expediciones al Nuevo Mundo, la realizada por el naturalista alemán Alexander Von Humboldt a instancias de Mariano Luis de Urquijo, secretario de estado de Carlos IV. De 1799 a 1804, Humboldt, que recorrió el Orinoco y el Amazonas, y lo que hoy son Colombia, Ecuador, Perú y México, una de las expediciones más fructíferas en cuanto a sus descubrimientos, que van desde el hallazgo de las anguilas eléctricas hasta el estudio de las propiedades fertilizantes del guano y el establecimiento de las bases de la geografía física y la meteorología a nivel mundial.

No estando especializado en una disciplina, Humboldt hizo valiosas observaciones y experimentos tanto en astronomía como en arqueología, etnología, botánica, zoología y detalles como las temperaturas, las corrientes marítimas y las variaciones del campo magnético de la Tierra. Le tomaría 21 años poder publicar, aún parcialmente, los resultados de su campaña.

La ciencia y la tecnología española y novohispana fueron, en casi todos los sentidos, una y la misma, resultado de la ilustración y al mismo tiempo sometidas a los caprichos absolutistas posteriores de Carlos IV y Fernando VII.

Un ejemplo del temor a las nuevas ideas que se mantenían pese a las ideas ilustradas lo da el rechazo a las literaturas fantásticas a ambos lados del Atlántico. En 1775, el fraile franciscano Manuel Antonio de Rivas escribía en Yucatán la obra antecesora de la ciencia ficción mexicana, “Sizigias y cuadraturas lunares”, que sería confiscada por la Inquisición y sometida a juicio por defender las ideas de Descartes, Newton y los empíricos. Aunque finalmente absuelto en lo esencial, el fraile vivió huyendo el resto de sus días.

Entretanto, en España, el mismo avanzado Carlos III prohibía, en 1778, la lectura o propiedad del libro Año dos mil cuatrocientos cuarenta, del francés Louis Sébastien Mercier, que en su libro no presentaba tanto la ciencia de ese lejano futuro como la realización de todos los ideales de la revolución francesa.

Ciencia e ilustración, pues, pero no demasiadas.

La vacuna en América

Cuando la infanta María Luisa sufrió de viruela, a instancias del médico alicantino Francisco Javier Balmis el rey inoculó a sus demás hijos con la vacuna desarrollada por Edward Jenner en 1796. Dada la terrible epidemia de viruela que ocasionaba 400.000 muertes en las posesiones españolas de ultramar, la mitad de ellos menores de 5 años, Carlos IV apoyó la ambiciosísima Real Expedición Filantrópica de la Vacuna, encabezada por Balmis, que recorrió los territorios españoles de América y Asia de 1803 hasta 1814, durante los primeros combates independentistas americanos. Este asombroso esfuerzo está considerado aún hoy una de las grandes aportaciones a la erradicación de la viruela en el mundo.

Estirpe canina

(Fotografía © Mauricio-José Schwarz)
Más allá de lo que nos enseña la vida con un perro, su cariño y compañía, su variabilidad física también puede ser la clave de importantes descubrimientos genéticos.

Fue apenas en 2003 cuando se consiguió secuenciar el genoma humano. Esto significa que en ese momento tuvimos un mapa de la composición de nuestro material genético. El lenguaje utilizado para escribir la totalidad del ADN o ácido desoxirribonucleico de todos los seres vivientes de nuestro planeta, utiliza únicamente cuatro letras, AGTC, iniciales de las bases adenina, guanina, timina y citosina, que unidas en pares de timina con adenina o guanina con citosina, forman los peldaños de la escalera retorcida o doble espiral del ADN.

Conocer el genoma de un ser vivo permite conocer su predisposición genética hacia ciertas enfermedades, así como saber la forma en que se desarrollan algunas afecciones y, de manera muy especial, nos permite ir desentrañando los mecanismos y los caminos de la evolución.

Y dado que una de las peculiaridades de la evolución humana ha sido nuestra relación con el perro, no fue extraño así que, sólo tres años después de que se secuenciara el genoma humano, los biólogos moleculares anunciaran la secuenciación del genoma de otro animal, un perro, concretamente uno de la raza boxer.

El anuncio del trazado del mapa genético completo de un perro lo hicieron en 2006 científicos del Instituto de Investigación Genómica en Rockville, Maryland, en los Estados Unidos. El biólogo molecular Ewen Kirkness expresó sus esperanzas de que eventualmente se pudieran identificar los genes responsables no sólo de enfermedades en los perros, sino también de otras características peculiares, tanto físicas como de comportamiento capaces de ayudar a la comprensión de varias enfermedades humanas.

Y es que, quizás por sus años unidos, los perros y los seres humanos comparten una gran cantidad de enfermedades, como la diabetes, la epilepsia o el cáncer. Sin embargo, resulta que es más fácil identificar en los perros algunos genes que, por simplificar la explicación, podríamos llamar causantes de ciertas enfermedades.

Una enfermedad en un ser humano puede ser producida por mutaciones en varios distintos genes, mientras que en el perro, sólo una mutación de un gen puede causar una enfermedad. Y es precisamente el mismo gen mutado el que ocasiona la misma enfermedad en los seres humanos.

Mientras que el genoma humano está formado por 3 mil millones de pares de bases (AT o CG) que forman unos 23.000 genes capaces de codificar proteínas, además de muchos otros genes no codificantes, secuencias regulatorias y grandes tramos de ADN que simplemente no sabemos qué función cumplen, el genoma del perro incluye unos 19.300 genes capaces de codificar proteínas, y la enorme mayoría de ellos son idénticos en el ser humano.

La búsqueda de genes que predisponen a una enfermedad, la ocasionan, la facilitan o la desatan, se facilita gracias a que distintas razas de perros tienen notables tendencias estadísticas a sufrir algunas enfermedades, trastornos o afecciones. Dado que las razas han sido creadas fundamentalmente por el capricho humano, y generalmente atendiendo más al aspecto del animal que a su comportamiento, el estudio de las diferencias genéticas entre razas de perros puede ayudar a identificar más fácilmente a los genes detrás de ciertas enfermedades.

En marzo de este año, investigadores del Instituto Nacional de Investigaciones del Genoma Humano de los Estados Unidos publicaron nuevos estudios sobre la morfología canina analizando las variaciones visibles en la especie buscando, precisamente, la identificación de genes concretos.

Por ejemplo, la comparación genética entre todas las razas que muestran una característica identificativa (como las patas cortas) y las razas que no tienen esta peculiaridad hace un poco más fácil hallar cuáles son las instrucciones genéticas que “ordenan” que las patas crezcan o dejen de hacerlo cuando aún son pequeñas.

Prácticamente ningún científico serio pone en tela de juicio hoy en día de que los perros son simplemente una subespecie domesticada del lobo gris europeo. El lobo es Canis lupus y nuestros perros son Canis lupus familiaris, lobos familiares, genéticamente tan iguales a los lobos que pueden procrear descendencia perfectamente fértil, una de las indicaciones más claras de que dos animales son de una misma especie.

Son animales cuya infancia hemos prolongado al domesticarlos (un proceso llamado neotenia que también experimentó la especie humana) y cuyo aspecto externo hemos moldeado a veceds de modo inexplicablemente caprichosos. Pero dentro del más manso pekinés, del más diminuto yorkshire, del más inteligente border collie o del más confiable cuidador de niños bóxer hay un lobo, nuestro lobo.

Ese lobo entró en la vida de los grupos humanos hace cuando menos 15.000 años, y muy probablemente mucho antes, pues algunos científicos se basan en algunas evidencias para hablar de domesticación ya hace más de 35.000 años.

Parte de esa domesticación se hace evidente en algunos rasgos de comportamiento singulares de estos compañeros para la diversión y el trabajo: su desusada inteligencia. Aunque hacer pruebas fiables para medir la inteligencia canina no es sencillo, está demostrado que el perro tiene disposición a aprender, herramientas cognitivas para resolver problemas y cierto nivel de aparente abstracción (especialmente en situaciones sociales), además de tener una capacidad de imitar al ser humano sólo comparable a la de otros primates.

Esta inteligencia es parte de lo que ha convertido al perro en un ser indispensable para muchas actividades, desde el pastoreo hasta las tareas de lazarillo, guardián, cobrador de presas en cacerías o incluso auxiliares en el diagnóstico de ciertas enfermedades por su capacidad de reconocer por el olfato sustancias relacionadas con enfermedades como la tuberculosis o ciertos tumores.

También en ese terreno, en el de la inteligencia, el conocimiento del genoma del perro ofrece la posibilidad de ayudarnos a entender la genética de nuestro cerebro, de nuestras emociones, de lo que nos hace humanos.

Y, ciertamente, nuestra relación con el perro es una de las cosas que nos hace peculiarmente humanos.

El lobo hogareño

Aunque en el mundo hay más de 300 razas distintas de perros (además de esa enorme población de canes denominados genéricamente “mestizos” por no ajustarse a los arbitrarios parámetros que definen a alguna raza), la genética nos enseña que nuestros compañeros se pueden agrupar en sólo cuatro tipos de perros con diferencias estadísticas significativas: los “perros del viejo mundo” como el malamuy y el sharpei, los mastines, los pastores y la categoría “todos los demás”, también llamada “moderna” o “de tipo cazador”.

El mono que cocina

Cocinar es más que un acto cultural, alimenticio o estético... es probablemente la plataforma de despegue de la inteligencia humana.

Cráneo reconstruido de Zhokoudian, China, probable sitio
del primer fogón de la historia.
(foto CC Science China Press vía Wikimedia Commons)
Los alimentos cocinados adquieren propiedades que los hacen mucho más atractivos para nuestros sentidos que en su estado crudo. Los expertos dirían que la comida cocinada tiene propiedades organolépticas superiores a la comida cruda. Nosotros diríamos simplemente que huele, sabe y se ve mejor. Ambas oraciones significan lo mismo.

El gusto por la comida cocinada no es privativo del ser humano. Los adiestradores de perros saben desde hace mucho que los perros prefieren un filete a la parrilla que el mismo filete crudo, y por ello advierten que si se alimenta a un perro con carne cocinada, tenderá a rechazar después las dietas a base de carne cruda. A lo bueno nos acostumbramos fácilmente. Y nuestros perros también.

Llegar a lo bueno no es tan sencillo, sin embargo. Se cree que el hombre probó la comida cocinada probablemente por accidente, al acceder a animales y plantas cocinados por incendios forestales, pero no pudo empezar su camino para convertirse en chef de renombre internacional sino hasta que pudo utilizar el fuego controladamente.

Las evidencias más antiguas del uso del fuego datan del paleolítico inferior. En el yacimiento de Gesher Benot Ya’aqov, en Israel, en el valle del Jordán, se han encontrado restos de madera y semillas carbonizados que datan de hace 790.000 años. Sin embargo, no es posible descartar que su estado se debiera a un accidente, de modo que algunos arqueólogos más cautos señalan como primera evidencia clara el yacimiento de Zhoukoudian en China, con huesos de animales chamuscados con entre 500.000 y 600.000 años de antigüedad.

Chamuscar, sin embargo, no es cocinar, salvo en la definición de algún soltero perdido en su primer piso propio y abandonado ante los misterios de una estufa.

Al aparecer los fogones u hogares, podemos pensar que ya había al menos un concepto básico de la cocina, y las evidencias de esto se encuentran en sitios arqueológicos con una antigüedad de entre 32.000 y 40.000 años, en las cuevas del río Klasies en Sudáfrica y en la cueva de Tabún en Israel. Y hace entre 20.000 y 40.000 años ya encontramos hornos de tierra usados para hornear la cerámica y la cena indistintamente.

Es importante ubicar estas fechas en el contexto de la historia de la alimentación humana. La domesticación de plantas y animales, la agricultura y la ganadería, son logros humanos muy posteriores al inicio de la cocina, pues sus primeras evidencias se encuentran hace 9.000 años en el medio oriente.

En 2009, el antropólogo y primatólogo británico Richard Wrangham, profesor de antropología biológica de la Universidad de Harvard, quien estudió con los legendarios etólogos Richard Hinde y Jane Goodall, publicó el libro Catching fire: How cooking made us human (Atrapar el fuego, cómo cocinar nos hizo humanos), donde además de analizar los datos arqueológicos sobre el uso del fuego, profundiza en otros aspectos de esta actividad peculiarmente humana para concluir que merece atención la hipótesis de que el hecho mismo de cocinar nuestros alimentos permitió que nos convirtiéramos en los humanos que somos hoy en día.

Ninguna cultura ha adoptado como tal la práctica del “crudismo”, es decir, el consumo de todos sus alimentos sin cocina. Todas las culturas cocinan, y para muchos estudiosos, la cocina es uno de los rasgos esenciales de la propia cultura. De hecho, el crudismo es más una moda dietética hija de las nuevas religiones y nacida hace muy poco tiempo en los países opulentos, nunca en los más necesitados de proteína de calidad. Y se ha demostrado además que las dietas crudistas llevan con gran frecuencia a problemas como la desaparición del período menstrual en las mujeres (dismenorrea) lo que lleva a la infertilidad... que no es precisamente una buena estrategia evolutiva.

Cocinar los alimentos no sólo los hace más sabrosos. Existen estudios que muestran cómo el almidón de alimentos cocinados es de 2 a 12 veces más digerible que el de esos mismos alimentos crudos. Pero el punto esencial, que sustenta la teoría de Wrangham, es que las proteínas de los alimentos cocinados son mucho más digeribles y accesibles para nuestros aparatos digestivos.

Esto significa que nos podemos alimentar correctamente con una menor cantidad de alimento si lo cocinamos, pasamos menos tiempo consiguiendo comida, y el alimento es mucho más fácil de masticar, con lo cual el tiempo que pasamos comiendo también se reduce. A ojos de un antropólogo como Wrangham, estos aspectos representan una ventaja evolutiva y, en consecuencia, una presión de selección que cambió a nuestra especie.

¿Cómo ocurrió esto? La disponibilidad de proteína, argumenta Wrangham, nos permitió tener intestinos más cortos que los de otros primates, y ese “ahorro” se pudo “invertir” en cerebros más grandes y funcionales. El cerebro, vale la pena recordarlo, es un órgano que hace un gran gasto de energía. Siendo sólo el 2% del peso del cuerpo, aprovecha 15% del rendimiento cardiago, 20% del consumo total de oxígeno y un tremendo 25% del total de la glucosa que usa nuestro cuerpo. Y la usa las 24 horas del día, despierto o dormido.

La propuesta de Richard Wrangham no está, sin embargo, exenta de debate. Como las afirmaciones de antropólogos, como Katharine Milton de la Universidad de California, que señala que el gran salto anterior en la evolución humana, hace unos 2,5 millones de años, fue el consumo habitual de carne, que dio a la especie una ventaja importante al permitirle acceso a nutrientes que no estaban al alcance de las especies competidoras. Y es que estas afirmaciones tienen, junto a su solidez y plausibilidad científicas, la desventaja de ir contra ideas extendidas respecto del vegetarianismo, lo “natural” a veces entendido más allá de los datos disponibles, y ciertas creencias místicas y más o menos religiosas. Aunque ese debate es más político que científico, no deja de estar presente.

Pero si el ser humano no sería tal si no hubiera aprendido a cocinar, y somos el único animal que cocina, quizá antes que ser el mono sabio, el homo sapiens, somos el mono que cocina. No es una idea desagradable.

El chef neandertal


Cocinar los alimentos es hoy privativo de nuestra especie. Pero nuestros parientes los neandertales, la otra especie humana con la que convivimos hasta hace unos 30 mil años, sí cocinaban sus alimentos. De hecho, según el codirector del yacimiento de Atapuerca, Eduald Carbonell, el fogón, el hogar donde se mantenía el fuego, “centralizaba la mayoría de las tareas del campamento”. Los datos sobre el uso controlado del fuego por parte del hombre de neandertal no son aislados. En 1996 se encontraban, en Capellades, Barcelona, 15 fogones neandertales de 53.000 años de antigüedad.

España en el espacio

Felipe Lafita Babio, pionero
de la astronáutica española
(fotografía de Monografias Históricas de
Portugalete utilizada bajo política
de fair use no comercial ni difamatorio)
Desde antes de Pedro Duque, y hasta la actualidad, durante 50 años España ha estado activa en la aventura espacial.

Para muchos españoles, la presencia de Pedro Duque en la misión STS-95 del transbordador espacial Discovery lanzada el 29 de octubre de 1998 fue la primera noticia de que España estaba desempeñando un papel en la aventura espacial. Ni siquiera el viaje de 1995 de Miguel López Alegría, nacido en Madrid y nacionalizado estadounidense, había concitado tal atención mediática.

Pedro Duque fue además uno de los pocos astronautas en volar misiones de la NASA y de la ESA, al participar en 203 en la Expedición 8 a la Estación Espacial Internacional, en la misión científica que la ESA denominó “Misión Cervantes”.

Hoy, España es la quinta potencia europea en cuanto a la inversión que realiza en la Agencia Espacial Europea, y es, por tanto, uno de los países más activos en la exploración espacial. Una posición difícil de prever en 1942, cuando el ingeniero Felipe Lafita Babio, fundó el Instituto Nacional de Técnica Aeroespacial (INTA), cuyo primer director sería el científico Esteban Terradas y que es la encargada de la actividad espacial del estado español.

En 1960, apenas tres años después de que el Sputnik 1 diera inicio a la era espacial, el INTA establecía un convenio con la Nasa para la instalación de la estación espacial de Maspalomas, en Gran Canaria, cuya misión original fue colaborar en el seguimiento de las cápsulas espaciales Mercury.

La estación de Maspalomas continúa en actividad y actualmente le ofrece apoyo a la misión Cluster II de la ESA, además de dar asistencia a otras misiones europeas durante las fases de lanzamiento y órbita temprana y a proyectos de la NASA y de JAXA, la agencia espacial japonesa, ocupándose de la recepción, proceso y archivado de datos de observación de la tierra mediante satélites.

No mucho después, en 1964, otro convenio con la NASA establecía el Complejo de Comunicaciones del Espacio Profundo de Madrid, MDSSC, en Robledo de Chavela. Este complejo forma, con sus gemelos de Californa, EE.UU. y Canberra, Australia, el sistema clave de seguimiento de todos los vehículos espaciales de la NASA.

En 1969, una de las cuatro antenas de 34 metros de diámetro con que cuenta el centro, apodada “La Dino”, fue empleada para hacer el seguimiento de la misión Apolo XI, que culminaría con la llegada del hombre a la Luna. El centro tiene además una antena de 70 metros y otra de 26, que también son utilizadas en proyectos de radioastronomía.

En 1978 se inauguraba la Estación de Villafranca del Castillo, dedicada al seguimiento del satélite IUE, dedicado al análisis de la radiación ultravioleta. En 2008 se convirtió en el Centro Europeo de Ciencias Planetarias y Astronomía Espacial (ESAC), sede delas misiones telescópicas espaciales y planetarias de la ESA, y poco a poco va dejando de hacer el seguimiento de misiones que su personal científico realizó las 24 horas del día, los 365 días del año, desde 1981 hasta 2006, para

La Estación Cebreros es parte de la red ESTRACK dedicada al rastreo de distintas naves. Desde 2005, está a cargo del seguimiento de la sonda Venus Express de la ESA, además de realizar labores de rastreo de otras misiones como Mars Express y Rosetta. Su colosal antena parabólica de 35 metros de diámetro es una de las más modernas del mundo

Los satélites españoles

En 1974, el INTA lanzó desde las instalaciones de la NASA en Florida el primer satélite concebido, diseñado y producido en España, el INTASAT, como culminación de un proyecto iniciado seis años atrás. Con sólo 10 kg de peso, el satélite científico cuyo experimento era un fario ionosférico, se puso en órbita el 15 de noviembre a bordo de un cohete Delta.

No sería el único satélite desarrollado y puesto en órbita como parte del programa espacial español.

El UPM-Sat fue un microsatélite desarrollado por la Universidad Politécnica de Madrid, de carácter científico y educativo, lanzado el 7 de junio de 1995 desde la Guayana Francesa en un lanzador Ariane IV-40, y que estuvo activo durante 213 días-

El Minisat 01, cuya carga constaba de un espectrógrafo de rayos ultravioleta, una cámara de rayos gamma y un experimento sobre comportamiento de fluidos en ausencia de gravedad, fue lanzado desde la base aérea de Gando, en Gran Canaria, el 21 de abril de 1997, utilizando una lanzadera espacial Pegasus.

El 29 de julio de 2009, desde Baikonur, Ucrania, se lanzó un cohete Dnepr que llevaba entre su carga el Deimos-1 o Spain-DMC 1, satélite privado de la empresa del astronauta Pedro Duque y parte de un proyecto de observación y captura de imágenes de la superficie terrestre para ofrecer imágenes que ayuden a las acciones en casos de desastres naturales.

Hoy, la Universidad de Vigo se encuentra desarrollando las etapas finales de su satélite Xatcobeo, previsto para lanzarse en otoño de 2010 desde la base europea de la Guayana Francesa.

Sin embargo, la actividad española en la exploración espacial y en la ESA es mucho más amplia en áreas ciertamente menos mediáticos. El INTA cuenta con un centro donde las estructuras diseñadas para la nueva generación de cohetes lanzadores Arianne se someten a pruebas que replican las tensiones y violencia de un lanzamiento y vuelo espacial.

Cuenta con el Centro de Experimentación de El Arenosillo, que desarrolla y lanzan cohetes suborbitales para el estudio de la atmósfera. El Spasolab se ocupa desde 1989 de las pruebas de fiabilidad, durabilidad, rendimiento y certificación de las células de energía solar que utilizan todos los vehículos de la ESA. El INTA además realiza el análisis y diseño de estructuras y mecanismos espaciales, incluyendo desarrollo robótico, trabajos de ingeniería de sistemas espaciales, gestión de proyectos espaciales y mucho más.

Si el futuro está en el espacio, cosa cada vez más certera conforme la actividad en el espacio se vuelve parte de nuestra experiencia cotidiana, existe una muy razonable expectativa de que la ciencia, los científicos, los técnicos y las universidades españolas tengan bien ganado un lugar en ese futuro.

Un pionero frustrado

El título de pionero espacial español pertenece a Emilio Herrera Linares, granadino nacido en 1879 que a principios del siglo XX concibió llegar a la zona más alta de la atmósfera con un globo, un colosal aparato de 26.000 metros cúbicos de capacidad. Para sobrevivir a la experiencia, en diseñó un traje que se podría llamar, en justicia, un traje espacial, que se llegó a construir y probar en 1935 en la Escuela de Mecánicos del aeródromo militar de Cuatro Vientos. Para 1936, todo estaba listo para la gran aventura de Emilio Herrera... pero como tantas otras cosas en España, la experiencia se vio cancelada debido a la asonada militar contra el gobierno legítimo que desembocó en la Guerra Civil.

La descubridora olvidada del ADN

Rosalind Franklin
(foto © utilizada como fair use no comercial ni difamatorio)
Una serie de circunstancias incontrolables ha dejado fuera de la historia del ADN a uno de sus personajes clave, la doctora Rosalind Franklin.

La historia registra, a nivel popular, sólo al británico Francis Crick y al estadounidense James Watson como descubridores de la estructura del ADN. Pero el Premio Nobel de Medicina o Fisiología de 1962 se entregó también a Maurice Frederick Wilkins.

En esa ceremonia, sin embargo, faltaba un personaje fundamental en los trabajos que llevaron al premio concedido a estos tres científicos, la doctora Rosalind Franklin, personaje omitido con demasiada frecuencia en la historia del inicio de la genética moderna, excluida de un premio que se otorgaba a Crick, Watson y Wilkins, según el Comité del Nobel, “por sus descubrimientos referentes a la estructura molecular de los ácidos nucleicos y su importancia en la transferencia de información en el material vivo”.

Estas palabras explicaban, en el austero estilo de los Premios Nobel, que Crick, Watson y Wilkins habían determinado por primera vez en la historia la estructura del ácido desoxirribonucleico, una sustancia aislada por primera vez apenas en 1869 por el médico suizo Friedrich Miescher. En 1944 se demostró que el ADN era un “principio transformador” que llevaba información genética, lo que se confirmó plenamente en 1952.

Crick y Watson son los más conocidos en la saga del descubrimiento de la estructura del ADN porque fueron ellos los que en 1953 establecieron que el ADN estaba formado por una doble hélice. Su descubrimiento, publicado en abril en la reconocida revista Nature, estaba destinado a dar inicio a una de las mayores revoluciones en la historia de la biología.

Pero es necesario saber cómo llegaron a esta conclusión los dos científicos para poder determinar con certeza el papel que jugó en esta historia la científica británica Rosalind Elsie Franklin, biofísica, física, química, bióloga y cristalografista de rayos X, una lista de logros académicos impresionante, máxime si tenemos en cuenta que la consiguió en una vida trágicamente breve, pues nació en 1920 y murió de cáncer en 1958.

Para mirar lo más pequeño

Sería muy sencillo determinar la forma de la molécula de ADN con un potentísimo microscopio de tunelado por escaneo. Este microscopio, inventado en 1981, puede “ver” perfiles tridimensionales a nivel de átomos. Es un logro tal que sus creadores ganaron el Premio Nobel de Física en 1986.

Pero en la década de 1950, las herramientas al alcance de los investigadores eran mucho más limitadas.

Uno de los sistemas utilizados era la cristalografía de rayos X, un método indirecto para determinar la disposición de los átomos en un cristal. Al pasar un haz de rayos X por un cristal, los rayos X se difractan, sufren una distorsión que cambia según el medio por el que se mueve la onda electromagnética. (La difracción de la luz es la responsable de que un lápiz en un vaso de agua parezca quebrarse al nivel del agua.)

Los ángulos e intensidades de los rayos X difractados captados en una película fotográfica permiten a los cristalógrafos generar una imagten tridimensional de la densidad de los electrones del cristal y, a partir de ello, calcular las posiciones de los átomos, sus enlaces químicos y su grado de desorden, entre otros muchos datos.

En enero de 1951, la joven doctora Rosalind Franklin entró a trabajar como investigadora asociada al King’s College de Londres, bajo la dirección de John Randall. Éste la orientó de inmediato a la investigación del ADN, continuando con el trabajo, precisamente, de Maurice Wilkins.

Lo que siguió no suele salir en las películas y narraciones porque fue el duro y poco espectacular trabajo de Franklin para afinar sus herramientas (un tubo de rayos X de foco fino y una microcámara), y determinar las mejores condiciones de sus especímenes para obtener imágenes útiles. En este caso, el nivel de hidratación de la muestra era esencial.

Habiendo determinado la existencia de dos tipos de ADN, se dividió el trabajo. Wilkins se ocupó de estudiar el tipo “B”, determinando poco después que su estructura era probablemente helicoidal. Rosalind Franklin, por su parte, trabajó con el tipo “A”, generando imágenes que descritas como poseedoras de una gran belleza, y abandonando la teoría de la estructura helicoidal sólo para retomarla después, afinada y perfeccionada.

Una de las fotografías de difracción de rayos X tomada por Franklin en 1952, y que es famosa en el mundo de la ciencia como la “fotografía 51”, fue vista por James Watson a principios de 1953, cuando todos los científicos se apresuraban por resolver el enigma ante el fracaso espectacular del modelo de ADN propuesto por Linus Pauling. Esa fotografía sería fundamental para consolidar el modelo de Crick y Watson.

Rosalind Franklin había redactado dos manuscritos sobre la estructura helicoidal del ADN que llegaron a la revista especializada Acta Cristallographica el 6 de marzo de 1953, un día antes de que Crick y Watson finalizaran su modelo del ADN. Ese mismo día, Franklin dejó el King’s College para ocupar un puesto en el Birbeck College y su trabajo quedó al alcance de otros científicos. Pero ella, al parecer, nunca miró atrás.

El trabajo de Rosalind Franklin se publicó en el mismo número de Nature que el modelo de Crick y Watson, como parte de una serie de artículos (incluido también uno de Wilkins) que apoyaban la idea de la estructura helicoidal doble de la molécula de la vida.

Como la idea de esa estructura helicoidal rondaba por todos los laboratorios de la época, el debate de quién fue el verdadero descubridor de la forma del ADN probablemente no se resolverá nunca. Lo que es claro es que tanto Crick como Watson, Wilkins y Franklin fueron los padres comunes de este descubrimiento que literalmente cambió nuestro mundo y nuestra idea de nosotros mismos.

El modelo de Crick y Watson no fue aceptado y confirmado del todo sino hasta 1960, cuando Rosalind Franklin ya había fallecido. Y como al concederse el Premio Nobel a los descubridores de la doble hélice, el reglamento del galardón impedía que se diera el premio de modo póstumo, Rosalind Franklin quedó sin el reconocimiento al que tenía, sin duda alguna, tanto derecho como los otros tres premiados, y cayó en un olvido del que apenas se le empezó a rescatar en la década de 1990.

Sexismo y más allá

En un mundo académico todavía sexista, como incluso lo admitió Francis Crick años después, Rosalind Franklin dejó atrás el caso del ADN para concentrarse en el ARN, la otra molécula de la vida, y el genoma de muchos vírus. Siguió produciendo artículos científicos (siete en 1956 y seis en 1957) y estudiando el virus de la poliomielitis hasta su muerte. Y probablemente nunca supo que su trabajo había sido la base del éxito de Crick y Watson.

Las células de la empatía

Una neurona de la zona del hipocampo
(foto CC MethoxyRoxy vía
Wikimedia Commons)
Las neuronas espejo, reaccionan tanto al observar una acción como cuando la realizamos nosotros mismos. Las implicaciones del descubrimiento pueden ser arrolladoras.

A principios de la década de 1990, Giacomo Rizzolatti, al frente de un grupo de neurocientíficos formado por Giuseppe Di Pellegrino, Luciano Fadiga, Leonardo Fogassi y Vittorio Gallese de la Universidad de Parma informó del hallazgo de un tipo de neuronas en macacos que se activan cuando el animal realiza un acto motor, como tomar un trozo de comida con la mano, pero también se activan cuando el animal observa a otro realizar dicha acción.

No se trata de neuronas motrices, sino de neuronas situadas en la corteza premotora, y no se activan simplemente al presentarle al mono la comida como estímulo, ni tampoco se activan cuando el mono observa a otra persona fingir que toma la comida. El estímulo visual efectivo implica la interacción de la mano con el objeto.

Los investigadores llamaron a estas neuronas “espejo”, y el descubrimiento dio pie a una enorme cantidad de especulaciones e hipótesis sobre el papel funcional que podrían tener estas neuronas, y muchos investigadores emprendieron experimentos para determinar si el ser humano y otros animales tenían un sistema de neuronas espejo.

El salto de las neurociencias

De todos los objetos y mecanismos del universo, curiosamente, del que sabemos menos es precisamente el que empleamos para entender, para sentir y para ser humanos: el cerebro.

El estudio de nuestro sistema nervioso se vio largamente frenado quizá por influencia de visiones religiosas que consideran que la esencia humana misma tiene algo de sagrado y por tanto no debe ser sometida al mismo escrutinio que dedicamos al resto del universo. Pero hoy en día estamos viviendo un desarrollo acelerado de la neurociencia y se espera que en los próximos años veamos una explosión del conocimiento similar a la que experimentó la astronomía con Galileo, la biología con Darwin o la cosmología y la cuántica con Einstein.

Las neurociencias son un sistema interdisciplinario que incluye a la biología, la psicología, la informática, la estadística, la física y varias ciencias biomédicas y que tiene por objeto estudiar científicamente el sistema nervioso. Esto implica estudiar desde el funcionamiento de su unidad esencial, la neurona, hasta la compleja interacción de los miles de millones de neuronas que dan como resultado la actividad cognitiva, las sensaciones, los sentimientos, la conciencia, el amor, el odio y la comprensión, entre otras experiencias humanas.

Aunque a lo largo de toda la historia humana se ha pretendido comprender la función del sistema nervioso, su estudio científico nace prácticamente con el trabajo de Camilo Golgi y Santiago Ramón y Cajal a finales del siglo XIX. Su desarrollo sin embargo tuvo que esperar a que la biología molecular, la electrofisiología y la informática avanzaran lo suficiente para aproximarse en detalle al sistema nervioso, lo que ocurrió apenas a mediados del siglo XX.

La identificación de los neurotransmisores, los sistemas de generación de imágenes del cerebro en funcionamiento, la electrofisiología que permite estudiar las descargas electroquímicas de todo el cerebro, de distintas estructuras e incluso de una sola célula, una sola neurona.

Y fue la posibilidad de medir la reacción de una sola neurona la que permitió a los investigadores realizar el experimento que descubrió las neuronas espejo.

Las implicaciones

El doctor Vilanayur S. Ramachandran, considerado uno de los principales neurocientíficos del mundo, especuló sobre el significado y función de las neuronas espejo, a partir de otro estudio, en el que investigadores de la Universidad de Califonia en Los Ángeles descubrieron un grupo de células en el cerebro humano que disparan normalmente cuando se pincha a un paciente con una aguja, es decir, “neuronas del dolor”, pero que también se activaban cuando el paciente miraba que otra persona recibía el pinchazo. Era una indicación adicional de que el sistema nervioso humano también tiene neuronas espejo.

Pero también le daba una dimensión completamente nueva a la idea de “sentir el dolor de otra persona”. Ante los resultados de esa investigación, esa capacidad empática parecía salir del reino de la filosofía, la moral y la política social para insertarse en nuestra realidad biológica. Una parte de nuestro cerebro, al menos, reacciona ante el dolor ajeno como reaccionaría ante nuestro propio dolor.

Para Ramachandran, las neuronas espejo podrían ser a las neurociencias lo que el ADN fue para la biología, un marco unificador que podría explicar gran cantidad de las capacidades del cerebro humano. Incluso, este reconocido estudioso especuló que el surgimiento de las neuronas espejo pudo haber sido la infraestructura para que los prehomínidos desarrollaran hablidades como el protolenguaje, el aprendizaje por imitación, la empatía, la capacidad de "ponerse en los zapatos del otro" y, sobre todo, la "teoría de las otras mentes” que no es sino nuestra capacidad de comprender que otras personas pueden tener mentes, creencias, conocimientos y visiones distintas de la nuestra. Es gracias a esa comprensión que preguntamos cosas que no conocemos pero otros pueden conocer... y que le decimos a otros cosas que quizás ignoran.

Ramachandran también sugería que el sistema de neuronas espejo podría ser responsable de una de las habilidades más peculiares del nuestro cerebro: la de leer la mente.

Evidentemente no leemos la mente como lo proponen las fantasías telepáticas, pero tenemos una gran capacidad para deducir las intenciones de otras personas, predecir su comportamiento y ser más astutos que ellos. Los negocios, las guerras y la política son pródigos en ejemplos de este “maquiavelismo” que caracteriza al primate humano.

Quizás el sistema de neuronas espejo, desarrollado desde sus orígenes bajo una presión evolutiva determinada, es precisamente el que nos hace humanos, el responsable de que hace 40.000 años se diera el estallido de eso que llamamos civilización.

Para Ramachandran, de ser cierto incluso un fragmento de todas estas especulaciones, el descubrimiento de las neuronas espejo podría demostrar ser uno de los descubrimientos más importantes de la historia humana.

El aprendizaje cambia el cerebro

Entre los más recientes avances en el estudio de las neuronas espejo se encuentra un estudio de Daniel Glaser que demostró que las neuronas espejo de los bailarines se activan más intensamente cuando el bailarín ve movimientos o acciones que él domina que al ver movimientos que no están en su repertorio de movimientos. “Es la primera prueba de que ... las cosas que hemos aprendido a hacer cambian la forma en que el cerebro responde cuando ve el movimiento”, dice Glaser.

Los números de los mayas


Numerales mayas del 1 al 29.
(CC via Wikimedia Commons)


La asombrosa matemática maya y sus estrecha relación con la astronomía son fuente de asombros por sus logros... y de temores infundados por parte de quienes poco conocen de esta cultura.

De todos los aspectos de la cultura maya, desarrollada entre el 1800 a.C. y el siglo XVII d.C., uno de los más apasionantes es sin duda el desarrollo matemático que alcanzó este pueblo.

El logro que se cita con más frecuencia como punto culminante de la cultura maya es el cero. El cero ya existía como símbolo entre los antiguos babilonios como indicador de ausencia, pero se perdió y no se recuperaría sino hasta el siglo XIII con la numeración indoarábiga.

El cero era de uso común en las matemáticas mayas, simbolizado por un caracol o concha marina, fundamental en su numeración de base vigesimal. Es decir, en lugar de basarse en 10, se basaba en el número 20, quizá por los veinte dedos de manos y pies.

Sin embargo, hay indicios de que los mayas, aunque lo aprovecharon y difundieron, no fueron los originadores del cero en Mesoamérica. Probablemente lo recibieron de la cultura ancestral de los olmecas, desarrollada entre el 1400 y el 400 antes de nuestra era. Los olmecas fueron, de hecho, los fundadores de todas las culturas mesoamericanas posteriores (incluidas la azteca o mexica y la maya, entre otras), aunque por desgracia no contaban con escritura, por lo que siguen siendo en muchos aspectos un misterio.

El otro gran logro maya fue la utilización del sistema posicional, donde el valor de los números cambia de acuerdo a su posición. El punto que representa uno en el primer nivel, se interpreta como veinte en el segundo nivel y como 400 en el tercero, como nuestro “1” puede indicar 10, 100 o 1000.

Los números mayas se escribían con puntos y rayas. Cada punto era una unidad, y cada raya representaba cinco unidades. Así, los números 1, 2, 3 y 4 se representaban con uno, dos, tres y cuatro puntos, mientras que el cinco era una raya. Cuatro puntos adicionales sobre la raya indicaban 6, 7, 8 y 9, y el diez eran dos rayas una sobre la otra. Así se podía escribir hasta el número 19: tres rayas de cinco unidades cada una y cuatro puntos unitarios. Al llegar allí, se debía pasar a la casilla superior, del mismo modo que al llegar a 9 nosotros pasamos al dígito de la izquierda. El número 20 se escribía con un punto en la casilla superior (que en esa posición valía 20 unidades) y un cero en la inferior.

El sistema funcionaba para cifras de cualquier longitud y permitía realizar cálculos complejos con relativa facilidad si los comparamos con los mismos cálculos utilizando números romanos.

El desarrollo de las matemáticas entre los mayas se relacionó estrechamente con su pasión astronómica, producto a su vez de la cosmovisión religiosa de su cultura. Su atenta y minuciosa observación y registro de los diversos acontecimientos de los cielos llevó a los mayas a tener cuando menos 17 calendarios distintos referidos a distintos ciclos celestes, como los de Orión, o los planetas Mercurio, Venus, Marte Júpiter y Saturno, que se interrelacionaban matemáticamente.

Pero los dos calendarios fundamentales de los mayas eran el Tzolk’in y el Haab.

El calendario sagrado, el Tzolk’in se basa en el ciclo de las Pléyades, de 26000 años, generando un año de 260 días dividido en cuatro estaciones de 65 días cada una. Cabe señalar que las Pléyades, grupo de siete estrellas de la constelación de Tauro, atrajeron la atención de numerosos pueblos, como los maorís, los aborígenes australianos, los persas, los aztecas, los sioux y los cheroqui. A los recién nacidos se les daba su nombre a partir de cálculos matemáticos basados en un patrón de 52 días en este calendario.

El Haab, por su parte, era civil y se utilizaba para normar la vida cotidiana. Su base es el ciclo de la Tierra y ha sido uno de los motivos de admiración del mundo occidental, pues resultaba altamente preciso con 365,242129 días, mucho más preciso que el Gregoriano que se utiliza en la actualidad. Nosotros tenemos que hacer un ajuste de un día cada 4 años (con algunas excepciones matemáticamente definidas), mientras que los mayas sólo tenían que hacer una corrección cada 52 años.

La interacción matemática de los años de 260 y 365 días formaba la “rueda calendárica”. Los pueblos mesoamericanos se esforzaban por hacer calendarios no repetitivos, donde cada día estuviera identificado y diferenciado. Esto lo hacemos nosotros numerando los años, de modo que el 30 de marzo de 1919 no es igual al 30 de marzo de 2006. Los mayas no numeraban los años, y cada día se identificaba por su posición en ambos calendarios, el sagrado y el civil, de modo que un día concreto no se repetía sino cada 18.980 días o 52 años.

Los mayas usaban también la llamada “cuenta larga”, un calendario no repetitivo de más de 5 mil años que señalaba distintas eras. La era actual comenzó el 12 ó 13 de agosto del 3114 antes de nuestra era y terminará alrededor del 21 de diciembre de 2012. Esta cuenta larga utiliza varios grupos de tiempo: kin (día), uinal (mes de 20 kines), tun (año de 18 uinales, 360 días), katún (20 tunes o 7200 días) y baktún (20 katunes o 144.000 días).

Cada fecha se identifica con cinco cifras, una por cada grupo de tiempo. La fecha 8.14.3.1.12 que aparece en la placa de Leyden, por ejemplo, indica el paso de 8 baktunes, 14 katunes, 3 tunes, 1 uinal y 12 días desde el comienzo de la era. Convertidos todos dan 1.253.912 días, que divididos entre los 365,242 días del año nos dan 3.433,1 años, que restados de la fecha de inicio de la era nos da el año 320 de nuestra era.

Esta proeza matemática, por cierto, ha sido malinterpretada por grupos de nuevas religiones. Dado que esta era maya termina hacia el 21 de diciembre de 2012, se ha hablado de una inexistente “profecía maya” que señala ese día como el fin del mundo. Ninguna estela, códice o resto maya indican tal cosa. Sólo señalan que matemáticamente ese día termina una era, y al día siguiente, como ha pasado al menos cinco veces en el pasado según creían los mayas (en cinco eras), comenzará una nueva era. Como el 1º de enero comienza otro año para nosotros y el mundo no se acaba el 31 de diciembre.

El trabajo detrás de la precisión

El calendario lunar maya, Tun’Uc, tenía meses de cuatro semanas de 7 días, una por cada fase lunar. Los mayas calcularon el ciclo lunar en 29,5308 días, contra los 29,5306 calculados hoy, una diferencia de sólo 24 segundos. Para conseguir este cálculo, los mayas usaron sus matemáticas además de una aproximación científica. Al contar sólo con sistemas de observación directos, los astrónomos mayas registraron minuciosamente 405 ciclos lunares durante 11.960 días, más de 30 años de observaciones que, tratadas matemáticamente, permitieron la precisión que aún hoy nos asombra.

¿Qué vemos cuando vemos los colores?

Descomposición de la luz con un prisma
(D.P. via Wikimedia Commons)
Los seres vivos vemos los colores de formas muy distintas. Es un código que cada especie descifra de acuerdo a sus necesidades de supervivencia.

Dentro del amplio espectro de radiación electromagnética, cuyas longitudes de onda van desde las frecuencias muy bajas hasta las altísimas frecuencias de los peligrosos rayos gamma, llamamos “luz visible” a un segmento muy pequeño de ondas de una longitud más o menos entre 380 y 760 nanómetros (un nanómetro es una milmillonésima de metro). Por debajo de los 380 nm está la radiación infrarroja y, por encima de los 760 nanómetros, los rayos ultravioleta.

Una pregunta razonable desde el punto de vista de la biología evolutiva es por qué vemos este intervalo de radiación no las radiaciones más o menos potentes. Un posible motivo es que estas radiaciones son precisamente las que pueden pasar por nuestra atmósfera casi sin verse atenuadas o alteradas, a diferencia de los rayos ultravioleta (filtrados por las nubes) y los infrarrojos.

Pero lo que nosotros vemos no es la única forma de ver.

Experimentos de elegante diseño han explorado qué tipos de radiación ven distintas especies. No sólo tenemos a depredadores nocturnos (incluido nuestro compañero frecuente, el gato) que pueden percibir intensidades de luz muy inferiores a las de nuestros ojos, sino ejemplos como el de las abejas, muchas aves y peces, que pueden “ver” la radiación ultravioleta. De hecho, cuando utilizamos sensores de ultravioleta para ver las flores de las que se suelen alimentar las abejas, observamos patrones que parecen indicar el centro de la flor. Aves, peces e insectos parecen tener los “mejores” sistemas visuales del reino animal.

En el otro extremo del espectro visible, muchos reptiles tienen fosas térmicas que les permiten percibir, o “ver” dentro del rango infrarrojo. En el caso de muchos mamíferos que dependen para su supervivencia más del olfato que de la vista, al parecer no pueden discriminar muchos colores. Animales como el toro parecen ver en blanco y negro, de modo que el color de la capa para citarlo es irrelevante, mientras que los perros al parecer ven en dos colores, con una sensibilidad similar a la de los humanos ciegos al rojo y verde (daltónicos).

Sin embargo, aunque nuestros experimentos nos pueden enseñaren cierta meedida qué ven o distinguen los animales, no pueden decirnos cómo lo ven. Porque la luz en sí no tiene información del color.

No hay nada que indique que la luz de unos 475 nm sea “azul”, o que la luz de 650 nm sea “roja”. No hay una correspondencia precisa entre el impulso y la interpretación que hace nuestro cerebro de ella. La presión de la evolución ha hecho que nuestro sistema nervioso “codifique” la luz visible creando las sensaciones del arcoiris para facilitarnos la percepción cuando dos colores tienen el mismo brillo. Esto es claro en la fotografía y el cine en blanco y negro donde, por ejemplo, el rojo y el verde del mismo brillo dan como resultado el mismo tono de gris.

El color es, ante todo, subjetivo, una experiencia, una ilusión perceptual.

Historia e investigación

El hombre se ha interesado siempre por el color. Llenó de simbolismo y contenido las sensaciones del color, tiñéndolos, valga la metáfora, con sus percepciones culturales. Por ejemplo, el negro, color regio del cielo y la tierra en la antigua China, es símbolo de duelo en occidente ya desde el antiguo Egipto.

Los primeros intentos por entender el color en occidente se remontan a la antigua Grecia, donde primero Empédocles y luego Platón pensaron que el ojo emitía luz para permitir la visión. Aristóteles, por su parte, propuso que el color se basaba más bien en la interacción del brillo de los objetos y la luz ambiente.

Sin embargo, la comprensión del color hubo de esperar a la llegada de Isaac Newton y su demostración de que la luz blanca del sol es en realidad una mezcla de todas las frecuencias o longitudes de onda de la luz visible. Con una intuición magnífica, Newton concluyó que el color es una propiedad del ojo y no de los objetos.

Sobre las bases de Newton, en el siglo XIX Thomas Young propuso que con sólo tres receptores en el ojo podríamos percibir todos los colores, teoría “tricromática” que sólo se confirmaría con experimentos fisiológicos detallados realizados en la década de 1960.

En nuestras retinas hay tres tipos de células de las llamadas “conos”, sensibles especialmente a uno de los colores aditivos primarios: el rojo, el verde o el azul, según el pigmento que contienen. La mayor o menor estimulación de cada uno de estos tipos de cono determina nuestra capacidad de ver todos los colores, incluidos aquéllos que no están en el arcoiris como el rosado o el magenta.

La visión tricromática es característica de los primates, y se cree que se desarrolló conforme los ancestros de todos los primates actuales hicieron la transición de la actividad nocturna a la diurna. Los animales nocturnos no necesitan visión de color, y sí una gran sensibilidad a la luz poco intensa. Pero a la luz del día, las necesidades cambian para detectar tanto fuentes de alimento como a posibles depredadores.

¿Cómo llega a nuestros ojos una longitud de onda que nuestro sistema nervioso interpreta como color? Así como decimos que el color no está en la luz, tampoco está en los objetos. De hecho, ocurre todo lo contrario. Una manzana nos parece roja porque su superficie absorbe todas las longitudes de onda de la luz visible excepto las del rojo, las cuales son reflejadas y por tanto percibidas por nuestros ojos.

El principio de la tricromía de nuestra percepción es aprovechado a la inversa en dispositivos como nuestros televisores y monitores, que tienen partículas fosforescentes rojas, verdes y azules. La mayor o menor intensidad de iluminación de cada uno de éstos nos permite ver todos los colores. Así, los colores en informática se definen por valores RGB, siglas en inglés de rojo (Red), verde (Green) y azul (Blue). Esto lo podemos ver fácilmente con una lupa aplicada a nuestro monitor, la magia doble de una sensación absolutamente subjetiva, la experiencia del color

El color relativo

Nuestros ojos pueden adaptarse rápidamente a las cambiantes condiciones de luz. Verán una hoja de papel de color blanco así esté bajo tubos de luz neón (que son en realidad de color verdoso), bombillas incandescentes tradicionales (cuya luz es realmente rojizo-anaranjada) o bajo la luz blanca del sol de mediodía. Nuestros sentidos no funcionan absolutamente, sino que hacen continuamente comparaciones relativas para hacer adaptaciones. Las cámaras fotográficas y de vídeo no pueden hacer esto y por ello tienen un “balance de blancos” con el que establecemos qué es “blanco” en nuestras condiciones de luz para que los aparatos interpreten los demás colores a partir de ello.

El misterio de los aromas

El aroma del café
(foto ©Mauricio-José Schwarz)
Los aromas nos hablan en uno de los idiomas más antiguos de la historia de la vida, con uno de los sentidos más intensos que tenemos, y al que le prestamos atención insuficiente.

Todos conocemos la experiencia. Un aroma dispara una cadena de recuerdos altamente emocionales, profundos y nítidos, como si con sólo un olor recreáramos todo lo que lo rodeó alguna vez. La experiencia es notable porque, como han descubierto estudios de la Universidad de Estocolmo, los aromas suelen evocarnos sobre todo memorias de la infancia, de la primera década de vida, pero al mismo tiempo las memorias que nos provoca son especialmente intensas.

La intensidad de las memorias evocadas por los olores ha sido objeto incluso de estudios por imágenes de resonancia magnética. En 2004, un grupo de la Universidad de Brown demostró que las memorias evocadas por aromas activaban de modo especial la zona del cerebro conocida como la amígdala, estructura situada profundamente en los lóbulos temporales del cerebro y que se ocupa de procesar y recordar de las reacciones emocionales.

Una de las razones propuestas para la profundidad de las emociones que nos evocan los olores es, precisamente, que su percepción y procesamiento están entre los componentes más antiguos de nuestro cerebro, estrechamente vinculados a nuestros centros emocionales.

En el cerebro, la zona más externa, la corteza cerebral, dedicada a las capacidades intelectuales y racionales, es el área evolutivamente más reciente. Bajo ella está el cerebro mamífero antiguo, con las estructuras encargadas de las emociones, la memoria a largo plazo, la memoria espacial y las funciones autonómicas del ritmo cardiaco, la tensión arterial y el procesamiento de la atención, entre otras.

Finalmente, en el centro anatómico de nuestro cerebro, está el arquipalio o “cerebro reptil”, una serie de estructuras que los mamíferos compartimos con los reptiles, responsables de las emociones básicas y las respuestas de “luchar o huir” esenciales para la supervivencia.

El bulbo olfatorio, la estructura que percibe e interpreta los olores es de las partes más antiguas del cerebro, y está estrechamente asociado a las emociones más básicas: miedo, atracción sexual, furia, etc. Se encuentra en la parte superior de la cavidad nasal.

El olor es esencial para la supervivencia. Los seres humanos apenas apreciamos una mínima parte del universo olfatorio a nuestro alrededor. Los seis millones de células receptoras olfativas que tenemos en el bulbo olfatorio palidecen ante los 100 millones que tiene un pequeño conejo, o los 220 millones de receptores que tienen los perros.

Pero esa mínima parte es sensible. El imperfecto sentido del olfato humano puede detectar sustancias diluidas a concentraciones de menos de una parte por varios miles de millones de partes de aire. Hay aromas que nos atraen, estimulan la actividad sexual o el apetito, y los hay repelentes, que nos invitan a alejarnos, incluso a huir, informándonos así, por ejemplo, de si un alimento está en buenas o malas condiciones.

Aunque el hombre siempre fue consciente de la importancia de los aromas, inventando perfumes e inciensos, tratando de sazonar de modo atractivo sus alimentos, empezar a explicar cómo funciona este sentido tuvo que esperar hasta el siglo XX.

Esencialmente, la intuición del filósofo romano Lucrecio, del siglo I antes de la era común era correcta. Lucrecio proponía que las partículas aromáticas tenían formas distintas y nuestro sentido del olfato reconocía dichas formas y las interpretaba como olores. La doctora Linda B. Buck publicó en 1991 un artículo sobre la clonación de receptores olfativos que le permitió determinar que cada neurona receptora es sensible sólo a una clase de moléculas aromáticas, funcionando como un sistema de llave y cerradura. Sólo se activa cuando está presente una sustancia química que se ajuste a la neurona. La forma precisa en que los impulsos se perciben, codifican e interpretan es, sin embargo, uno de los grandes misterios que las neurociencias todavía están luchando por desentrañar.

Analizando la genética detrás de nuestro olfato, la doctora Buck pudo determinar que los mamíferos tenemos alrededor de mil genes distintos que expresan la recepción olfativa, y la especie de mamíferos con la menor cantidad de genes activos de este tipo somos, precisamente, nosotros.

Estos genes, sin embargo, son responsables de dos sistemas olfativos que coexisten en la mayoría de los mamíferos.y reptiles. El sistema olfativo principal detecta sustancias volátiles que están suspendidas en el aire, mientras que el sistema olfativo accesorio, situado en el órgano vomeronasal, entre la boca y la nariz. Este sistema percibe entre otros aromas las feromonas, hormonas aromáticas de carácter social, además de ser utilizado por los reptiles para oler a sus presas, sacando la lengua y después tocando el órgano con ella.

Sin embargo, al parecer (aunque el debate está abierto) el ser humano no tiene un órgano vomeronasal identificable, lo que haría imposible la comunicación dentro de nuestra especie mediante feromonas.

Pero con o sin feromonas, nos comunicamos con otros aromas. Los bebés utilizan el sentido del olfato para identificar a sus madres y para econtrar el pezón cuando desean alimentarse. Y según varios estudios, las madres pueden identificar con gran precisión a sus bebés únicamente por medio del olor, como si fuera un mensaje atávico, o precisamente por serlo.

Entre los descubrimientos más interesantes de Rachel Herz, psicóloga y neurocientífica de la ya mencionada Universidad de Brown está el determinar que nuestros cambios emocionales alteran la forma en la que percibimos los distintos olores, al grado de haber conseguido en su laboratorio crear verdaderas “ilusiones olfatorias” utilizando palabras para llevar a sus sujetos a percibir olores que “no están allí”.

Omnipresente aunque a veces no estemos conscientes de él, nuestro sentido del olfato nos pone en contacto con nuestros más antiguos antepasados evolutivos y es una de las áreas que más respuestas nos debe en el curioso sistema nervioso humano que apenas estamos descubriendo.

El sabor es olor

La lengua sólo puede detectar los sabores básicos: amargo, salado, ácido, dulce y umami, además de sensaciones como la de la grasa, la resequedad, la cualidad metálica, el picor, la frescura, etc. La mayor parte de lo que llamamos “sabor” es en realidad un conjunto de aromas que se transmiten a los bulbos olfativos por detrás del velo del paladar. Por eso hablamos de “paladear” un alimento, cuando lo movemos cerca del velo para que su aroma suba hasta nuestro sistema olfativo. Este hecho explica por qué no percibimos el sabor de los alimentos cuando tenemos la nariz tapada: perdemos toda la riqueza de nuestro olfato.

Nicola Tesla, creador de luz, habitante de la oscuridad

Nicola Tesla en la portada de Time, 20 de julio de 1931.
(D.P. via Wikimedia Commons)
El creador de la corriente alterna que hoy acciona nuestros dispositivos eléctricos fue uno de los grandes innovadores de la tecnología, y también un entusiasta proponente de ideas descabelladas que nunca pudo probar.

Nicola (Nikla) Tesla nació en la aldea de Smiljan, en la actual Croacia, entonces parte del imperio Austrohúngaro, el 10 de julio de 1856. Deseoso de estudiar física y matemáticas, estudió en el Politécnico Austriaco en Graz y en la Universidad de Praga. Pero pronto el alumno Nicola decidió adoptar una carrera de reciente creación: la de ingeniero eléctrico, aunque nunca obtuvo un título universitario.

Su primer trabajo en 1881 fue en una compañía telefónica de Budapest. Allí, durante un paseo, Tesla resolvió de súbito el problema de los campos magnéticos giratorios. El diagrama que hizo en la tierra con una varita era el principio del motor de inducción, en el que la inducción magnética generada con electroimanes fijos provoca que gire el rotor. El motor de inducción de Tesla sería eventualmente el detonador de la segunda revolución industrial a fines del siglo XIX y principios del XX.

Ya entonces se habían hecho evidentes algunas peculiaridades del pensamiento de Tesla. Por una parte, era capaz de memorizar libros enteros, y al parecer tenía memoria eidética. Al mismo tiempo, tenía ataques en los cuales sufría alucinaciones, y podía diseñar complejos mecanismos tridimensionales sólo en su cabeza.

En 1882 se empleó en París en la Continental Edison Company del genio estadounidense Tomás Alva Edison (1847-1931). Allí construyó, con sus propios medios, su primer motor de inducción, y lo probó con éxito aunque ante el desinterés general. Dos años después, aceptó una oferta del propio Edison para ir a Nueva York a trabajar con él.

Pronto, sin embargo, se enfrentaron. Tesla creía en la corriente alterna como la mejor forma de distribuir la electricidad, pero Edison defendía la corriente continua, ya comercialmente desarrollada, aunque sólo podía transportarse por cable a lo largo de tres kilómetros antes de necesitar una subestación.

La corriente alterna de Tesla que usamos hoy en día se transmite en una dirección y luego en la contraria cambiando 50 o 60 veces por segundo. Si en vez de dos cables se tienen tres o más, se puede transmitir corriente en varias fases. La corriente trifásica es hoy en día la más común en aplicaciones industriales. Y esa forma de distribución polifásica de la electricidad fue también uno de los desarrollos de Tesla.

Separado de Edison, Tesla formó su propia compañía, pero sus inversores lo destituyeron, y tuvo que trabajar en labores manuales durante dos años hasta que construyó su nuevo motor de inducción y diseñó la “bobina de Tesla”, un tipo de transformador que genera corriente alterna de alto voltaje y baja potencia. Su sistema de corriente alterna fue adquirido por George Westinghouse, el gran rival de Edison.

Tesla se ocupó entonces en otros proyectos. Diseñó la primera planta hidroeléctrica en 1895 en las cataratas del Niágara, logro que le atrajo la atención y el respeto mundiales. El brillante ingeniero descubrió también la iluminación fluorescente, las comunicaciones inalámbricas, la transmisión inalámbrica de energía eléctrica, el control remoto, elementos de la robótica, innovadoras turbinas y aviones de despegue vertical, además de ser, ya sin duda, el padre de la radio y de los modermos sistemas de transmisión eléctrica, y uno de los pioneros de los rayos X.

En total, Nicola Tesla registró unas 800 patentes en todo el mundo. Y más allá de los inventos eléctricos, diseñó diversos dispositivos mecánicos y se permitió especular con la energía solar, la del mar y los satélites.

Una de las más interesantes propuestas de Tesla fue la transmisión inalámbrica de electricidad, idea iniciada por Heinrich Rudolph Hertz. Tesla la demostró en 1893 encendiendo una lámpara fosforescente a distancia. A partir de entonces, numerosos inventores e inversores han buscado una forma segura y barata de transmitir electricidad sin cables, incluyendo un grupo dedicado del famoso MIT.

Al paso de los años, sin embargo, y sin disminuir las aportaciones que hizo a la ciencia y la tecnología, Tesla empezó a realizar afirmaciones extrañas y sin el apoyo de las demostraciones públicas y prácticas que habían cimentado su fama.

Así, en 1900 Tesla aseguró que podía curar la tuberculosis con electricidad oscilante, en 1909 aseguró que podía construir motores eléctricos que impulsaran transatlánticos a una velocidad de 50 nudos (90 kilómetros por hora), en 1911 prometía dirigibles sin hélice a prueba de tormentas, en 1931 declaró que haría innecesarios todos los combustibles aprovechando cierta energía cósmica, en 1934 anunció otro invento que nadie vio jamás: el rayo de la muerte y en 1937 aseguró que había desarrollado una teoría dinámica de la gravedad que contradecía la relatividad de Einstein.

Probablemente algunas de estas ideas tenían como base una especulación científica razonable y libre, pero ciertamente no eran inventos como los que le dieron fama. Al parecer, alrededor de 1910 Tesla empezó a presentar síntomas pronunciados de un desorden obsesivo compulsivo que sin embargo no le impidió seguir trabajando. Así, en 1917 hizo los primeros cálculos de de frecuencia y potencia para las primeras unidades de radar.

Tesla murió solo y sin dinero en el Hotel New Yorker el 7 de enero de 1943. Su legado científico fue confiscado temporalmente por el gobierno estadounidense, temeroso de que sus notas contuvieran elementos de importancia militar. Hoy están en el Museo Nicola Tesla. Sin embargo, este hecho junto con lo apasionante de sus afirmaciones especulativas, le volvieron atractivo para el mundo de lo misterioso y lo paranormal. Esto, quizá, influyó para que Tesla cayera en un injusto olvido pese a ser uno de los científicos más importantes e influyentes de la historia.

Ejecuciones por electricidad

Cuando se planteó la posibilidad de utilizar la electrocución como medio de ejecución sustituyendo al ahorcamiento, Nueva York contrató a dos ingenieros que eran empleados de Tomás Alva Edison. Para promover la corriente continua y demostrar que la alterna era peligrosa, Edison influyó para que sus empleados diseñaran la silla eléctrica empleando la corriente alterna de Tesla. Incluso, pese a considerarse un opositor a la pena de muerte, Edison promovió exhibiciones públicas en las que se mataba a animales con corriente alterna. En 1890 se llevó a cabo la primera ejecución con la silla eléctrica, un espectáculo atroz que sometió a la víctima a una tortura de más de ocho minutos. Y ni aún así logró Edison impedir el triunfo de la idea, mucho mejor, de Nikola Tesla que hoy abastece de electricidad al mundo.

Visión estereoscópica: de la cacería al cine en 3D

La vida transcurre en tres dimensiones, y la visión estereoscópica es fundamental para nuestra especie. Pero representar las tres dimensiones es otra historia.

Daguerrotipo estereoscópico  de Auguste Belloc,
de mediados del siglo XIX.
(D.P. vía Wikimedia Commons)
Apreciamos el mundo en tres dimensiones. Esto, que parece tan natural, tiene un origen y unas consecuencias sumamente complejas.

La visión estereoscópica o binocular es el resultado de un delicado mecanismo cerebral que toma los datos que mandan los dos ojos, que ven lo mismo desde ángulos ligeramente distintos. El cerebro, en la zona dedicada a la visión, la llamada corteza visual situada en la zona occipital, compara estas dos visiones, nota las similitudes, analiza las pequeñas diferencias entre ambas, las fusiona y realiza la interpretación de la profundidad.

No todos los animales tienen visión estereoscópica, pues ésta responde, como todas las demás características de los seres vivos, de la presión de selección. Para un conejo, por ejemplo, y para los animales cuyo papel es el de presas, es importante tener una visión lo más amplia posible para detectar a los posibles depredadores. Estos animales tienen los ojos a ambos lados de la cabeza y la visión de los dos casi no se superpone.

Sin embargo, los depredadores suelen tener visión estereoscópica para identificar a la presa, perseguirla y dar el golpe final con la máxima precisión posible. Búhos, águilas, tigres, lobos, tienen ambos ojos al frente, y una corteza visual de altísima precisión para aumentar sus posibilidades de éxito en la cacería.

La visión estereoscópica o en tres dimensiones nos parece tan natural que no solemos darle su justo valor. Un experimento interesante para comprender cuán importante es esta capacidad de nuestro sistema de percepciones es el de pasar un tiempo con un ojo vendado. Al hacerlo, descubrimos que muchas de las actividades cotidianas se vuelven difíciles o imposibles.

La visión estereoscópica nos permite calcular la distancia a la que está un objeto que deseamos levantar, enhebrar una aguja, verter líquido en un recipiente y subir y bajar peldaños, entre otras cosas. Conducir con un solo ojo se vuelve una tarea incluso peligrosa para alguien habituado a usar los dos ojos.

Por esto mismo, algunas actividades humanas serían imposibles si no apreciáramos las tres dimensiones, entre ellas los deportes como el fútbol que requieren una apreciación rápida y exacta de la velocidad y la dirección de una pelota y de los demás jugadores, o profesiones que van desde la de cirujano hasta la de camarero.

No es extraño pues que el hombre siempre haya querido representar artísticamente el mundo en tres dimensiones. La escultura en sus muy diversas formas es, finalmente, una representación así. Pero la pintura, la fotografía y el cine han intentado también utilizar diversos trucos para crear la ilusión de 3D.

Los estereogramas crean la ilusión de tres dimensiones a partir de dos imágenes bidimensionales. En fotografía, estas imágenes se obtienen utilizando cámaras fotográficas dobles, en las que los objetivos tienen la misma separación entre sí que los ojos humanos. Utilizando un visor que hace que cada ojo vea sólo una de las imágenes, se obtiene la ilusión de 3D. También se han creado pinturas y dibujos que utilizan el mismo principio.

En blanco y negro, esa ilusión se puede obtener también colocando en el mismo plano las dos imágenes, una en rojo y la otra en verde, y dotando al espectador de unas gafas que tengan filtros también rojo y verde. El ojo con el filtro rojo verá en color negro la imagen en verde y no verá la imagen en rojo, mientras que con el verde ocurrirá lo contrario, de modo que, de nuevo, cada ojo percibe sólo una de dos imágenes ligeramente distintas. Este sistema se conoce como anaglifo.

Los intentos de conseguir la ilusión de 3D en el cine datan de 1890, con procedimientos diversos para conseguir que cada ojo viera sólo una de dos imágenes estereoscópicas. En 1915, por ejemplo, se usó un anaglifo rojo y verde para proyectar películas 3D de prueba, y entre 1952 y 1955 se realizaron varias cintas de 3D en color que utilizaban polarizadores tanto en el proyector como en las gafas del público para separar las imágenes destinadas a cada ojo. Pero el sistema era propenso a errores, y la sincronización de los dos proyectores necesarios se alteraba fácilmente, de modo que se abandonó hasta su rescate por el sistema IMAX en la década de 1980.

El renacimiento del cine en 3D comenzó en 2003 gracias a la utilización de un nuevo sistema de cámaras de vídeo de alta definición en lugar de película y una mayor precisión matemática en la diferenciación de las imágenes. Este sistema de 3D proyecta las dos imágenes sucesivamente pero empleando un solo proyector. El cine normal en dos dimensiones se hace a 24 cuadros por segundo, y el moderno cine en 3D utiliza desde 48 cuadros por segundo, alternando los del ojo/objetivo izquierdo y derecho, hasta 144 cuadros por segundo, 72 para cada ojo.

Las gafas de 3D que llevamos cuando vamos a ver una película en 3D están hechas de cristal líquido. Controlados por infrarrojos, los cristales de estas gafas se oscurecen alternadamente, de modo que cada ojo sólo ve los cuadros correspondientes a su imagen. Si uno obstruye la entrada de infrarrojos con el dedo en el puente de la nariz, entre ambos cristales, dejan de reaccionar y vemos las dos imágenes a la vez, lo que no es nada agradable de ver.

Este sistema se empieza a utilizar también en monitores de vídeo que pueden hacer realidad la soñada televisión en 3D, aunque para los verdaderos conocedores de las imágenes en tres dimensiones, es preferible el sistema de la realidad virtual, que utiliza cascos o grandes gafas con dos diminutas pantallas de vídeo, cada una ante un ojo, con las imágenes correspondientes.

Los avances que han permitido que el cine en 3D sea comercialmente viable son, sin embargo, insuficientes. La ciencia y la industria siguen esperando la solución perfecta para crear ilusiones que simulen efectivamente la realidad tal como la vemos.

Los hologramas

El uso de dos imágenes en dos dimensiones para dar la ilusión de tres no consigue sin embargo que lo que vemos se comporte como la realidad. En el cine en 3D no podemos dar la vuelta a un árbol para ver qué hay detrás. Pero esto sí es posible mediante la holografía, una forma de registro de imágenes que emplea un láser que se separa en dos haces para registrar los objetos en su totalidad (de allí el uso de la raíz “holos”, que significa la totalidad). Por desgracia, después de un prometedor inicio en la década de 1970 que incluyó una exposición de hologramas de Dalí en 1972, no se consiguió un desarrollo adecuado, y la holografía se orientó más a la seguridad y el almacenamiento de datos, quedando apenas un puñado de creadores de hologramas artísticos.