Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El doctor Lorenz y el rey Salomón

Fascinado por los animales y su comportamiento desde su niñez, Konrad Lorenz se dedicó a estudiarlos hasta convertirse en el último de los naturalistas al estilo antiguo y uno de los primeros en obtener el Premio Nobel por estudiar la conducta científicamente.

Fue, para muchos la imagen de esa nueva ciencia llamada “etología”, la figura de un robusto profesor austríaco, de barba y cabello blancos, que fumaba pipa mientras iba de su casa al lago seguido por una tropa de gansos que creían que ese caballero era, ni más ni menos, su madre. Konrad Lorenz apareció fotografiado así en revistas, libros y documentales que hablaban de importantes descubrimientos en la conducta, de los cuales los gansos que lo seguían parpando estridentemente eran parte fundamental.

La etología, de las raíces griegas “ethos”, carácter o costumbre, y “logos”, estudio, es la rama de la zoología que estudia científicamente el comportamiento animal, sobre todo manteniendo presentes la vida de los animales en la naturaleza y aspectos como la evolución, la genética, la fisiología y la anatomía. Nació como especialidad de la biología alrededor de la década de 1960, cuando diversos biólogos se aproximaron al estudio de la conducta animal dotados de herramientas muy distintas a las de los psicólogos tradicionales y de los por entonces dominantes psicólogos “conductistas” y de la psicología comparativa. Mientras los psicólogos estudiaban la conducta animal a la luz de lo que sabemos del comportamiento humano, la etología trabajaba con la anatomía, fisiología, neurobiología e historial filogenético de los organismos. Ambas disciplinas se acercan más, sin duda, conforme pasa el tiempo.

El que Konrad Lorenz fuera uno de los fundadores de esta disciplina en su forma actual no es extraño. Nacido en 1903 en Viena, desde muy niño mostró un amor extraordinario por los animales, y siempre agradeció que sus padres le toleraran cualquier cantidad y variedad de mascotas, y no sólo animales domésticos, sino diversos volátiles más o menos salvajes. Empezó estudiando medicina, se especializó en biología y empezó a dar clases de psicología en la Universidad de Königsberg. En 1936 conoció al biólogo holandés Nikolaas Tinbergen, el otro fundador de la etología, y juntos empezaron a estudiar, entre otros animales, a los gansos salvajes, comparándolos con los domésticos y observando que los impulsos de alimentación y cópula eran mucho mayores en los animales domésticos, mientras que se reducía la expresión de sus instintos sociales más diferenciados.

La brillante carrera científica de Lorenz se vio interrumpida cuando en 1941 fue enlistado en la Wehrmacht, el ejército regular alemán, como médico. Prisionero de guerra de los soviéticos de 1942 a 1948, consiguió seguir trabajando como médico y desarrollar una buena relación con sus captores, que al liberarlo le permitieron conservar el manuscrito de lo que sería su libro Detrás del espejo. Una de las principales ideas que desarrolló Lorenz y fue demostrada por él y otros investigadores, fue la de que ciertos comportamientos instintivos, es decir, patrones fijos no aprendidos y dependientes únicamente de la herencia de los animales, tienen igualmente mecanismos innatos de desencadenamiento o disparo. Esta idea se explica claramente al ver a un gato doméstico adulto jugar con un ratón de juguete o una bola de estambre.

El gato, genéticamente dispuesto para cazar, ya no necesita la cacería para satisfacer el hambre. La cacería es serie de patrones de conducta instintivos que es disparada por el hambre y la presencia de la presa previamente buscada. Si no hay hambre ni presas, el umbral de los estímulos necesarios para desencadenar la conducta de cazar va bajando hasta que un estímulo que apenas comparte características con el estímulo desencadenante original (como una bola de estambre que se mueve evocando una presa, aunque no lo parezca) basta para disparar o desencadenar la conducta. Lo que podemos interpretar como un simple juego es una liberación de tensión acumulada por la predisposición innata del organismo a un comportamiento determinado.

La carrera de Konrad Lorenz no se limitó a los espacios de la academia, sino que buscó dirigirse a un público más extenso en algunos de sus libros como El anillo del rey Salomón (1959), donde con un estilo agradable y cautivador relata sus experiencias divertidas con numerosos animales y las observaciones científicas que se derivaban de ellas, hasta darle al autor la capacidad de comunicarse con los animales como el rey Salomón con su legendario anillo. Otras obras populares fueron su libro sobre las relaciones entre el hombre y el perro y Sobre la agresión, el pretendido mal, un libro ampliamente mal comprendido y a veces atacado por el solo título. Este libro, muy vendido en la década de 1970 en todo el mundo, explicaba las raíces evolutivas de la agresión y, sobre todo, analizaba el asombroso hecho de que, con excepción de los seres humanos, los animales tienden a solventar sus enfrentamientos con otros de la misma especie sin llegar a la muerte de ninguno de los dos, algo que indica que nuestros instintos se han visto reprimidos o superados por fenómenos culturales y tecnológicos que van mucho más rápido que la selección natural darwinista.

Konrad Lorenz ganó el Premio Nobel de Medicina y Fisiología en 1973 de modo conjunto con Niko Tinbergen, quien desarrolló y demostró la idea de que la conducta, como los órganos, evoluciona para adaptar a los organismos (y en última instancia a las especies) a su medio ambiente, y el etólogo austríaco Karl Von Frisch, quien estudió las feromonas y desentrañó el significado de la “danza de las abejas” que comunica a la colmena la ubicación y distancia a la cual se puede encontrar una fuente de alimentación.

La popularidad que le dio el premio fue utilizada intensamente por Lorenz para escribir y hablar sobre filosofía y sobre temas que le preocuparon hasta el fin de su vida, como la protección del medio ambiente (fue en sus últimos años miembro de un partido “verde” originario) y el peligro de la autoaniquilación humana en una guerra nuclear. Murió en 1989. Parte esencial de su legado son los tres institutos que llevan su nombre en Austria, centros de estudio de la conducta.

La impronta


Lorenz descubrió que algunas aves “saben” al nacer cómo es su especie, y tienen la predisposición de considerar “su madre” cualquier cosa o ser que se mueva cerca durante un tiempo determinado, quedando “improntados” o “troquelados” con ese reconocimiento de especie. En condiciones naturales, lo único que se moverá cerca del polluelo es su madre, de modo que el sistema funciona en general. De allí todos los dibujos animados donde diversos polluelos “creen” que diversas cosas o seres son “mamá”.

Lejos del fin del Alzheimer

Una de las afecciones más crueles que padecen los seres humanos, le roba a su víctima la personalidad, la autoidentidad y lo que le da sustancia a su vida: sus memorias. La lucha contra el síndrome o mal de Alzheimer representa una promesa para millones hoy y en el futuro.

En 1901, el doctor Aloysius Alzheimer, conocido familiarmente como “Alois”, trabajaba en el asilo para enfermos mentales de Frankfurt cuando conoció a una paciente a la que llamó “Auguste Deter”, de 51 años de edad, y quien mostraba una serie de síntomas conductuales peculiares. El doctor Alzheimer no tenía elementos para diagnosticar el mal de la señora Deter, pese a su educación com,o psiquiatra y neuropatólogo en las universidades de Aschaffenburg, Tübingen, Berlin y Wurzburg.

Alzheimer prácticamente se obsesionó con la paciente, según sus biógrafos, observándola atentamente durante los años siguientes y denominando su afección “demencia presenil”. Cuando la señora Deter falleció finalmente en 1906, Alzheimer hizo que el expediente fuera enviado junto con el cerebro a Munich, al laboratorio del reconocido psiquiatra Emil Kraepelin, descubridor de la esquizofrenia y lo que hoy conocemos como “trastorno bipolar”, y propugnador de la teoría de que detrás de todo desorden psiquiátrico hay una patología biológica. Allí, con otros neurocientíficos, entre ellos el propio Kraepelin, se identificaron dos características físicas relacionadas con los problemas de conducta: las placas amiloides en el cerebro, depósitos de compuestos de almidón, y los que llamó “ovillos neurofibrilares”, acumulaciones patológicas de proteínas que se encuentran dentro de algunas neuronas.

En un discurso que pronunció el 3 de noviembre de 1906, presentó por primera vez unidos los síntomas clínicos y la neuropatología de la demencia presenil. Poco después, Kraepelin se refirió en una publicación a esa enfermedad dándole el nombre de su colega, y la afección quedó bautizada para siempre. Alois Alzheimer Murió a los 51 años de complicaciones e infecciones a resultas de una caída de un tren.

La enfermedad que ha inmortalizado a este médico es la forma más común de demencia, es decir, de la degradación de las funciones cognitivas, entre ellas la memoria, la atención, el idioma y la resolución de problemas. Se trata de una enfermedad degenerativa que avanza incesantemente, es, al menos hasta hoy, incurable, y eventualmente resulta fatal para el paciente. Pese a la relativa juventud de la paciente del doctor Alzheimer, esta afección se diagnostica habitualmente en personas mayores de 65 años. Evidentemente, en tiempos en que muy pocas personas llegaban a esta edad, la enfermedad era prácticamente desconocida. Pero el aumento en las expectativas de vida que ha ido produciendo sin cesar la medicina con bases científicas ha convertido a esta enfermedad en un problema no sólo de salud, sino también social.

La enfermedad comienza habitualmente (aunque esto no es una regla general) con pérdidas de memoria a corto plazo, y en su avance incluye confusión, irritabilidad, agresión, cambios de humor, disminución de las capacidades lingüísticas, pérdida de la memoria a largo plazo y la “retirada” del paciente de su vida, sus seres queridos, su mundo. Desafortunadamente, y a diferencia de otras afecciones, el Alzheimer no sigue un patrón definido, varía de persona a persona tanto en sus manifestaciones clínicas como en su duración, aunque la muerte suele sobrevenir en promedio siete años después del diagnóstico. En etapas avanzadas, sin embargo, la enfermedad se convierte habitualmente en una pesada carga para las personas que cuidan al paciente. La imprevisibilidad y los peligros a los que se enfrenta una persona que olvida su domicilio, o que no recuerda si dejó o no encendida la estufa, demandan una atención constante y desgastante en lo social, lo psicológico y lo económico.

Lo más desesperante y cruel es que, hasta hoy, no conocemos con precisión las causas de la enfermedad, si tienen o no bases genéticas (aunque hay datos que indican que los hijos de personas que llegan a padecer la enfermedad tienen tendencia a desarrollarla ellos mismos) y no sabemos todo acerca de su fisiología. En consecuencia, no existe ningún tratamiento efectivo ya no para curar, sino ni siquiera para ralentizar el avance del mal, o para paliar sus efectos, aunque algunos medicamentos ya aprobados que tienen resultados prometedores. En total, los Institutos Nacionales de la Salud de Estados Unidos informan que en este momento, y sólo en los Estados Unidos, se están llevando a cabo 522 pruebas clínicas de tratamientos orientados a atender a los más de 26 millones de pacientes de Alzheimer que viven hoy en día en todo el planeta.

La importancia social de la enfermedad no sólo la hace destinataria de grandes cantidades de esfuerzos e inversión económica y de talento para mejorar su diagnóstico y tratamiento, sino que también, y de modo ciertamente desafortunado, es objeto de continuos anuncios más o menos exagerados sobre tratamientos que podrian ser “milagrosos”, o relacionando con ella de modo caprichoso estudios poco relevantes, e incluso tratando de vender remedios milagrosos o de moda. Sin embargo, como el en caso de otras afecciones emocionalmente demandantes para los pacientes y sus familias, como el cáncer, muchos expertos consideran que los avances no serán espectaculares, sino lentos y modestos, y sólo serán útiles en su conjunto, como lo han sido los muchos y silenciosos avances sobre el cáncer.

Actualmente, los mejores medicamentos sustituyen algunos neurotransmisores que se pierden con la masiva muerte de neuronas característica del mal de Alzheimer, pero dejan de ser efectivos de seis a doce meses después de que empiezan a administrarse. Entre los nuevos medicamentos los hay que pretenden bloquear los procesos moleculares responsables de las placas amiloides y los ovillos neurofibrilares, suponiendo que éstos son la causa real de la muerte de neuronas, con resultados prometedores. También se trabaja en una vacuna que dispara las capacidades del cuerpo para evitar la formación de placas amiloides, con resultados prometedores hasta hoy... en ratones.

Factores de riesgo


La inactividad, la obesidad, la depresión, el alcohol, la falta de ejercicio físico o intelectual... la lista de factores que parecen aumentar el riesgo de sufrir Alzheimer incluye numerosos aspectos. Pero es en la genética donde parece haber datos más precisos. Los científicos han identificado un gen del cromosoma 19 que parece ser un importante factor de riesgo para el Alzheimer tardío. Otros candidatos son un gen del cromosoma 12 y otro del cromosoma 10. No existe pues, “el gen” del Alzheimer, lo que contribuye a la complejidad que nos presenta la enfermedad.

Representar al mundo en 3D

El sueño de crear la ilusión de tridimensionalidad ha recorrido un largo camino desde las primeras ilusiones estereoscópicas y, sin embargo, sigue siendo un concepto que sigue eludiendo nuestros esfuerzos.

Siempre hemos querido representar al mundo tridimensional más allá de la copia que significa la maqueta o la escultura. Conseguir la ilusión de realidad a partir de dos dimensiones fue el motor que llevó a maestros como Anaxágoras y Demócrito, en la antigua Grecia, a estudiar teorías geométricas de la perspectiva en las escenografías del teatro griego, con objeto de simular la profundidad. En la pintura, la perspectiva recibió su gran impulso de Filippo Bruneleschi, que demostró alrededor de 1415 el método geométrico usado hasta la actualidad por los artistas plásticos. Antes de él, la pintura usaba el tamaño relativo de personajes, edificios y objetos como forma de destacar su importancia histórica o espiritual, sin respetar la forma en que el ojo percibe la profundidad. A partir de entonces, el arte y la ciencia consolidaron su comprensión de la perspectiva.

Pero pronto se hizo evidente que el uso de la perspectiva tenía limitaciones, por cuanto representaba el mundo tridimensional desde un solo punto de vista, y un punto de vista, además, tuerto. ¿Por qué tuerto? Porque efectivamente la perspectiva geométrica del arte no tiene, ni puede tener en consideración, el paralaje, que es la base de la visión estereoscópica y, por tanto, de la forma en que nosotros vemos al mundo en 3 dimensiones.

El paralaje es una diferencia aparente de la orientación de un objeto a lo largo de dos líneas de visión distintas. Dado que nuestros ojos están en sitios ligeramente distintos, separados entre sí, nos muestran imágenes igualmente diferentes, sobre todo de los objetos que están relativamente cerca de nosotros, esto se llama estereopsis, palabra de etimología griega que significa literalmente “visión de la solidez” . La variación en las posiciones relativas de los objetos las que nos informan nuestros ojos es lo que genera en nuestro cerebro la sensación de profundidad y el conocimiento de la posición de los objetos en tres dimensiones o direcciones: alto, bajo y profundo.

La estereopsis no fue descrita sino hasta 1838 por el prolífico científico e inventor británico Charles Wheatstone, el primero que describió la visión binocular, lo que le ganó la Medalla real de la Real Sociedad británica. Siendo el primero en comprender cómo vemos la profundidad, fue también el primero en intentar simularla por medio de la presentación de imágenes distintas a cada ojo, inventando así el estereoscopio, que es la base de la gran mayoría de los intentos por producir la ilusión de 3 dimensiones o 3D. La ilusión del estereoscopio comienza con la toma de dos fotografías desde dos puntos de vista que simulan la separación de los ojos (existen actualmente cámaras de fotografía y vídeo con dos lentes situados en posiciones similares a las de los ojos para facilitar la toma de imágenes estereoscópicas), y después se utilizan lentes y un dispositivo para que cada ojo vea una de dichas imágenes, con lo cual se consigue una ilusión muy efectiva.

Hace años fueron famosos aparatos de diversión como el View-Master y productos similares, estereoscopios que usaban imágenes insertadas en círculos de cartón y que ofrecían una excelente ilusión de profundidad. A lo largo de la historia, diversos sistemas (algunos de los cuales implicaban hacer un pronunciado bizco) ofrecieron al público la oportunidad de ver imágenes en 3D, pero ninguno resultó realmente viable más allá de breves momentos de asombro. Lo que el estereoscopio lograba era darnos una perspectiva binocular, sí, pero totalmente estática, cuando lo más interesante del mundo que vemos en tres dimensiones es, precisamente, que cambia al movernos, los objetos parecen pasar unos frente a otros aunque no se muevan, sólo al cambiar nosotros de posición, al caminar a su alrededor.

Esa tercera dimensión dinámica se puede conseguir de dos formas. La primera es un holograma, una imagen fotográfica tomada con rayos láser (y, ahora, otros tipos de ondas) que reconstruye la forma en que la luz incidió en el objeto holografiado, por lo que al moverse el espectador puede ver un efecto real de tres dimensiones, con profundidad y cambios de estereopsis. Los hologramas son generalmente estáticos o al menos no se ha podido desarrollar un sistema adecuado para hacer hologramas en movimiento, digamos, para una película o programa de TV, en tanto que la holografía ha encontrado muchos otros usos en la ciencia y la tecnología, como lo revelan los hologramas presentes en muchos billetes de banco y tarjetas de crédito.

Las imágenes en movimiento y en 3D se consiguen proyectando una serie de imágenes estereoscópicas a los ojos, y por tanto necesita un filtro para que un ojo no vea lo que ve el otro. Así, se han creado películas en 3D en las que las imágenes están procesadas por un filtro de color, o polarización, para que el público, dotado de gafas con los filtros de color o los vidrios polarizados correspondientes, puedan ver la ilusión de 3D. Otras gafas más complejas usan cristal líquido que funciona como obturador, abriendo y cerrando el paso de imágenes alterntivamente a ambos ojos a gran velocidad. Los sistemas se multiplican sin que se haya conseguido un estándar satisfactorio por cuanto a la producción, proyección y visionado de las películas en 3D, todas tomadas con cámaras binoculares de cine o video. El extremo de aspecto más futurista son las gafas de realidad virtual, que contienen dos pantallas de vídeo en su interior, una para cada ojo, y que pueden ofrecer ilusiones muy convincentes, aunque el aparato en sí sigue siendo bastante incómodo por sus dimensiones y peso.

Por su parte, se han desarrollado numerosos sistemas sin gafas especiales, llamados de “autoestereoscopía”, para hacer más fácil el visionado de las películas. Desafortunadamente, estos sistemas suelen producir en los espectadores mareos y dolores de cabeza, algo que tampoco es ideal para este objetivo. La investigación seguirá adelante porque, finalmente, el premio para quien desarrolle un sistema viable, cómodo y de fácil difusión, será colosal.

Televisión tridimensional en el salón


La televisión en tres dimensiones soñada por la ciencia ficción y con frecuencia presente en películas y cómics referentes al futuro tampoco se ha hecho realidad, al menos de modo viable. Los intentos más recientes se han dado en series como la exitosa “Cosas de marcianos”, en la que se dio a los televidentes gafas especiales y se les indicaba cuándo usarlas para ver en tres dimensiones los sueños del personaje. La serie “Médium” lo intentó hace poco, pero sigue siendo poco práctico. De momento, claro.

Las fuentes alternativas de energía

Las fuentes de energía alternativas que pueden sustituir al petróleo como impulsor de prácticamente toda la economía del planeta se mueven entre los terrenos de la ingeniería, la fantasía y, a veces, el simple embuste.

El petróleo es nuestro principal combustible, pues de él obtenemos 38% de toda la energía que consumimos. Sumándolo al 26% de energía procedente del carbón y el 23% del gas, los combustibles fósiles dan cuenta del 87% de la energía, desde combustible para diversos medios de transporte de personas y mercancías hasta aceite para calentarnos en invierno y la generación de la mayor parte de la electricidad en todos los países, todo procedente de una fuente que, tarde o temprano, se agotará.

En 2006 los reactores nucleares sólo daban cuenta del 6% de la energía mundial, y los materiales fisionables, los elementos radiactivos que podemos usar para generar energía nuclear, también pueden agotarse. Las fuentes renovables de energía apenas cargan con el 7% restante: 6% procede de la energía hidráulica, mientras que todas las demás fuentes, como el calor solar, el viento, la energía geotérmica, los biocombustibles y la energía solar fotovoltaica (la que se recoge con celdillas solares) sumadas son responsables de menos del 1% del consumo mundial de energía.

El eventual agotamiento de los combustibles fósiles demanda una mayor eficiencia de las fuentes existentes y la investigación de otras que funcionan en teoría, como la fusión nuclear. Los reactores actuales utilizan elementos pesados cuyos núcleos se fisionan en núcleos más ligeros liberando gran cantidad de calor, que se utiliza para convertir agua en vapor y mover turbinas eléctricas. Es un proceso ineficiente, que genera desechos contaminantes, presenta riesgos de averías y temores en la población. El proceso inverso, la fusión o unión de dos núcleos ligeros en uno más pesado, es mucho más eficiente como generador de energía y es totalmente limpio, tanto que nuestra estrella, el sol, es un gigantesco reactor de fusión donde átomos de hidrógeno se unen como helio liberando luz y calor. Sin embargo, la ciencia y la técnica aún no han podido lograr la fusión artificial continuada y controlada, y la investigación continúa con sistemas altamente complejos para contener el plasma de hidrógeno necesario para la reacción.

La percepción general de una crisis energética y los incesantes aumentos de precios de los hidrocarburos no sólo impulsan la investigación científica, son también campo fértil para ilusos o embusteros que ofrecen “energía libre”, energía gratuita producida por máquinas más o menos ingeniosas o procedimientos más o menos fantasiosos. Así, en 1989 dos químicos, Stanley Pons y Martin Fleischmann, anunciaron una fusión nuclear en frío que generaba energía sin grandes problemas técnicos. El tipo de anuncio que cambia al mundo y gana premios Nobel... pero ningún otro científico consiguió replicar los resultados, y se determinó que los resultados habían sido reportados de modo impreciso, voluntaria o involuntariamente. Pons y Fleischmann pasaron a trabajar para Toyota donde gastaron unos 18 millones de euros en 9 años sin poder reproducir sus resultados originales.

En 2006 reseñábamos, en esta misma página, que Sean McCarthy, dueño de la empresa irlandesa Steorn Research, se había anunciado en la prestigiosa revista The Economist "invitando" científicos para poner a prueba un motor magnético que, decía, producía energía de la nada. Seleccionó a 12 científicos con los cuales estableció un contrato con una severa cláusula de confidencialidad y salió de escena. Un ejemplo de su motor debió ponerse en exhibición ante el público el 4 de juio de 2007, pero la demostración se suspendió y la empresa no ha vuelto a hablar con la prensa, ni ha dado informes de los científicos que “validarían” este, el enésimo motor magnético del que se afirma que puede generar energía de la nada. Ninguno de tales motores ha funcionado jamás, pero han sido fuente de ingresos para muchos que solicitan financiamiento para “desarrollar” sus mágicas máquinas. El dinero siempre “se acaba” sin que consigan su objetivo.

Las máquinas de movimiento perpetuo han adquirido gran impulso en los últimos años a resultas de su asociación con las creencias del New Age y con ciertas visiones ecológicas simplistas que les dan cierta legitimidad ideológica. Pero sin importar su supuesto mecanismo, nunca funcionan. Y eso que, si funcionaran, tendríamos que reescribir la totalidad de la física tal como la conocemos. Ciertamente esto se ha hecho muchas veces en el pasado, pero sólo ante evidencias claras, extraordinarias e incontrovertibles de fenómenos que el modelo anterior no podía explicar, algo que pondría a los inventores de una máquina así a la altura de Newton o Einstein. Estas fantasiosas máquinas tienen el enorme atractivo de presentarse como algo que ya está a nuestro alcance, a no ser porque está siendo reprimido por (por científicos y compañías petroleras, por ejemplo), y nos ofrece una energía gratuita que cambiaría la vida humana radicalmente. La tentación de creer es, sin duda, grande.

Pero lo más probable es que las energías alternativas que sustituyan al petróleo no sean mágicas, sino que representarán costes y problemas, cosa que por otra parte no debería sorprendernos. Los hidrocarburos nos dieron, en poco más de 150 años, grandes beneficios, pero a costa de contaminación, problemas de salud, guerras por el control del oro negro y problemas de precios. La energía alternativa, sea nuclear, de biocombustibles, de viento, solar, de las mareas o de otro tipo, traerá sus propios problemas, desde los cosméticos, como la preocupación que ciertos grupos expresan por lo poco estético de las granjas eólicas, hasta los de manejo de desechos nucleares.

La cantidad de petróleo que debemos reemplazar con alguna mezcla de energías alternativas es, hay que tenerlo presente, enorme, y sustituirlo de modo deficiente afectará sobre todo a quienes más necesitan una solución ecológica, accesible y limpia de energía para impulsar sus economías, los países del llamado tercer mundo.

Más allá del biodiesel


El interés en los biocombustibles producidos con plantas comestibles, como el maíz, ha alentado un debate “alimentación contra biocombustibles”, fuertemente teñido de intereses e ideas políticas. Sin embargo, existen opciones como el biocombustible de segunda generación (producido a partir de desechos vegetales no usualmente comestibles, en particular la celulosa), el de tercera generación, producido con base en algas cultivadas al efecto, e incluso el de cuarta generación, que podrían producir directamente a partir del bióxido de carbono microorganismos genéticamente modificados que hoy están desarrollándose en laboratorio. Las opciones están más abiertas de lo que parece.

LHC: el mayor experimento de física

El Gran Colisionador de Hadrones (LHC por sus siglas en inglés) es el más ambicioso proyecto europeo para confirmar o replantear el modelo estándar de la física y situar a Europa a la vanguardia de la investigación del universo.

Desde 1931, una de las más importantes herramientas de los físicos en sus investigaciones sobre las partículas que forman nuestro universo han sido los llamados “aceleradores de partículas”. Estos aparatos, inventados por el físico estadounidense Ernest Lawrence en 1929, utilizan campos eléctricos para acelerar partículas cargadas eléctricamente hasta que alcanzan grandes velocidades y son lanzadas contra distintos “blancos”, que pueden ser otras partículas, trozos de materia, etc. Estos aceleradores pueden ser circulares o lineales, permitieron el descubrimiento de la antimateria, los quarks y la creación de elementos no existentes en la naturaleza.

El elemento esencial de un acelerador de partículas es la energía a la que puede llevar dichas partículas, sobre todo cuando se trata de replicar las condiciones de ciertos fenómenos cósmicos como las supernovas o el Big Bang, la explosión que dio origen a nuestro universo. Esto significa que los físicos requieren de aceleradores más grandes y potentes para continuar sus descubrimientos.

Sin embargo, los aspectos más complejos de la física de partículas no suelen ser fácilmente comprendidos por quienes toman las decisiones en los gobiernos. Esto dio como resultado un gran retraso en el avance de la física por causa de una decisión presupuestaria del Congreso de los Estados Unidos. En 1983, un grupo de físicos analizó la viabilidad técnica y económica de un acelerador circular capaz de acelerar dos haces de partículas cada uno a 20 TeV (tera electronvoltios, un electronvoltio es la energía que adquiere un electrón al caer en un diferencial de 1 voltio; una molécula común a temperatura ambiente tiene una energía de aproximadamente 1/40 de eV, y la fisión nuclear de un átomo de uranio 235 libera 200 millones de electronvoltios; un tera electronvoltio es un millón de millones de electronvoltios). En 1991, comenzó la construcción del que llamaron “Supercolisionador Superconductor”, con un coste estimado original de 4.400 millones de dólares que pronto se convirtieron en 12.000 millones, el aumento en costes aunado al colapso de la Unión Soviética llevaron a que el Congreso estadounidense decidiera, en 1993, cancelar el proyecto cuando ya se había excavado un túnel de 22,5 kilómetros de largo en el sur de Texas.

El lugar se vendió a una empresa privada que planea instalar un centro de datos en el colosal túnel, hoy desierto.

El retraso en los avances de la física de partículas que representó esta decisión apenas se recupera ahora que está por entrar en acción el Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear (CERN). La energía a la que acelerará los dos haces de partículas es de 7 TeV, para un total combinado de 14 TeV, alojado en un túnel de 27 kilómetros de circunferencia en la frontera franco-suiza. En su diseño, financiamiento y construcción participan dos mil físicos de treinta y cuatro países, así como cientos de universidades y laboratorios. Y, con un retraso de dos años ocasionado en parte por problemas de fondos, hoy se está enfriando lentamente el sistema criogénico que permitirá que los imanes responsables de acelerar los haces de partículas actúen con máxima eficiencia como superconductores.

Todo esto, sin embargo, sólo es importante por lo que se puede aprender con el uso del LHC en seis experimentos que utilizarán los datos obtenidos de su funcionamiento. Al hacer chocar dos haces opuestos de protones o de iones de plomo (según el experimento) con energías similares a las alcanzadas en los primeros segundos posteriores al Big Bang, los físicos intentarán, entre otras cosas, producir el esquivo “bosón de Higgs”. Según el “modelo estándar” de la física de partículas que hasta hoy parece explicar todos los fenómenos, es decir, que parece ser correcto, predice la existencia de doce partículas elementales, de las cuales conocemos actualmente once. Los bosones son las partículas que fungen como mediadoras de las distintas fuerzas del universo, mientras que el bosón de Higgs, que aún no se ha observado, sería la partícula responsable de que otras partículas tengan masa. Esto permitirá igualmente determinar si el llamado “mecanismo de Higgs” para generar las masas de las partículas elementales se hace realidad en la naturaleza.

Igualmente, los físicos esperan poder hacer mediciones más precisas de las masas de los quarks, que son las partículas que conforman los protones y neutrones, para determinar si se confirma la Teoría Estándar o es necesario replantearla en alguna forma. Igualmente, pretenden empezar a averiguar por qué la gravedad es una fuerza tan tremendamente débil en comparación con las otras tres fuerzas fundamentales del universo (el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil).

Pero la más ambiciosa posibilidad que ofrece el LHC e es la de responder a una de las más profundas cuestiones de la física actual: ¿cuál es la naturaleza de la materia oscura y la energía oscura? En realidad, cuando miramos al cielo con los ojos o con telescopios de radio, de rayos X, de radiación ultravioleta, etc., vemos únicamente un 4% de la masa que nuestros cálculos dicen que tiene el universo. La materia oscura, que no podemos ver pero cuya existencia conocemos por las relaciones gravitacionales del universo, compone el 22% del universo, mientras que los expertos calculan que un 74% de la masa del universo está formado por energía oscura. Llamamos “oscuras” a esta materia y energía como forma de destacar nuestra ignorancia, únicamente por darle nombre a algo de lo que desconocemos todo salvo su existencia.

Si el LHC pudiera, efectivamente, empezar a darnos respuestas sobre estos temas, su coste en términos de dinero sería el menos importante de los temas. Confirmar o transformar el paradigma de la física que nos explica todo cuanto existe en el universo, después de todo, es algo a lo que difícilmente se le puede poner precio.

Los números del LHC


El Gran Colisionador de Hadrones utiliza 1.232 imanes para guiar la trayectoria circular de los haces de partículas, 392 imanes de enfoque para mantener el haz enfocado y más de 6.000 imanes superconductores para acelerarlo en el anillo de 27 kilómetros de circunferencia en condiciones de vacío. Los imanes superconductores están enfriados a una temperatura de 1,9 grados Kelvin (es decir, a menos de dos grados del cero absoluto, más frío que el espacio exterior). El coste inicial presupuestado fue de 1.600 millones de euros y su coste final oscilará entre los 3.200 y los 6.400 millones de euros.

Zahi Hawass: el defensor del legado egipcio

Conocido como el hombre que más lucha por conseguir que vuelvan a Egipto numerosos artefactos antiguos que están en poder de otros países, Zahi Hawass es uno de los más conocidos arqueólogos del mundo.

Su figura es una presencia casi necesaria en todos los documentales sobre el antiguo Egipto, desde los más serios patrocinados por instituciones tan serias como la sociedad y revista de National Geographic hasta algunos que dan pábulo a ideas extravagantes sobre el origen de las pirámides, e incluso ha estado a cargo de varias producciones acompañado de otros distinguidos egiptólogos, lo que le llevó en 2006 a ganar un Emmy, el equivalente al Oscar de la televisión estadounidense por un programa especial sobre Egipto.

El fornido, tremendamente enérgico y habitualmente sonriente egipcio con sus sombreros un poco a lo Indiana Jones estuvo a punto de ser, sin embargo, un sonriente diplomático. Nacido en el pequeño pueblo de Abeyda el 28 de mayo de 1947, su primer objetivo fue estudiar diplomacia, pero suspendió el examen oral, y optó por su segunda alternativa, la arqueología, disciplina en la que se licenció en la Universidad de Alejandría para luego hacerse egiptólogo en la Universidad de El Cairo y doctorándose en la misma disciplina en la Universidad de Pennsylvania en 1987 con una beca Fullbright. Su destino era, entonces, el de todo egiptólogo profesional: dar clases, realizar algunas investigaciones y excavaciones, publicar resultados en revistas especializadas y vivir en el relativo anonimato cómodo de la academia.

El destino y su personalidad, sin embargo, iban por otro camino. Al doctor Zahi Hawass lo mueven pasiones arebatadoras, y las defiende con una clara capacidad escénica, como un eficiente comunicador o el profesor que todos quisiéramos tener, y sin morderse la lengua para tomar decisiones. Y así fue convirtiéndose no sólo en un investigador de primera línea, sino en un personaje mediático decidido a mostrarle al mundo como fuera las maravillas de los 3.200 años del imperio del antiguo Egipto, una enormidad comparado con los 600 años de la antigua Grecia o los 500 años del imperio romano. Y si para promover el conocimiento del legado egipcio tenía que autopromoverse, no tenía problema en hacerlo.

Entretanto, fue construyendo un currículum admirable por todo concepto. En 1997 comenzó los trabajos de excavación en los alrededores de la pirámide de Keops que sacaron a la luz la ciudad de los constructores de las pirámides, y nos permitieron saber que no se trataba de esclavos, sino de trabajadores contratados por todo Egipto, que trajeron sus peculiares costumbres al lugar donde durante 20 años se levantó el impresionante monumento al faraón Keops. En 1999, Hawass anunció el descubrimiento, en las cercanías de la ciudad de El Bawiti, en el Oasis de Baharuya, de 105 momias, algunas de ellas recubiertas de oro, en un gigantesco cementerio de unos dos mil años de antigüedad que se calcula que alberga al menos 10.000 momias en total. La zona fue rebautizada como “El valle de las momias de oro”. El descubrimiento no fue hecho por Hawass, sino por un guardia del Templo de Alejandro Magno, quien lo halló por accidente, pero él fue quien, al conocer el descubrimiento en 1996, ordenó que no se hiciera público pues no había fondos ni especialistas suficientes para excavar, preservar y proteger las momias, especialmente por temor a que los ladrones de tumbas se quisieran hacer de la resina de las momias y las riquezas que las acompañaban. Esperó pacientemente hasta que tuvo los medios para dirigir un grupo de arqueólogos, restauradores, conservadores, dibujantes, electricistas y otros profesionales que pudieran ocuparse debidamente del descubrimiento.

Este interés por preservar los sitios arqueológicos a la espera del mejor momento, de los fondos, de los expertos o de la tecnología necesarios sería años después una de las marcas de la casa Hawass en el mundo de las antigüedades egipcias, y uno de los aspectos que lo pondría en el centro de la controversia con algunos personajes de occidente. Pero la controversia, como se descubriría oportunamente, era un potente combustible para mover a Zahi Hawass a la acción y a la sonrisa.

Cuando en 2002 fue nombrado secretario general del Supremo Consejo de Antigüedades de Egipto, Zahi Hawass puso toda su energía al servicio de su amor por el Egipto actual, al que lógicamente considera el heredero legítimo de toda la cultura del legendario imperio a orillas del Nilo. Dos acciones suyas marcaron de inmediato un nuevo rumbo en el manejo de los asuntos arqueológicos de Egipto. La primera fue la exigencia de que se devolvieran a Egipto numerosos artefactos como, entre otros, la Piedra Rosetta, el busto de Nefertiti, la pintura del zodiaco que estaba en el techo del templo Dendera, el busto de Ankhhaf (el arquitecto de la pirámide de Kefrén) y la estatua de Hemiunu, ni más ni menos que el arquitecto responsable de la pirámide de Keops. Poco a poco, algunos países han devuelto algunos artefactos, no tan relevantes como éstos, merced a una presión diplomática impulsada por la fuerza de Hawass en su país.

Metido en la controversia, Hawass también ha impuesto una moratoria en las excavaciones de sitios tan relevantes como el Valle de los Reyes, puesto que considera que ya existen demasiados monumentos desprotegidos y, por tanto, a merced de los daños que les puedan causar los elementos y los turistas, que por otra parte son elemento clave de la economía egipcia. Por ello, Hawass considera que hace más por su preservación posponiendo temporalmente las excavaciones mientras la economía egipcia mejora y se prepara a más personal egipcio especializado en la conservación y cuidado de su legado. Otros elemento de controversia alrededor de Hawass son su insistencia en la restauración de la Gran Esfinge de Gizeh y su rechazo de la tesis afrocentrista que asevera que los egipcios eran negros.

Finalmente, Zahi Hawass se opone con fuerza a las ocurrencias descabelladas que pretenden adjudicarle la construcción de las pirámides y de la esfinge a elementos no egipcios, desde supuestos habitantes del mítico continente de la Atlántida hasta extraterrestres, o que aseguran que las pirámides tienen funciones y poderes que, por otra parte, nunca han podido demostrar. Hawass llama a estas personas “piramidiotas” y ha impedido que “expertos” autoproclamados puedan hacer investigaciones o rituales en los monumentos antiguos, por lo cual éstos lo han acosado con rumores y afirmaciones falsas. Una controversia más para el egiptólogo más conocido del mundo.

Civilizaciones perdidas


“Ni una sola pieza de cultura material, ni un solo objeto, se ha encontrado en Gizéh que pueda interpretarse como originario de una civilización perdida”, Zahi Hawass.

Vida inteligente en la Tierra... y en otros planetas

Desde que la ciencia confirmó que nuestro planeta es sólo uno entre muchos cuerpos estelares, hemos estado fascinados por la idea de encontrar vida, especialmente vida inteligente, fuera de los confines de la Tierra.

La idea de que cada estrella tiene a su alrededor otros planetas como la Tierra empezó su andadura muy probablemente en 1584 de la mano del sacerdote, filósofo, cosmólogo y ocultista Giurdano Bruno, y la oposición a la idea se hizo patente poco después, cuando Bruno fue juzgado (entendida esta palabra a la peculiar manera del Santo Oficio) y quemado en la hoguera como hereje, entre otros cargos, por afirmar la existencia de una pluralidad de mundos y su eternidad, condena por la que pidió perdón el Papa Juan Pablo II en nombre de la Iglesia Católica.

Ciertamente, en el pasado las religiones habían abordado el tema de otros mundos y otros seres vivos, incluso inteligentes, en ellos, pero desde el punto de vista exclusivamente sobrenatural. El Talmud judío habla de un número exacto de mundos habitados, mientras que el Corán habla de Alá como señor de “los mundos”, en plural. Pero “otro mundo” podría construirse conceptualmente como algo puramente espiritual, y de lo que hablaba Bruno era de otra cosa, de infinitos y eternos mundos como el nuestro, la Tierra, algo contrario al texto bíblico que sólo habla de un mundo que está además en el centro del cosmos. A partir de las ideas de la pluralidad de los mundos que expuso Bruno, derivadas a su vez de la revolución copernicana que puso al sol en el centro del universo, y que se fueron difundiendo junto con el telescopio y las teorías de Newton, tanto científicos como poetas, novelistas y filósofos llegaron a no tener reparos en creer incluso que todos, absolutamente todos los cuerpos celestes albergaban vida inteligente. En los inicios del siglo XVII, el filósofo, teólogo, astrólogo y poeta Tomasso Campanella habló de los posibles habitantes del Sol, y el dramaturgo Cyrano de Bergerac, el personaje real que fuera inspiración para la obra de Jean Rostand, escribió las historias cómicas de los estados e imperios de la Luna y del Sol, mientras que la naciente ciencia ficción de Jules Verne nos hablaba de habitantes de la Luna y H.G. Wells inmortalizaba la idea de que había vida inteligente (y peligrosa) en Marte.

El tema de las inteligencias extraterrestres alcanzó su máximo desarrollo con la ciencia ficción ya en su forma actual, a partir de la década de 1930. Desde las poéticas Crónicas marcianas de Ray Bradbury hasta los aterradores Hombres de Gor de Frederik Pohl, la literatura pronto se llenó de los más diversos alienígenas, algunos francamente absurdos, pero otros construidos de acuerdo con las más precisas reglas de la física y la biología según los conocimientos del momento. Malvados e ingenuos, infantiles o de antigua sabiduría, reptilianos o insectoides, los extraterrestres inteligentes poblaron miles de libros y los sueños de millones de personas en todo el mundo. El cine no tardó en tomar el testigo, generalmente con poca suerte, ofreciendo sobre todo extraterrestres malvados que se comportaban como todos los villanos humanos, para el caso.

Desafortunadamente para los entusiastas, los avances en el conocimiento científico sugirieron pronto que no había selenitas o habitantes de la Luna, que era imposible que nada viviera en las temperaturas aterradoras del sol, que en Mercurio cualquier ser vivo herviría y en Saturno o Júpiter, a más de no haber superficie, pues es un gigante gaseoso, no hay calor suficiente para mantener la vida y las fuerzas gravitacionales en su interior son aterradoras.

Sí, existe la posibilidad de que haya vida en Marte, lo cual parece cada vez más probable, y en lunas como Io, Europa o Titán. De hecho, es obvio que ante la inmensidad del universo no es irracional pensar que es bastante probable que las condiciones para la vida se hayan dado más de una vez. Otra cosa muy distinta es el que la vida haya evolucionado hasta lo que llamamos inteligencia, y el tema es asunto de profundos debates entre los especialistas en exobiología y en evolución. Para algunos, la inteligencia es un accidente que no tenía por qué haber ocurrido, pensando en que los dinosaurios sobrevivieron y dominaron el planeta durante 160 millones de años con lo que parece haber sido una inteligencia bastante limitada, aunque ya tenían todos los demás elementos, órganos y comportamientos que caracterizan a los mamíferos. Para otros, sin embargo, lo que llamamos inteligencia (mezcla de autoconciencia, capacidad de abstracción y capacidad de planear para el futuro, como principales características) es tan inevitable como que aparezcan sensores de luz o de aromas, o medios de locomoción adecuados al medio ambiente de los seres en cuestión.

Mientras se resuelven estas dudas, un grupo de científicos ha emprendido la búsqueda de inteligencia extraterrestre (Search for Extra-Terrestrial Intelligence) basados en la idea de que, mucho antes de que las naves de los alienígenas llegaran a nosotros, nos llegarían sus ondas de radio, considerando que la radio es un requisito tecnológico para los viajes extraplanetarios. Así, por ejemplo, aunque los seres humanos apenas hemos llegado a la Luna físicamente y nuestras naves exploradoras apenas han salido de los confines del sistema solar en el último año, nuestras ondas de radio están viajando por el espacio desde más o menos 1895. Así, esperando detectar mensajes en las distintas frecuencias de radio, desde 1960 se han realizado distintos intentos de captarlos. Para procesar las señales captadas en busca de una emisión que pudiera ser un mensaje inteligente y no el concierto de las estrellas, el proyecto SETI cuenta con el apoyo de millones de voluntarios que ofrecen el tiempo no usado de sus ordenadores. El megaordenador formado por todos los voluntarios de SETI es hoy equivalente al segundo superordenador más potente del planeta. Y en alguno de esos ordenadores, quizá, se encontrará la prueba de que no estamos solos en el universo, la mayor noticia imaginable.

Los contactados


En 1952, el hostelero y granjero George Adamski aseguró estar en “contacto” con los “hermanos extraterrestres” e incluso haber visitado planetas como Venus y Saturno, e incluso decir que las fotografías del Luna 3 tomadas en 1959 eran falsificaciones pues en la Luna había casas y árboles en lugar de cráteres. A Adamski han seguido literalmente miles de personas que aseguran hablar con los extraterrestres, viajar con ellos por el cosmos o ser secuestrados inmisericordemente. Por desgracia, ninguna de esas personas ha aportado un solo objeto o conocimiento que pudieran siquiera sugerir que efectivamente tienen procedencia extraterrestre. No importa, a los verdaderos creyentes no les hacen falta pruebas.

Internet: red de ordenadores, red de personas

Esta red no existía hace 18 años. Hoy, sin embargo, esta red es la esencia de la comunicación de personas, empresas y naciones.

Para muchos jóvenes es difícil imaginar no que haya habido una época sin Internet, claro, sino que esa época esté tan cercana en el tiempo. La World Wide Web, el servicio de Internet más conocido, se hizo realidad apenas a fines de 1990, y no fue sino hasta agosto de 1991 que se empezó a utilizar fuera de su entorno de origen. La World Wide Web, así, está apenas cumpliendo su mayoría de edad y ya es patrimonio de aproximadamente de 1 de cada 5 seres humanos.

Internet no es la World Wide Web, aunque la cultura popular identifique ambos elementos. Internet es un ente físico, una colección de ordenadores interconectados por medio de cables, fibra óptica o señales inalámbricas y que pueden intercambiar información por utilizar “protocolos” comunes, es decir los mismos conjuntos de reglas sobre la sintaxis, la semántica y la sincronización de la comunicación, de modo que interpreten los datos de la misma forma y hagan con ellos lo que deben. Internet alberga distintos servicios, cada uno son sus protocolos, entre ellos tenemos el correo electrónico (que utiliza el SMTP, protocolo simple de transferencia de correos), el servicio de transferencia de archivos FTP (siglas precisamente de “protocolo de transferencia de archivos”), distintos tipos de juegos en línea y, el más conocido e identificativo, la World Wide Web, que utiliza el “protocolo de transferencia de hipertexto” o HTTP. Así, Internet es una red de ordenadores conectados, y la World Wide Web es una colección de documentos y otros recursos (como imágenes) interconectados entre sí mediante hipervínculos y direcciones URL (siglas de “localizador uniforme de recursos”) dentro de Internet.

Internet como red física comenzó con la creación de la red ARPA, siglas en inglés de la Agencia de Proyectos de Investigación Avanzada, un proyecto gubernamental estadounidense lanzado en 1958 y destinado a darle a Estados Unidos la vanguardia científica y tecnológica. Aunque en su origen estaba la carrera espacial puesto en marcha por la URSS, la principal preocupación del gobierno estadounidense era la ciencia y la tecnología en general para labores de defensa, es decir, militares.

ARPA reunía (y reúne hoy con el nombre de DARPA) a una importante cantidad de científicos en diversas universidades y laboratorios de todo el país, lo que planteó pronto la necesidad de que estos profesionales pudieran compartir datos, información, ideas y opiniones de manera eficiente, ágil, segura y resistente a sabotajes y catástrofes. En medio de la paranoia de la Guerra Fría que dominaba a Estados Unidos, la idea esencial era crear un sistema que pudiera sobrevivir a un ataque nuclear soviético. Es decir, se excluía de entrada la posibilidad de tener una central informativa y de comunicaciones, como sería una central telefónica, y se propuso una red interconectada en la que ningún elemento fuera esencial. Para 1969, el Departamento de Defensa de Estados Unidos puso en marcha la red con cuatro ordenadores en las Universidades de California en Los Ángeles y Berkley, el Instituto Stanford de Investigaciones, y la Universidad de Utah.

La red de ARPA se convirtió, junto con otras redes como la de la Unión Internacional de Telecomunicaciones, la IPSS del servicio postal británico y Western Union, la base de lo que hoy es Internet cuando esas redes se interconectaron en 1983 y la parte estrictamente militar de Arpanet se separó como Milnet. El nombre “Internet” en sí fue acuñado y utilizado por primera vez por Vinton Cerf en 1973. Cerf es conocido como “el padre de Internet”, pero no por acuñar el nombre, sino por su trabajo en la creación del juego de protocolos que hizo posible la interconexión de las redes de la Internet primigenia, el TCP/IP (protocolo de control de la transmisión y protocolo de Internet).

Lo que había ocurrido era que los científicos habían encontrado tan útil la red que no la utilizaban únicamente para sus proyectos militares, sino para todo tipo de comunicaciones y compartición de datos e información, primero en Estados Unidos y luego en Europa, al abrir la participación de compañías privadas que ofrecieran servicio de Internet a fines de la década de 1980 y conectarse en 1989 con las redes del CERN, el Centro Europeo de Investigación Nuclear.

Sería en el CERN, para sorpresa de muchos, donde ocurriría el salto que convertiría a Internet en un elemento al alcance de cualquiera. Hasta 1990, buscar algo en Internet demandaba que el usuario conociera al menos ciertos elementos de lenguajes informáticos como UNIX. Ante eso, el informático inglés Tim Berners-Lee, trabajando como contratista independiente del CERN, desarrolló una implementación del concepto del “hipertexto”, es decir, de una vinculación de una palabra o frase con otros documentos o recursos. Era la idea de “hacer clic” en una palabra para “ir” a consultar un documento, obtener una definición, hacer aparecer una imagen o enlazarse a información relevante. Para ello, creó el protocolo HTTP y, el 25 de diciembre de 1990, realizó la primera comunicación exitosa entre un cliente (el ordenador que solicita un dato o documento) y un servidor (el ordenador que lo suministra).

Siendo un contratista independiente, Berners-Lee podía haber amasado una fortuna asombrosa con su invento. A contracorriente de un mundo materialista y orientado al lucro, puso su invención a disposición del mundo gratuitamente, sin patente y sin cobrar regalías, lo cual sigue siendo la esencia de los estándares que maneja el World Wide Web Consortium, fundado por Berners-Lee para la creación e implementación de mejoras y estándares de la red.

Vinton Cerf, padre de Internet, trabaja hoy en Google promoviendo la red. Tim Berners-Lee es profesor de ciencias informáticas en la Universidad de Southampton en el Reino Unido, donde se ocupa de su proyecto de la “Red Semántica”.

La velocidad de implementación


La televisión se hizo técnicamente viable en la década de 1940, y tardó casi 60 años en estar presente en todo el planeta, llegando a España en 1956. La telefonía, patentada en 1876 por Alexander Graham Bell, llegó a España en 1880, pero en 1900 sólo tenía 12.851 abonados. Internet y la WWW se han difundido a una velocidad muy superior. Según las estadísticas de uso de Internet, en marzo de este año había más de 1.407 millones de usuarios de Internet, el 21% de la población mundial, con la mayoría de usuarios (530 millones) en Asia. España, por cierto, es el sexto país de uso de Internet en Europa, con 22,8 millones de usuarios a fines de 2007, el 56,5% de la población, lo que además representa el lugar 34 mundial en penetración de la red.

La muerte, esa extraña presencia permanente

El miedo a la muerte es el gran motor de muchas acciones y pensamientos humanos, una preocupación constante en un mundo en el que ni siquiera sabemos qué es la vida.

Uno de los elementos que utilizan los paleoantropólogos para considerar a una sociedad humana son los rituales funerarios. En un punto de la evolución, nuestros antepasados se hicieron conscientes de la existencia de la muerte, de que era un estado similar al del sueño pero que era definitivo, que nunca se volvía al estado de vigilia y que, además, era algo que iba a ocurrirle a todos y cada uno de los vivos.

Gran parte de la historia del pensamiento humano se ve determinada por la preocupación por la muerte. Las religiones, dicen los no religiosos, han sido respuestas humanas para darle trascendencia a la vida y manejar el enorme miedo a dejar de ser que implica la muerte sin un esquema religioso. Lo mismo pasa con la filosofía y las dudas sobre el significado de la existencia humana, el deseo de jugar un papel importante en un universo grande, complejo y amenazante en el que existe algo tan tremendo como la muerte.

Esto ha determinado que, a lo largo de la historia, sea una preocupación especial saber cuándo ocurre realmente la muerte, en qué momento un ser, especialmente un ser humano, deja de estar vivo. La definición de la vida no es tan clara como quisiéramos, sino que, por el contrario, conforme más sabemos más problemas presenta. Incluso, en el transcurso de la búsqueda del conocimiento los seres humanos nos hemos visto enfrentados al hecho de que hay organismos o entidades como los virus que no es fácil saber si están vivos o no, y que desafían las definiciones más simplistas.

La muerte y los procesos que le siguen llevaron a la existencia de numerosas leyendas y supersticiones. Así, por ejemplo, el hecho de que un cadáver no se corrompiera según se creía que debía hacerlo, especialmente si parecía incorrupto, fue uno de los elementos que llevó a la creencia en el vampirismo. Lo mismo pasaba con cuerpos que, al ser exhumados semanas después de la muerte, mostraran sangre en la nariz y la boca, producto de que los gases de la descomposición impulsan la sangre por estos orificios, pero que se interpretaba como sangre de la que se habían alimentado los vampiros. Los movimientos y ruidos producidos por la acumulación de gases en los cuerpos en descomposición influían igualmente en esta creencia. Hoy sabemos valorar nuestra ignorancia general acerca de los procesos posteriores a la muerte y apenas estamos empezando a estudiar a fondo los procesos de la descomposición.

En una época, y durante mucho tiempo, se consideró que la muerte ocurría al detenerse el latido cardiaco y la respiración. Sin embargo, esto comportaba dos problemas importantes. En primer lugar, que no es fácil saber con precisión si el corazón ha dejado de latir o la respiración se ha detenido. Como se ha podido documentar, puede haber pulso y respiración difíciles de percibir, de allí que se utilizaran algunos sistemas como el de colocar un espejo ante las fosas nasales de la persona, para determinar si hay vapor de agua producto de una respiración imperceptible. En segundo lugar, y sin duda alguna más importante, el avance del conocimiento y las técnicas médicas han permitido invertir algunos procesos que antes se consideraban definitivos. La resucitación cardiopulmonar, los desfibriladores eléctricos, la respiración artificial, el uso de sustancias como la epinefrina y otros procedimientos pueden hacer volver a latir el corazón o funcionar los centros respiratorios. Del mismo modo, la experiencia médica ha reunido ejemplos notables sobre personas que pueden recuperar todas sus funciones después de sufrir potentes descargas eléctricas o de ahogarse en aguas heladas, especialmente en el caso de niños.

Por ello, hoy en día se considera a la parada cardiorrespiratoria sólo como “muerte clínica”, que es reversible al menos en algunos casos y en sus primeras etapas.

Así, desde mediados del siglo XX, fue necesario utilizar otra definición para la muerte, ésta referente a la llamada “muerte cerebral” o “muerte biológica”, que se considera que ocurre cuando su cerebro deja de tener actividad eléctrica, lo que llamamos el “electroencefalograma plano”. Esto supone que esta actividad eléctrica es lo que define o denota la conciencia y por tanto la calidad de “humano” o “persona” que tenemos, pues una vez detenida la actividad del cerebro (o al menos la del neocórtex cerebral, la parte que consideramos la sede de las funciones cognitivas superiores) de modo irreversible, lo que consideramos la “personalidad” no puede volver nunca a reactivarse. La mayoría de los países occidentales incluyen a la muerte cerebral como la definición legal de muerte, aunque para ciertas religiones el asunto siga siendo dudoso y pongan por tanto obstáculos a actividades como los transplantes de órganos, cuya realización depende puntualmente del momento en que se pueda determinar, médica y legalmente, que el donante ha muerto.

Ciertamente, sólo algunas expresiones sumamente claras e irreversibles pueden ser consideradas como una señal certera de la muerte. Entre tales expresiones se consideran algunas lesiones tremendamente graves como la decapitación o la incineración del cuerpo, o bien la presencia de signos como el rigor mortis, la rigidez que se presenta unas tres horas después de la muerte y que dura unas 72 horas, ocasionada por cambios químicos en los músculos como producto de la muerte. Otro signo claro es el livor mortis, la lividez producto de la acumulación de la sangre en las partes de menor elevación del cuerpo. Y, por supuesto, la descomposición.

Nada de lo que hemos aprendido sobre la muerte y cómo vencerla al menos parcialmente aumentando la duración y calidad de la vida humana ha servido, sin embargo, para poder enfrentar de mejor manera el miedo a la muerte, ese miedo que por un lado paraliza y aterra y, por otro lado, ha impulsado el pensamiento y el arte, como uno de los elementos clave de todas las culturas humanas sin excepción.

¿La criogenia permite superar la muerte?


A principios de la década de 1960, basada en libros de Evan Cooper y Robert Ettinger, se ha difundido ampliamente, sobre todo en Estados Unidos, la idea de que si se congela a una persona inmediatamente después de su muerte, se conservarían su personalidad, ideas y memoria, y podría esperar, en un estado que los cómics solían llamar “animación suspendida”, a que los científicos de un futuro lejano la resucitaran, curaran sus afecciones y le dieran una nueva vida. Desde 1967, se ha congelado (o “criogenizado”) a unos pocos cientos de personas, pese a que las objeciones científicas a la criogenia han aumentado al paso del tiempo, poniendo en duda que los cerebros congelados conserven la información que los hace humanos, y la posibilidad misma de la descongelación futura, que nadie, ciertamente, garantiza.

Cuando todo es un mal sueño

Seguimos sin saber por qué necesitamos dormir y por qué soñamos, pero cada vez sabemos más sobre los efectos de los desarreglos del sueño y cómo han sido malinterpretados a través de la historia, a veces con consecuencias atroces.

"Pesadilla", cuadro del pintor danés Nicolai Abraham
Abildgaard (D.P. vía Wikimedia Commons)
Imagine que despierta y descubre que está absolutamente inmóvil, paralizado. Intenta mover cada uno de sus miembros, manos, piernas, brazos, pero los siente como si estuvieran profundamente anestesiados, o como si tuviera un enorme peso que los inmovilizara. De pronto se da cuenta de que hay voces y percibe unas “presencias” a su alrededor. Quizá hablan, pero usted no les entiende con claridad. Escucha zumbidos y ve luces brillantes. La sensación prevaleciente es que la presencia es malévola o malintencionada, que desea hacerle daño a usted o a los suyos. En algunos casos, la “presencia” puede atacarle sexualmente, estrangularle, sentarse en su pecho y pincharle en distintas partes del cuerpo. Usted trata de gritar, pero tampoco puede hacerlo, aumentando su sensación de impotencia, desesperación y angustia. Es posible que sienta que abandona su cuerpo, o que flota, elevándose o levitando. Cuando la “presencia” desaparece, usted recupera lentamente la capacidad de moverse, a veces con grandes dolores en las articulaciones.

Esta experiencia se podría interpretar de muchas maneras, generalmente en función de la cultura en la que se desarrollen. Evidentemente se trata de una situación en extremo angustiosa y, siendo profundamente vívida, puede dejar una profunda marca en sus víctimas. Lo que hoy sabemos es que usted ha experimentado una de las distintas formas de parálisis de sueño que se conocen. Dicha parálisis suele estar acompañada, como en este caso, de vívidas alucinaciones visuales, auditivas, incluso olfativas. Cuando esto le ocurre en el lapso entre el sueño y la vigilia, es decir, cuando se está despertando, las alucinaciones se llaman “hipnopómpicas”, pero también pueden ocurrir cuando usted está quedándose dormido, en cuyo caso se llaman “hipnagógicas” o, colectivamente, experiencias hipnagógicas e hipnopómpicas, EHH.

No es algo poco frecuente. Los estudios realizados indican que entre el 25% y el 30% de las personas han tenido al menos un episodio de parálisis del sueño con EHH en su vida, y un 25% de estas personas (aproximadamente el 6% de la población) experimentan el fenómeno con cierta frecuencia. En la mayoría de los casos los episodios se presentan por primera vez en la adolescencia, sobre todo alrededor de los 17 años. El fenómeno en sí parece tener relación con el hecho de despertar durante la fase de sueño que los neurocientíficos conocen como REM, por la frase en inglés rapid eye movement o movimiento rápido de los ojos.

Esta fase del sueño está relacionada con las ensoñaciones o sueños que experimentamos, y durante ella nuestros músculos voluntarios se desconectan, presumiblemente con objeto de evitar que nuestro cuerpo lleve a cabo las acciones que estamos soñando, paralizándonos efectivamente. Si recuperamos parcialmente la conciencia durante esta etapa del sueño, la incapacidad de movernos (los músculos están desconectados por los procesos de sueño) y la ensoñación misma del sueño REM se confunden con la realidad generando una experiencia que puede ser aterradora.

Hoy, los investigadores consideran altamente probable que los episodios de parálisis de sueño con EHH sean responsables de algunas de las más persistentes leyendas de muy distintas culturas. Después de todo, durante una gran parte de la historia humana los sueños simples llegaron a considerarse “visiones” religiosas o “revelaciones” divinas cuando no “comunicación con el mundo de los espíritus” si se desarrollaban de formas distintas a las habituales o incluían en su guión a personas fallecidas recientemente, a dioses o a fenómenos que pudieran interpretarse como premoniciones.

Más aún, hoy sabemos que lo que recordamos de nuestros sueños cambia muy rápidamente con las experiencias vividas después de despertar, de modo que con frecuencia las personas reportan haber soñado ciertas cosas al despertarse, y tiempo después ofrecen informes radicalmente distintos, en los que han “reescrito” el sueño para incorporar elementos que no estaban en las memorias originales.

En particular, los estudiosos han identificado a la parálisis de sueño con EHH como una muy probable explicación de la experiencia que llamamos, precisamente “pesadilla”, la pesadez que el diccionario define como “Opresión del corazón y dificultad de respirar durante el sueño”. Se le ha relacionado con demonios como la Ardat Lili de la antigua Sumeria, la vieja demoniaca que podía volar para atacar a los hombres durante el sueño, igual que los efialtes griegos saltaban sobre los durmientes, los íncubos y súcubos romanos, los “mare” alemanes, el kikimora ruso, el cauchmar francés, el ag-rog de Terranova y muchos otros demonios que oprimían el pecho de quien dormía.

De hecho, la prevalencia del mito, la enorme similitud entre las experiencias de las que informan personas de distintas culturas y tiempos y el fenómeno estudiado por los neurocientíficos y psicólogos permite una razonable certeza de que son la misma cosa. Por desgracia, los informes de estas experiencias fueron, con gran frecuencia, tomados como narraciones de hechos reales que se utilizaron como pruebas contra herejes, brujas o brujos que distintas sociedades persiguieron y asesinaron.

Del mismo modo, los científicos han notado la similitud entre la experiencia de la parálisis del sueño con EHH y los informes de “abducciones de extraterrestres” que han dado personas que no son sospechosas de buscar la notoriedad o el dinero que mueven a muchos testimonios en los medios de comunicación. La parálisis, las luces, los zumbidos, la sensación de ser atacado por una presencia, la frecuente componente sexual de las supuestas abducciones y otros elementos que tiene la nueva mitología sobre seres de otros mundos son demasiado parecidos a los relatos de ataques por parte de íncubos, ogros, hags y otros seres como para desecharse como coincidencias sin un estudio profundo.

¿Se puede hacer algo?


La enorme mayoría de los casos de parálisis de sueño con EHH ocurren en gente que duerme principalmente boca arriba, mucho menos en otras posiciones, y estos episodios se intensifican claramente cuando sus víctimas experimentan un aumento del estrés y las preocupaciones. Muchas veces, el sólo saber que lo que se padece es un problema que comparten otras personas y no un misterio individual sirve para hacerlo menos aterrador. Algo de ejercicio, un horario fijo para ir a dormir, tratar de dormir en una posición que no sea boca arriba y evitar la privación del sueño son otras recomendaciones que disminuyen la incidencia de esta experiencia.

Ramanujan, pasión por los números


Sólo el trabajo matemático realizado por Srinivasa Ramanujan en su último año de vida bastaría para colocarlo en los libros de historia. Pero el genial matemático hizo mucho, mucho más.

Cuando el 6 de abril de 1920 moría en Madrás, India, el joven de 32 años Srinivasa Ramanujan, se apagaba una de las mentes más lúcidas y asombrosas de la historia de las matemáticas, admirado por sus contemporáneos y considerado uno de los mayores genios naturales de la historia. Y sin embargo, por haber viajado a Inglaterra y haber cruzado un mar, los líderes religiosos de su entorno dictaminaron que había perdido su casta de brahmin (convirtiéndose en un intocable), y se negaron a darle servicios funerarios.

Ramanujan nació el 22 de diciembre de 1887, hijo de un dependiente de una tienda de saris (la indumentaria femenina tradicional indostana) y un ama de casa que cantaba en el templo local. Al entrar a la escuela secundaria en 1898, encontró las matemáticas y se entregó a ellas con una absoluta pasión. Dos estudiantes universitarios que se alojaban en su casa le permitieron avanzar rápidamente en sus conocimientos, y para cuando cumplió 13 años no sólo dominaba la trigonometría, sino que había descubierto complejos teoremas, con lo que a los 14 años empezó a reunir reconocimientos al mérito, y a los 17 años ya había desarrollado independientemente los llamados “números de Bernoulli”, una secuencia específica de números racionales, y había conseguido otros logros matemáticos que empezó a reunir en 1903 en unas libretas de notas que serían, sin que lo imaginara entonces, su testimonio y legado.

Su asombrosa capacidad para las matemáticas, que le ganaba premios e incluso una beca para la mejor universidad de la India, le impedía sin embargo interesarse siquiera en otros temas, que suspendía invariablemente, lo que al final le costó la beca y la estancia en la escuela. Cuando terminó su educación universitaria en 1906, no consiguió aprobar la mayoría de las asignaturas, de modo que se quedó sin título, en la más extrema pobreza e interesado únicamente en la investigación matemática, con una furia interna que apenas se puede comparar a la que impulsaba a Van Gogh o a Picasso a pintar, o a Mozart a componer. Como ellos, padeció hambre e incomprensión, y buscó ganarse la vida en cualquier empleo, incluso como profesor particular de matemáticas. En esta búsqueda, quiso trabajar en el departamento de cobranzas de impuestos, y llegó así a Ramaswami Iyer, cobrador de impuestos y fundador de la Sociedad Matemática Indostana, mostrándole su trabajo matemático para probar que era competente. Iyer comprendió de inmediato que estaba ante un talento que no merecía un escritorio burocrático donde se ahogaría su genio. Lo presentó a los matemáticos de Madrás, que al principio dudaron que el trabajo fuera realmente de Ramanujan, pero poco a poco se convencieron de su capacidad.

En 1913, en una carta pletórica de humildad, Ramanujan se presentó ante el matemático del Trinity College de Cambridge, Godfrey Harold Hardy, como “un oficinista del departamento de cuentas del Port Trust Office de Madrás con un salario de 20 libras anuales solamente” y le pidió que repasara unos trabajos matemáticos para ver si tenían valor y sus teoremos podían publicarse. Como otros antes que él, Hardy se asombró ante el brillante genio que tenía ante sí, aún careciendo de las herramientas académicas producto de una formación estructurada. Hardy diría después sobre las fórmulas de Rmanujan: “Nunca había visto antes nada, ni siquiera parecido a ellas. Una hojeada es suficiente para comprender que solamente podían ser escritas por un matemático de la más alta categoría. Tenían que ser ciertas, porque, si no lo fueran, nadie habría tenido suficiente imaginación para inventarlas”. Hardy se ocupó de que Ramanujan fuera a Inglaterra con una beca muy superior a sus tristes 20 libras anuales de oficinista.

Trabajando estrechamente con Hardy, que se ocupó del difícil equilibrio de enseñarle matemáticas estructuradas a Ramanujan sin ahogar su genio natural, Ramanujan desarrolló su más avanzado trabajo matemático. Tres años después de su llegada a Inglaterra, en marzo de 1916, por uno de sus trabajos sobre números altamente compuestos, el humilde indostano recibía el grado de doctor en Cambridge, en 1917 era admitido a la Sociedad Matemática de Londres y en 1918 fue el primer indostano electo como fellow del Colegio Trinity de Cambridge.

En Inglaterra, Ramanujan fue fiel a sus tradiciones religiosas y de casta aunque, en privado, reconocía que todas las religiones le parecían más o menos igualmente verdaderas, y mantuvo una dieta estrictamente vegetariana que al parecer colaboró a la mala salud que caracterizó al matemático toda su vida. Era ferozmente pacifista y apasionado de la política, y pudo expresarlo en su estancia inglesa que coincidió con la primera guerra mundial. Diagnosticado con tuberculosis y una grave avitaminosis, además del estrés y la angustia por la lejanía de su país y su familia, fue hospitalizado y volvió finalmente a Kumbakonam en 1919, donde murió un año después, a una edad de apenas 32. Las libretas de notas que dejó como su legado contienen alrededor de 4000 teoremas que han dado material de trabajo, reflexión e investigación a los matemáticos de todo el mundo. Adicionalmente, en 1976 se encontró un cuaderno con las 600 fórmulas escritas durante su último año de vida.

Hardy, quien merece reconocimiento independiente por su trabajo, pero cuya figura ha quedado unida a la de su amigo de la India, hizo alguna vez una valoración de los matemáticos en base puramente a su talento en una escala de 0 a 100. Hardy consideraba que en tal escala él mismo tenía una puntuación de 25, mientras que Ramanujan alcanzaba los 100 puntos. El asombro que provocó y sigue provocando Srinivasa Ramanujan queda igualmente patente por el nombre que dio su biógrafo, Robert Kanigel: “El hombre que conoció el infinito”. Si alguien realmente ha podido entender el abrumador concepto de infinito fue sin duda este que es al mismo tiempo uno de los máximos genios de la humanidad y uno de los nombres menos conocidos por el público en general.

El misterio del 1729


Visitando a Ramanujan en un hospital de Londres, Hardy le comentó que lo había llevado allí el taxi número 1729, y que ese número le parecía bastante aburrido. Ramanujan, sin pensarlo siquiera, dijo: “Claro que no, Hardy, es un número muy interesante. Es el número más pequeño que se puede expresar de dos maneras distintas como la suma de dos cubos positivos”. Es decir, Ramanujan vio de inmediato que 1729 es la suma de 1 al cubo más 12 al cubo (13 + 123), y también es la suma de 9 al cubo más 10 al cubo (93 + 103).

El 1729 es hoy conocido como “número de Hardy-Ramanujan”.

Los diversos caminos del ojo

El ojo es una maravilla de la ingeniería evolutiva. Y más maravilloso y aleccionador es ver que dicha maravilla ha surgido en el planeta varias veces de modo independiente.

Uno argumento comúnmente usado para intentar negar la evolución es el de la “complejidad irreductible”. Los proponentes del creacionismo creen que algunos sistemas biológicos son “demasiado complejos” (en su opinión, aunque esto no suelen aclararlo) para haber evolucionado a partir de elementos menos completos. El motivo de que uno de sus ejemplos sea el ojo es que el propio Darwin hallaba difícil comprender cómo se había podido desarrollar este órgano.

Pero en los últimos 150 años el desarrollo de los planteamientos de Darwin nos ha permitido conocer en detalle el desarrollo del ojo, o, más específicamente, los desarrollos de los distintos ojos que han aparecido a lo largo de la historia. Y así, la misma diversidad de orígenes de los ojos de los cefalópodos, los artrópodos y los vertebrados es una prueba de que su origen es la evolución por medio de la selección natural.

En el mundo actual podemos ver ejemplos de las diversas etapas de evolución de los ojos. Se originaron como pequeños grupos de células sensibles a la luz, que le permitían a los animales distinguir la luz de la oscuridad, una información valiosa. Los mejillones actuales tienen grupos así. El siguiente paso es que estas células queden dentro de pequeñas depresiones, cosa que la presión evolutiva favorecería ya que la diferencia en la percepción de las distintas células permite al animal saber de dónde viene la luz, ya no sólo si existe o no. Esto lo podemos ver hoy en día en los caracoles, que tienen “ojos” (o protoojos, si preferimos) de esta forma. Si esta depresión se profundiza y sus bordes se unen, tenemos el principio de la cámara oscura, es decir, un pequeñísimo orificio por el que entra la luz y se obtiene una imagen invertida de las imágenes del mundo, que es la mejor forma de describir el ojo del molusco llamado nautilus. El siguiente paso es la evolución de una lente, que tiene valor evolutivo aún cuando sea muy primitiva, pues permite enfocar las imágenes, y evidentemente habrá presión para que sea cada vez más precisa. Una lente primitiva podemos observarla hoy en día en los caracoles marinos. Al afinarse al paso de millones de años, podemnos obtener ojos enormemente eficaces.

El pulpo y los humanos, por ejemplo, tuvimos un ancestro común hace 550 millones de años, y dicho ancestro tenía apenas el primer grupo de células fotosensibles (detectoras de luz) mencionado en el párrafo anterior. A partir de ese modesto principio, y sin intercambiar información genética o evolutiva, los vertebrados (como nosotros) y los cefalópodos (pulpos, calamares, etc.) construimos ojos bastante similares, con una retina, una córnea, una lente y un iris, pero al mismo tiempo hay diferencias notables, una de ellas es que en lugar de estirar y acortar el lente o cristalino para enfocar, los cefalópodos acercan o alejan el cristalino completo de la retina. Además, el ojo del cefalópodo conserva una orientación constante respecto de la gravedad. Finalmente, el ojo del pulpo percibe la luz polarizada, mientras que nuestros ojos no lo consiguen. Estas características responden al medio en el que se mueve el pulpo, indicando que el órgano ha evolucionado de acuerdo a las presiones del medio. Así, por ejemplo, detectar la polarización de la luz permite al pulpo ver presas transparentes, como algunas medusas o crustáceos, algo que no tiene valor para los vertebrados.

Una tercera aproximación al desafío evolutivo de detectar la luz visible son los ojos de los artrópodos (insectos y crustáceos), los ojos compuestos cuyo ejemplo clásico es el ojo de la mosca. Cada ojo compuesto está formado por unos cuantos o varios miles de ommatidios, unidades visuales que constan de una lente, un cono cristalino transparente, un grupo de células visuales sensibles a la luz organizadas en un patrón radial, como los gajos de una naranja y células pigmentadas que separan al ommatidio de sus vecinos. A diferencia de la imagen continua de los ojos de cefalópodos y vertebrados, la imagen que producen estos ojos es un mosaico compuesto de las señales de todos los ommatidios, como los puntos de medio tono de los periódicos o revistas. Obviamente, mientras más ommatidios haya, mejor será la imagen que perciba el artrópodo, lo cual nos permite suponer que ojos con más de 3.500 ommatidios como los de algunas libélulas son los de mayor agudeza. Este diseño de ojos es excelente para detectar el movimiento, además de que pueden ver la luz ultravioleta, que utilizan muchas flores, plantas e insectos para transmitir información que nosotros no podemos ver. Las famosas mariposas monarca, en su asombrosa migración de Canadá al centro de México, utilizan la luz ultravioleta del cielo para apoyarse en su navegación.

De nuevo, los ojos, tanto los que han evolucionado de modo convergente como los de un mismo origen, están determinados por el medio, el uso y las necesidades de los distintos animales. Así, el ser humano no tiene, en modo alguno, los ojos más perfectos de la naturaleza. Ya hemos visto que otros seres ven partes del espectro (como la ultravioleta) o características de la luz (como la polarización), que para nuestra vista no existen. Pero además hay animales vertebrados como los depredadores nocturnos (felinos, aves y otros) que pueden ver en la noche de un modo tal que los seres humanos apenas los podemos imitar en los últimos años gracias a los aparatos de visión nocturna y visión infrarroja. La agudeza visual del águila es 3,6 veces superior a la nuestra, un halcón puede ver un objeto de 10 cm. de diámetro a una distancia 1,5 kilómetros con sólo 2,6 veces más agudeza visual que la nuestra; los ojos del camaleón se pueden mover independientemente uno de otro; el pinguino tiene una córnea plana para poder ver bajo el agua... la presión de selección distinta crea ojos distintos, desde los mismos puntos de partida.

La convergencia en la evolución


Además del ojo, diversos elementos en el mundo viviente han evolucionado de modo convergente, demostrando que ante el mismo medio ambiente, la evolución genera muchas veces respuestas similares. Los canguros, por ejemplo, que ocupan el nicho ecológico que fuera de Aaustralia ocupan animales como los ciervos, carneros o bovinos, tienen una dentadura similar a la de los herbívoros placentarios, mientras que los depredadores como el lobo de Tasmania desarrollaron un aspecto físico similar al de otros depredadores como los lobos, coyotes o chacales. Esto nos sirve además para entender lo que nos dicen los restos de animales del pasado evolutivo, los fósiles de los que debemos desprender nuestra historia.