Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los alimentos transgénicos

La idea de la modificación transgénica de los organismos ha adquirido una connotación negativa alejada de lo que realmente puede significar para nuestra especie, sus ventajas y riesgos.

Arroz común y arroz dorado, adicionado con genes
vegetales para producir betacaroteno, un precursor
de la vitamina A.
(foto CC de International Rice Research Institute,
vía Wikimedia Commons
Todos los organismos están genéticamente modificados. De hecho, nosotros mismos somos organismos genéticamente modificados, ya que la evolución implica la constante modificación genética de las poblaciones para adaptarse al terreno, al clima, al resto del ecosistema e incluso a su sociedad.

En algunos casos, como los animales y plantas domésticos, los seres humanos los hemos modificado lentamente para que se ajusten a nuestras necesidades y deseos: trigo más grande, vacas que den más leche, ovejas más lanudas, perros más pequeños o "bonitos", etc. Nuestra influencia sobre el medio ambiente va más allá de los problemas ecológicos más evidentes, como la desaparición de algunas especies, ya que en el proceso hemos alterado más allá de todo posible reconocimiento otras muchas especies.

El conocimiento de la genética nos ha permitido realizar más aceleradamente este proceso y, sobre todo, conseguir, mediante la "ingeniería genética", la incorporación en un organismo de genes procedentes de otro organismo distinto. Esta incorporación de genes ajenos o exógenos se llama "transferencia horizontal de genes", y ocurre en la naturaleza de modo relativamente infrecuente, no sujeto a control humano y, hasta donde sabemos, sobre todo entre organismos unicelulares. La transferencia horizontal de genes artificial es lo que se conoce como modificación transgénica de un organismo. Así, por ejemplo, se puede tomar un gen humano dedicado a producir insulina e incluirlo, mediante diversos métodos de laboratorio, en el código genético de un organismo unicelular, que ya no sólo producirá las proteínas necesarias para su vida normal, sino que usará parte de su energía en la producción de insulina que puede ser utilizada para el alivio de la diabetes.

Por supuesto, esta posibilidad es tan claramente positiva que difícilmente se le podría criticar. Sin embargo, el procedimiento tiene capacidades que igualmente pueden ser utilizadas de modo cuestionable e, incluso, peligroso.

Por ejemplo, un cultivo genéticamente modificado para resistir mejor las plagas, el maíz "Starlink", contiene una forma de la proteína Bt que se digiere más lentamente que las del maíz que normalmente consumimos, y por tanto podría causar que un pequeño número de personas desarrollara una reacción alérgica. Ya sea debido a la polinización cruzada con cultivos no modificados o por otras causas, hubo maíz con esta proteína Bt modificada que llegó al consumo humano, produciendo una reacción social de alarma quizá desproporcionada, pero no injustificada, que llevó a su retirada del mercado a principios de este siglo.

El riesgo del cruzamiento con organismos no modificados es una legítima preocupación, como lo es el uso de las posibles semillas llamadas "terminator", que producirían semillas estériles, lo que obligaría a los agricultores a adquirir semillas patentadas en cada ciclo agrícola. Evidentemente, en este caso el problema no es genético, sino de prácticas comerciales y de negocios. Pero esta posible aplicación de la tecnología de productos estériles (misma que aún no está disponible comercialmente) tiene su contraparte en el hecho de que ese procedimiento también podría aplicarse para impedir, precisamente, los cruzamientos indeseados con organismos no modificados.

En el debate sobre los organismos transgénicos, la propaganda por parte de los promotores (muchas veces con intereses comerciales) y los opositores (muchas veces con más convicciones que información científica) se está resolviendo en un enfrentamiento de propaganda en el que se busca convencer a la opinión pública para conseguir apoyos sociales y políticos antes que informar para ayudar a la formación de un criterio razonado, con bases sólidas y que considere todas las opciones.

El desarrollo de alimentos adicionados con nutrientes necesarios, organismos que puedan producir de manera económica medicamentos que resultan costosos hoy en día, cultivos resistentes a plagas o que se desarrollen mejor en zonas proclives a las sequías o que se conserven mejor en condiciones ambientales adversas, bacterias con genes capaces de identificar y atacar enfermedades, o la posible curación de afecciones genéticas son posiblidades reales que deben tenerse en cuenta en el debate, tanto como el riesgo que pueden representar los organismos modificados.

Pero la mayor parte del debate parece estarse centrando en los anaqueles de frutas y verduras, con un sector social luchando por impedir que lleguen a ellos alimentos genéticamente modificados por el solo hecho de serlo. El principal riesgo que señalan es que en el proceso de modificación genética para obtener una característica deseada se pueden introducir inadvertidamente otras modificaciones indeseables y nocivas para la salud humana, y esta preocupación merece indudablemente ser atendida mediante regulaciones que exijan pruebas a fondo de los cultivos transgénicos para consumo humano.

Sin embargo, no debe perderse de vista que, desde que se introdujo el primer cultivo transgénico comercial en 1994 (un tomate con resistencia aumentada a la putrefacción), no se ha registrado ni un caso en el que los alimentos transgénicos resultaran claramente nocivos para los consumidores, que existen requisitos muy estrictos para la autorización de cada nuevo cultivo y que en estos años se han realizado cientos de estudios sobre dichos cultivos y su consumo, según los cuales no hay diferencias peligrosas respecto de sus parientes no modificados.

Como ocurre con cualquier conocimiento nuevo, es su aplicación la que debe preocuparnos, su reglamentación y su uso tecnológico, y que el control de los mismos esté en manos principalmente de la sociedad, ya que es imposible volver en el tiempo y olvidar un conocimiento ya adquirido.

El arroz dorado


Un ejemplo de los riesgos del debate mal llevado es el del "arroz dorado", un arroz transgénico creado por Peter Beyer e Ingo Portrykus con dos genes añadidos que le dan un contenido aumentado de provitamina A en la forma de beta caroteno (que le da su color dorado). El objeto de este arroz es ser distribuido gratuitamente en sociedades asiáticas cuya dieta tiene como base el arroz y en las que entre 250.000 y 500.000 niños quedan ciegos cada año, según datos de la OMS, por deficiencia de vitamina A. Desde 1999, cuando se anunció el proyecto, varias organizaciones no gubernamentales importantes han luchado por impedir que llegue a los agricultores y consumidores porque su línea política es oponerse a todos los organismos genéticamente modificados, independientemente de cualquier otra consideración.

La historia que cuentan las piedras

La geología abarca estudios sobre el origen y evolución de la vida, la formación de las montañas, el movimiento de los continentes, los volcanes y los terremotos... y no sólo en nuestro planeta.

Pocas cosas parecen tan sólidas como el suelo que pisamos. El habla popular consagra la roca como esencia de la dureza y la perdurabilidad, de lo que confiablemente no cambiará. "Sólido como una roca" es un lugar común recurrente.

Pero las rocas, el suelo que pisamos y el planeta todo sí cambian, de modo incesante, a veces con cambios graduales y suaves como la erosión del río que forja un cañón o el lento movimiento de los continentes que pliega la corteza terrestre para crear cordilleras como el Himalaya o los Pirineos, a veces de modo brutal y catastrófico como en las erupciones volcánicas o los choques de asteroides. Y todo ello es el dominio de la geología, que desafortunadamente algunos siguen identificando únicamente con interminables variedades de minerales de nombres largos y aburridos (al menos hasta que se sabe para qué sirve cada uno).

Definida como la ciencia y estudio de la materia sólida de un cuerpo celestial, lo que incluye su composición, estructura, propiedades físicas, historia y procesos que le dan forma, la geología es una disciplina de enorme amplitud que echa mano abundantemente, a su vez, de la física y la química. Así, la geología es esencial para minería, es ciencia auxiliar de la paleontología y la paleoantropología, es fundamental en los programas espaciales, se propone algún día poder predecir las erupciones volcánicas y los terremotos para salvar vidas y bienes, es fundamental para la industria de la construcción y ayuda a explicar el origen del universo, del planeta y de la vida.

No fue sino hasta el siglo XVII cuando se empezaron a sistematizar las observaciones acerca de la estructura y composición de nuestro planeta. Nicolaus Steno (o Niels Stensen), estudioso danés, sentó por entonces las bases de la geología científica, interés que nació cuando identificó como dientes de tiburón fosilizados a ciertas rocas, llamadas por entonces "piedras de lengua", a las que se atribuían orígenes fabulosos. Plinio el Viejo, por ejemplo, había afirmado que caían del cielo o de la Luna. Pero estas piedras, una vez explicadas, llevaron a Steno a enfrentar un verdadero misterio. Estos dientes se encontraban a veces dentro de otras piedras, así como había muchos objetos sólidos que se encontraban igualmente dentro de otros sólidos. Este fenómeno atrajo el interés de Steno no sólo hacia los fósiles, sino hacia distintos tipos de minerales, incrustaciones, cristales, vetas y esas aparentes placas o capas de roca que hoy conocemos como estratos. Para que haya un sólido dentro de otro, razonó, el sólido externo debe haber sido fluido en el pasado y solidificarse después. Sencillo, elegante... y a nadie se le había ocurrido.

Resultado de los estudios de Nicolaus Steno fueron los principios esenciales para entender nuestro planeta, principalmente la idea de que los estratos de la superficie terrestre se crean uno sobre otro, y que ninguno se podía crear debajo de otro ya existente, algo que hoy puede parecer obvio, pero que no lo era en 1669. Sobre esas bases, George Cuvier y Alexandre Brongniart formularon el principio de la sucesión estratigráfica de las capas de la Tierra. Descubrimos así que los estratos que podemos observar son el registro de la historia del planeta, y al conocer su antigüedad por diversos métodos físicos y químicos, conocíamos la de los objetos, como fósiles o restos de meteoritos, que se encuentran incrustados en ellos.

Durante el siglo XIX, la geología debatió intensamente un punto esencial: la edad de nuestro planeta. Los datos que se podían extraer de la Biblia sugerían que la Tierra (y el universo todo) tendrían unos 6 mil años de antigüedad, pero ya en 1779 el Conde de Buffon observó que la evidencia parecía indicar una antigüedad mucho mayor, idea apoyada seis años después por James Hutton. Pero no fue sino hasta el siglo XX cuando se contó con datos suficientes acerca de nuestro planeta para poder calcular su edad, con una certeza razonable, en unos 4.600 millones de años, aproximadamente la tercera parte de la edad del universo. La geología demostró además que los continentes no están fijos en la superficie terrestre, sino que se han movido en una deriva continental a lo largo de miles de millones de años. Esta sorprendente idea propuesta por Alfred Wegener en 1912 no fue demostrada de manera definitiva sino hasta la década de 1960, y dio pie a la tectónica de placas, según la cual la corteza superior de nuestro planeta, la litosfera, está dividida en 7 placas o fragmentos mayores y varios menores, que se mueven lentamente sobre un manto llamado astenosfera.

El área más novedosa de la geología es la astrogeología o geología de cuerpos celestes distintos de la tierra, disciplina fundada en 1961 por el geólogo y astrónomo Eugene M. Shoemaker (descubridor también del cometa Shoemaker-Levy 9, que chocó con Júpiter en 1994). En ella, lo que sabemos sobre los materiales que componen la tierra, sus procesos y reacciones, se aplica a lo que podemos observar de otros cuerpos celestes para determinar su composición y posible historia. La aplicación del conocimiento geológico a la superficie de Marte, por ejemplo, es esencial para determinar las posibilidades de que este planeta haya albergado vida en un pasado lejano.

La astrogeología demuestra que lo que ha ocurrido en nuestro planeta es consistente con lo que vamos descubriendo del resto del universo a nuestro alrededor mediante observaciones telescópicas y sondas como las enviadas a Marte, los Voyager o el Deep Impact que impactó con el cometa Tempel 1 en julio de 2006. Y el día en que una misión humana finalmente llegue a Marte, seguramente incluirá entre sus integrantes a un geólogo dispuesto a comprender cómo es el planeta rojo y qué fuerzas lo hicieron así.

Lo mucho que falta


El hombre ha viajado al fondo del mar y ha enviado sondas espaciales que ya han abandonado el sistema solar. Pero por cuanto a nuestro planeta, apenas hemos podido penetrar algunos kilómetros en su capa más superficial. La mina más profunda de la Tierra, la "Western Deep Levels", en Sudáfrica, tiene unos 4 kilómetros de profundidad, un rasguño minúsculo en el radio total de nuestro planeta, de unos 6370 kilómetros, y minúsculo incluso para los 100 Km. de espesor que tienen las placas tectónicas de la litosfera.

El conocimiento de lo que ocurre dentro de nuestro planeta se ha obtenido mediante observaciones indirectas, mediciones y cálculos, pero una sonda hacia las capas más profundas del planeta, resolvería numerosas cuestiones pendientes y, seguramente, abriría muchas nuevas interrogantes.

Altibajos del premio Nobel

Codiciados, criticados, dudosos, prestigiosos y a veces desprestigiados, los premios que estableció el inventor de la dinamita siguen siendo centro de atención tres meses al año.

El Museo Nobel en Estocolmo
(foto CC de Holger Ellgaard, vía Wikimedia Commons
Alfred Bernhard Nobel, químico sueco del siglo XIX, bien podía haber sido recordado principalmente como el inventor de la dinamita, como fabricante de armas y quizá, incluso, como hijo del inventor de la madera contrachapada. La dinamita original, el gran descubrimiento del químico nativo de Estocolmo, no es sino la mezcla de la nitroglicerina, explosivo altamente inestable, con tierras diatomáceas (es decir, arcilla con alto contenido de diatomeas, un tipo de algas unicelulares) que tienen la propiedad de estabilizar la nitroglicerina y volver más seguro y sencillo su manejo, transporte y aplicación. La adición posterior de otras sustancias y un conocimiento sólido de los explosivos traducido en más de 500 patentes que explotaba en sus propias fábricas le permitieron amasar una cuantiosa fortuna.

Pero hoy Nobel es más conocido por los premios que llevan su nombre. La leyenda cuenta que un diario francés recibió la noticia de la muerte del hermano de Alfred Nobel en 1888 y, creyendo que el fallecido era Alfred, la anunció con el titular "El mercader de la muerte ha muerto", agregando que el químico se había hecho rico encontrando formas de matar más gente más rápidamente que nadie en la historia. Esta visión de su obra y de la memoria que dejaría le afectó profundamente, y por ello decidió dejar la mayor parte de su fortuna en un fideicomiso para la entrega anual de un premio destinado a reconocer trabajos destacados en cinco áreas de la actividad humana: la física, la química, la medicina o la fisiología, la literatura y la promoción de la paz. El dinero que inició los premios era algo más de 4 millones de dólares de 1896, una verdadera fortuna a precios de hoy.

Sin embargo, el premio que empezó a concederse finalmente en 1901, cinco años después de la muerte de su fundador estuvo desde sus inicios sujeto a debates. El testamento de Nobel era bastante general, sólo una página, y dejaba algunos puntos en la oscuridad que han sido debatidos durante ya 105 años. Por ejemplo, Alfred Nobel no dejó claro si los premios de ciencia debían otorgarse sólo a la investigación pura o si pensaba también en la tecnología, pensando no sólo en galardonar a investigadores científicos, sino también a ingenieros y tecnólogos. Esta duda ha llevado a que, si bien no se premian los logros tecnológicos, tampoco se otorga el premio a los logros de ciencia pura, por grandes que sean, sino que se dedican a descubrimientos con alguna aplicación práctica. Precisamente por eso, Albert Einstein no recibió el Nobel por la teoría de la relatividad que revolucionó nuestra forma de ver el universo, sino por su más humilde descubrimiento del efecto fotoeléctrico que se aplica incluso en cosas tan cotidianas como las puertas de los ascensores.

En el caso de la literatura, la situación era aún más vaga por cuanto que Nobel hablaba de obras "idealistas", y esto se ha interpretó primero como un "idealismo" filosófico (opuesto al materialismo), aunque después se ha considerado el "idealismo" como "compromiso con los ideales", lo que ha permitido premiar a otro tipo de autores. Nobel hablaba de dar el premio por una sola obra especialmente influyente del año anterior, la Academia Sueca ha optado generalmente por distinguir el trabajo de toda una vida y no sólo un libro. Aún así, las exclusiones de personajes clave como León Tolstoi y Jorge Luis Borges han incidido en la credibilidad de los premios. Por su parte, el premio Nobel de economía instituido en 1969 y único que se otorga por un comité noruego, ha sido incluso más debatido, y los herederos de Nobel consiguieron que desde 2001 se llamara "en memoria de Alfred Nobel", distinguiéndolo así de los premios instituidos por su antecesor.

Pero, si bien como asunto humano sería casi imposible que el Premio Nobel no estuviera sujeto a todas las fragilidades de nuestra especie, incluidos los odios y aprecios personales, la política y las presiones individuales e institucionales, entre otros, ello no ha obstado para que el premio siga siendo considerado el más alto galardón en sus especialidades, y que incluso la presión social y mediática sobre los comités encargados de concederlos hayan permitido enderezar el curso en más de una ocasión.

El 10 de diciembre de 2006 será la ceremonia de entrega de los premios de este año.

Física: John C. Mather y George F. Smoot, cuyos descubrimientos acerca de la radiación de fondo que tiene nuestro universo permitieron consolidar la teoría del Big Bang como origen del universo.

Química: Roger D. Kornberg, por su trabajo sobre las bases moleculares que permiten que los genes que forman el ADN se comuniquen con el exterior del núcleo para la creación de proteínas y la realización de funciones celulares.

Medicina y fisiología: Andrew Z. Fire y Craig C. Mello, por su descubrimiento de la interferencia del ARN, uno de los mecanismos que controlan el flujo de información genética dentro de la célula desactivando genes específicos.

Literatura: Orhan Pamuk, por sus obras en las que se descubren "nuevos símbolos del choque y entrelazamiento de culturas".

Paz: Muhammad Yunus y el banco Grameen, en reconocimiento sus esfuerzos por crear desarrollo económico "desde abajo" al haber creado los microcréditos como forma de lucha contra la pobreza.

Economía: Edmund S. Phelps, por su trabajo sobre la curva de Phillips (la relación inversamente proporcional entre la inflación y el desempleo), la dinámica del desempleo a corto plazo y el concepto de la tasa natural de desempleo.

Los que lo rechazaron


Sólo dos personas han rechazado voluntariamente el Premio Nobel que les fuera concedido. El filósofo existencialista y escritor Jean-Paul Sartre se negó a recibir el premio de literatura que le fue concedido en 1964, argumentando que siempre había rechazado los honores oficiales. El líder Le Duc Tho, representante de Vietnam del Norte en las pláticas con Henry Kissinger que llevaron a los acuerdos de paz de 1973 en la guerra de Vietnam se negó a recibir el premio junto con Kissinger porque, pese a los acuerdos, en su país aún no había paz.

Pero otros lo han rechazado presionados por sus respectivos gobiernos. El nazismo impidió a los investigadores Richard Kuhn, Adolf Butenandt y Gerhard Domagk recibir oportunamente los premios de química y medicina en 1938 y 1939, e hizo lo mismo para que Otto Heinrich Warburg no recibiera su segundo premio Nobel de medicina (el primero lo obtuvo en 1931). Por su parte, el escritor ruso Boris Pasternak fue obligado por las autoridades soviéticas a rechazar el premio de literatura de 1958.

Malaria: una antigua maldición

Una enfermedad conocida de antiguo sigue cobrándose millones de víctimas en los países tropicales. Esta tragedia, tanto médica como humana y política, podría acabar muy pronto.

El cáncer (que es una clase de enfermedades más que una enfermedad en sí) mata a unos 7 millones de personas al año en todo el mundo. Es una afección que tiene la atención de los medios y en cuya curación, prevención y erradicación se invierten miles de millones de euros al año en todo el planeta. Por contraste, la malaria es una sola enfermedad que sin embargo afecta al 10% de la población humana y mata cada año a unos tres millones de personas y que sin embargo no es relevante en los medios y en la conciencia occidental, debido principalmente a que sus víctimas suelen ser habitantes de países de lo que solía llamarse "el tercer mundo", y que no es sino el mundo de la pobreza, y la mayoría de sus víctimas, alrededor de dos millones al año, son niños porque a edad temprana los seres humanos tenemos menos defensas contra el organismo causante de la malaria. Esto la convierte en una de las más comunes y mortales enfermedades infecciosas junto con el SIDA y la tuberculosis.

La malaria muy probablemente ha acompañado siempre al ser humano, y ya en el año 2700 antes de nuestra era, en China, se le documentó por primera vez. La provoca, con diversa severidad, la infección de una de cuatro especies de protozoario parásito del genus Plasmodium, el Plasmodium vivax, el falciparum, el ovale y el malariae. Estos parásitos, se nos suele enseñar en clase de biología, son transmitidos principalmente por la picadura de la hembra del mosquito anófeles. Los parásitos van primero al hígado, donde se multiplican sin causar síntomas durante hasta 15 días. Entonces, el parásito puede hacer dos cosas. Una es invadir de inmediato el torrente sanguíneo de la víctima, atacando los glóbulos rojos o hematíes y provocando síntomas que incluyen fiebre, anemia, escalofríos, dolor en las articulaciones, vómito, afecciones de tipo gripal, convulsiones y, en los casos más graves, un coma que puede ocasionar la muerte. La otra es entrar en un estado durmiente durante meses o, incluso, años, antes de activarse nuevamente. Se han visto así casos de personas que desarrollan la malaria incluso después de décadas de haber estado expuestos a la infección.

El estudio científico de la malaria data de los trabajos del médico militar francés Louis Alphonse Laveran, que en 1880 identificó al plasmodium como causante de la enfermedad. Poco después, en 1898, el británico Sir Ronald Ross probó que el transmisor (o "vector") de la enfermedad eran los mosquitos. Los primeros esfuerzos contra la malaria, antes de que existieran los antibióticos, se centraron en el control del vector, es decir, en los mosquitos, mediante el uso de mosquiteros, repelentes de insectos e insecticidas. Una acción especialmente eficaz fue la neutralización de los pantanos y otras aguas estancadas, que es donde los mosquitos depositan sus huevos y donde se desarrollan sus larvas hasta eclosionar como adultos. Así, por ejemplo, el relleno sanitario de pantanos y áreas húmedas, y la aplicación de petróleo en la superficie de las que no se podían rellenar (lo que impide que las larvas reciban oxígeno) se unieron a la fumigación para disminuir sensiblemente las muertes por malaria y fiebre amarilla entre los trabajadores del Canal de Panamá a principios del siglo XX.

La malaria, además, puede prevenirse o curarse con diversos medicamentos, el más conocido de los cuales es la quinina. Sin embargo, el uso indiscriminado de algunos de estos medicamentos, como la cloroquina, llevó a que el parásito desarrollara resistencia, exigiendo el desarrollo de nuevas sustancias capaces de controlar al protozoario. Y allí está una de las claves de la tragedia. Quienes viajan hoy desde países no tropicales hacia zonas donde existe la malaria, deben tomar diariamente medicamentos preventivos desde unos días antes de su viaje, durante todo el tiempo que dure éste y durante varios días, hasta 4 semanas, después de volver. Estos medicamentos tienen costos que puede absorber un viajero de un país opulento, pero que resultan prohibitivos para utilizarlos como preventivos para la población depauperada de las zonas donde la malaria es endémica. Incluso el más barato, la doxiciclina, tiene un costo de unos dos euros a la semana, prohibitivo para quienes viven con menos de un euro al día, ya no se diga la más eficaz combinación preventiva, la mezcla de atovaquone y proguanil, que cuesta más de 30 euros a la semana. Los medicamentos utilizados para tratar la malaria (algunos de los cuales son los mismos que los preventivos) tienen costos similarmente inaccesibles para quienes más los necesitan.

En estas condiciones, la única esperanza para los millones de víctimas potenciales de la malaria en América Central y Suramérica, en el África subsahariana, en el sudeste asiático y en el Pacífico Sur es una vacuna contra el protozoario responsable de la infección, que si bien no puede resolver el problema por sí misma, puede ser el detonante necesario para fortalecer la aplicación de las otras estrategias necesarias. Aunque con pocos fondos (empresariales, caritativos y públicos), hay esfuerzos en Australia, Estados Unidos y la Unión Europea, aunque no coordinados, y se han estado realizando pruebas clínicas en Mozambique, Gambia, Malí y Ghana que permiten hoy esperar que pueda haber una vacuna viable para 2010. Aunque esperanzadora, esta fecha implica tolerar, entretanto, la muerte de varios millones de niños más. Pero, más aún, el desafío que enfrentan los científicos que trabajan hoy en el desarrollo de las posibles vacunas contra la malaria tiene una peculiaridad que no es habitual en el mundo de los laboratorios: deben crear una vacuna que sea efectiva y segura, pero sobre todo que sea económicamente asequible para que realmente sirva como arma contra la enfermedad.

Una vacuna difícil


Las vacunas que solemos usar nos protegen, generalmente, contra virus, como el de la viruela o la poliomielitis, o contra bacterias, como la de la tuberculosis o la difteria. Los virus son organismos sumamente sencillos, mientras que las bacterias son mucho más complejas. Pero el protozoario responsable de la malaria es un parásito, lo que implica una mucho mayor complejidad como organismo, con ciclos de vida variables y una asombrosa capacidad de enmascararse y ocultarse para evitar la respuesta inmune del organismo al que infecta. Por ello, la primera y más compleja tarea ha sido conocer a fondo la estructura y comportamiento del parásito, sólo así se ha podido intentar la que será, de tener éxito, la primera vacuna contra un parásito que haya desarrollado la ciencia.

La obsesión marciana

Las peculiaridades del planeta más parecido a la Tierra en el sistema solar lo han mantenido en el centro del interés y de la búsqueda de verdadera vida extraterrestre.

Alrededor de Marte hoy orbitan cuatro naves espaciales, Mars Global Surveyor, Mars Odyssey y Mars Reconnaissance Orbiter, de la NASA, y el Mars Express Orbiter, de la Agencia Espacial Europea, además de albergar a dos exploradores de superficie, el Spirit y el Opportunity de la NASA. El esfuerzo por llevar estos aparatos hasta Marte expresa la fascinación que el planeta rojo ejerce sobre el ser humano.

Marte es uno de los objetos más brillantes que se pueden ver en el cielo nocturno. Descontando a la Luna, sólo Venus y, ocasionalmente, Júpiter, son más brillantes que Marte, que además tiene un distintivo color rojo debido al mineral de hierro abundante en su superficie. Ese color llevó a los antiguos babilonios a identificarlo con Nergal, su dios guerrero, lo que se retomó en Grecia, donde era Ares, y en Roma, donde se le dio el nombre del dios latino de la guerra, Marte. Aunque otras culturas le dieron otros nombres y por tanto otros significados, es el latino el que perdura hasta nuestros días en occidente.

El interés por marte se debe a muchos otros factores. Su tamaño es algo más de la mitad del de la Tierra, su día dura un tiempo similar al nuestro, la inclinación de su eje que le permite tener estaciones y su órbita alrededor del Sol (o año marciano), de unos dos años terrestres, lo convierten en el planeta más parecido al nuestro en el sistema solar, además de ser el más cercano a nosotros. El interés se disparó a partir de dos observaciones ya con telescopios. La primera fue la variación estacional: en el verano marciano, los casquetes polares disminuyen y aparecen zonas oscuras, lo que podía indicar la fusión del hielo y la aparición de zonas con vegetación, lo que implicaba la existencia de vida extraterrestre. La segunda, a cargo del astrónomo Giovanni Schiaparelli a fines del siglo XIX, fue que en la superficie marciana parecía haber canales, líneas que parecían artificiales, producto de ingenieros marcianos inteligentes y avanzados. Esto fue retomado y difundido por el astrónomo estadounidense Percival Lowell. Tales hipótesis fueron tomadas con entusiasmo por la ciencia ficción, y pronto se popularizó la idea de los "marcianos", de sus posibles visitas a la Tierra, de culturas, posibilidades e, incluso, los peligros que consagraría de modo definitivo H.G. Wells en su novela La guerra de los mundos.

Marte tiene muchos elementos que lo convierten en un objeto de interés, y que se siguen multiplicando conforme se estudia mas a fondo. Sus dos lunas, Fobos y Deimos, de forma irregular, son aparentemente meteoritos capturados por la fuerza gravitacional del planeta. Tiene la elevación montañosa más alta del sistema solar, el Monte Olimpo, un antiguo volcán de 27 kilómetros de altura, lo que equivale a más del triple de la altura del monte Everest, y el cañón más profundo de nuestro sistema, el Valle Marineris, de 4.500 km de largo, 200 km de ancho y una profundidad máxima de 7 km, imponentes cifras si se comparan con los 800 km de longitud, 30 km de ancho y profundidad máxima de 1,8 km del Gran Cañón del Colorado en Arizona.

Sin embargo, es la posibilidad de que Marte tenga o haya tenido vida la que más apasiona tanto a los científicos como al público en general. Aunque para la década de 1950 el uso de mejores telescopios demostró que los canales de Marte eran ilusiones ópticas, y en 1964 el Mariner 4 determinó que Marte carecía de vegetación, el conocimiento creciente acerca de este planeta sigue dejando abierta la posibilidad de que tuviera al menos alguna forma de vida muy sencilla o que, al menos, la hubiera tenido en el pasado. Por ejemplo, los casquetes polares marcianos resultaron no ser de agua, sino principalmente de bióxido de carbono (CO2) o "hielo seco", pero también se pudo determinar que la débil atmósfera marciana contenía rastros de oxígeno, considerado esencial para la vida, al menos tal como la conocemos en nuestro planeta. La mitología y el conocimiento se han ido apoyando así mutuamente para mantener el interés sobre Marte. La ilusión óptica de la "cara de Marte" aparecida en una fotografía del Viking I en 1976, que duró hasta que en 2001 fotografías con mayor resolución demostraron que no había tal cara, y el "meterorito marciano" cuyos aparentes rastros de bacterias fósiles se hicieron públicos a mediados de los 90, han sido combustible para este interés.

Es apenas ahora, con los aparatos de la Mars Express, que podemos decir con certeza que Marte tiene agua en forma de hielo que pudo haber estado en estado líquido, aunque ello habría ocurrido hace 4 mil millones de años. El Radar Avanzado de Marte para Sondeo Subterráneo e Ionosférico ha detectado en el último año y medio hielo de agua en muchas de las capas superiores de Marte, así como en las regiones polares e incluso, aunque esto está por confirmarse, hielo de agua a nivel superficial, en el cráter Vastitas Borealis. Otro aparato, un espectrómetro mineralógico, ha detectado arcillas que sólo se forman cuando hay una prolongada exposición al agua, que según los científicos podría haber fluído en Marte durante los primeros centenares de millones de años de la historia del planeta.

Si hubo agua líquida, pudo haber vida, aunque no la haya en la actualidad. Y si la vida pudo desarrollarse fuera de nuestro planeta, quizá no es una aberración, sino un acontecimiento que puede surgir y evolucionar comúnmente en otros lugares del universo. El significado filosófico y científico que tendría la confirmación de la vida en Marte es tan profundo que la pasión que despierta en nosotros el planeta rojo está más que justificada.

El Marte imaginario


Marte ha jugado un papel esencial en la ficción reciente. Desde la serie de "Barsoom" de William H. Burroughs, donde Marte alberga una cultura en decadencia que mezcla imperios antiguos y moderna tecnología hasta las Crónicas marcianas de Ray Bradbury, que narran el final de la civilización marciana y la desaparición de sus melancólicos y poéticos habitantes. El planeta rojo ha resultado el recipiente ideal para verter en él los miedos, sueños e incluso protestas y propuestas sociales de numerosos autores. Pero también su humor. El caso más singular de la literatura marciana, es quizá el de los odiosos protagonistas de Marciano, vete a casa, de Fredric Brown, mil millones de marcianitos verdes que pueden entrar en cualquier casa, revelan los secretos íntimos de cada uno de nosotros, hacen comentarios desagradables y destrozan matrimonios, amistades y carreras políticas a diestro y siniestro. El Marte de ficción, aún sin tener relación con el planeta real, es sin duda un lugar apasionante y fascinante.

Científicos no profesionales

Aunque gran parte de la actividad científica hoy utiliza equipos y sistemas complejos y costosos, los aficionados siguen realizando valiosas aportaciones en algunas disciplinas.

Durante la mayor parte de la historia, la búsqueda del conocimiento se realizó de manera más bien lírica, y con avances en general lentos mientras no se tuvo el método que hoy llamamos "científico". La actividad científica adquirió identidad con este método en el siglo XVI, cuando se hizo evidente que la realidad no se ajustaba a la "autoridad" de los antiguos maestros que supuestamente tenían la respuesta a todo, especialmente Aristóteles, Tolomeo y Galeno.

La eficacia del método científico basado en observaciones sistemáticas, formulación de hipótesis y diseño de experimentos u otras formas de comprobación de tales hipótesis era y es asombrosa. Tanto que pronto se hizo necesario contar con aparatos y procedimientos para observar mejor y más detalladamente el mundo, lo cual también demandaba una formación especializada, cosas que no estaban al alcance de cualquier hijo de vecina.

Esto parecía excluir a la gente común de la posibilidad de colaborar en los avances del conocimiento. Pero conforme la ciencia se especializaba, muchas personas encontraron que quedaba un gran espacio abierto para que el aficionado a la ciencia o a la naturaleza, o simplemente al conocimiento, pudiera hacer valiosas aportaciones... y las hace.

Amateurs... pero con método

Cuando el cometa Shoemaker-Levy colisionó con Júpiter en 1994 ofreciendo una enorme oportunidad a los astrónomos de conocer mejor al mayor planeta de nuestro sistema solar, el diluvio informativo dejó poco espacio para señalar que el nombre "Levy" correspondía a David H. Levy, astrónomo aficionado que descubrió el cometa al mismo tiempo que los esposos Gene y Carolyn Shoemaker, astrónomos profesionales. Con el cometa Hale-Bopp ocurrió lo mismo, al ser descubierto por Thomas Bopp, astrónomo aficionado que trabajaba como gerente en una fábrica de materiales de construcción. Una gran cantidad de cometas actualmente son descubiertos por astrónomos aficionados, debido a que éstos tienen ventajas notables que complementan a los profesionales: son más en número, tienen más telescopios (los cada vez más caros telescopios "profesionales" son pocos y están altamente solicitados para observaciones) y pueden observar una mayor área de la bóveda celeste.

Por supuesto, se puede ser astrónomo aficionado sólo por el placer de ver el cielo, y se puede serlo usando sólo los ojos, prismáticos o telescopios de distintas capacidades y precios... sin contar con que muchos astrónomos aficionados disfrutan fabricando sus propios telescopios, puliendo espejos pacientemente en sus ratos libres. Pero si el aficionado lo desea, puede colaborar en la recopilación de datos para los astrónomos profesionales, ya sea monitorizando la intensidad de las estrellas variables por las noches o las manchas solares de día (una reciente fotografía del tránsito de la Estación Espacial Internacional y la lanzadera espacial sobre el disco solar fue conseguida por el astrónomo aficionado y astrofotógrafo Thierry Legault desde un campo ganadero en Normandía). Para los aficionados, además del disfrute de ver el cielo y la posibilidad de ver su nombre inmortalizado en un cometa, cráter o asteroide, existe un modesto premio anual de 500 dólares y una placa que otorga desde 1979 la Sociedad Astronómica del Pacífico, de los EE.UU.

Menos notoria que la astronomía, la entomología es otra disciplina que no podría florecer sin los aficionados a observar, coleccionar, estudiar y clasificar insectos. Y la razón es simplemente que hay identificados casi un millón de especies de insectos, pero se calcula que pueda haber más de 50 millones de especies, y un número imposible de estimar de variedades y subespecies que aún deben describirse, clasificarse y conocerse en cuanto a su función ecológica y posibles beneficios o perjuicios para el ser humano. Una labor que requiere de muchos millones de ojos interesados que sepan lo que están viendo, aunque no sean biólogos de carrera, porque cualquiera de nosotros puede matar un bicho molesto sin pensar que podría ser una especie todavía no conocida por la ciencia.

Los entomólogos aficionados se emparentan con el "naturalista", que era como se llamaban a sí mismos personas como Charles Darwin antes de que se pusieran en boga nombres como "biólogo", "etólogo" (especialista en conducta animal) o "zoólogo", para quienes la comunión con la naturaleza, los paseos y la curiosidad están estrechamente unidos. Y lo mismo ocurre con otros aficionados que han sido objeto de numerosas viñetas humorísticas: los observadores de aves, aficionados indispensables no sólo para el descubrimiento de nuevas especies o variedades, sino para la descripción del comportamiento de distintas aves (cortejo, apareamiento, cría o migración). Y lo mismo se puede decir de otros aficionados a distintas disciplinas, como la geología, la botánica, la ictiología (el estudio de los peces) y cualquier otra que se refiera a la observación del mundo natural, del que aún ignoramos mucho aunque en ocasiones nos deslumbre lo mucho que ya hemos logrado conocer.

Al fin y al cabo, un buen aficionado y un buen científico comparten la pasión por saber sobre un tema, una buena información sobre el tema que les apasiona y una enorme curiosidad por averiguar cosas nuevas. Porque lo que hace al científico no son los aparatos, las batas blancas ni los recursos abundantes, sino un método que sigue permitiéndonos responder en forma certera a las preguntas que nos hacemos sobre el mundo que nos rodea.

El inventor en su cochera


Una leyenda urbana asegura que Charles H. Duell, director de la Oficina de Patentes de los EE.UU. desde 1899, recomendó el cierre de dicha oficina porque "todo lo que podía inventarse ha sido inventado". Pero no dijo tal cosa, sino que sus intervenciones públicas iban precisamente en el sentido contrario, y sólo en su primer año al frente de tal institución se otorgaron más de 25.500 patentes, tres mil mas que en 1898.

La realidad es que en el terreno de los inventos el aficionado también tiene todavía un gran espacio de maniobra sin necesidad de contar con una avanzada tecnología o recursos. Los expertos en inventos dicen que lo único que se necesita es identificar un problema común y buscarle una solución sencilla y práctica, además de mantenerse alerta a lo que se observa, actividad esencial en la ciencia. Después de todo, el velcro fue inventado por el ingeniero suizo Georges de Mestral cuando se le ocurrió mirar de cerca los cardos que se le habían pegado a sus pantalones y al pelo de su perro. El mejor invento es aquél del que se puede decir: ¿cómo no se le ocurrió antes a nadie?

ADN: revolución en la evolución

Las siglas ADN son ya parte del discurso cotidiano, y sin embargo, o quizás por ello mismo, la materia con la que está hecha la vida en la Tierra se ha rodeado de mitos.

Entre la observación de que ciertas características se transmiten de padres a hijos, la herencia genética, y el conocimiento del mecanismo que permite este hecho ha mediado toda una batalla científica. La identificación que hizo Gregor Mendel en 1865 de las formas que asumía la herencia y el descubrimiento realizado por Charles Darwin de que las variaciones en dicha herencia daban origen a los procesos evolutivos en la vida, dejaban planteado el desafío de conocer el mecanismo bioquímico íntimo responsable de la herencia.

Aunque el ADN ya se había identificado en el siglo XIX, fue a principios del XX cuando se pensó que podía ser la clave de la herencia genética. En 1953, James Watson y Francis Crick consiguieron descubrir la estructura del ADN, describiéndolo como una “doble hélice” que formaba cada uno de nuestros cromosomas. El ADN forma una larga cadena molecular similar a una escalera de mano retorcida donde los peldaños están formados por conexiones de moléculas llamadas bases: adenina (A), guanina (G), timina (T) y citosina (C). Lo peculiar de esta disposición es que la adenina sólo se conecta con la timina, mientras que la guanina sólo lo hace con la citosina. Así, un “lado” de la escalera puede reproducir al otro, pues sus bases están emparejadas de modo preciso. En 1957, Crick describíó cómo el ADN podía producir las proteínas a partir de sustancias más simples, los aminoácidos, lo que se vio confirmado experimentalmente un año después. La tarea entonces fue descifrar el lenguaje del ADN escrito con las cuatro bases: AGTC.

La primera tarea fue reunir todo el “libro” del ADN humano, la secuenciación del ADN. Mientras tanto, se fueron identificando zonas de algunos cromosomas en las que se hallaba el origen de ciertas características e incluso de afecciones o tendencias a enfermedades. Por desgracia, los medios comenzaron a hablar de los “genes de” tal o cual enfermedad, cuando no de ideas tan extravagantes como “el gen de las tendencias delictivas” o “de la inteligencia”, que en realidad no existen.

El conjunto del ADN de nuestros cromosomas, el genoma, se subdivide funcionalmente en genes, las unidades responsables de crear proteínas y realizar otras funciones esenciales. Pero, como explica el biólogo evolutivo Richard Dawkins, este genoma no es “un plano” de nuestro cuerpo y nuestro comportamiento en el sentido de que cada elemento como la longitud de la nariz o la tendencia al mal humor estén determinados en un gen o un grupo de genes, sobre todo porque sólo hay unos 25.000 genes en nuestro genoma (una planta, en cambio, puede tener más de 50.000 genes) con unos 3 mil millones de pares de bases.

Hay aejemplos en los que una falla en un gen provoca una enfermedad, como la enfermedad de Huntington, donde una repetición de las bases CAG al final de un gen provoca la síntesis incorrecta de una proteína que, a su vez, produce la muerte de células cerebrales y por tanto problemas en el movimiento y en las capacidades mentales. Pero en general la realidad es más compleja: la gran mayoría de nuestras características dependen de muchos genes y, al mismo tiempo, de lo que ocurre a nuestro alrededor, física y emocionalmente. En ese sentido, explica Dawkins, la secuencia del ADN se puede equiparar más bien a una receta de cocina, donde las cantidades exactas y los ingredientes pueden variar notablemente sin por ello dar resultados especialmente negativos o positivos. Somos la relación compleja de nuestro entorno y de nuestra genética, no máquinas predeterminadas.

La secuenciación completa del ADN se consiguió en lo esencial en el año 2000, pero esto no significa que ya conozcamos todo nuestro genoma. Quedan grandes zonas por secuenciar, algunas de ellas altamente repetitivas y que demandan una tecnología aún por desarrollarse. Y tener la secuencia completa es sólo como haber reunido las piezas de un libro complejísimo, del que apenas sabemos leer algunas partes (como el gen responsable de la enfermedad de Huntington) pero cuyo idioma sigue siendo un enigma para nosotros. El camino que queda es largo.

Ello no impide que lo que ya sabemos haya resultado de enorme utilidad. La identificación de personas, vivas o muertas, especialmente en la criminalística, es probablemente su más conocida aplicación, tecnología impulsada, tristemente, por la necesidad de identificar a las víctimas de la guerra sucia en Argentina. Esta tecnología es también de gran utilidad hoy para la historia y la antropología, permitiéndonos conocer la composición de ciertas poblaciones, la velocidad de las mutaciones en nuestro genoma y, por ejemplo, decir sin duda, que el Neandertal no es un antecesor del ser humano actual, sino otra especie humana desaparecida antes de los albores de nuestra historia. Igualmente, el conocimiento de las tasas de mutación del ADN al paso del tiempo ha permitido resolver muchos de los misterios del proceso evolutivo.

El conocimiento del mapa genómico del ser humano, de la historia que nos cuenta nuestro ADN, ha servido también para archivar concepciones como las racistas, al determinarse que las diferencias entre lo que antiguamente se llamaba “razas” es tan superficial como parece. Genéticamente, la diferencia entre usted y su su vecino de toda la vida, por ejemplo, es mucho mayor que la diferencia que separa a la media de todos los europeos y de todos los africanos de tez oscura.

Malinterpretar el ADN



La mala comprensión de los mecanismos de la herencia puede llevar a otros tipos de discriminación. Si bien puede ser útil saber que uno tiene ciertas características genéticas que lo predisponen a ciertas enfermedades o se las causarán sin duda alguna, ello no debería implicar discriminación por motivos genéticos en la sociedad, en el lugar de trabajo o ante las compañías de seguros. El tener ciertas características genéticas es solamente uno de los muchos aspectos que conforman la vida y el desarrollo de una persona, y centrarse únicamente en uno de ellos, así sea contando con ciertas evidencias científicas, no deja de ser un acto de injusticia. Si Mozart tenía la constitución genética, por ejemplo, para desarrollar cierto cáncer colorrectal hereditario, ello por supuesto no significaba que fatalmente lo desarrollaría, y las otras muchas circunstancias de su vida hicieron que muriera mucho antes de que se supiera, dejándonos un legado asombroso.

Y si la genética no es destino, bien vale la pena tener presente que la ciencia biológica busca hoy, precismente, subsanar los desórdenes genéticos más graves como lo ha hecho con otras muchas afecciones que en el pasado se consideraban decisivas.

Democratizar el espacio

El sueño de escritores y científicos se convirtió en un arma propagandística de la guerra fría y en una zona militar. ¿Es ya el momento de que el espacio sea patrimonio civil?

Un grupo de estudiantes del Departamento de Ingeniería de la Universidad de Cambridge se ha impuesto una misión singular: llegar al espacio por menos de mil libras esterlinas (unos 1.500 euros). Para ello emplean globos de helio que llegan a unos treinta kilómetros de altura y, desde allí, pretenden lanzar un cohete que sería más pequeño y más barato que su equivalente lanzado desde tierra firme. Hace poco, este “Proyecto Nova” consiguió llevar un globo con cámaras a esa altura, tomar magníficas fotografías del perfil curvo de la Tierra antes de que el globo estallara y hacer descender la carga con seguridad mediante un paracaídas.

Evidentemente, este ambicioso proyecto de reducción de costos esto no implica llevar personas al espacio, pues la carga que pueden poner en órbita es pequeña, pero sí abriría el espacio a muchísimas organizaciones científicas, académicas e incluso comerciales y empresariales que desean enviar al espacio determinadas cargas, aparatos, sensores, experimentos, etc., pero que no pueden hacerlo en las condiciones actuales, cuando llevar cada kilogramo al espacio puede costar por encima de un millón de dólares.

Para llevar personas están otras opciones. No sólo el turismo espacial en las agencias gubernamentales, sino proyectos como el de Virgin Galactic, empresa del peculiar Richard Branson, que ha recorrido el camino al espacio desde sus tiendas de discos y su sello musical Virgin pasando por empresas de vuelos baratos y servicios de telefonía móvil. Desde 2004 tiene la empresa dedicada a comercializar el trabajo de Scaled Composites, empresa que consiguió el primer vuelo espacial privado el 21 de junio de ese año con su Spaceship One y que acaba de anunciar el Spaceship Two y la posibilidad de iniciar vuelos comerciales suborbitales en 2009. Esto pondría el espacio al alcance de muchas personas para las que antes estaba vedado, no sólo por el carácter gubernamental de los programas espaciales, sino porque su forma de llegar al espacio es tal que no se necesita el nivel atlético que hasta hoy deben satisfacer los astronautas e incluso los turistas espaciales.

Esta democratización espacial representa un cambio radical del juego del espacio tal como se ha desarrollado hasta hoy.

De la imaginación al cohete para todos

A través de la imaginación y la literatura, los seres humanos se empezaron a plantear hace mucho la posibilidad no sólo de ver los cielos, sino de ir allá, al espacio. El primer escrito al respecto que conocemos es la Vera Historia de Luciano de Samosata, donde el autor va a la Luna y es testigo de guerras entre los reyes de la Luna y el Sol sobre los derechos de colonización de Venus, con ayuda de seres de otros planetas.

Muchos otros escritores soñaron con viajes al espacio, fundando de paso la ciencia ficción, pero no se hicieron una posibilidad real sino hasta que el matemático ruso Konstantin Tsiolkovski escribió los primeros tratados académicos sobre exploración espacial a partir de 1903, calculando la velocidad de escape de la gravedad terrestre, proponiendo los cohetes a reacción con combustible de hidrógeno y oxígeno líquidos, las estaciones espaciales e incluso sistemas biológicos para suministrar oxígeno a los viajeros espaciales, convencido de que, “La Tierra es la cuna de la humanidad, ¡pero no podemos vivir en una cuna para siempre!”

Con las teorías de Tsiolkovski y el trabajo teórico-práctico del estadounidense Robert H. Goddard, que lanzó el primer cohete de combustible líquido en 1926, se hizo posible alcanzar realmente el espacio. Pero para algunos, como Hitler, los cohetes eran sobre todo una forma de llevar la muerte a todos quienes odiaba, y los promovió intensamente como bombas voladoras (las V-1 y V2). La experiencia que con ello reunieron los científicos alemanes hizo que, una vez terminada la Segunda Guerra Mundial, fueran “repartidos” entre la URSS y los EE.UU. y fueran usados en la “guerra fría” para que ambos contrincantes buscaran demostrar su superioridad conquistando el espacio. Cuando la Unión Soviética consiguió poner en órbita el satélite Sputnik I, el 4 de octubre de 1957, la carrera ya estaba en marcha, y ambos adversarios habían realizado intentos de vuelos orbitales. La guerra propagandística del espacio no bajó de intensidad sino hasta la llegada del hombre a la Luna el 20 de julio de 1969, para concentrarse en las primeras estaciones espaciales.

A la caída de la Unión Soviética, sin embargo, muchos fondos dedicados a la exploración espacial desaparecieron. La Guerra Fría había terminado, Estados Unidos no tenía un enemigo que ameritara un esfuerzo como el de los treinta años anteriores, los países que habían formado la Unión Soviética tenían problemas graves y urgentes, y muchos políticos desconocían (y desconocen) los beneficios que puede traer la exploración espacial.

Los fondos que no estaban allí ya dejaban, sin embargo, un hueco: el ser humano común seguía interesado en el espacio, aunque hubieran perdido impulso los políticos y los líderes militares. Y hoy, por primera vez, empieza a parecer posible la democratización, la ciudadanización del espacio para ponerlo al alcance de los ciudadanos corrientes, lo cual es una buena noticia, siempre y cuando no implique, claro, la privatización del espacio extraterrestre.

Leyes, guerra y ciencia ficción


Incluso mientras se lanzaban los primeros cohetes espaciales, los diplomáticos se ocuparon de ir creando un complejo entramado legal destinado a impedir que ningún país se pudiera apropiar del espacio o de los cuerpos extraterrestres. Por ello los Estados Unidos no pudieron tomar posesión de la Luna y la placa que llevaron dice: “Vinimos en paz por toda la humanidad”. La legislación extraterrestre prohíbe las armas atómicas en el espacio, establece la obligación de devolver las naves espaciales y tripulantes extranjeros que caigan en otro país y busca consagrar el uso pacífico del espacio y los cuerpos no terrestres.

Nada de esto impidió, sin embargo, la actividad militar en el espacio, desde los satélites espías hasta la imposible pero bien propagandizada “Iniciativa de defensa estratégica” o “guerra de las galaxias” de Ronald Reagan, diseñada, y esto pocas personas lo saben, con ayuda de un grupo de escritores de ciencia ficción situados políticamente a la derecha, como Robert Heinlein, Larry Niven y Jerry Pournelle. Sí, técnicamente el sistema presentado por Reagan era imposible, pero nadie lo sabía, y ayudó a dar fin a la guerra fría con los resultados por todos conocidos, y que difícilmente previeron aquellos escritores.

El Neandertal, el Piltdown y el Hobbit

En la búsqueda del origen del hombre hay errores y fraudes que nos enseñan cómo la ciencia se desembaraza de sus propios lastres y debilidades humanas para seguir avanzando.

En 1953 se anunció al mundo que el famoso fósil del "Hombre de Piltdown" descubierto en 1912 en Sussex, Inglaterra, y anunciado como el "eslabón perdido" entre el hombre y el mono era una falsificación. Y además se trataba de una falsificación ingeniosa pero basta, que unía la mandíbula de un orangután con un cráneo humano medieval y algunos dientes de chimpancé. Los dientes habían sido limados para darles apariencia humana, se le había dado imagen de antigüedad a los restos sumergiéndolos en una solución de hierro y ácido crómico y se había roto el extremo de la mandíbula correspondiente a la articulación, el cóndilo, para que no se viera que las piezas no coincidían.

En 1912, el descubridor, Charles Dawson, había dado, en apariencia, respuesta a la duda más repetida de los adversarios de la teoría de la evolución de Darwin: ¿dónde estaba el animal medio hombre y medio mono, el "eslabón perdido"? El prestigio de Dawson, sus muchos contactos y la idea que se tenía de una línea recta (que hoy sabemos imposible) entre un mono y el ser humano, sin rodeos, desviaciones ni ramificaciones complejas, además del sentimiento nacionalista británico se coludieron para hacer que el "descubrimiento" fuera aceptado generalmente como un genuino antepasado humano.

Sin embargo, el fraude se desmoronó al fin. Para 1953, los descubrimientos realizados en todo el mundo bosquejaban un panorama de la evolución en el que no encajaba el "hombre de Piltdown". Los expertos, mejor preparados, volvieron al cráneo y observaron que la inclinación de uno de los molares no correspondía a lo anatómicamente esperable. Lo vieron bajo el microscopio, detectaron las marcas del limado y volvieron a analizarlo a fondo hasta demostrar su falsedad.

Pero, al menos en parte, la aparición y aceptación del "hombre de Piltdown" nació de una cierta envida hacia los alemanes por el hallazgo del Homo neanderthalensis. En agosto de 1856, en el valle del Neander cerca de Düsseldorf, Alemania, se encontraron restos fósiles similares a otros que ya se habían encontrado en Bélgica y en Gibraltar. Pero en este caso, los restos fueron a manos del naturalista aficionado Johann Karl Fuhlrott, quien los entregó al anatomista Hermann Schaafhausen. En 1857, anunciaban que habían descubierto lo que parecía un ancestro humano, el "primer europeo" primitivo, más bajo, tosco y grueso, pero humano. Este descubrimiento marcó el inicio de la paleoantropología (la ciencia que estudia los orígenes del hombre), aunque los avances posteriores demostraron que el neandertal no es ancestro de nosotros, sino una especie distinta, surgida hace unos 300 mil años, que ocupó Europa y que se extinguió hace unos 24.000 años, con lo que convivió con nuestros genuinos ancestros durante al menos 15.000 años.

Sin embargo, una característica de los primeros neandertales encontrados se establecería en la cultura popular de un modo que desvirtúa nuestra evolución. Los ancestros del ser humano ya caminaban totalmente erguidos hace al menos tres millones de años. Primero anduvimos en dos pies y mucho después se desarrolló nuestro cerebro, son las dos características que nos diferencian de otros primates. Pero los neandertales tenían una gran tendencia a la artritis, y en un principio los huesos deformes fueron interpretados como signo de un andar similar al de los chimpancés, al grado de que prácticamente todas las representaciones de hombres primitivos en el cine y el teatro implican desde entonces un andar simiesco insostenible desde el punto de vista evolutivo. La paleoantropología abandonó rápidamente la idea de que todos los neandertales caminaban con dificultad e identificó su problema de salud, pero el cine aún no llega a tanto.

El último protagonista que ha entrado en escena es el "hombre de Flores", Homo floresiensis o, popularmente, el "hobbit", un ser de un metro de estatura y proporciones normales, capaz de hacer herramientas, anunciado a fines de 2004 por quienes lo descubrieron en la Isla de Flores en Indonesia. Los descubridores del esqueleto de 18 mil años de antigüedad (que, por cierto, es de una hembra) proponen que se acepte como una nueva especie humana descendiente, como nosotros, de Homo erectus y cuya talla sería producto del "enanismo de las islas", un fenómeno común en el que diversas especies adquieren tamaños progresivamente menores al verse confinadas en islas. Sin embargo, en esta ocasión han encontrado resistencia por parte de otros paleoantropólogos que no desean verse metidos en otro caso de Piltdown y pretenden ser más cautos.

Pero hay críticos que señalan que el esqueleto encontrado ahora tiene todas las características de un pigmeo moderno con microcefalia, lo que se ha sustanciado con estudios tanto de la forma del cráneo como de su capacidad, y el asunto tiene relevancia por la presencia de pigmeos modernos en la zona del hallazgo. Por otra parte, los críticos señalan que las herramientas que se encontraron junto con el esqueleto son idénticas a las hechas por los humanos modernos, mientras que hay diferencias sumamente evidentes en las herramientas hechas por cada una de las demás especies humanas (el ergáster, el neandertal, el habilis, etc.) .

En estos momentos, los descubridores originales del Homo floresiensis están en Indonesia, buscando otros fósiles similares. Si los encuentran, sería necesario aceptar a la nueva especie porque es muy improbable que hubiera una población entera de pigmeos microcefálicos. De no encontrarlos, será necesario estudiar más y, quizá, esperar prudentemente (que es algo que la ciencia ha aprendido a hacer) hasta que nuevos datos nos den la pista de lo que realmente es el "hobbit" de Indonesia.

Que es lo único que realmente nos interesa.

Piltdown: ¿quién y por qué?


La historia mantiene el enigma del autor de la falsificación del hombre de Piltdown. Se habla del propio Charles Dawson, sobre todo porque con el tiempo se demostró que muchos de sus maravillosos descubrimientos como arqueólogo aficionado resultaron falsificaciones. Pero también se ha implicado a varias personas de su entorno, entre ellos nombres tan conocidos como el del cura jesuita Pierre Teilhard de Chardin, uno de los responsables de que el Vaticano aceptara finalmente la evolución, o el de Arthur Conan Doyle, el genial creador de Sherlock Holmes que, sin embargo, creía en cuanta patraña paranormal y mística pasaba cerca de él. Igualmente sigue sin saberse el motivo del fraude, que igual pudo ser un intento de engaño simple y puro o una broma que se les salió de las manos a los autores.

El tejido del tiempo

No podemos definir el tiempo, apenas podemos medirlo y tratar de responder a algunas de las interrogantes que plantea: ¿tuvo comienzo?, ¿transcurre de modo uniforme?, ¿se puede viajar al pasado?

Muy temprano en su historia como especie, el hombre enfrentó el acertijo del tiempo. La sucesión del día y la noche y de las estaciones, los ciclos recurrentes, contrastaban con sucesos que no se repetían, sino que tenían una duración determinada, como la leña que se quemaba y, en particular, la vida humana. Para algunos paleoantropólogos, la aparición de los ritos funerarios es una de las señas claras de humanidad en nuestra especie y en las otras especies humanas que ha habido, como los neandertales.

La primera persona que sabemos que enunció la irreversibilidad del tiempo y su efecto en el universo, que es el cambio, fue el filósofo griego Heráclito de Éfeso, que señaló que "Todo fluye, nada está detenido" y observó que un hombre no puede entrar dos veces en el mismo río, porque entre la primera y la segunda vez, tanto el hombre como el río habrán cambiado. El tiempo, así, se convierte en la medida del cambio. Para Isaac Newton, el tiempo era, junto con el espacio, un contenedor o recipiente de los sucesos, tan real como los sucesos que contiene, y su flujo era siempre constante. Esta visión se contraponía con lo sugerido por el matemático Karl Leibniz, para quien el tiempo, como el espacio y los números, eran sólo aparatos conceptuales que usamos para describir las interrelaciones de los acontecimientos, pero sin existencia real.

El debate entre ambas posiciones se mantuvo hasta la llegada de Albert Einstein al panorama de la física con su Teoría General de la Relatividad. Esta teoría, que explica mejor el universo que la de Newton, ampliándola a los terrenos de lo muy grande y lo muy pequeño, derribó efectivamente la frontera entre el espacio y el tiempo para enseñarnos a hablar de un "continuo espaciotemporal", situando al tiempo como la cuarta dimensión del universo.

Hoy, el simple sentido común nos dice que la conclusión de Einstein es perfectamente lógica. Por ejemplo, supongamos que alguien nos cita para una reunión. Nos tiene que dar, por supuesto, direcciones en tres dimensiones espaciales, es decir, en qué punto del mapa está el lugar de la reunión, por ejemplo, la esquina de la calle A con la calle Z. Eso nos da, por supuesto, dos dimensiones. Pero necesitamos una tercera, para saber si habremos de verlo en los bajos del edificio o en el piso 18. Así, nuestros domicilios son un conjunto de coordenadas en tres dimensiones que indican dónde vivimos. Pero para esa reunión necesitamos la cuarta coordenada, la cuarta dimensión: la hora de la reunión. Así, el acontecimiento se define en cuatro dimensiones, las tres del espacio (calle A esquina con calle Z, piso N) y una del tiempo (a las 4:30 en punto).

Pero Einstein hizo algo más importante: eliminó el concepto del "tiempo absoluto" de Newton sin caer en el tiempo conceptual de Leibniz. En la teoría de la relatividad, se puede describir el movimiento sin acudir al tiempo. Las ecuaciones fundamentales de la teoría einsteiniana no hacen referencia alguna al tiempo, de modo que no se puede hablar del tiempo de modo general (como Newton) ni abstracto (como Leibniz), sino que debe establecerse en cada caso en particular estableciendo los procesos físicos que se usarán para medir el tiempo. Una vez que se indica el proceso, la teoría puede explicar todo el movimiento.

Esto significaba algo especialmente importante, que el tiempo no es un elemento absoluto ni fluye de modo constante, sino que es relativo a la velocidad de desplazamiento de un objeto o persona. La forma más clara de expresar esta conclusión, convalidada por numerosos experimentos, es la de los hermanos gemelos. Supongamos que uno de dos hermanos gemelos se queda en la Tierra durante sesenta años, mientras que su mellizo viaja a grandes velocidades (cercanas a la de la luz) durante ese mismo tiempo. Lo que ocurrirá será que, al volver, el hermano viajero será mucho más joven que el que se quedó en la Tierra, ya que al moverse a gran velocidad, el tiempo transcurrirá más lentamente para él. Si se mueve a la velocidad de la luz, el tiempo se detendría completamente para él, pero es imposible alcanzar la velocidad de la luz por asuntos que también se derivan de la teoría de Einstein.

Sin embargo, otros problemas del tiempo se mantienen. Hasta hoy, toda la evidencia que tenemos indica que lo que los físicos llaman "la flecha del tiempo" sólo se mueve en una dirección, es decir, que es imposible ese sueño de los escritores de ciencia ficción de viajar al pasado. El único viaje en el tiempo que podemos hacer es, como decía el escritor Damon Knight, hacia delante, a un segundo por segundo. Y, sin embargo, algunas interpretaciones de la física cuántica indican que esto podría no ser del todo cierto.

El otro problema que ha resuelto la física es el del inicio del tiempo. Para los cosmólogos, el tiempo surgió junto con el espacio y la materia en la gran explosión o Big Bang que dio origen al universo, hace aproximadamente 15 mil millones de años. Dado que sólo en ese momento existió el tiempo, no tiene siquiera sentido preguntar ¿qué había antes del Big Bang?, porque no existió un "antes" de ese acontecimiento. Es el principio de todo. Esto dejaría, claro, pendiente el problema del final del tiempo. La eternidad concebida como un tiempo sin fin (tenga o no un principio) puede no ser una visión precisa de la realidad: el tiempo que comenzó podría terminar, así sea dentro de miles de millones de años, posibilidad que algunos encuentran muy poco agradable.

La paradoja del abuelo


La idea de viajar al pasado, recurrente en la ciencia ficción, enfrenta un problema que se conoce como "la paradoja del abuelo": si usted viaja en el tiempo y asesina a su abuelo antes de que éste pudiera procrear a su padre, su padre no existirña en el futuro y, por tanto, usted tampoco existiría. Y si usted no existe, no podría volver al pasado para matar a su abuelo.

La paradoja parece irresoluble a menos que se considere la posibilidad no de un universo, sino, siguiendo algunos desarrollos de la física cuántica, la de los multiversos, un número infinito de universos posibles. Todos los universos posibles, según esta idea, coexisten al mismo tiempo. Así, al viajar usted al pasado y matar a su abuelo, estaría realmente viajando a otro pasado posible idéntico a éste en el que mataría a su abuelo. En ese universo, su padre y usted nunca existirían, pero eso no importaría porque usted sería un extraño en ese universo. Pero en ese supuesto, al volver a su universo vería que no habría matado a su abuelo, reconciliándose así los dos polos de la paradoja.

El mundo digital

Todo parece ser digital, y todo lo digital parece ser bueno y deseable, pero ¿qué es lo digital, cuáles son sus ventajas y desventajas?

La democratización o, quizás, mercantilización de la palabra "digital", y los años transcurridos desde que se puso en marcha, ha dejado olvidado el significado de la palabra "digital" y las importantes diferencias que tiene respecto de la forma anterior de representar el mundo y la información, la "analógica". Parece oportuno, entonces, hacer un repaso de lo que realmente significa esa omnipresente palabra.

Muchas cosas ocurren de manera continua en el tiempo. Por ejemplo, en la música tenemos sonido vibrando continuamente. Si deseamos registrar el sonido, podemos utilizar un sistema como el de Tomás Alva Edison: un sustrato en el cual las ondas sonoras mueven un estilete que va grabando físicamente un surco continuo. Al hacerse pasar otro estilete con un dispositivo de amplificación sobre el sustrato, se reproducirá el sonido de manera analógica, es decir, donde cada valor representado es análogo al original. Es el principio que se utilizó en los discos de música hasta principios de los años 80, cuando apareció el disco compacto digital. Recientemente, y en manos de pichadiscos, DJ o diyéis, el disco de vinilo ha reaparecido como recordatorio de los orígenes del registro analógico de la música.

El problema es que los ordenadores no pueden trabajar con señales continuas o analógicas. Los ordenadores sólo entienden un idioma formado a partir de números, y los números no son continuos, sino son lo que los matemáticos llaman "discretos". Los números son dígitos, y por tanto digitalizar algo es simplemente convertirlo en una serie de números que puedan manejar los ordenadores y todos los dispositivos, máquinas, aparatos y adminículos basados en los principios de la informática.

Los números y los símbolos tales como las letras son de por sí discretos o discontinuos. No hay una gradación continua de valores entre la letra "a" y la letra "b", por ejemplo, de modo que los símbolos que forman las palabras que usted lee mantienen intacto su valor desde que yo los escribo en un ordenador hasta que llegan a usted. Pero si tratamos de representar para un ordenador un sonido que suba continuamente de una nota grave a una aguda, como lo puede hacer un cantante o un violón, tenemos que digitalizarlo o convertirlo en números, y para ello debemos darle un valor a la nota más grave y otro a la más aguda. Por ejemplo, podemos asignarle 1 a la nota más grave y 50 a la nota más aguda. Lo que ocurrirá es que nos veremos obligados a incluir toda la gradación tonal en sólo 50 sonidos. En la vida real, la señal analógica es continua, pero en el mundo digital habrá un 1 y luego un 2, sin nada en medio. Al escuchar esta sucesión de 50 tonos, lo más probable es que el oído humano detecte 49 saltos desagradables de un tono a otro más alto, sin la continuidad del original.

Para mejorar nuestra percepción de ese sonido, podemos dividirlo no en 50 fragmentos, sino en 100, o en 1000, o en 100.000. Al ir usando más números para representar esa continuidad, llegará el momento en que nuestro oído perciba los fragmentos como si fueran continuos. Esto se debe solamente a las limitaciones de los sentidos, pero sigue siendo una sucesión de fragmentos discontinuos. Es decir, al aumentar la tasa de muestreo o la resolución digital de lo que estamos reproduciendo, podemos dar la ilusión de que es continuo, nada más. Y, lo que es más importante, hay una determinada cantidad de información que se habrá perdido en el proceso de digitalización o conversión en números.

La tasa de muestreo o la resolución del proceso de digitalización resulta así esencial para la calidad del producto final. Una fotografía de una cámara digital ya vieja, de 640 x 480 píxeles, por poner un caso, pierde muchísima información, porque todo lo que hemos fotografiado está representado únicamente por 307200 puntos, y cada uno de esos puntos sólo puede tener una cantidad limitada de información en cuanto a color y luminosidad. Esa cámara tiene así 1/3 de megapíxel de resolución. Muy poco si la comparamos con una moderna cámara profesional capaz de registrar la misma escena con 11 millones de puntos (11 megapíxeles), cada uno con varios miles de valores posibles en cuanto a color y luminosidad.

Sin embargo, por grande que sea la calidad, la información que se pierde al digitalizar un continuo es irrecuperable. Esto carece de importancia en algunos casos, como en documentos que podemos escanear o digitalizar a baja resolución porque sólo nos importa su contenido literal, y da igual que no se haya reproducido una mota de polvo o una arruga del papel. Pero la pérdida de información es una preocupación al digitalizar un documento histórico que puede contener información no sólo por lo que está escrito en él, sino por la disposición de las fibras del papel (que pueden dar pistas sobre su fecha y lugar de producción), minucias caligráficas, imperfecciones en el trazo que pueden hablar del tipo de pluma o tinta empleadas.

La pérdida de esa información se compensa con una de las características más asombrosas de los documentos digitales, una que hoy damos por hecho pero que fue un sueño inalcanzable durante gran parte de la historia humana: la posibilidad de tener copias perfectas de los archivos digitales. Ya teniendo un archivo digital, de sonido, de imagen, de cine, de lo que sea, lo podemos copiar sin que pierda ya nada más de información.


La telefonía digital


Anteriormente, nuestras palabras se convertían en variaciones de voltaje que viajaban por un cable de un teléfono al otro. Esa telefonía analógica se ha visto reemplazada por una telefonía digital asombrosa, en la que todos los sonidos que emitimos se convierten en números que se unen en "paquetes". Dada la velocidad a la que se comunican los ordenadores, un solo cable (y más si es de fibra óptica) o una onda de radio (en la telefonía móvil) puede transmitir decenas y hasta miles de conversaciones al mismo tiempo. Los "paquetes" de cada conversación tienen una "etiqueta" numérica que permite que un ordenador al otro extremo reconstruya la "grabación digital" de las palabras de cada una de las conversaciones, sin confundirlas, y las transmita a la persona con la que hablamos, todo a tal velocidad que nos resulta imperceptible. Y al no estar sometidos tales "paquetes digitales" a interferencias eléctricas, la calidad del sonido es muy superior a la de la telefonía analógica, pese a que cada cosa que decimos y escuchamos ha sido convertida en números, destazada, enviada y recompuesta de nuevo, a veces al otro lado del mundo.

Las reglas del cortejo

Encontrar pareja y reproducirse es uno de los imperativos de la vida. El proceso tiene expresiones que a veces rayan en el absurdo, y no sólo entre los otros animales.

"El cortejo", pintura de Edmund
Leighton
(D.P., vía Wikimedia Commons)
La danza de cortejo de las aves llega a su mayor complejidad entre las aves del paraíso, varias decenas de especies de aves de Oceanía cuyos machos tienen los plumajes más elaborados y coloridos del planeta, a más de ser en muchos casos danzarines capaces de complejísimas evoluciones, recolectores de objetos brillantes, tejedores de chozas y expertos en otros tipos de exhibición cuyo objetivo es conseguir pareja entre las hembras, de colores poco llamativos y sin plumajes excesivos.

Estas acciones y el aspecto de los machos en muchas especies lo explica la biología evolutiva como una forma de señalar a las hembras que tienen ante ellas a posibles parejas que sanas, capaces, hábiles y, por tanto, adecuados para donar sus genes a la siguiente generación y, en su caso, para cuidarla. Las conductas y aspecto han ido evolucionando como parte de la competencia de los machos, hasta llegar incluso a poner en riesgo otras capacidades. El ejemplo clásico es el pavorreal, cuyas plumas casi le impiden volar, pero como los machos que las tienen muy cortas no consiguen procrear, al paso de miles de generaciones, las plumas del pavorreal se mantienen en el precario equilibrio necesario para todavía volar pero al mismo tiempo impresionar debidamente a las hembras.

El cortejo puede ser mortal. Una leona madre y solitaria que se una a un nuevo macho verá cómo su pareja recién obtenida mata a los cachorros del anterior padre, asegurando así que la hembra entre en celo más rápidamente y los que vivan sean sus descendientes, los que llevan sus genes. El cortejo de los zánganos en el macabro "vuelo mortal" de la abeja reina termina con todos muertos, incluso el triunfador, el más fuerte que logra alcanzar a la hembra y aparearse con ella. Entre los insectos y arañas no es infrecuente que el que el macho termine como almuerzo de su pareja incluso durante la cópula o que se haya reducido en tamaño hasta ser casi un parásito de la hembra, un simple depósito de esperma.

Todas las herramientas de los sentidos pueden entrar en acción durante el cortejo, desde la vista y el sonido (el canto de las aves, además de marcar territorios es, en algunas especies, elemento clave para obtener cónyuge), hasta el olor, el sabor y el tacto. Por ejemplo, al parecer los seres humanos somos más sensibles a los olores sexuales (las llamadas feromonas) de lo que creíamos. El hecho de que nuestro olfato esté atrofiado para algunos menesteres no significa, en modo alguno, que lo esté del todo, y así lo demuestran experimentos donde grupos de mujeres y hombres han identificado los olores más y menos atractivos en camisetas usadas por miembros del sexo opuesto. El estudio ya famoso de Claus Wedekind en Berna, en 1996, demostró por ejemplo que hombres y mujeres hallaban más atractivo el olor de los miembros del sexo complementario cuyos sistemas inmunes eran radicalmente distintos a los propios. Desde entonces, las camisetas sudadas se han usado en numerosos estudios que nos van revelando nuestra sensibilidad a los aromas. (Habría que señalar que estos aromas humanos (que se degradan fácilmente debido al uso de la ropa, volviéndose desagradables en muy poco tiempo) nada tienen que ver con los perfumes que ahora ofrece el mercado con "feromonas", palabra que se usa como reclamo publicitario sin contenido significativo real.)

Luchas a topes entre los carneros o enfrentamientos enseñándose los dientes entre los lobos, exhibición del plumaje entre las aves, el potente croar entre las ranas, las complejas danzas en algunas especies de peces o los largos días de juegos, persecuciones y arrumacos de los osos antes de que la hembra decida si acepta o rechaza al candidato… todas las formas del cortejo que ha generado la evolución finalmente sólo tienen un objetivo: demostrarle a la hembra que el macho tiene los mejores genes. Y en ese contexto generalizado entre las especies, algunas personas se preguntan por qué el ser humano es distinto, por qué entre los seres humanos las hembras se decoran y perfuman para ser atractivas mientras que el macho de la especie es poco agraciado.

Según estudiosos de la etología, la ciencia natural del comportamiento animal, como Anatoly Protopopov, el producto cultural de la belleza femenina artificial no puede equipararse a los despliegues de los machos en otras especies, y recuerda que entre los demás animales, especialmente mamíferos superiores, no siempre el macho se distingue o consigue el triunfo en el cortejo por su atractivo físico, sino que demuestra la "calidad" de sus genes exhibiendo otras características reveladoras, como la fuerza, la habilidad para procurarse alimento, el valor y la inteligencia. Según estos estudios, la mujer se hace atractiva para informar que está dispuesta para el cortejo, que los hombres a su alrededor pueden competir con la esperanza de ganar, si les interesa ella, pero son ellos los que tienen que demostrar que son más fuertes, más simpáticos, más inteligentes, más hábiles, y entonces, la mujer elige, aunque lo haga con enorme sutileza. Salvo en las sociedades en las que los hombres pretenden derrotar este mecanismo forzando la sumisión total de las mujeres (y aún en tales sociedades ellas pueden ejercer fuertes represalias), este mecanismo es evidente en cuanto sabemos buscarlo. Difícilmente se puede decir que una cantante famosa tenga más parejas por el hecho de ser rica y famosa, pero parece bastante evidente que tal sí es el caso de los ricos, poderosos y famosos en general, aunque no sean muy agraciados.

Resulta así que, si bien en la ecuación del cortejo humano intervienen muchos elementos culturales y sociales, no está de más tener presente que estamos por nuestras bases biológicas, y que, en gran medida, seguimos las mismas reglas del cortejo que los demás animales del planeta.

La química del amor

La doctora Helen Fisher, de la Universidad de Rutgers, es una de las principales estudiosas del amor desde el punto de vista científico, una tarea que apenas ahora se empieza a abordar. Para el amor, identifica tres fases en las que intervienen distintas sustancias. La primera es el deseo sexual, movido por las hormonas sexuales, la testosterona y el estrógeno. La segunda es la atracción o enamoramiento arrebatado, donde entra en juego un grupo de neutotransmisores específicos: la dopamina, la adrenalina y la serotonina. La tercera etapa es la de la apego, que permite la formación de una pareja a largo plazo, donde actúan de modo especial dos hormonas del sistema nervioso: la oxitocina y la vasopresina.