Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Como solía ser el futuro


Desde los autos voladores hasta las computadoras inteligentes y los robots en cada casa, las predicciones de la ciencia ficción y de muchos analistas han fracasado estrepitosamente.

Las capacidades predictivas del hombre no son demasiado asombrosas fuera de los espacios estrictos de la ciencia. En ciencia, la observación y la experimentación permiten derivar leyes, teorías y fórmulas que dicen cómo se comportarán las cosas. Las leyes de la gravitación de Newton nos permiten predecir con gran precisión a con qué aceleración caerá un objeto hacia otro, o cómo se atraerán dos objetos según su masa y la distancia que los separa.

Pero esas predicciones no son del tipo que más nos entusiasma y captura nuestra imaginación. Lo que deseamos es conocer aspectos humanos y detalles del futuro que, precisamente por depender de una cantidad incalculable de factores, son prácticamente imposibles de prever.

La profecía era, hasta no hace mucho, sólo espacio de lo mágico. Gran cantidad de supersticiones se aplicaron para conocer el futuro, con un éxito nulo, tratando de ver en ciertos aspectos de la realidad “signos” sobre otros aspectos de la misma, reservando a los “profesionales” la posibilidad de interpretarlos. La astrología, la posición en la que caen huesos o conchas marinas lanzadas al suelo, la secuencia de cartas de la baraja española, americana o del tarot (todas ellas inventadas en el siglo XVI), la forma de las uñas, las líneas de la mano, las entrañas de las aves, la forma de las nubes, las hojas del té o los posos del café... las formas de fracasar en la predicción del futuro son numerosísimas.

La demostración empírica de que ningún adivinador no ha conseguido jamás realmente adivinar el futuro no basta sin embargo para que nuestra sociedad condene a sus practicantes al horrible destino que implicaría ganarse la vida trabajando. Los adivinadores siguen en nuestro entorno, quizá cumpliendo funciones sociológicas y psicológicas que, sin que ellos lo sepan, les permiten seguir medrando y depredando la ingenuidad, la inseguridad y la buena fe de sus congéneres.

Las profecías del pasado se limitaban a hechos de la vida cotidiana, como las de los brujos actuales: el resultado de los negocios, asuntos de amor, la salud y el riesgo de muerte, etc. Esto acontecía, siempre hay que recordarlo, en sociedades en las que el concepto de cambio no existía. Las expectativas eran que todo fuera igual durante la vida de una persona, como en tiempos de sus padres y abuelos, y que seguiría siendo igual para sus hijos y nietos. No había cambios notables en las relaciones sociales, en la forma de llevar a cabo los oficios de la agricultura, el tejido, la cerámica, etc. El cambio era algo que sólo podía ser malo: sequía, inundaciones, terremotos, invasiones de los vecinos, guerras y epidemias.

La revolución científica cambió todo esto. De pronto, el cambio se volvió una constante de la sociedad humana, el hoy empezó a ser distinto del ayer y, por lo mismo, se empezó a esperar que el mañana fuera distinto del hoy. Habría descubrimientos científicos, avances tecnológicos, nuevos descubrimientos de tierras, seres, tribus, riquezas. Las sociedades empezaron así a tener una evolución observable, que no se medía en siglos o, incluso, milenios, sino que podía percibirse notablemente en la vida de un ser humano (que por entonces tenía una duración media de unos 40 años). Y la pasión humana por conocer el futuro encontró un nuevo filón para expresarse.

El arma de esta forma de intento de conocer el futuro, de prevenir un futuro indeseable o de promover el más deseable, de advertirnos de riesgos y de asombrarnos con la forma en que las cosas serían en el futuro fue la ciencia ficción, que nace precisamente con la novela Frankenstein o el moderno Prometeo de Mary Wollstonecraft Shelley, y que prevé la posibilidad de que los experimentos de Galvani sobre la electricidad animal den como resultado la posibilidad de crear vida utilizando la electricidad y los nuevos conocimientos de la anatomía.

Una parte de la ciencia ficción—no toda—se ha ocupado desde entonces del futuro, de la forma que el cambio puede tener en nuestra sociedad. La hay extremadamente pesimista, que pinta futuros aterradores e indeseables, y que actúa sobre nuestros miedos de formas muy eficaces. Pero la más difundida ha sido la vertiente de la ciencia ficción que nos muestra un futuro optimista, mejor, un paraíso de ingenieros y científicos, mientras más ingenuo (y muchas veces más alejado de la ciencia real) más atractivo.

Esto ha llevado a que el hombre se imagine su futuro de modo más activo y amplio que los profetas y augures de siempre, pero generalmente con el mismo poco éxito. Claro que, al menos, los escritores, cineastas, animadores y demás artistas que se han imaginado futuros nos venden su trabajo como fantasía y no, como los adivinos profesionales, asegurando que su visión es real y está basada en algo más que un ejercicio de la imaginación.

La ciencia que nos ha dado el cambio acelerado que vivimos actualmente, donde estamos atentos a las noticias de la ciencia y la tecnología para saber qué nuevo aparato, qué nuevo descubrimiento, qué nuevo procedimiento cambiará nuestra vida de un día para otro, no nos ha dado sin embargo, todavía al menos, las armas para conocer ese cambio. Nuestros antepasados inmediatos se han imaginado futuros que hoy nos parecen absurdos, incluso cómicos. Pensemos en el lanzamiento del vehículo lunar que nos legó Georges Mélies en su filme sobre la novela De la Tierra a la Luna de Jules Verne.

El futuro de Flash Gordon, el de Buck Rogers, el de la serie Star Trek, e incluso el de la aún popular serie animada “Los Supersónicos” hoy nos parecen, por así decirlo, “futuros pasados de moda”. Además de sentir, en cierto modo, que la ciencia y la tecnología nos han traicionado al no darnos los hoteles en órbita, los robots que nos ayuden en casa, los autos voladores y los ordenadores inteligentes y hasta simpáticos que nos ofrecía la ficción, nuestra visión misma del futuro ha cambiado, y sigue cambiando continuamente. El futuro cambia conforme más sabemos de la realidad y de lo que es posible o no. Porque el futuro no es sólo el cambio científico o tecnológico. El futuro es lo que nosotros, como individuos y como sociedades, hacemos con el cambio, para bien y, con frecuencia también, para mal.


La futurología


 La previsión del futuro se enriqueció en la década de 1960 con la aparición de la disciplina llamada “futurología”, que pretende utilizar datos concretos para postular futuros posibles, probables y deseables, y analizar qué partes de nuestra realidad tienen más probablidades de permanecer y cuáles no. Lejos de ser una ciencia, no deja de ser el intento más serio de la historia por entender el futuro.


Nanotecnología: realidad y exageraciones

La fantasía puede ser más interesaante que la realidad, a primera vista, pero para el asombro, nada mejor que la realidad, como lo demuestra el trabajo de investigación en la ciencia y técnica de lo tremendamente pequeño.

Una de las tecnologías más comentadas en los últimos años ha sido la nanotecnología, es decir, la que se ocupa de productos de tamaño extremadamente pequeño, manipulando estructuras moleculares y átomos.

El problema ha sido que las vastas promesas y posibilidades de esta tecnología, y su cercanía con la fantasía y la ciencia ficción se han confundido con frecuencia con hecho reales. Los medios de comunicación, en ocasiones, toman las especulaciones más arriesgadas de investigadores y estudiosos y las presentan como previsiones puntuales del futuro, que además se cumplirán inevitablemente.

El ejemplo más manido en años recientes es el de la “máquina autorreplicable”. La idea es que se podrían construir nanomáquinas que tomaran elementos a su alrededor para constuir otras máquinas idénticas a ellas. Ello podría representar un peligro al descontrolarse dichas nanomáquinas, que atacarían al universo entero para reproducirse ciegamente.

Por supuesto, para que esto ocurriera no hace falta que las máquinas sean nanotecnológicas. De hecho, el riesgo de estas máquinas a nivel macroscópico fue propuesto en 1948 por el matemático John Von Neumann como un “experimento mental”. Las llamadas “máquinas de Von Neumann” eran máquinas hipotéticas que usarían un “mar” o almacén de piezas de recambio como fuente de materia prima. Las máquinas tendrían un programa para tomar partes del “mar” utilizando un manipulador, crear una réplica de sí misma y copiar su programa en la réplica para que ésta hiciera lo mismo.

Como el límite para la producción de máquinas de Von Neumann serían precisamente las piezas de recambio, la ciencia ficción, sin las limitaciones que se impone un matemático, se propuso máquinas que pudieran realizar excavaciones mineras y otras operaciones para producir desde cero los materiales necesarios para autorreplicarse. Autores como Philip K. Dick. A.E. Van Vogt y Poul Anderson tocaron el tema, y la guerra entre máquinas autorreplicantes y seres humanos imaginada por el escritor Harlan Ellison se convertiría en la historia de la película Terminator y sus secuelas.

Pero los problemas tanto teóricos como prácticos para llevar a la práctica las máquinas de Von Neumann a una escala macroscópica son tales que nadie se ha propuesto hacer alguna en realidad, y mucho menos estamos cerca de tener nanomáquinas autorreplicantes. La gran mayoría de las nanomáquinas que nos presentan los medios siguen siendo ciencia ficción, máquinas que no existen en el mundo a nuestra escala y cuya existencia a nivel nanométrico está incalculablemente lejos.

Cierto que los científicos sueñan con tener algún día máquinas capaces de manipular la materia átomo por átomo, con capacidad para convertir, en un ejemplo recurrente, un montón de tierra en una manzana, una silla o un ordenador, o máquinas inyectadas en el torrente sanguíneo para identificar y destuir selectivamente células cancerosas, pero nada indica que esta posibilidad esté a la vuelta de la esquina, ni siquiera que algún día se haga realidad. Por el momento, las nanomáquinas reales más complejas son engranes, piñones y escapes similares a los de los relojes mecánicos.

En la realidad, parte de la investigación que se lleva a cabo en la actualidad tiene por objeto entender cómo funcionan los materiales a nanoescalas, en donde se encuentra la frontera, aún no claramente definida, entre leyes de la física del mundo macroscópico y la mecánica cuántica. Por ejemplo, la asombrosa capacidad de las lagartijas de la variedad de los gecos para trepar incluso por superficies tan lisas como un vidrio se deben a que los pelos de sus patas se ramifican hasta llegar a espátulas con el diminuto tamaño de 2 nanómetros. A esas escalas, entran en acción las llamadas “fuerzas de Van der Walls”, que ocurren a nivel molecular. Miles de millones de leves atracciones se suman para poder sostener al geco.

Dicho de otro modo, a esas escalas la física newtoniana no siempre funciona para describir lo que ocurre. En qué punto y cómo se debe acudir a la cuántica es un tema fundamental para la nanotecnología.

Lo más probable es que las nanomáquinas que se produzcan realmente sean muy distintas a las máquinas a escala humana, no sólo versiones reducidas de lo ya conocido. Así, por ejemplo, una nanomáquina real presentada en 2008 es un “nanoimpulsor”, una esfera que puede capturar y guardar medicamentos y activarse mediante la luz para liberarlos dentro de las células cancerosas, lo que representa la posibilidad de disminuir grandemente las incomodidades asociadas a la quimioterapia, producidas cuando las células normales responden a la toxicidad de las sustancias usadas para matar las células cancerosas. Y esto sólo se puede hacer a nanoescala, donde la sola presencia o ausencia de la luz provoca un cambio fundamental en la composición del nanoimpulsor.

Además, para que la nanotecnología cambie nuestras vidas no son necesarias máquinas, ni sencillas ni complejas. Precisamente porque actúan en niveles de características aún no conocidas, se están utilizando productos muy sencillos con capacidades asombrosas. Por ejemplo, los nanotubos formados de carbono y otros elementos, de unos pocos nanómetros de diámetro y longitudes hasta de un milímetro conseguidas a la fecha, se están utilizando como semiconductores en la microelectrónica, en materiales compuestos con resinas plásticas para la administración térmica, e la conducción de electricidad, y en iluminación y producción de pantallas de vídeo. Otros nanomateriales se están utilizando para aplicaciones un tanto más ordinarias, como el recubrimiento de hojas de afeitar para hacerlas más eficaces y duraderas, y una de las más grandes promesas son paneles solares mucho más baratos, mucho más resistentes y muchísimo más eficientes que los que tenemos hoy en día.

Nanotubos, nanoesferas, nanovarillas, nanoestructuras, objetos sencillos que al ser extremadamente pequeños ofrecen posibilidades muy distintas a las de sus parientes a escala humana, y todo un universo de aplicaciones, la mayoría muy distintas a las que en ocasiones se difunden por su efecto mediático.


Nanoinformática

La microminiaturización de la informática, así como los sistemas de almacenamiento de datos, están encontrando límites cada vez más difíciles de superar. Una serie de nuevos descubrimientos han abierto la posibilidad muy real de tener una unidad de almacenamiento de 500.000 gigabytes en un espacio de 2,5 x 2,5 centímetros, y sistemas de almacenamiento muy potentes del tamaño de un grano de arena.

La fibra de carbono

Dijo Shakespeare que somos la materia de la que están hechos los sueños. Quizá. Pero también somos de la materia de la que hoy se hacen naves espaciales, bicicletas y raquetas de tenis: el carbono.

Una fibra de carbono pasa sobre un cabello humano (más claro).
La leyenda indica 10 nanómetros (millonésimas de metro)
(Imagen CC de Anton vía Wikimedia Commons)
El carbono es uno de los elementos más apasionantes del universo por su capacidad de formar cadenas, además de que es el elemento que más compuestos puede formar. A día de hoy se han descrito más de diez millones de compuestos orgánicos puros, pero teóricamente el carbono puede formar muchísimos más. Esos compuestos son precisamente la base de la vida y los cimientos de todo lo orgánico que nos rodea. Alrededor del 18,5% de la masa de nuestro cuerpo es carbono en una vasta cantidad de compuestos.

Adicionalmente, el carbono tiene la singular capacidad de formar polímeros, que son cadenas de moléculas sencillas. Por ejemplo, la glucosa es el monómero natural más común, pero puede formar diversas cadenas que dan como resultado igualmente la celulosa que lel almidón. Por todo ello, no deja de ser afortunado que el carbono sea el cuarto elemento más abundante del universo por su masa, después del hidrógeno, el helio y el oxígeno.

Finalmente, una de las peculiaridades de este versátil elemento es que existe muy poco tiempo en forma de átomos independientes, y éstos se estabilizan organizándose en varias configuraciones multiatómicas. A estas distintas estructuras se les conoce como alótropos. Los átomos en en forma no cristalina e irregular forman el carbono amorfo, como el carbón vegetal, el hollín y el carbono activado. Los átomos de carbono formando grupos de anillos hexagonales en capas forman el grafito, cuya suavidad se debe a que dichas capas están unidas muy débilmente. A grades presiones, los átomos de carbono se unen como tetraedros, cada uno a otros cuatro, creando una red cristalina que llamamos diamante. Todas estas formas, y otras más, son el mismo elemento, el carbono.

Conocido desde la prehistoria, el carbono ha sido utilizado en muy diversos procesos y ha sido intensamente investigado. Así, en 1958 se crearon las primeras fibras de carbono de alto rendimiento, pero fue necesario esperar hasta 1960 para tener una fibra que contuviera un 55% de carbono y que tenía una resistencia superior a la del acero unida a un peso muy ligero.

La fibra de carbono está formada de hilos formados por miles de filamentos de carbono. Cada filamento es un delgado tubo de entre 5 y 8 micrometros (millonésimas de metro) de diámetro. Estas fibras se pueden presentar como hilos en bobinas o en tejidos de diversas características en cuanto a espesor y resistencia.

La utilización de la fibra de carbono se realiza en combinación con diversos polímeros, principalmente resinas epóxicas, formando los llamados materiales compuestos o composites que suelen llevar el nombre de la fibra estructural. La fibra de carbono funciona como lo hace la fibra de vidrio al imparte sus propiedades a diversas resinas, y del mismo modo, cuando decimos que algo está fabricado con fibra de carbono, queda implícito que se trata de un compuesto, en el que la fibra se conoce como “matriz”, de modo que hablamos en general de compuestos “matriz-polímero”

La utilización industrial de los compuestos de fibra de carbono comenzó en la industria aeroespacial, como alternativa para sustituir piezas metálicas de gran peso, y pronto saltó al mundo de las carreras de automóviles, donde se desarrollaron distintos tejidos y mezclas de tejidos que fueran resistentes en un sentido pero débiles en otro, o bien mezclas resistentes en todas las direcciones, que se emplean en partes como la cabina del piloto, que se hace a medida y debe proteger al máximo al conductor.

Además de su resistencia y fiabilidad, la fibra de carbono tiene la gran ventaja de que puede moldearse en prácticamente cualquier forma imaginable. Las telas de fibra de carbono empapadas en resinas epóxicas son altamente maleables y flexibles, lo que da a los diseñadores una gran libertad en el uso de este material, por ejemplo para darle formas aerodinámicas o hidrodinámicas.

Las carrocerías de los coches de Fórmula Uno están hechas totalmente de fibra de carbono para controlar su peso y resistencia. Los famosos volantes de los autos de F1 son también de fibra de carbono. Los frenos, curiosamente, son de un compuesto llamado “carbono-carbono” o una matriz de carbono reforzada con fibras de carbono para resistir las altas temperaturas a las que se ven sometidos durante una carrera. El prestigio de la fibra de carbono en el mundo automovilístico es tal que muchas personas dedicadas a la modificación o tuning de autos utilizan piezas que dejan sin pintar para que se vea el peculiar aspecto del tejido de fibra de carbono.

Actualmente, los compuestos de fibra de carbono se utilizan en toda aplicación donde se necesite combinar una gran resistencia y un bajo peso: bicicletas de carreras, palos de golf, raquetas de tenis, cañas de pescar, embarcaciones para competencias de remo (canoas, skeets, kayaks), bates de béisbol, las hojas de las hélices de las turbinas eólicas, equipo fotográfico, mobiliario y robótica, arcos para tiro con flecha, etc.

Este aumento en la variedad de las utilizaciones de la fibra de carbono además impulsa la reducción del precio de este material, que sigue siendo alto, así como la investigación de mejores formas para su producción de modo más eficiente y económico.

Quizá la aplicación más asombrosa de los compuestos con matriz de fibra de carbono hasta ahora ha sido la producción de instrumentos musicales. La empresa Blackbird ha rediseñado completamente la guitarra clásica española de cuerdas de nylon, obteniendo un instrumento negro, de forma que recuerda a un laúd renacentista y, se dice, con una sonoridad similar a la de los más costosos modelos de guitarra tradicional. El caso más impresionante, es el de Luis and Clark, fabricante de violines, violas, violoncellos y contrabajos de fibra de carbono, que han conquistado un sector tradicionalmente conservador, el de los músicos clásicos. Yo-Yo Ma, el principal violoncelista de la actualidad, utiliza un cello Luis and Clark de 7.000 dólares con tanto entusiasmo como sus dos cellos clásicos Montagnana y Stradivarius, cada uno con un precio de alrededor de los dos millones de dólares.


En el aire

Dos modelos de aviones que próximamente surcarán los cielos hacen un uso intensivo de la fibra de carbono. El Boeing 787 Dreamliner que se presentó en 2007 tiene el 50% de su peso formado por fibra de carbono que se emplea en el fuselaje, las alas, la cola, las puertas y los interiores. Su competidor europeo, el Airbus A350, tendrá su fuselaje y alas formados principalmente de fibra de carbono. Esto representa, ante todo, un ahorro en combustible y una reducción de la contaminación de la atmósfera causada por el creciente tráfico aéreo en el mundo.

Oliver Sacks: los viajes por el cerebro

Para muchas personas, el doctor Oliver Sacks se llama “Malcolm Sawyer”, y tiene el rostro y acento estadounidense de Robin Williams. En 1990, el actor compartió estelares con Robert de Niro en la película Despertares, adaptación del libro del propio Dr. Sacks que relata su primer trabajo de importancia en una clínica de Nueva York a fines de la década de 1960.

La popularidad de Oliver Sacks no depende, sin embargo, únicamente de su capacidad como neurólogo, o del tipo de afecciones curiosas y desusadas que ha estudiado de modo especial, sino de su extraordinaria capacidad de convertir sus casos clínicos en historias profundamente humanas, contadas con gran calidez humana, multitud de detalles narrativos y un acercamiento profundo, agudo y empático al paciente, lo que da como resultado textos altamente informativos pero al mismo tiempo de lectura agradable y cercana.

Oliver Sacks nació en 1933 en Londres, en una familia de médicos y científicos, lo cual ciertamente marcó el camino de su vida y de la de sus hermanos, también médicos. Su primer amor fue, sin embargo, la química, como lo relata en su libro El tío Tungsteno: recuerdos de un químico precoz, que eventualmente se vería sustituida por la medicina y, en particular, la neurología. Se graduó como médico en el Queen’s College de la Universidad de Oxford e hizo residencias en los Estados Unidos para obtener su doctorado. Se mudó definitivamente a ese país en 1965, estableciendo su residencia de modo permanente en Nueva York.

En 1966, Sacks empezó a trabajar como consultor neurólogo en el hospital Beth Abraham, una institución de cuidado para pacientes con afecciones crónicas entre los cuales se encontraba un grupo de sobrevivientes de la extraña epidemia de encefalitis letárgica que recorrió el mundo en la década de 1917-1928 y desapareció tan misteriosamente como había aparecido dejando atrás millones de muertos y algunos sobrevivientes. Los pacientes estaban en una catatonia o sueño interminable. Sacks consiguió contactar con las personalidades encerradas en los pacientes, y al conocer los éxitos de la L-dopa en el tratamiento de la enfermedad de Parkinson, decidió experimentar con ella.

El dramático resultado fue, precisamente, el despertar de los pacientes. Con la L-dopa, Oliver Sacks logró darle otra oportunidad a estos pacientes después de 40 años confinados dentro de sus propias mentes. Sin embargo, como también ocurre en los casos de Parkinson, a la larga la L-dopa pierde eficacia, y al cabo de un tiempo los pacientes revirtieron a su estado catatónico.

Uno de los temas recurrentes de Oliver Sacks (en sus libros El hombre que confundió a su mujer con un sombrero y, diez años después, Un antropóloigo en marte) son afecciones neurológicas que nos permiten hacernos una idea de ciertas funciones del cerebro normal por causa de lesiones o disfunciones diversas. Así, el hombre que confundió a su mujer con un sombrero era un paciente que sufría de agnosia visual, la incapacidad del cerebro de usar correctamente estímulos visuales que recibe pero no puede interpretar. Los pacientes pueden ver un objeto y describirlo con precisión: su color, su forma, sus elementos componentes, etc., pero no lo reconoce. Cuando el personaje de ese caso intenta ponerse el sombrero para irse, rodea con sus manos la cabeza de su mujer y trata de ponérsela como si fuera un sombrero, porque para su percepción todas las cosas relacionadas con la cabeza son semánticamente iguales.

El universo de Oliver Sacks, el mundo visto desde la perspectiva de un neurólogo, es sin duda fascinante. Pacientes que no pueden formar memorias nuevas y viven en un presente permanente; otros que han perdido la propiocepción, el sentido de la posición de algunas partes del cuerpo respecto de otras; dos gemelos savants autistas como el protagonista de la película Rainman, que se comunican entre sí recitándose números primos; personas que sufren el síndrome de Tourette o la enfermedad de Parkinson; una sociedad donde todos los miembros padecen de modo congénico acromatopsia (cegera al color), en el atolón de Pingelap en la Micronesia, y cómo han desarrollado una cultura sin colores; un hombre que siente que su pierna no le pertenece y desea que se le ampute... todo un abanico de situaciones extremas para el cerebro y la percepción humana que, sin embargo, no le quitan ni un ápice de humanidad a quienes las padecen.

Sacks no sólo relata las historias de otros. Dado que todos sus casos clínicos lo implican directamente, existe una gran dosis de autobiografía en ellos. Así, además de las memorias de su infancia apasionado por la química, su libro, Con una sola pierna, está dedicado totalmente a la experiencia que sufrió Oliver Sacks al perder el control de una de sus piernas a resultas de una caída. Igualmente, en uno de los ensayos de El hombre que confundió a su mujer con un sombrero, habla de un alumno de medicina de 22 años de edad que después de una noche de fiesta con el consumo de al menos tres drogas distintas, despierta para encontrase que su sentido del olfato se ha intensificado tremendamente. Años después, confesaría que el personaje era él mismo.

Los personajes-pacientes de los libros de Oliver Sacks, multipremiado como escritor científico, divulgador y ensayista, no son sólo fenómenos que se exhiben como rarezas, son inevitablemente seres humanos, vistos como tales en todo caso y, de modo muy especial, el neurólogo se ocupa de analizar y explicar cómo los pacientes consiguen adaptarse a las más extrañas e incapacitantes afecciones neurológicas para seguir adelante con vidas felices y, en muchos casos, productivas.

El más reciente libro de Sacks, Musicofilia, es nuevamente un relato de afecciones peculiares, en este caso relacionadas con la música, retomando una fascinación que siempre ha caracterizado al autor sobre los efectos benéficos e incluso terapéuticos de la música. En él encontraremos a un cirujano que se obsesiona con Chopin después de ser alcanzado por un relámpago, a un psicoanalista que alucina con un rabino cantor y a un músico amnésico con una memoria de sólo unos pocos segundos, pero que sin embargo puede tocar en el piano largas fugas de Bach. Otra forma de ver nuestra relación con la música.


Una ópera

Además de la adaptación al cine de su libro Despertares, esta obra también fue la inspiración para la obra teatral A kind of Alaska, del conocido dramaturgo Harold Pinter, y otros de sus trabajos se han adaptado al cine y la televisión. Pero nada más inesperado que el ensayo que da título a su libro El hombre que confundió a su mujer con un sombrero se convirtiera en una ópera de cámara para tenor, barítono y soprano, del compositor minimalista Michael Nyman, estrenada en Londres en 1986.

La Web 2.0

Nerd
La Web 2.0 no es sólo asunto de jóvenes
(Foto CC de Archiboldian,
vía Wikimedia Commons
Las empresas hoy entienden y utilizan mejor la Web, y los usuarios la emplean eficazmente para ser actores de la comunicación y la información, una nueva forma de ver la World Wide Web.

Si usted es un experimentado internauta y tiene cuentas en Facebook, YouTube o Twitter, seguramente escucha hablar diariamente sobre la Web 2.0, la tecnología 2.0, el marketing 2.0 y una serie de cosas que de pronto adquieren una dimensión distinta cuando se les añade ese 2.0 que evoca la idea de una “nueva versión” de la Web, de la World Wide Web o red a nivel mundial que inventó hace 20 años Tim Berners-Lee en la Organización Europea para la Investigación Nuclear, CERN.

El informático británico propuso la idea del hipertexto o enlaces en el propio texto para facilitar a los investigadores el compartir y actualizar la información en esa poderosa organización científica. La primera propuesta se presentó en marzo de 1989, de modo que la idea de la WWW o Web está cumpliendo su vigésimo aniversario, aunque el primer sitio Web del CERN se puso en línea el 6 de agosto de 1991.

En 1994, Tim Berners-Lee fundó el consorcio de la World Wide Web (W3C), y regaló al mundo la patente de su creación para que Internet fuera asunto de todos. El W3C está formado por varias empresas dispuestas a crear estándares y recomendaciones para mejorar la Web, y ha decidido que todos los estándares que use la red (como los protocolos de comunicación, o la descripción de los lenguajes HTML o XML en que se basa) sean tecnología libre de derechos de autor, para que puedan ser adoptados fácilmente por cualquier persona, grupo u organización.

Pero la Web 2.0 no es una nueva versión de la Web original. Es la misma Web, con la misma tecnología, sin la revolución en características y funcionalidad que solemos atribuir a un cambio de versión de cualquier software. Lo que ha cambiado, y de lo que el mundo se hizo consciente más o menos desde la Primera Conferencia de la Web 2.0 llevada a cabo en 2004 en la ciudad de San Francisco es el desarrollo y diseño para la Web. Se trata de un cambio de actitud hacia la red mundial por parte de desarrolladores y público que tiene por objeto facilitar la comunicación, asegurar los procesos de compartición de la información, la interoperabilidad y la colaboración.

La idea del “2.0” implicaba, ante todo, el regreso de las empresas a la explotación comercial de Internet, pero utilizando la red como plataforma y tratando de entenderla para jugar con sus reglas en vez de tratar de imponerle las de otros espacios. Esto era realmente una nueva etapa después del desastre de las empresas”punto com”, donde a veces sin un producto o servicio real se hicieron y deshicieron fortunas hasta que la burbuja estalló en 2001. Pasada la fiebre de oro del primer intento de negocios en la Web, había otra visión, más serena y, se espera, más inteligente.

Un ejemplo muy claro del significado de la Web 2.0 son las aplicaciones o programas a los que se accede directamente por medio de la Web, como serían el procesador de texto y la hoja de cálculo que ha puesto a disposición de los usuarios el buscador Google, y que puede usar cualquier persona sin tener que descargar, instalar y activar el procesador de texto en su propio ordenador. Ésta podría ser una forma de comercialización de programas en el futuro: adquirimos una suscripción a la aplicación y accedemos a ella mediante contraseña como accedemos a distintas páginas exclusivas, sólo para miembros; cuando se actualiza la aplicación, nosotros no tendríamos que reinstalarla en nuestra máquina, ahorrándonos muchos de los problemas de compatibilidad que hoy todavía afloran entre el software y el hardware.

En la Web 2.0, los usuarios no sólo recopilan información, pueden aportarla y poseerla, llevando a nuevos límites la idea de la interactividad del usuario con el medio y, sobre todo, con otros usuarios. La participación activa del usuario ha hecho que algunos expertos consideren que, desde el punto de vista del ciudadano común, lésta es la “Web participativa”.

En ningún lugar es tan clara la participación como en los llamados “wikis”, páginas en las que cualquiera puede añadir información utilizando un lenguaje de marcado simplificado respecto de los más elaborados como el HTML. Sin ser ni la única ni la primera Web “wiki”, la más famosa y relevante es, sin duda, la Wikipedia, una enciclopedia colaborativa en más de 90 idiomas. Desde su lanzamiento en enero de 2001 hoy contiene un total de 12 millones de entradas aportadas por voluntarios de todo el mundo y en todos los idiomas (casi 3 millones de ellas sólo en inglés), y es la obra de referencia más popular de Internet.

Donde los medios han prestado más atención a Internet en los últimos tiempos es en las llamadas “redes sociales”, que son otro de los distintivos de la Web 2.0. Hoy en día, es inevitable referirse a sitios en los que el contenido es aportado en su totalidad por los usuarios, como ocurre con los vídeos de YouTube, los textos de innumerables blogs de todas las temáticas en todos los idiomas o las fotografías de Flickr, los podcasts de audio o vídeo y la sindicación vía RSS. Cada vez más personas, además, pertenecen a redes como Facebook de carácter general, o a otras más especializadas como LinkedIn, dedicada a relaciones profesionales, Tuenti, orientada al público más joven o Hi5.

El fenómeno más reciente a la fecha que ha adquirido especial importancia es el llamado “microblogging”, que se realiza en la red de comunicación Twitter, donde uno puede poner cualquier mensaje... con un límite de 140 caracteres que es precisamente el límite de los mensajes SMS de los móviles. Millones de personas escriben allí, en 140 caracteres, desde las más inanes banalidades hasta enlaces interesantes, noticias frescas e información relevante.

Además de ser cualquier otra cosa, la Web 2.0 es el primer paso de madurez de la red al cumplir sus 20 años, algo más que un juego, un verdadero proyecto para vivir, convivir y trabajar con cualquier otra persona sin importar dónde se encuentre, liberándonos de los ordenadores estorbosos para sustituirlos por dispositivos móviles, desde las miniPC hasta los teléfonos inteligentes, que nos permitan llevar la Web a todas partes no por capricho, sino porque parte de nuestra vida real cada vez más se llevará a cabo dentro de la red, para bien o para mal.

Gobierno 2.0

Es la iniciativa de la Web 2.0 aplicada a una relación más estrecha entre los ciudadanos y sus instituciones gubernamentales, creando por primera vez la posibilidad de una comunicación en dos vías que sustituya a la unilateral prevalente en todas las modalidades gubernamentales del mundo. Los más entusiastas se atreven a creer que es el primer paso para una verdadera democracia participativa más eficaz que la meramente representativa.

El estrés: más que una incomodidad


Los efectos físicos del exceso de tensión que llamamos estrés pueden ser graves en tal medida que pongan en peligro nuestra vida, y según los estudiosos del estrés, enfrentarlo es más fácil de lo que creemos.

El estrés es una de las posibles causas de muchos síntomas físicos que podemos padecer y cuyo origen no se descubre fácilmente: dolores de cabeza, de espalda y del pecho, afecciones cardiacas, arritmia, alta tensión arterial, disminución en la respuesta inmune del cuerpo (lo que algunos llaman “bajas defensas”), problemas digestivos y problemas del sueño.

A esto se deben añadir problemas de conducta que también pueden estar relacionados con el estrés, como comer en exceso o demasiado poco, los estallidos de ira, el abuso del alcohol o las drogas, fumar más, aislarse socialmente, llorar sin motivo aparente y, por supuesto, los conflictos en nuestras relaciones interpersonales, con familia, amigos y pareja.

Existen incluso métodos para tratar de medir objetivamente los acontecimientos estresantes de nuestra vida, entre ellos la escala del estrés de Holmes y Rahe, que a partir de estudios con pacientes probaron que los acontecimientos vitales que los pacientes consideraban estresantes coincidían de modo significativo con algunas enfermedades. Esta escala va desde acontecimientos poco estresantes como una multa de tráfico hasta los más estresantes, como la muerte de la pareja. Sumando la puntuación de los acontecimientos que causan estrés, podemos saber qué riesgo de enfermedad corremos.

Hoy en día, los estudios científicos han demostrado efectos del estrés que ya había entrevisto la cultura popular: el grano que aparece antes de una importante actividad social, la caída del cabello o incluso la velocidad a la cual nuestro cabello encanece, tienen explicación en el estrés. Los altos niveles de cortisol cuando sufrimos estrés aumentan la producción de grasa en la piel, facilitando la aparición del acné, mientras que en condiciones de tensión nuestro cuerpo puede prescindir del cabello con objeto de concentrar sus fuerzas en la lucha contra la causa del estrés.

No entender correctamente el estrés puede llevar a diagnósticos incorrectos y tratamientos ineficientes, especialmente entre llamadas “medicinas” alternativas que funcionan principalmente en un mundo subjetivo. Así, por ejemplo, la palabra estrés suele asociarse a los aspectos negativos de la vida moderna como una consecuencia inevitable de un mundo que nos ofrece, del lado positivo, avances tecnológicos, una vida más larga y de mejor calidad, comodidades y entretenimiento más allá de lo que nunca hubieran podido imaginar nuestros ancestros de hace apenas 200 años.

Condenar a la vida moderna no es una solución incluso si estuviéramos dispuestos a abandonarla, retirarnos a vivir comiendo hierbas en el Amazonas, dejar el trabajo y arriesgarnos a morir por sufrir infecciones, lesiones y enfermedades sin cuidado médico. Y es que el estrés, nos dicen los médicos, no es una conclusión inevitable de la vida moderna, ni exclusivo de este tiempo. El estrés es producto de una relación conflictiva entre el mundo exterior y nosotros.

De hecho, el estrés, según algunos autores no es sino la reacción ante el Síndrome General de Adaptación (SGA), que incluye la alerta al estímulo amenazante que dispara la decisión de “lucha o huida”. ¿Debe el organismo luchar para salvar la vida? ¿Es mejor huir para conseguirlo? Incluye también la etapa de resistencia, cuando el fenómeno estresante persiste, creando un conflicto continuo, y finalmente el agotamiento, cuando los recursos del cuerpo para enfrentar al fenómeno estresante se agotan y el sistema inmune se descompensa.

Esto implica una serie de procesos cerebrales que están bien identificados, desde la respuesta inicial que implica una descarga de adrenalina que nos pone en estado de alerta, hasta las reacciones del hipotálamo y la glándula pituitaria y una variedad de nuestros circuitos neurológicos entran en acción para resolver el conflicto que se nos presenta. Es una reacción natural y saludable ante el estrés.

Para los seres humanos, la “lucha” puede ser empeñar más tiempo y esfuerzo en el trabajo o en alguna otra actividad, como las deportivas, o preocuparse más por tener una buena imagen profesional, o estudiar una carrera u oficio, mientras que la “huida” puede ser desde la dimisión del empleo hasta el divorcio de la pareja. En todo caso, el reflejo “lucha o huida” no es forzosamente malo, nos plantea desafíos e incluso participa en diversiones o actividades que provocan la descarga de adrenalina en nuestro torrente sanguíneo, como las atracciones de feria y la participación en deportes de competición. Es decir, el estrés puede ser positivo y sólo es negativo cuando avanza hasta la tercera fase.

Con este concepto, cualquiera puede sufrir estrés, incluso un mítico pastor que supervisa a su rebaño mientras sopla una flauta de carrizo en un paisaje utópico. La aparición de una manada de lobos en la zona, la caída de los precios del mercado de corderos, las tensiones con la pareja, el hijo rebelde o una plaga que afecte los pastos pueden generarle un nivel de estrés similar al del igualmente mítico oficinista atrapado en las redes de la administración y el miedo al paro.

Pero así como su origen se puede explicar fácilmente, manejarlo es algo totalmente distinto. Distintas técnicas de relajación, que incluyen el yoga, el tai-chi o la meditación (sin necesidad de los aspectos místicos o religiosos de estas prácticas), el ejercicio, los pasatiempos, la resolución de los conflictos, la administración del tiempo y otras opciones se enumeran frecuentemente como formas de manejar o gestionar adecuadamente el estrés, sobre todo cuando no depende de nosotros eliminar sus causas. La pertenencia a redes sociales, como clubes, asociaciones o grupos de actividades es también un elemento que ayuda a manejar el estrés.

Pero quizá la práctica esencial está en nosotros mismos, en no tratar de ser perfectos ni desvivirnos por responder a las expectativas que otros tienen sobre nosotros, ser realistas y, cuando la tensión sube, hacer un poco más de ejercicio relajado y frecuente.


El origen de la palabra


El término “stress”, que significa tensión o fatiga de los materiales, fue utilizado por primera vez en 1930 por el endocrinólogo canadiense Hans Selye para denotar a las respuestas fisiológicas en los animales de laboratorio. Más adelante, amplió y popularizó el concepto incluyendo en él las percepciones y respuestas de los seres humanos al tratar de adaptarse a los desafíos de la vida diaria. El término se extendió a partir de la década de 1950 y, retomado por la psicología en la década de 1960, llegó al español donde se ha castellanizado en su forma “estrés”.


Una nueva prehistoria


El creciente conocimiento que tenemos de los dinosaurios nos obliga a replantearnos cuanto imaginamos sobre los millones de años en que fueron la forma predominante de vida en la Tierra.

Desde hace miles de años, el ser humano se ha encontrado con huesos petrificados procedentes de seres gigantescos y misteriosos. En la antigua China se les consideraba restos de dragones, e incluso acabaron siendo parte de la farmacopea tradicional, los “huesos de dragón” que hasta la actualidad forman parte de la medicina precientífica china. Hay evidencias de hallazgos de fósiles de dinosaurios en hitos babilónicos, mosaicos romanos, mortajas egipcias y sellos de gobierno.

Los mismos hallazgos en la Europa cristiana se atribuyeron a seres que habían muerto a consecuencia del Diluvio Universal, pese a que según la Biblia, todos los animales habían sido salvados, por parejas, en el arca de Noé.

No fue sino hasta principios del siglo XIX cuando una aproximación científica llevó a los inicios de una comprensión real sobre el significado de estos huesos petrificados. William Buckland se ocupó de reunir huesos de megalosaurios y fue el primero en describir un dinosaurio en términos objetivos y científicos. Pero no sería sino hasta 1842 cuando el paleontólogo inglés Richard Owen creó la palabra “dinosaurio”, que significa “lagarto terrible”, para designar el parentesco entre los distintos animales cuyos fósiles se habían estudiado hasta entonces.

Las primeras reconstrucciones de dinosaurios que se pudieron ver mostraban una muy imprecisa concepción de los animales y de la forma en que se articulaban sus esqueletos. Dinosaurios que después se demostró que eran bípedos se presentaron extrañamente colocados a cuatro patas, o con cuernos o protuberancias que no se justificaban. Era apenas el amanecer de la paleontología, y hubo errores normales que hoy nos parecen absurdos. Precisamente, la aparición del primer esqueleto de dinosaurio casi completo en América, el de un hadrosaurio hallado en Nueva Jersey, dejó claro que algunos de estos seres eran bípedos, sorpresa similar a las que, ya a fines del siglo XX, ofrecieron los descubrimientos de dinosaurios con plumas y de sangre caliente.

Una vez que los científicos supieron qué tipo de objetos buscar, y en qué capas geológicas, se desató una historia incesante de nuevos descubrimientos en todos los continentes, incluida la Antártida. Y así, se ha ido armando, poco a poco, el puzzle de los dinosaurios.

Cuando hablamos de una forma de vida que se originó hace 230 millones de años y dominó la tierra hasta su desaparición hace 65 millones de años, la diversidad de los dinosaurios es enorme. Cuando surgieron, no había plantas con flores, lo que significa que aún no había evolucionado la mayoría de los árboles y arbustos que existen en la actualidad. Los continentes estaban unidos en una gran masa terrestre llamada Pangea, cuya zona central estaba dominada por un vasto desierto.

A lo largo de sus 165 millones de años de existencia, los dinosaurios cambiaron y evolucionaron junto con la vida vegetal, pero también reaccionando a los poderosos cambios geológicos que los separaron, promoviendo el surgimiento de nuevas especies que ocuparon prácticamente todos los nichos ecológicos, como en gran medida lo hacen los “recién llegados” del planeta, los mamíferos, la clase a la que nosotros pertenecemos.

Tan sólo en el último mes se pueden contabilizar varios descubrimientos notables. El dinosaurio con plumas más antiguo fue encontrado en China, se trata de un ser que vivió hace unos 144 millones de años y muestra claras protoplumas derivadas de sus escamas, y al que se bautizó como Tianyulong confuciusi, y que probablemente obligará a los estudiosos a replantearse cuándo aparecieron las plumas entre los dinosaurios, originando la estirpe de las aves, que desde hace apenas tres décadas se consideran parte de la clase de los dinosaurios. También en estos días se ha hallado el más pequeño de todos los dinosaurios del continente americano. El llamado Hesperonychus elizabethae fue una delicada y ágil criatura bípeda de apenas unos 2 kilos de peso y una altura de 50 centímetros que vivió hace 75 millones de años y cazaba insectos, pequeños mamíferos y otras presas.

En el otro extremo, científicos noruegos y estadounidenses informaron del hallazgo del llamado "Depredador X", aún sin nombre científico, un ser oceánico de más de 15 metros de largo y 45 toneladas de peso que campó por los mares hace 147 millones de años. El fósil de este enorme depredador con cuatro aletas fue hallado bajo el permafrost en Svalbard, en el Ártico al norte de Noruega. Y en febrero, en la Costa de los Dinosaurios de Asturias, se recuperó la mayor huella o icnita encontrada hasta ahora de un estegosaurio, animal que vivió hace unos 150 millones de años.

Con los nuevos descubrimientos vienen siempre nuevas teorías, que acotan, modifican, confirman o redefinen lo que se sabía hasta ese momento, en el proceso de continuo desarrollo de la ciencia, que poco a poco va desgranando conocimientos de las suposiciones y las evidencias encontradas.

Así, el colosal tamaño de algunos dinosaurios se explica como una adaptación que evita que el animal se convierta en presa y pueda defenderse mejor. Así, como en el caso de los elefantes o las ballenas actuales, los grandes dinosaurios de la familia de los saurópodos no tenían enemigos naturales. Esto se entiende viendo al mayor dinosaurio conocido, el argentinosaurus, un gigante cuadrúpedo de hace 100 millones de años, con 35 metros de largo y un peso de 80 toneladas. Para igualar la masa de este miembro de la familia de los saurópodos, con gran cuerpo, alargado cuello y diminuta cabeza, se necesitarían unos 20 grandes elefantes africanos adultos machos.

En España, la búsqueda de dinosaurios está en plena efervescencia. Desde el norte asturiano, donde los cambios de la línea costera continuamente revelan restos importantes, hasta las huellas que se pueden hallar en La Rioja y Soria, o el colosal yacimiento paleontológico  en Cuenca, descubierto durante las obras del AVE y que data del cretácico superior, hace unos 80 millones de años, una época de la que existen muy pocos restos en Europa. Así, la prehistoria de esa época será, en gran medida, escrita por la paleontología española.


La extinción


La más aceptada teoría sobre la extinción de los dinosaurios la atribuye a un “invierno por impacto” ocasionado por el choque de un meteorito de 10km de diámetro en la península de Yucatán, en México. Sin embargo, un grupo de científicos cree haber reunido evidencia geológica según la cual el meteorito de Chicxulub es mucho más antiguo de lo que se suponía, por lo que sería necesaria otra teoría nueva y más completa, probablemente la de un cambio climático natural y paulatino.

Promesas y problemas de los plásticos


Elemento indispensable en la vida moderna y con frecuencia denigrado con poco conocimiento de causa por algunos grupos de presión, los plásticos son presencia permanente hoy en día.

Los materiales plásticos tienen una amplia gama de propiedades distintivas: son maleables y flexibles, pudiendo ser moldeados, presionados, soplados o extruidos para adoptar prácticamente cualquier forma. No todos los plásticos son artificiales o creados por el hombre, los hay naturales como la goma laca, el asfalto, la celulosa, el caucho y savia o resina de diversas plantas.

El primer plástico hecho por el hombre fue la parkesina, creada en 1861 por el inventor británico Alexander Parkes, que mostró que podía usarse para producir medallones, tubos, peines, mangos de cuchillos, incrustaciones, tapas de libros, cajas, plumas y otros muchos productos. La parkesina podía hacerse dura o suave, transparente u opaca y de colores variados, además de ser impermeable. Pero su producto era de baja calidad y no prosperó.

El estadounidense John Wesley Hyatt desarrolló en 1872 una forma de producir este material, bajo el nombre de celuloide, con buena calidad. Pronto apareció en todo tipo de productos: plumas fuente, peines y peinetas, todas las aplicaciones que había soñado Parkes y muchas más, incluidos muñecos de juguete y figurillas para la decoración, piezas dentales, bolas de billar, cuellos y puños de camisa, y una utilización que ha mantenido el nombre del producto en la cultura popular: durante mucho tiempo fue el sustrato, la película, sobre el cual se aplicaba la emulsión para las producciones cinematográficas. “Celuloide” y “cine” siguen siendo sinónimos aunque dede 1951 el acetato sustituyó al celuloide.

El celuloide llevó a las clases trabajadoras productos antes reservados a las clases altas. Pero tenía problemas. El calor lo reblandecía, lo que hacía problemáticas prácticas como beber té con dentaduras postizas de celuloide. Con el tiempo, tendía a amarillarse y resquebrajarse. Pero su principal defecto era que se incendiaba con gran facilidad. Las salas de proyección de los cines tenían que ser a prueba de incendios, el transporte mismo de las películas podía ser peligroso y, más grave aún, con el tiempo la nitrocelulosa se descomponía liberando ácido nítrico que convertía las películas en un líquido espeso. Muchas obras de la cinematografía se perdieron así.

Los plásticos se dividen en dos categorías: los termoplásticos, que se reblandecen y funden con el calor antes de quemarse, y los termofijos, que mantienen la forma cuando se les somete a calor, incluso cuando se queman. Los plásticos son polímeros, es decir, están formados por largas cadenas formadas por unidades moleclulares (o monómeros) que se repiten. Así, por ejemplo, un monómero de estireno es la base del polímero llamado, precisamente, poliestireno. La gran mayoría de los plásticos están formados por polímeros de carbono e hidrógeno, y ocasionalmente con oxígeno, nitrógeno, cloro o azufre, aunque algunos utilizan silicio en lugar del carbono, los que se conocen como siliconas.

El primer polímero totalmente artificial fue la baquelita, creada en 1909 por Leo Hendrik Baekeland, de origen belga. A él le siguió una verdadera catarata de nuevos materiales que no ha cesado. Después de la Primera Guerra Mundial se desarrollaron el poliestireno y el cloruro de polivinilo, o PVC por sus siglas en inglés, que sigue siendo uno de los plásticos más presentes en nuestra vida. El poliestireno fue uno de los primeros plásticos usados en forma de espuma, el aún popular icopor. En 1939, en la Feria Mundial de Nueva York, se presentó la primera fibra artificial, una poliamida, conocida por su nombre comercial de nylon, que dio a todas las mujeres la posibilidad de disfrutar lo que antes sólo tenían las más opulentas que podían pagarse costosas medias de seda. El nylon se empleó igualmente para fabricar paracaídas en la Segunda Guerra Mundial.

Siguieron otras poliamidas y los poliésteres, así como utilizaciones novedosas de los anteriores. El nylon aparece cada vez más frecuentemente en rodamientos, bujes, engranajes y piezas mecánicas, gracias a su gran resistencia al calor y al desgaste. Los copolímeros, largas moléculas compuestas por dos monómeros, sirvieron para crear caucho artificial, el primero de los cuales fue el neopreno, todavía utilizado en trajes para diversos deportes acuáticos. Se produjeron también polietilenos en distintas formas.

En el período de la postguerra, llegaron al público el polipropileno, similar al polietileno pero más resistente y de costo igualmente bajo, el poliuretano, utilizado hoy en colchones, relleno de muebles y aislamiento térmico, y las resinas epóxicas, un adhesivo que hoy se emplea tanto para el bricolaje como para la fabricación de aviones y naves espaciales, y en la fabricación de productos basados en estructuras de fibra de carbono, que van desde raquetas de tenis hasta cuerpos de automóviles y aviones.

El estallido posterior de los plásticos es evidente mirando a nuestro alrededor. Bebidas en botellas de poliuretano tereftalato (PET), materiales plásticos antiadherentes en nuestros utensilios de cocina, envases de polietileno herméticos en nuestra nevera, metacrilatos transparentes, kevlar en cascos para distintos deportes y en chalecos antibalas. Un mundo de plásticos.

Las ventajas del plástico son también algunos de sus problemas. Su durabilidad, por ejemplo, y su lenta degradación para reciclarse en el medio ha creado un grave problema de desechos, sobre todo porque la mayoría de los plásticos, al quemarse, liberan emanaciones que pueden ser de moderadamente tóxicas a altamente peligrosas. Por ello se han desarrollado sistemas de reciclado de los plásticos, con el problema de que la selección de los desperdicios sigue teniendo que hacerse a mano pues no se ha podido automatizar.

Otro problema es la emisión de algunas sustancias tóxicas descubierta en algunos plásticos como el PVC suave, que han provocado el cambio en los aditivos que se utilizan para ellos, y, en algunos casos, la producción de contaminantes como parte del proceso de fabricación de algunos plásticos. El riesgo real, sin embargo, es difícil de valorar, pues los fabricantes tienden a minimizarlo y algunos grupos de presión política llegan a pintar un panorama excesivamente pesimista sin contar con datos sólidos


Cambiar el problema


Algunos enfoques no tienen por objeto el reciclado o degradación adecuada de los plásticos existentes, sino que buscan la creación de plásticos totalmente nuevos que tengan la degradación o capacidad de reciclaje como parte de su diseño. Aunque ya existen algunos productos concretos, siguen careciendo de una de las principales características del plástico: su bajo costo.


Alexander Fleming: el reino de los antibióticos

El descubrimiento de la penicilina fue producto de un accidente. Pero sólo fue notado gracias a que Alexander Fleming estaba ya buscando un antibiótico eficaz.

Alexander Fleming (foto D.P. de Calibuon,
via Wikimedia Commons)
Una gran cantidad de la gente viva hoy en día no recuerda un tiempo en el que no había Internet, o televisión en color, o telefonía móvil. El tiempo tiende a diluir la memoria no sólo entre los individuos, sino también en las sociedades.

Imaginemos un tiempo en que la escarlatina, la difteria, la sífilis o la tuberculosis fueran mortales en la gran mayoría de los casos. Un tiempo en que cualquier infección, desde la causante de la pulmonía hasta la provocada por un pequeño corte en la piel, podía llevar a la muerte a sus víctimas. Y un tiempo en el que ni siquiera se sabía que esas terribles enfermedades mortales estaban causadas por pequeños seres unicelulares llamados bacterias.

Tuvo que llegar Louis Pasteur para reunir el trabajo de muchos y consolidar en la década de 1860 la revolucionaria teoría de que muchas enfermedades eran producidas por esos pequeños seres, los gérmenes patógenos, que fue probada por Robert Koch en 1875. Una vez conociendo al enemigo, comenzaba su cacería, la búsqueda de algo que acabara con ellos y curara así las enfermedades que provocan.

Sólo seis años después de que Koch estableciera sus postulados, en 1881, nacía Alexander Fleming en una granja cercana a Ayrshire, Escocia. Después de conseguir superar problemas económicos y estudiar medicina, se dedicó accidentalmente a la naciente disciplina de la bacteriología dejando de lado la posibilidad de convertirse en cirujano. Durante la Primera Guerra Mundial, prestó sus servicios en el cuerpo médico británico.

En la guerra, Fleming fue testigo de la muerte de muchos soldados por septicemia en el campo de batalla a causa de heridas infectadas. También pudo ver que algunas sustancias antisépticas utilizadas para evitar infecciones resultaban a la larga más dañinas. Los antisépticos funcionaban bien en las bacterias aerobias de las heridas superficiales, pero en las heridas más profundas parecían eliminar a agentes naturales del cuerpo que protegían a los pacientes de las bacterias aneróbicas, las que florecían en la parte profunda de las heridas.

Después de la guerra, Fleming comenzó activamente la búsqueda de agentes antibacterianos que no fueran dañinos para los tejidos animales. En 1922 descubrió en “tejidos y secreciones” una importante sustancia bacteriolítica, es decir, que mataba a las bacterias disolviéndolas. Se trataba de la lisozima, también llamada muramidasa, una enzima natural presente en las lágrimas, la saliva o el moco y que forma una primera línea de defensa contra diversos microorganismos.

En 1928, mientras trabajaba en el virus de la gripe, Alexander Fleming observó que, debido a una contaminación accidental, se había desarrollado un moho en una caja de Petri en la que había un cultivo de estafilococos, un tipo de bacteria responsable de una amplia variedad de enfermedades en los animales, incluido el ser humano. El curioso fenómeno que llamó su atención fue que, alrededor del moho, se había creado un círculo completamente libre de bacterias, y empezó a investigar en esa dirección, identificando la sustancia activa del cultivo de moho que evitaba el crecimiento de los estafilococos. Llamó a la sustancia “penicilina” debido a que el moho en cuestión era del genus Penicillium, que con frecuencia podemos encontrar en forma de moho del pan.

Ciertamente, durante literalmente miles de años se habían usado alimentos enmohecidos como cataplasmas para curar algunas infecciones de la piel, pero sin que quienes los utilizaban conocieran ni el mecanismo de acción ni el principio activo que identificó el científico escocés. Las investigaciones posteriores de Fleming demostraron que este efecto antibacteriano era eficaz para combatir muy diversas bacterias, entre ellas las patógenas responsables de la escarlatina, la neumonía, la meningitis, la gonorrea y la difteria, pero no las combatía todas. El descubrimiento fue anunciado en la Revista Británica de Patología Experimental en 1929 pero asombrosamente no atrajo gran atención y Fleming continuó sus investigaciones en el anonimato.

Problemas prácticos, como la refinación de la penicilina a partir de cultivos en cantidades adecuadas para utilizarla en infecciones humanas, mantuvieron a Fleming trabajando hasta 1940. Cuando decidió abandonar el tema de la penicilina, sin embargo, surgió el interés por parte de otros investigadores, Ernst Chain, Howard Florey y Norman Heatley, que consiguieron purificar y estabilizar la penicilina, y producirla en cantidad suficiente para realizar pruebas clínicas, con el entusiasta apoyo de Fleming.

Ante el éxito de las pruebas, se desarrolló la producción en masa y, para 1945, cuando los Aliados realizaron la colosal operación de invasión a las playas de Normandía, contaban con reservas suficientes para tratar a todos sus heridos, salvando miles, o cientos de miles, de vidas. La penicilina llegó pronto a la población civil y, literalmente, cambió la historia convirtiendo en curables muchísimas enfermedades y abriendo la puerta de toda una nueva generación de medicamentos eficaces, de clara utilidad y mecanismos conocidos: los antibióticos.

Por sus logros, Fleming recibió numerosas distinciones, que incluyeron su nombramiento como “sir” del reino, la Gran Cruz de Alfonso X El Sabio en 1848 en España y el Premio Nobel de Fisiología o Medicina de 1945.

Desde el descubrimiento de la penicilina se ha desarrollado una gran variedad de antibióticos, orientados a luchar contra gérmenes resistentes a otros antibióticos o que no generan sensibilidad en personas alérgicas a algunas de estas sustancias.

La resistencia a los antibióticos desarrollada por muchos microorganismos ya preocupaba a Fleming. Esta adaptación evolutiva, aunada al mal uso de los antibióticos, ha provocado que surjan continuamente cepas más resistentes de diversos organismos patógenos, que deben ser atacados con nuevos antibióticos. De allí surgen las campañas recientes para que no se receten antibióticos cuando no son útiles (como en el caso de infecciones virales, que no son afectadas en lo más mínimo por los antibióticos) y que cuando se nos receten sigamos el tratamiento hasta el final para garantizar la eliminación de todas las bacterias patógenas y reducir la supervivencia de las que podrían desarrollar resistencia.

Los nuevos antibióticos

Nuevas generaciones de antibióticos, efectivos tomados oralmente en lugar de ser inyectados, que actúan mediante tratamientos más cortos (de siete días en general, pero hasta de una sola dosis en el caso de algunos de los más modernos), y con sustancias novedosas como los aminoglucósidos o las estreptograminas, van ocupando su lugar mientras otros van perdiendo eficiencia, en una lucha que, irónicamente, es una prueba más de la teoría de la evolución de Darwin.

El ADN: la identidad de todo lo vivo

Una potente arma en la lucha contra el crimen y en la medicina, nuestro conocimiento del ADN, abre posibilidades sorprendentes para investigar incluso los libros manuscritos del medievo europeo.

La doble hélice del ADN, el código de la vida.
(Imagen D.P. de Apers0n, vía Wikimedia Commons)
El ADN, la sustancia que descubrió Friedrich Miescher en 1869, se convirtió en uno de los descubrimientos más trascendentales de la historia humana. No sólo explicando la transmisión hereditaria de los caracteres.

La identificación de personas por medio de su ADN es quizá la aplicación más conocida, difundida por los medios de comunicación como clave para la solución de casos de identidad reales y en la ficción, sobre todo en la de carácter policíaco.

Para realizar la “huella de ADN” de una persona, sin embargo, no se identifica toda la secuencia del ADN de sus cromosomas, sino únicamente unos 13 puntos o loci de grupos de bases con repeticiones que son distintas en cada individuo. La repetición de bases en cada locus individual está presente en un porcentaje de entre 5 y 20% de las personas, pero la combinación de las repeticiones en los 13 loci es la que identifica a un individuo con una certeza casi absoluta.

Una muestra de ADN, sin embargo, no sirve si no se tiene otra muestra con la que compararla para saber si pertenece o no al mismo individuo. En la ciencia forense, las pruebas de ADN pueden identificar a una víctima, establecer relaciones de parentesco, entre ellas de paternidad, o condenar o exonerar a un acusado al comparar su ADN con el de muestras de fluidos corporales que el delincuente dejara en el lugar del crimen.

La importancia de esta capacidad de identificación del individuo que pudiera haber depositado sangre, saliva o semen en un lugar se puede valorar pensando en que a fines del siglo XIX no existían ni siquiera las herramientas necesarias para saber si una mancha marrón era o no de sangre, mucho menos para identificar el tipo sanguíneo, el sexo del individuo o su identidad con total precisión.

Hoy, estudiando los restos de hombres de Neandertal recuperados en distintas excavaciones, algunas de ellas en España, como las de Atapuerca en Burgos o las de la Cueva del Sidrón en Asturias, se está reconstruyendo la secuencia de ADN de esta especie humana desaparecida hace alrededor de 30.000 años. En el 200 aniversario del nacimiento de Darwin, el Dr. Svante Pääbo, del Departamento de Genética del Instituto Max Planck de Antropología Evolutiva presentó el primer borrador de la secuencia genética del Neandertal, con el 60% de su ADN secuenciado.

El descubrimiento más relevante realizado por el grupo de Pääbo hasta ahora es que, además de las esperadas raíces comunes de los Neandertales y los Homo sapiens, ambas especies tienen el gen llamado FOXP2, que se relaciona con la capacidad de hablar, lo que apoya la hipótesis ya avanzada por los especialistas en anatomía fósil de que estos primos nuestros, alguna vez representados como salvajes simiescos y torpes eran, en realidad, más humanos de lo que a algunos les gustaría aceptar.

No se puede pasar por alto la secuenciación del ADN humano, lograda en un 92% apenas en 2003, como base para identificar algunas alteraciones genéticas que pueden afectar la salud, el desarrollo o el bienestar. Es importante recordar que tener la secuencia del ADN del genoma humano, neandertal o de cualquier ser vivo es sólo el primer paso, necesario pero insuficiente, para leer el libro de la genética. La decodificación de esta secuencia requerirá los esfuerzos de numerosos científicos en los años por venir.

Entre las aplicaciones más recientemente propuestas para las pruebas de ADN destaca de modo especial la que ha presentado no un biólogo, antropólogo o médico, sino un profesor de inglés de la universidad estatal de Carolina del Norte, en los Estados Unidos, Timothy Stinson, quien pretende utilizar los avances de la genética para poder saber con más certeza cuándo y dónde se escribieron los miles de volúmenes manuscritos por copistas en Europa durante la Edad Media.

Muchos de los manuscritos medievales realizados en los proverbiales monasterios se escribieron en pergamino fabricado con piel de cabra, cordero o ternera, especialmente los más antiguos, si tenemos en consideración que la primera fábrica de papel no apareció sino hasta el año 1120 en Xátiva, en Valencia.

El pergamino no se curte, sino que se estira, se raspa y se seca sometiéndolo a tensión, creando así una piel rígida, blanca, amarillenta o traslúcida. Hasta ahora, la datación de los pergaminos se hace utilizando el procedimiento del carbono 14, mientras que la datación del manuscrito en sí se hace indirectamente estudiando la letra manuscrita o cursiva de los escribas y el dialecto que empleaban, dos técnicas que, según los estudiosos, son poco fiables.

El proyecto del profesor Stinson contempla la creación de una “línea de base” o marco de referencia utilizando el ADN de los relativamente pocos manuscritos cuya fecha y lugar de creación pueden determinarse de un modo fiable. Cada uno de estos manuscritos puede ofrecer una gran cantidad de información, ya que en un libro medieval de pergamino se utilizaban las pieles de más de 100 animales. Con esta línea de base de marcadores de ADN con fechas y ubicaciones geográficas conocidas, se podrá determinar el grado de relación que mantenían con ellos los animales cuyas pieles se usaron para la confección de manuscritos de fecha y lugar desconocidos.

La esperanza de Stinson es que las similitudes genéticas sirvan para dar una indicación general del tiempo y lugar de origen de los libros, además de “trazar las rutas comerciales del pergamino” en la Edad Media, revelando así datos importantes sobre la evolución de la industria del libro en esta época histórica.

Para lograrlo, Stinson ha dado el salto de letras al de ciencias, colaborando para perfeccionar las técnicas ideales para extraer y analizar el ADN contenido en los pergaminos. Técnicas que en un futuro podrían usarse en algunos otros artefactos históricos realizados con productos animales, utilizando el ADN para conocer no sólo nuestra historia biológica, sino también la social, política y comercial.

El ADN y Darwin

Una aplicación del estudio de la genética y del ADN en particular fue una demostración de la teoría de la evolución darwinista. Todos los primates que consideramos parientes cercanos nuestros tienen 24 pares de cromosomas, pero nosotros sólo tenemos 23. De ser cierto que provenimos de un ancestro común, nuestra especie debió perder un cromosoma en el proceso. El estudio del ADN demuestra que el cromosoma humano identificado con el número 2 es resultado de la unión de dos cromosomas de primates extremo con extremo. Esto debe haber ocurrido después de que en el transcurso de la evolución nos separamos de chimpancés, gorilas y orangutanes.

¿El cerebro homosexual?

Los prejuicios sobre la homosexualidad, no todos de origen religioso, se están viendo obligados a rendirse ante la evidencia científica de que no describen con precisión la realidad de un importante sector de la humanidad.

Oscar Wilde en 1882, víctima de los
prejuicios contra la homosexualidad.
(Foto D.P. de Napoleón Sarony, via
Wikimedia Commons)
Algunas ideas sobre la homosexualidad están siendo víctimas de avances del conocimiento que quizá ayuden a quitar parte de la presión social sobre un colectivo que, pese a sus logros, sigue estando sometido a rechazo y escarnio por parte de algunos sectores de la población incluso en los países occidentales más avanzados.

La idea de que la homosexualidad era “antinatural” por tratarse de un comportamiento y una identidad sexual poco frecuentes (entre el 4 y el 10% de la población según diversos cálculos, ninguno de ellos demasiado fiables, es importante señalarlo) ha quedado obsoleta ante la abrumadora evidencia de que la homosexualidad también está presente en los animales en estado salvaje. Un estudio de 1999 del biólogo canadiense Bruce Bagermihl indica que se ha observado un comportamiento homosexual en casi 1.500 especies animales distintas, y está plenamente documentado y estudiado en unas 500 de ellas, como las jirafas, los bonobos o chimpancés enanos, cisnes negros, gaviotas, ánades reales, pingüinos, delfines del Amazonas, bisontes americanos, delfines mulares, elefantes (africanos y asiáticos), leones, corderos o macacos japoneses.

Es de notarse que todos estos animales viven en sociedades, es decir, son gregarios, y de ello algunos investigadores deducen que probablemente el sexo no sólo tiene un objetivo reproductivo, sino también puede cumplir otras funciones sociales.

La homosexualidad humana, en todo caso, es mucho menos frecuente que la de algunas de estas especies, pero no por ello es un fenómeno menos complejo que la heterosexualidad misma. En todo caso, establecido que es un hecho infrecuente pero perfectamente natural, los científicos han abordado el problema de si la homosexualidad está determinada por la genética, la fisiología, el medio ambiente o, como pretenden algunas organizaciones religiosas, es una decisión personal evitable o una “desviación” que puede revertirse o una enfermedad que puede “curarse”, como afirman distintas denominaciones religiosas.

Un estudio sueco de 2005 demostró que los hombres heterosexuales y los homosexuales responden de manera distinta al verse expuestos a ciertos aromas hormonales o feromonas que se considera que están implicados en la excitación sexual. Más aún, tanto en las mujeres heterosexuales y los hombres homosexuales se activa una zona del hipotálamo relacionada con la sexualidad al verse expuestos a una testosterona que se encuentra en el sudor masculino, mientras que esto no ocurre con los hombres heterosexuales. Éstos, por su parte, tienen esa misma reacción al exponerse a un compuesto similar al estrógeno que se encuentra en la orina de las mujeres.

Ésta ha sido una de las primeras demostraciones de que el cerebro homosexual y el heterosexual tienen diferencias funcionales y estructurales que se pueden medir más allá de los informes de los sujetos experimentales. En general, depender de lo que dicen los sujetos de la experimentación tiene muchos riesgos por la posibilidad de que tales sujetos alteren sus respuestas por motivos sociales, profesionales, personales o de otra índole. La utilización de escáneres cerebrales de distintos tipos, por su parte, estudia reacciones del cerebro que el sujeto no puede controlar ni alterar, y que demuestran que existen diferencias reales entre las personas homosexuales y las heterosexuales.

Poco después, una investigación del Dr. Simon LeVay estudio sobre el tamaño del grupo de neuronas de la parte anterior del hipotálamo llamadas INAH3, demostró que éste es significativamente menor en los hombres homosexuales y las mujeres heterosexuales. El experimentador, Simon LeVay, advertía en 1991 que no se sabía aún si esa diferencia era causa o consecuencia de la orientación y comportamiento homosexual, y que lo conducente era realizar más investigaciones en ese sentido.

La existencia de hechos biológicos relacionados estrechamente con la homosexualidad sustenta la hipótesis de que la homosexualidad no es una elección personal. Lo mismo se desprende de un estudio realizado en 2005 por Ivanka Savic y Per Lindström del Instituto del Cerebro de Estocolmo, que encontró similitudes en la respuesta emocional de hombres homosexuales y mujeres heterosexuales en la zona del cerebro conocida como amígdala cerebral. Más interesante resultaba que se encontraran similitudes de las mujeres homosexuales con los hombres heterosexuales en las mismas respuestas de la amígdala cerebral. En pocas palabras, al parecer el cerebro homosexual de un género funciona como el cerebro heterosexual del otro género, algo que no se explica fácilmente si no se tiene en cuenta que al menos una parte de la preferencia y comportamiento homosexuales tienen una base bioquímica y, probablemente, genética. El estudio de Savic y Lindström indicó además que la utilización de todo el cerebro también mostraba marcadas diferencias. Los hombres heterosexuales y las mujeres lesbianas hacen una utilización mayor de del hemisferio derecho del cerebro, la llamada lateralización, mientras que entre los hombres homosexuales y las mujeres heterosexuales ambos hemisferios son utilizados de modo más o menos equilibrado.

Se han encontrado correlaciones similares en otros aspectos de la conducta. Por ejemplo, los hombres homosexuales y las mujeres heterosexuales se desempeñan mejor que los hombres heterosexuales en pruebas verbales. Y tanto los hombres heterosexuales como las mujeres lesbianas tienen mejores habilidades de navegación que los hombres homosexuales y las mujeres heterosexuales.

Aún no sabemos si la homosexualidad es genética, o está totalmente determinada por la biología, pero sí es un aviso de que las valoraciones sociales, religiosas o morales no son la mejor forma de enfrentar un hecho como la homosexualidad. La homofobia, en cambio, es claramente un fenómeno social, muchas veces motivado por las creencias religiosas o el miedo a lo desconocido, cuando no a confusiones producto de la ignorancia que no tienen ningún sustento científico.

Ratas bisexuales


Una de las primeras diferencias encontradas en 1990 fue la de la estructura llamada núcleo supraquiasmático, el “reloj” de nuestro cerebro, que en los hombres homosexuales es del doble del tamaño que tiene en los hombres heterosexuales. Los experimentadores, más adelante, provocaron hormonalmente el mismo fenómeno en ratas en desarrollo y el resultado fueron ratas bisexuales, demostrando que al menos esta diferencia no dependía de la actividad sexual, sino de la acción de las hormonas sexuales en el cerebro en desarrollo.

Las historias que cuentan los huesos

Un antropólogo forense es, en realidad, una persona que ha aprendido a leer, en el alfabeto de los esqueletos humanos, las historias que cuentan de cuando estaban vivos.

Nuestra anatomía no es una característica inamovible. Nuestro cuerpo, incluidos nuestros huesos, está en constante transformación, según nuestra herencia genética, el paso del tiempo, la alimentación, las enfermedades, nuestro entorno e incluso las estructuras asociadas a ellos, como los músculos. Los esqueletos pueden mostrar peculiaridades inapreciables a ojos de un lego, pero que para un osteólogo son clarísimas.

La osteología es el estudio científico de los huesos, una subdisciplina de la antropología y la arqueología que ha atraído especialmente el interés público en los últimos años por su aplicación en la antropología forense para el esclarecimiento de delitos, principalmente asesinatos.

Como consecuencia, los antropólogos forenses que antes eran científicos anónimos que manejaban cosas tan desagradables como cuerpos humanos descompuestos, consultaban libros enormes y hablaban en un lenguaje altamente técnico se han convertido en algunos de los nuevos héroes de los medios. De ello dan fe series como Bones, basada en la vida de Kathy Reichs como antropóloga forense.

Y sin embargo, la gran mayoría de los conocimientos de la osteología son producto de estudios relativamente recientes, donde confluyen la genética, la embriología, la paleoantropología, la anatomía comparativa. En primer lugar, un esqueleto puede informarnos de la edad, sexo, estatura y probables influencias étnicas de la persona.

La edad se refleja en los extremos de los huesos largos, que en la niñez y juventud tienen placas de crecimiento, en la estructura interna de los huesos, en las articulaciones y, de modo muy especial, en las suturas que unen a los huesos que forman la bóveda craneal, muy abiertas en la niñez (incluso con los puntos sin cerrar que llamamos “fontanelas” o “mollera” en los recién nacidos) y que se alisan hasta casi desaparecer con la edad. Los dientes son otro indicador relevante.

Es sabido que la pelvis femenina es distinta de la masculina debido a que ha evolucionado junto con el tamaño del bebé humano y la forma de parir de nuestra especie, siendo por tanto más ancha y redondeada. Ésas y otras diferencias pélvicas, así como una serie de diferencias en las proporciones y tamaño de partes del cráneo permiten una determinación del sexo con casi un 100% de certeza, con la excepción de ciertos casos límite de la variabilidad humana.

Un experto puede determinar también la edad y el sexo a partir de un fémur. El fémur del hombre adulto es más recto que el de la mujer adulta que se arquea como reacción precisamente al ensanchamiento de la cadera que ocurre en la pubertad. Como un Sherlock Holmes del nuevo milenio, un antropólogo forense puede aventurar con mucha certeza que un fémur desarrollado y curvado pertenece “a una mujer adulta”, aunque los datos de la edad se afinen después con otras mediciones.

En realidad, para que los huesos relaten las historias que nos interesan (antropológicas o criminales) no basta mirarlos con actitud interesante como los actores de las series de televisión. Muchas mediciones y estudios poco espectaculares permiten obtener importantes datos. Por ejemplo, la densidad ósea de las personas predominantemente negroides es mayor que la de las personas predominantemente caucásicas o mongólicas; hay indicaciones de antecedentes étnicos también en los dientes, la estructura maxilar y otros puntos, e incluso los puntos de inserción de los músculos pueden decirnos si la persona era o no afecta a hacer ejercicio.

Hoy es sencillo determinar la estatura que un esqueleto tuvo en vida, pues tenemos ecuaciones matemáticas para calcular la estatura con bastante precisión a partir del fémur, la tibia y otros huesos largos de un esqueleto.

Pero lo más fascinante es la capacidad de los antropólogos forenses de determinar el origen de ciertas lesiones en los huesos y las posibles causas de muerte de víctimas de delitos, accidentes o, incluso, enfrentamientos armados. Dado que los huesos perduran mucho más que cualquier otra estructura corporal, son muchas veces el último testimonio de una vida y de su final, y lo siguen siendo cuando el resto del organismo se ha descompuesto.

Un antropólogo forense puede diferenciar los efectos de un golpe con un objeto contundente, un cuchillo, una flecha o una bala, y pueden evaluar si la lesión se produjo alrededor del momento de la muerte o aconteció antes y hay señales de cicatrización ósea. Numerosas enfermedades y afecciones, además, dejan su huella en nuestro esqueleto, como el raquitismo, la tuberculosis, igual que ciertas deficiencias alimenticias. Con todos estos datos, haciendo estudios químicos y físicos de los huesos, mediciones y observaciones, un antropólogo forense puede trazar un retrato muy detallado de la vida y, quizá, la muerte de una persona, sin importar la antigüedad de los huesos, como se ha demostrado en estudios de restos antiguos como la momia congelada de los Alpes Ötzi y las momias de faraones como Ramsés II y Tutankamón.

Pero quizá lo más impresionante para el público en general ha sido el descubrimiento de que, en gran medida, la forma única de nuestro rostro, que vemos como el equivalente de nuestra identidad, está escrita fundamentalmente en nuestro cráneo. Gracias a mediciones de gran cantidad de rostros de personas de distintas edades, sexos, orígenes étnicos, etc., se tiene hoy un conocimiento preciso de la densidad media de los tejidos en los distintos puntos de nuestro rostro. Utilizando estas densidades medias, es posible reconstruir, con un asombroso, a veces escalofriante grado de exactitud, el rostro que una persona tuvo en vida, como lo muestran algunas series de televisión de modo tal que parece ficción.

La antropología forense nos permite saber cómo era el rostro de Tutankamón y cómo murieron las víctimas de algunos asesinatos, pero también nos permite identificar y conocer a los muertos del pasado, desde Pizarro hasta los miembros del pueblo que construyó Stonehenge, lo cual sin duda trasciende la ficción.

El falso Pizarro


En los años 70 se hallaron en Perú unos restos presuntamente de Francisco Pizarro, pero durante mucho tiempo se habían considerado genuinos otros. El famoso antropólogo William Maples analizó los huesos del esqueleto recién hallado y catalogó las terribles heridas que mostraba, curadas o no y los comparó con la biografía de Pizarro, incluido su asesinato por un grupo de conspiradores. Los restos hasta entonces considerados genuinos resultaron ser de alguien que nunca había visto batalla y menos muerto en una, confirmando así la verdadera identidad del conquistador del Perú.