Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La Web 2.0

Nerd
La Web 2.0 no es sólo asunto de jóvenes
(Foto CC de Archiboldian,
vía Wikimedia Commons
Las empresas hoy entienden y utilizan mejor la Web, y los usuarios la emplean eficazmente para ser actores de la comunicación y la información, una nueva forma de ver la World Wide Web.

Si usted es un experimentado internauta y tiene cuentas en Facebook, YouTube o Twitter, seguramente escucha hablar diariamente sobre la Web 2.0, la tecnología 2.0, el marketing 2.0 y una serie de cosas que de pronto adquieren una dimensión distinta cuando se les añade ese 2.0 que evoca la idea de una “nueva versión” de la Web, de la World Wide Web o red a nivel mundial que inventó hace 20 años Tim Berners-Lee en la Organización Europea para la Investigación Nuclear, CERN.

El informático británico propuso la idea del hipertexto o enlaces en el propio texto para facilitar a los investigadores el compartir y actualizar la información en esa poderosa organización científica. La primera propuesta se presentó en marzo de 1989, de modo que la idea de la WWW o Web está cumpliendo su vigésimo aniversario, aunque el primer sitio Web del CERN se puso en línea el 6 de agosto de 1991.

En 1994, Tim Berners-Lee fundó el consorcio de la World Wide Web (W3C), y regaló al mundo la patente de su creación para que Internet fuera asunto de todos. El W3C está formado por varias empresas dispuestas a crear estándares y recomendaciones para mejorar la Web, y ha decidido que todos los estándares que use la red (como los protocolos de comunicación, o la descripción de los lenguajes HTML o XML en que se basa) sean tecnología libre de derechos de autor, para que puedan ser adoptados fácilmente por cualquier persona, grupo u organización.

Pero la Web 2.0 no es una nueva versión de la Web original. Es la misma Web, con la misma tecnología, sin la revolución en características y funcionalidad que solemos atribuir a un cambio de versión de cualquier software. Lo que ha cambiado, y de lo que el mundo se hizo consciente más o menos desde la Primera Conferencia de la Web 2.0 llevada a cabo en 2004 en la ciudad de San Francisco es el desarrollo y diseño para la Web. Se trata de un cambio de actitud hacia la red mundial por parte de desarrolladores y público que tiene por objeto facilitar la comunicación, asegurar los procesos de compartición de la información, la interoperabilidad y la colaboración.

La idea del “2.0” implicaba, ante todo, el regreso de las empresas a la explotación comercial de Internet, pero utilizando la red como plataforma y tratando de entenderla para jugar con sus reglas en vez de tratar de imponerle las de otros espacios. Esto era realmente una nueva etapa después del desastre de las empresas”punto com”, donde a veces sin un producto o servicio real se hicieron y deshicieron fortunas hasta que la burbuja estalló en 2001. Pasada la fiebre de oro del primer intento de negocios en la Web, había otra visión, más serena y, se espera, más inteligente.

Un ejemplo muy claro del significado de la Web 2.0 son las aplicaciones o programas a los que se accede directamente por medio de la Web, como serían el procesador de texto y la hoja de cálculo que ha puesto a disposición de los usuarios el buscador Google, y que puede usar cualquier persona sin tener que descargar, instalar y activar el procesador de texto en su propio ordenador. Ésta podría ser una forma de comercialización de programas en el futuro: adquirimos una suscripción a la aplicación y accedemos a ella mediante contraseña como accedemos a distintas páginas exclusivas, sólo para miembros; cuando se actualiza la aplicación, nosotros no tendríamos que reinstalarla en nuestra máquina, ahorrándonos muchos de los problemas de compatibilidad que hoy todavía afloran entre el software y el hardware.

En la Web 2.0, los usuarios no sólo recopilan información, pueden aportarla y poseerla, llevando a nuevos límites la idea de la interactividad del usuario con el medio y, sobre todo, con otros usuarios. La participación activa del usuario ha hecho que algunos expertos consideren que, desde el punto de vista del ciudadano común, lésta es la “Web participativa”.

En ningún lugar es tan clara la participación como en los llamados “wikis”, páginas en las que cualquiera puede añadir información utilizando un lenguaje de marcado simplificado respecto de los más elaborados como el HTML. Sin ser ni la única ni la primera Web “wiki”, la más famosa y relevante es, sin duda, la Wikipedia, una enciclopedia colaborativa en más de 90 idiomas. Desde su lanzamiento en enero de 2001 hoy contiene un total de 12 millones de entradas aportadas por voluntarios de todo el mundo y en todos los idiomas (casi 3 millones de ellas sólo en inglés), y es la obra de referencia más popular de Internet.

Donde los medios han prestado más atención a Internet en los últimos tiempos es en las llamadas “redes sociales”, que son otro de los distintivos de la Web 2.0. Hoy en día, es inevitable referirse a sitios en los que el contenido es aportado en su totalidad por los usuarios, como ocurre con los vídeos de YouTube, los textos de innumerables blogs de todas las temáticas en todos los idiomas o las fotografías de Flickr, los podcasts de audio o vídeo y la sindicación vía RSS. Cada vez más personas, además, pertenecen a redes como Facebook de carácter general, o a otras más especializadas como LinkedIn, dedicada a relaciones profesionales, Tuenti, orientada al público más joven o Hi5.

El fenómeno más reciente a la fecha que ha adquirido especial importancia es el llamado “microblogging”, que se realiza en la red de comunicación Twitter, donde uno puede poner cualquier mensaje... con un límite de 140 caracteres que es precisamente el límite de los mensajes SMS de los móviles. Millones de personas escriben allí, en 140 caracteres, desde las más inanes banalidades hasta enlaces interesantes, noticias frescas e información relevante.

Además de ser cualquier otra cosa, la Web 2.0 es el primer paso de madurez de la red al cumplir sus 20 años, algo más que un juego, un verdadero proyecto para vivir, convivir y trabajar con cualquier otra persona sin importar dónde se encuentre, liberándonos de los ordenadores estorbosos para sustituirlos por dispositivos móviles, desde las miniPC hasta los teléfonos inteligentes, que nos permitan llevar la Web a todas partes no por capricho, sino porque parte de nuestra vida real cada vez más se llevará a cabo dentro de la red, para bien o para mal.

Gobierno 2.0

Es la iniciativa de la Web 2.0 aplicada a una relación más estrecha entre los ciudadanos y sus instituciones gubernamentales, creando por primera vez la posibilidad de una comunicación en dos vías que sustituya a la unilateral prevalente en todas las modalidades gubernamentales del mundo. Los más entusiastas se atreven a creer que es el primer paso para una verdadera democracia participativa más eficaz que la meramente representativa.

El estrés: más que una incomodidad


Los efectos físicos del exceso de tensión que llamamos estrés pueden ser graves en tal medida que pongan en peligro nuestra vida, y según los estudiosos del estrés, enfrentarlo es más fácil de lo que creemos.

El estrés es una de las posibles causas de muchos síntomas físicos que podemos padecer y cuyo origen no se descubre fácilmente: dolores de cabeza, de espalda y del pecho, afecciones cardiacas, arritmia, alta tensión arterial, disminución en la respuesta inmune del cuerpo (lo que algunos llaman “bajas defensas”), problemas digestivos y problemas del sueño.

A esto se deben añadir problemas de conducta que también pueden estar relacionados con el estrés, como comer en exceso o demasiado poco, los estallidos de ira, el abuso del alcohol o las drogas, fumar más, aislarse socialmente, llorar sin motivo aparente y, por supuesto, los conflictos en nuestras relaciones interpersonales, con familia, amigos y pareja.

Existen incluso métodos para tratar de medir objetivamente los acontecimientos estresantes de nuestra vida, entre ellos la escala del estrés de Holmes y Rahe, que a partir de estudios con pacientes probaron que los acontecimientos vitales que los pacientes consideraban estresantes coincidían de modo significativo con algunas enfermedades. Esta escala va desde acontecimientos poco estresantes como una multa de tráfico hasta los más estresantes, como la muerte de la pareja. Sumando la puntuación de los acontecimientos que causan estrés, podemos saber qué riesgo de enfermedad corremos.

Hoy en día, los estudios científicos han demostrado efectos del estrés que ya había entrevisto la cultura popular: el grano que aparece antes de una importante actividad social, la caída del cabello o incluso la velocidad a la cual nuestro cabello encanece, tienen explicación en el estrés. Los altos niveles de cortisol cuando sufrimos estrés aumentan la producción de grasa en la piel, facilitando la aparición del acné, mientras que en condiciones de tensión nuestro cuerpo puede prescindir del cabello con objeto de concentrar sus fuerzas en la lucha contra la causa del estrés.

No entender correctamente el estrés puede llevar a diagnósticos incorrectos y tratamientos ineficientes, especialmente entre llamadas “medicinas” alternativas que funcionan principalmente en un mundo subjetivo. Así, por ejemplo, la palabra estrés suele asociarse a los aspectos negativos de la vida moderna como una consecuencia inevitable de un mundo que nos ofrece, del lado positivo, avances tecnológicos, una vida más larga y de mejor calidad, comodidades y entretenimiento más allá de lo que nunca hubieran podido imaginar nuestros ancestros de hace apenas 200 años.

Condenar a la vida moderna no es una solución incluso si estuviéramos dispuestos a abandonarla, retirarnos a vivir comiendo hierbas en el Amazonas, dejar el trabajo y arriesgarnos a morir por sufrir infecciones, lesiones y enfermedades sin cuidado médico. Y es que el estrés, nos dicen los médicos, no es una conclusión inevitable de la vida moderna, ni exclusivo de este tiempo. El estrés es producto de una relación conflictiva entre el mundo exterior y nosotros.

De hecho, el estrés, según algunos autores no es sino la reacción ante el Síndrome General de Adaptación (SGA), que incluye la alerta al estímulo amenazante que dispara la decisión de “lucha o huida”. ¿Debe el organismo luchar para salvar la vida? ¿Es mejor huir para conseguirlo? Incluye también la etapa de resistencia, cuando el fenómeno estresante persiste, creando un conflicto continuo, y finalmente el agotamiento, cuando los recursos del cuerpo para enfrentar al fenómeno estresante se agotan y el sistema inmune se descompensa.

Esto implica una serie de procesos cerebrales que están bien identificados, desde la respuesta inicial que implica una descarga de adrenalina que nos pone en estado de alerta, hasta las reacciones del hipotálamo y la glándula pituitaria y una variedad de nuestros circuitos neurológicos entran en acción para resolver el conflicto que se nos presenta. Es una reacción natural y saludable ante el estrés.

Para los seres humanos, la “lucha” puede ser empeñar más tiempo y esfuerzo en el trabajo o en alguna otra actividad, como las deportivas, o preocuparse más por tener una buena imagen profesional, o estudiar una carrera u oficio, mientras que la “huida” puede ser desde la dimisión del empleo hasta el divorcio de la pareja. En todo caso, el reflejo “lucha o huida” no es forzosamente malo, nos plantea desafíos e incluso participa en diversiones o actividades que provocan la descarga de adrenalina en nuestro torrente sanguíneo, como las atracciones de feria y la participación en deportes de competición. Es decir, el estrés puede ser positivo y sólo es negativo cuando avanza hasta la tercera fase.

Con este concepto, cualquiera puede sufrir estrés, incluso un mítico pastor que supervisa a su rebaño mientras sopla una flauta de carrizo en un paisaje utópico. La aparición de una manada de lobos en la zona, la caída de los precios del mercado de corderos, las tensiones con la pareja, el hijo rebelde o una plaga que afecte los pastos pueden generarle un nivel de estrés similar al del igualmente mítico oficinista atrapado en las redes de la administración y el miedo al paro.

Pero así como su origen se puede explicar fácilmente, manejarlo es algo totalmente distinto. Distintas técnicas de relajación, que incluyen el yoga, el tai-chi o la meditación (sin necesidad de los aspectos místicos o religiosos de estas prácticas), el ejercicio, los pasatiempos, la resolución de los conflictos, la administración del tiempo y otras opciones se enumeran frecuentemente como formas de manejar o gestionar adecuadamente el estrés, sobre todo cuando no depende de nosotros eliminar sus causas. La pertenencia a redes sociales, como clubes, asociaciones o grupos de actividades es también un elemento que ayuda a manejar el estrés.

Pero quizá la práctica esencial está en nosotros mismos, en no tratar de ser perfectos ni desvivirnos por responder a las expectativas que otros tienen sobre nosotros, ser realistas y, cuando la tensión sube, hacer un poco más de ejercicio relajado y frecuente.


El origen de la palabra


El término “stress”, que significa tensión o fatiga de los materiales, fue utilizado por primera vez en 1930 por el endocrinólogo canadiense Hans Selye para denotar a las respuestas fisiológicas en los animales de laboratorio. Más adelante, amplió y popularizó el concepto incluyendo en él las percepciones y respuestas de los seres humanos al tratar de adaptarse a los desafíos de la vida diaria. El término se extendió a partir de la década de 1950 y, retomado por la psicología en la década de 1960, llegó al español donde se ha castellanizado en su forma “estrés”.


Una nueva prehistoria


El creciente conocimiento que tenemos de los dinosaurios nos obliga a replantearnos cuanto imaginamos sobre los millones de años en que fueron la forma predominante de vida en la Tierra.

Desde hace miles de años, el ser humano se ha encontrado con huesos petrificados procedentes de seres gigantescos y misteriosos. En la antigua China se les consideraba restos de dragones, e incluso acabaron siendo parte de la farmacopea tradicional, los “huesos de dragón” que hasta la actualidad forman parte de la medicina precientífica china. Hay evidencias de hallazgos de fósiles de dinosaurios en hitos babilónicos, mosaicos romanos, mortajas egipcias y sellos de gobierno.

Los mismos hallazgos en la Europa cristiana se atribuyeron a seres que habían muerto a consecuencia del Diluvio Universal, pese a que según la Biblia, todos los animales habían sido salvados, por parejas, en el arca de Noé.

No fue sino hasta principios del siglo XIX cuando una aproximación científica llevó a los inicios de una comprensión real sobre el significado de estos huesos petrificados. William Buckland se ocupó de reunir huesos de megalosaurios y fue el primero en describir un dinosaurio en términos objetivos y científicos. Pero no sería sino hasta 1842 cuando el paleontólogo inglés Richard Owen creó la palabra “dinosaurio”, que significa “lagarto terrible”, para designar el parentesco entre los distintos animales cuyos fósiles se habían estudiado hasta entonces.

Las primeras reconstrucciones de dinosaurios que se pudieron ver mostraban una muy imprecisa concepción de los animales y de la forma en que se articulaban sus esqueletos. Dinosaurios que después se demostró que eran bípedos se presentaron extrañamente colocados a cuatro patas, o con cuernos o protuberancias que no se justificaban. Era apenas el amanecer de la paleontología, y hubo errores normales que hoy nos parecen absurdos. Precisamente, la aparición del primer esqueleto de dinosaurio casi completo en América, el de un hadrosaurio hallado en Nueva Jersey, dejó claro que algunos de estos seres eran bípedos, sorpresa similar a las que, ya a fines del siglo XX, ofrecieron los descubrimientos de dinosaurios con plumas y de sangre caliente.

Una vez que los científicos supieron qué tipo de objetos buscar, y en qué capas geológicas, se desató una historia incesante de nuevos descubrimientos en todos los continentes, incluida la Antártida. Y así, se ha ido armando, poco a poco, el puzzle de los dinosaurios.

Cuando hablamos de una forma de vida que se originó hace 230 millones de años y dominó la tierra hasta su desaparición hace 65 millones de años, la diversidad de los dinosaurios es enorme. Cuando surgieron, no había plantas con flores, lo que significa que aún no había evolucionado la mayoría de los árboles y arbustos que existen en la actualidad. Los continentes estaban unidos en una gran masa terrestre llamada Pangea, cuya zona central estaba dominada por un vasto desierto.

A lo largo de sus 165 millones de años de existencia, los dinosaurios cambiaron y evolucionaron junto con la vida vegetal, pero también reaccionando a los poderosos cambios geológicos que los separaron, promoviendo el surgimiento de nuevas especies que ocuparon prácticamente todos los nichos ecológicos, como en gran medida lo hacen los “recién llegados” del planeta, los mamíferos, la clase a la que nosotros pertenecemos.

Tan sólo en el último mes se pueden contabilizar varios descubrimientos notables. El dinosaurio con plumas más antiguo fue encontrado en China, se trata de un ser que vivió hace unos 144 millones de años y muestra claras protoplumas derivadas de sus escamas, y al que se bautizó como Tianyulong confuciusi, y que probablemente obligará a los estudiosos a replantearse cuándo aparecieron las plumas entre los dinosaurios, originando la estirpe de las aves, que desde hace apenas tres décadas se consideran parte de la clase de los dinosaurios. También en estos días se ha hallado el más pequeño de todos los dinosaurios del continente americano. El llamado Hesperonychus elizabethae fue una delicada y ágil criatura bípeda de apenas unos 2 kilos de peso y una altura de 50 centímetros que vivió hace 75 millones de años y cazaba insectos, pequeños mamíferos y otras presas.

En el otro extremo, científicos noruegos y estadounidenses informaron del hallazgo del llamado "Depredador X", aún sin nombre científico, un ser oceánico de más de 15 metros de largo y 45 toneladas de peso que campó por los mares hace 147 millones de años. El fósil de este enorme depredador con cuatro aletas fue hallado bajo el permafrost en Svalbard, en el Ártico al norte de Noruega. Y en febrero, en la Costa de los Dinosaurios de Asturias, se recuperó la mayor huella o icnita encontrada hasta ahora de un estegosaurio, animal que vivió hace unos 150 millones de años.

Con los nuevos descubrimientos vienen siempre nuevas teorías, que acotan, modifican, confirman o redefinen lo que se sabía hasta ese momento, en el proceso de continuo desarrollo de la ciencia, que poco a poco va desgranando conocimientos de las suposiciones y las evidencias encontradas.

Así, el colosal tamaño de algunos dinosaurios se explica como una adaptación que evita que el animal se convierta en presa y pueda defenderse mejor. Así, como en el caso de los elefantes o las ballenas actuales, los grandes dinosaurios de la familia de los saurópodos no tenían enemigos naturales. Esto se entiende viendo al mayor dinosaurio conocido, el argentinosaurus, un gigante cuadrúpedo de hace 100 millones de años, con 35 metros de largo y un peso de 80 toneladas. Para igualar la masa de este miembro de la familia de los saurópodos, con gran cuerpo, alargado cuello y diminuta cabeza, se necesitarían unos 20 grandes elefantes africanos adultos machos.

En España, la búsqueda de dinosaurios está en plena efervescencia. Desde el norte asturiano, donde los cambios de la línea costera continuamente revelan restos importantes, hasta las huellas que se pueden hallar en La Rioja y Soria, o el colosal yacimiento paleontológico  en Cuenca, descubierto durante las obras del AVE y que data del cretácico superior, hace unos 80 millones de años, una época de la que existen muy pocos restos en Europa. Así, la prehistoria de esa época será, en gran medida, escrita por la paleontología española.


La extinción


La más aceptada teoría sobre la extinción de los dinosaurios la atribuye a un “invierno por impacto” ocasionado por el choque de un meteorito de 10km de diámetro en la península de Yucatán, en México. Sin embargo, un grupo de científicos cree haber reunido evidencia geológica según la cual el meteorito de Chicxulub es mucho más antiguo de lo que se suponía, por lo que sería necesaria otra teoría nueva y más completa, probablemente la de un cambio climático natural y paulatino.

Promesas y problemas de los plásticos


Elemento indispensable en la vida moderna y con frecuencia denigrado con poco conocimiento de causa por algunos grupos de presión, los plásticos son presencia permanente hoy en día.

Los materiales plásticos tienen una amplia gama de propiedades distintivas: son maleables y flexibles, pudiendo ser moldeados, presionados, soplados o extruidos para adoptar prácticamente cualquier forma. No todos los plásticos son artificiales o creados por el hombre, los hay naturales como la goma laca, el asfalto, la celulosa, el caucho y savia o resina de diversas plantas.

El primer plástico hecho por el hombre fue la parkesina, creada en 1861 por el inventor británico Alexander Parkes, que mostró que podía usarse para producir medallones, tubos, peines, mangos de cuchillos, incrustaciones, tapas de libros, cajas, plumas y otros muchos productos. La parkesina podía hacerse dura o suave, transparente u opaca y de colores variados, además de ser impermeable. Pero su producto era de baja calidad y no prosperó.

El estadounidense John Wesley Hyatt desarrolló en 1872 una forma de producir este material, bajo el nombre de celuloide, con buena calidad. Pronto apareció en todo tipo de productos: plumas fuente, peines y peinetas, todas las aplicaciones que había soñado Parkes y muchas más, incluidos muñecos de juguete y figurillas para la decoración, piezas dentales, bolas de billar, cuellos y puños de camisa, y una utilización que ha mantenido el nombre del producto en la cultura popular: durante mucho tiempo fue el sustrato, la película, sobre el cual se aplicaba la emulsión para las producciones cinematográficas. “Celuloide” y “cine” siguen siendo sinónimos aunque dede 1951 el acetato sustituyó al celuloide.

El celuloide llevó a las clases trabajadoras productos antes reservados a las clases altas. Pero tenía problemas. El calor lo reblandecía, lo que hacía problemáticas prácticas como beber té con dentaduras postizas de celuloide. Con el tiempo, tendía a amarillarse y resquebrajarse. Pero su principal defecto era que se incendiaba con gran facilidad. Las salas de proyección de los cines tenían que ser a prueba de incendios, el transporte mismo de las películas podía ser peligroso y, más grave aún, con el tiempo la nitrocelulosa se descomponía liberando ácido nítrico que convertía las películas en un líquido espeso. Muchas obras de la cinematografía se perdieron así.

Los plásticos se dividen en dos categorías: los termoplásticos, que se reblandecen y funden con el calor antes de quemarse, y los termofijos, que mantienen la forma cuando se les somete a calor, incluso cuando se queman. Los plásticos son polímeros, es decir, están formados por largas cadenas formadas por unidades moleclulares (o monómeros) que se repiten. Así, por ejemplo, un monómero de estireno es la base del polímero llamado, precisamente, poliestireno. La gran mayoría de los plásticos están formados por polímeros de carbono e hidrógeno, y ocasionalmente con oxígeno, nitrógeno, cloro o azufre, aunque algunos utilizan silicio en lugar del carbono, los que se conocen como siliconas.

El primer polímero totalmente artificial fue la baquelita, creada en 1909 por Leo Hendrik Baekeland, de origen belga. A él le siguió una verdadera catarata de nuevos materiales que no ha cesado. Después de la Primera Guerra Mundial se desarrollaron el poliestireno y el cloruro de polivinilo, o PVC por sus siglas en inglés, que sigue siendo uno de los plásticos más presentes en nuestra vida. El poliestireno fue uno de los primeros plásticos usados en forma de espuma, el aún popular icopor. En 1939, en la Feria Mundial de Nueva York, se presentó la primera fibra artificial, una poliamida, conocida por su nombre comercial de nylon, que dio a todas las mujeres la posibilidad de disfrutar lo que antes sólo tenían las más opulentas que podían pagarse costosas medias de seda. El nylon se empleó igualmente para fabricar paracaídas en la Segunda Guerra Mundial.

Siguieron otras poliamidas y los poliésteres, así como utilizaciones novedosas de los anteriores. El nylon aparece cada vez más frecuentemente en rodamientos, bujes, engranajes y piezas mecánicas, gracias a su gran resistencia al calor y al desgaste. Los copolímeros, largas moléculas compuestas por dos monómeros, sirvieron para crear caucho artificial, el primero de los cuales fue el neopreno, todavía utilizado en trajes para diversos deportes acuáticos. Se produjeron también polietilenos en distintas formas.

En el período de la postguerra, llegaron al público el polipropileno, similar al polietileno pero más resistente y de costo igualmente bajo, el poliuretano, utilizado hoy en colchones, relleno de muebles y aislamiento térmico, y las resinas epóxicas, un adhesivo que hoy se emplea tanto para el bricolaje como para la fabricación de aviones y naves espaciales, y en la fabricación de productos basados en estructuras de fibra de carbono, que van desde raquetas de tenis hasta cuerpos de automóviles y aviones.

El estallido posterior de los plásticos es evidente mirando a nuestro alrededor. Bebidas en botellas de poliuretano tereftalato (PET), materiales plásticos antiadherentes en nuestros utensilios de cocina, envases de polietileno herméticos en nuestra nevera, metacrilatos transparentes, kevlar en cascos para distintos deportes y en chalecos antibalas. Un mundo de plásticos.

Las ventajas del plástico son también algunos de sus problemas. Su durabilidad, por ejemplo, y su lenta degradación para reciclarse en el medio ha creado un grave problema de desechos, sobre todo porque la mayoría de los plásticos, al quemarse, liberan emanaciones que pueden ser de moderadamente tóxicas a altamente peligrosas. Por ello se han desarrollado sistemas de reciclado de los plásticos, con el problema de que la selección de los desperdicios sigue teniendo que hacerse a mano pues no se ha podido automatizar.

Otro problema es la emisión de algunas sustancias tóxicas descubierta en algunos plásticos como el PVC suave, que han provocado el cambio en los aditivos que se utilizan para ellos, y, en algunos casos, la producción de contaminantes como parte del proceso de fabricación de algunos plásticos. El riesgo real, sin embargo, es difícil de valorar, pues los fabricantes tienden a minimizarlo y algunos grupos de presión política llegan a pintar un panorama excesivamente pesimista sin contar con datos sólidos


Cambiar el problema


Algunos enfoques no tienen por objeto el reciclado o degradación adecuada de los plásticos existentes, sino que buscan la creación de plásticos totalmente nuevos que tengan la degradación o capacidad de reciclaje como parte de su diseño. Aunque ya existen algunos productos concretos, siguen careciendo de una de las principales características del plástico: su bajo costo.


Alexander Fleming: el reino de los antibióticos

El descubrimiento de la penicilina fue producto de un accidente. Pero sólo fue notado gracias a que Alexander Fleming estaba ya buscando un antibiótico eficaz.

Alexander Fleming (foto D.P. de Calibuon,
via Wikimedia Commons)
Una gran cantidad de la gente viva hoy en día no recuerda un tiempo en el que no había Internet, o televisión en color, o telefonía móvil. El tiempo tiende a diluir la memoria no sólo entre los individuos, sino también en las sociedades.

Imaginemos un tiempo en que la escarlatina, la difteria, la sífilis o la tuberculosis fueran mortales en la gran mayoría de los casos. Un tiempo en que cualquier infección, desde la causante de la pulmonía hasta la provocada por un pequeño corte en la piel, podía llevar a la muerte a sus víctimas. Y un tiempo en el que ni siquiera se sabía que esas terribles enfermedades mortales estaban causadas por pequeños seres unicelulares llamados bacterias.

Tuvo que llegar Louis Pasteur para reunir el trabajo de muchos y consolidar en la década de 1860 la revolucionaria teoría de que muchas enfermedades eran producidas por esos pequeños seres, los gérmenes patógenos, que fue probada por Robert Koch en 1875. Una vez conociendo al enemigo, comenzaba su cacería, la búsqueda de algo que acabara con ellos y curara así las enfermedades que provocan.

Sólo seis años después de que Koch estableciera sus postulados, en 1881, nacía Alexander Fleming en una granja cercana a Ayrshire, Escocia. Después de conseguir superar problemas económicos y estudiar medicina, se dedicó accidentalmente a la naciente disciplina de la bacteriología dejando de lado la posibilidad de convertirse en cirujano. Durante la Primera Guerra Mundial, prestó sus servicios en el cuerpo médico británico.

En la guerra, Fleming fue testigo de la muerte de muchos soldados por septicemia en el campo de batalla a causa de heridas infectadas. También pudo ver que algunas sustancias antisépticas utilizadas para evitar infecciones resultaban a la larga más dañinas. Los antisépticos funcionaban bien en las bacterias aerobias de las heridas superficiales, pero en las heridas más profundas parecían eliminar a agentes naturales del cuerpo que protegían a los pacientes de las bacterias aneróbicas, las que florecían en la parte profunda de las heridas.

Después de la guerra, Fleming comenzó activamente la búsqueda de agentes antibacterianos que no fueran dañinos para los tejidos animales. En 1922 descubrió en “tejidos y secreciones” una importante sustancia bacteriolítica, es decir, que mataba a las bacterias disolviéndolas. Se trataba de la lisozima, también llamada muramidasa, una enzima natural presente en las lágrimas, la saliva o el moco y que forma una primera línea de defensa contra diversos microorganismos.

En 1928, mientras trabajaba en el virus de la gripe, Alexander Fleming observó que, debido a una contaminación accidental, se había desarrollado un moho en una caja de Petri en la que había un cultivo de estafilococos, un tipo de bacteria responsable de una amplia variedad de enfermedades en los animales, incluido el ser humano. El curioso fenómeno que llamó su atención fue que, alrededor del moho, se había creado un círculo completamente libre de bacterias, y empezó a investigar en esa dirección, identificando la sustancia activa del cultivo de moho que evitaba el crecimiento de los estafilococos. Llamó a la sustancia “penicilina” debido a que el moho en cuestión era del genus Penicillium, que con frecuencia podemos encontrar en forma de moho del pan.

Ciertamente, durante literalmente miles de años se habían usado alimentos enmohecidos como cataplasmas para curar algunas infecciones de la piel, pero sin que quienes los utilizaban conocieran ni el mecanismo de acción ni el principio activo que identificó el científico escocés. Las investigaciones posteriores de Fleming demostraron que este efecto antibacteriano era eficaz para combatir muy diversas bacterias, entre ellas las patógenas responsables de la escarlatina, la neumonía, la meningitis, la gonorrea y la difteria, pero no las combatía todas. El descubrimiento fue anunciado en la Revista Británica de Patología Experimental en 1929 pero asombrosamente no atrajo gran atención y Fleming continuó sus investigaciones en el anonimato.

Problemas prácticos, como la refinación de la penicilina a partir de cultivos en cantidades adecuadas para utilizarla en infecciones humanas, mantuvieron a Fleming trabajando hasta 1940. Cuando decidió abandonar el tema de la penicilina, sin embargo, surgió el interés por parte de otros investigadores, Ernst Chain, Howard Florey y Norman Heatley, que consiguieron purificar y estabilizar la penicilina, y producirla en cantidad suficiente para realizar pruebas clínicas, con el entusiasta apoyo de Fleming.

Ante el éxito de las pruebas, se desarrolló la producción en masa y, para 1945, cuando los Aliados realizaron la colosal operación de invasión a las playas de Normandía, contaban con reservas suficientes para tratar a todos sus heridos, salvando miles, o cientos de miles, de vidas. La penicilina llegó pronto a la población civil y, literalmente, cambió la historia convirtiendo en curables muchísimas enfermedades y abriendo la puerta de toda una nueva generación de medicamentos eficaces, de clara utilidad y mecanismos conocidos: los antibióticos.

Por sus logros, Fleming recibió numerosas distinciones, que incluyeron su nombramiento como “sir” del reino, la Gran Cruz de Alfonso X El Sabio en 1848 en España y el Premio Nobel de Fisiología o Medicina de 1945.

Desde el descubrimiento de la penicilina se ha desarrollado una gran variedad de antibióticos, orientados a luchar contra gérmenes resistentes a otros antibióticos o que no generan sensibilidad en personas alérgicas a algunas de estas sustancias.

La resistencia a los antibióticos desarrollada por muchos microorganismos ya preocupaba a Fleming. Esta adaptación evolutiva, aunada al mal uso de los antibióticos, ha provocado que surjan continuamente cepas más resistentes de diversos organismos patógenos, que deben ser atacados con nuevos antibióticos. De allí surgen las campañas recientes para que no se receten antibióticos cuando no son útiles (como en el caso de infecciones virales, que no son afectadas en lo más mínimo por los antibióticos) y que cuando se nos receten sigamos el tratamiento hasta el final para garantizar la eliminación de todas las bacterias patógenas y reducir la supervivencia de las que podrían desarrollar resistencia.

Los nuevos antibióticos

Nuevas generaciones de antibióticos, efectivos tomados oralmente en lugar de ser inyectados, que actúan mediante tratamientos más cortos (de siete días en general, pero hasta de una sola dosis en el caso de algunos de los más modernos), y con sustancias novedosas como los aminoglucósidos o las estreptograminas, van ocupando su lugar mientras otros van perdiendo eficiencia, en una lucha que, irónicamente, es una prueba más de la teoría de la evolución de Darwin.

El ADN: la identidad de todo lo vivo

Una potente arma en la lucha contra el crimen y en la medicina, nuestro conocimiento del ADN, abre posibilidades sorprendentes para investigar incluso los libros manuscritos del medievo europeo.

La doble hélice del ADN, el código de la vida.
(Imagen D.P. de Apers0n, vía Wikimedia Commons)
El ADN, la sustancia que descubrió Friedrich Miescher en 1869, se convirtió en uno de los descubrimientos más trascendentales de la historia humana. No sólo explicando la transmisión hereditaria de los caracteres.

La identificación de personas por medio de su ADN es quizá la aplicación más conocida, difundida por los medios de comunicación como clave para la solución de casos de identidad reales y en la ficción, sobre todo en la de carácter policíaco.

Para realizar la “huella de ADN” de una persona, sin embargo, no se identifica toda la secuencia del ADN de sus cromosomas, sino únicamente unos 13 puntos o loci de grupos de bases con repeticiones que son distintas en cada individuo. La repetición de bases en cada locus individual está presente en un porcentaje de entre 5 y 20% de las personas, pero la combinación de las repeticiones en los 13 loci es la que identifica a un individuo con una certeza casi absoluta.

Una muestra de ADN, sin embargo, no sirve si no se tiene otra muestra con la que compararla para saber si pertenece o no al mismo individuo. En la ciencia forense, las pruebas de ADN pueden identificar a una víctima, establecer relaciones de parentesco, entre ellas de paternidad, o condenar o exonerar a un acusado al comparar su ADN con el de muestras de fluidos corporales que el delincuente dejara en el lugar del crimen.

La importancia de esta capacidad de identificación del individuo que pudiera haber depositado sangre, saliva o semen en un lugar se puede valorar pensando en que a fines del siglo XIX no existían ni siquiera las herramientas necesarias para saber si una mancha marrón era o no de sangre, mucho menos para identificar el tipo sanguíneo, el sexo del individuo o su identidad con total precisión.

Hoy, estudiando los restos de hombres de Neandertal recuperados en distintas excavaciones, algunas de ellas en España, como las de Atapuerca en Burgos o las de la Cueva del Sidrón en Asturias, se está reconstruyendo la secuencia de ADN de esta especie humana desaparecida hace alrededor de 30.000 años. En el 200 aniversario del nacimiento de Darwin, el Dr. Svante Pääbo, del Departamento de Genética del Instituto Max Planck de Antropología Evolutiva presentó el primer borrador de la secuencia genética del Neandertal, con el 60% de su ADN secuenciado.

El descubrimiento más relevante realizado por el grupo de Pääbo hasta ahora es que, además de las esperadas raíces comunes de los Neandertales y los Homo sapiens, ambas especies tienen el gen llamado FOXP2, que se relaciona con la capacidad de hablar, lo que apoya la hipótesis ya avanzada por los especialistas en anatomía fósil de que estos primos nuestros, alguna vez representados como salvajes simiescos y torpes eran, en realidad, más humanos de lo que a algunos les gustaría aceptar.

No se puede pasar por alto la secuenciación del ADN humano, lograda en un 92% apenas en 2003, como base para identificar algunas alteraciones genéticas que pueden afectar la salud, el desarrollo o el bienestar. Es importante recordar que tener la secuencia del ADN del genoma humano, neandertal o de cualquier ser vivo es sólo el primer paso, necesario pero insuficiente, para leer el libro de la genética. La decodificación de esta secuencia requerirá los esfuerzos de numerosos científicos en los años por venir.

Entre las aplicaciones más recientemente propuestas para las pruebas de ADN destaca de modo especial la que ha presentado no un biólogo, antropólogo o médico, sino un profesor de inglés de la universidad estatal de Carolina del Norte, en los Estados Unidos, Timothy Stinson, quien pretende utilizar los avances de la genética para poder saber con más certeza cuándo y dónde se escribieron los miles de volúmenes manuscritos por copistas en Europa durante la Edad Media.

Muchos de los manuscritos medievales realizados en los proverbiales monasterios se escribieron en pergamino fabricado con piel de cabra, cordero o ternera, especialmente los más antiguos, si tenemos en consideración que la primera fábrica de papel no apareció sino hasta el año 1120 en Xátiva, en Valencia.

El pergamino no se curte, sino que se estira, se raspa y se seca sometiéndolo a tensión, creando así una piel rígida, blanca, amarillenta o traslúcida. Hasta ahora, la datación de los pergaminos se hace utilizando el procedimiento del carbono 14, mientras que la datación del manuscrito en sí se hace indirectamente estudiando la letra manuscrita o cursiva de los escribas y el dialecto que empleaban, dos técnicas que, según los estudiosos, son poco fiables.

El proyecto del profesor Stinson contempla la creación de una “línea de base” o marco de referencia utilizando el ADN de los relativamente pocos manuscritos cuya fecha y lugar de creación pueden determinarse de un modo fiable. Cada uno de estos manuscritos puede ofrecer una gran cantidad de información, ya que en un libro medieval de pergamino se utilizaban las pieles de más de 100 animales. Con esta línea de base de marcadores de ADN con fechas y ubicaciones geográficas conocidas, se podrá determinar el grado de relación que mantenían con ellos los animales cuyas pieles se usaron para la confección de manuscritos de fecha y lugar desconocidos.

La esperanza de Stinson es que las similitudes genéticas sirvan para dar una indicación general del tiempo y lugar de origen de los libros, además de “trazar las rutas comerciales del pergamino” en la Edad Media, revelando así datos importantes sobre la evolución de la industria del libro en esta época histórica.

Para lograrlo, Stinson ha dado el salto de letras al de ciencias, colaborando para perfeccionar las técnicas ideales para extraer y analizar el ADN contenido en los pergaminos. Técnicas que en un futuro podrían usarse en algunos otros artefactos históricos realizados con productos animales, utilizando el ADN para conocer no sólo nuestra historia biológica, sino también la social, política y comercial.

El ADN y Darwin

Una aplicación del estudio de la genética y del ADN en particular fue una demostración de la teoría de la evolución darwinista. Todos los primates que consideramos parientes cercanos nuestros tienen 24 pares de cromosomas, pero nosotros sólo tenemos 23. De ser cierto que provenimos de un ancestro común, nuestra especie debió perder un cromosoma en el proceso. El estudio del ADN demuestra que el cromosoma humano identificado con el número 2 es resultado de la unión de dos cromosomas de primates extremo con extremo. Esto debe haber ocurrido después de que en el transcurso de la evolución nos separamos de chimpancés, gorilas y orangutanes.

¿El cerebro homosexual?

Los prejuicios sobre la homosexualidad, no todos de origen religioso, se están viendo obligados a rendirse ante la evidencia científica de que no describen con precisión la realidad de un importante sector de la humanidad.

Oscar Wilde en 1882, víctima de los
prejuicios contra la homosexualidad.
(Foto D.P. de Napoleón Sarony, via
Wikimedia Commons)
Algunas ideas sobre la homosexualidad están siendo víctimas de avances del conocimiento que quizá ayuden a quitar parte de la presión social sobre un colectivo que, pese a sus logros, sigue estando sometido a rechazo y escarnio por parte de algunos sectores de la población incluso en los países occidentales más avanzados.

La idea de que la homosexualidad era “antinatural” por tratarse de un comportamiento y una identidad sexual poco frecuentes (entre el 4 y el 10% de la población según diversos cálculos, ninguno de ellos demasiado fiables, es importante señalarlo) ha quedado obsoleta ante la abrumadora evidencia de que la homosexualidad también está presente en los animales en estado salvaje. Un estudio de 1999 del biólogo canadiense Bruce Bagermihl indica que se ha observado un comportamiento homosexual en casi 1.500 especies animales distintas, y está plenamente documentado y estudiado en unas 500 de ellas, como las jirafas, los bonobos o chimpancés enanos, cisnes negros, gaviotas, ánades reales, pingüinos, delfines del Amazonas, bisontes americanos, delfines mulares, elefantes (africanos y asiáticos), leones, corderos o macacos japoneses.

Es de notarse que todos estos animales viven en sociedades, es decir, son gregarios, y de ello algunos investigadores deducen que probablemente el sexo no sólo tiene un objetivo reproductivo, sino también puede cumplir otras funciones sociales.

La homosexualidad humana, en todo caso, es mucho menos frecuente que la de algunas de estas especies, pero no por ello es un fenómeno menos complejo que la heterosexualidad misma. En todo caso, establecido que es un hecho infrecuente pero perfectamente natural, los científicos han abordado el problema de si la homosexualidad está determinada por la genética, la fisiología, el medio ambiente o, como pretenden algunas organizaciones religiosas, es una decisión personal evitable o una “desviación” que puede revertirse o una enfermedad que puede “curarse”, como afirman distintas denominaciones religiosas.

Un estudio sueco de 2005 demostró que los hombres heterosexuales y los homosexuales responden de manera distinta al verse expuestos a ciertos aromas hormonales o feromonas que se considera que están implicados en la excitación sexual. Más aún, tanto en las mujeres heterosexuales y los hombres homosexuales se activa una zona del hipotálamo relacionada con la sexualidad al verse expuestos a una testosterona que se encuentra en el sudor masculino, mientras que esto no ocurre con los hombres heterosexuales. Éstos, por su parte, tienen esa misma reacción al exponerse a un compuesto similar al estrógeno que se encuentra en la orina de las mujeres.

Ésta ha sido una de las primeras demostraciones de que el cerebro homosexual y el heterosexual tienen diferencias funcionales y estructurales que se pueden medir más allá de los informes de los sujetos experimentales. En general, depender de lo que dicen los sujetos de la experimentación tiene muchos riesgos por la posibilidad de que tales sujetos alteren sus respuestas por motivos sociales, profesionales, personales o de otra índole. La utilización de escáneres cerebrales de distintos tipos, por su parte, estudia reacciones del cerebro que el sujeto no puede controlar ni alterar, y que demuestran que existen diferencias reales entre las personas homosexuales y las heterosexuales.

Poco después, una investigación del Dr. Simon LeVay estudio sobre el tamaño del grupo de neuronas de la parte anterior del hipotálamo llamadas INAH3, demostró que éste es significativamente menor en los hombres homosexuales y las mujeres heterosexuales. El experimentador, Simon LeVay, advertía en 1991 que no se sabía aún si esa diferencia era causa o consecuencia de la orientación y comportamiento homosexual, y que lo conducente era realizar más investigaciones en ese sentido.

La existencia de hechos biológicos relacionados estrechamente con la homosexualidad sustenta la hipótesis de que la homosexualidad no es una elección personal. Lo mismo se desprende de un estudio realizado en 2005 por Ivanka Savic y Per Lindström del Instituto del Cerebro de Estocolmo, que encontró similitudes en la respuesta emocional de hombres homosexuales y mujeres heterosexuales en la zona del cerebro conocida como amígdala cerebral. Más interesante resultaba que se encontraran similitudes de las mujeres homosexuales con los hombres heterosexuales en las mismas respuestas de la amígdala cerebral. En pocas palabras, al parecer el cerebro homosexual de un género funciona como el cerebro heterosexual del otro género, algo que no se explica fácilmente si no se tiene en cuenta que al menos una parte de la preferencia y comportamiento homosexuales tienen una base bioquímica y, probablemente, genética. El estudio de Savic y Lindström indicó además que la utilización de todo el cerebro también mostraba marcadas diferencias. Los hombres heterosexuales y las mujeres lesbianas hacen una utilización mayor de del hemisferio derecho del cerebro, la llamada lateralización, mientras que entre los hombres homosexuales y las mujeres heterosexuales ambos hemisferios son utilizados de modo más o menos equilibrado.

Se han encontrado correlaciones similares en otros aspectos de la conducta. Por ejemplo, los hombres homosexuales y las mujeres heterosexuales se desempeñan mejor que los hombres heterosexuales en pruebas verbales. Y tanto los hombres heterosexuales como las mujeres lesbianas tienen mejores habilidades de navegación que los hombres homosexuales y las mujeres heterosexuales.

Aún no sabemos si la homosexualidad es genética, o está totalmente determinada por la biología, pero sí es un aviso de que las valoraciones sociales, religiosas o morales no son la mejor forma de enfrentar un hecho como la homosexualidad. La homofobia, en cambio, es claramente un fenómeno social, muchas veces motivado por las creencias religiosas o el miedo a lo desconocido, cuando no a confusiones producto de la ignorancia que no tienen ningún sustento científico.

Ratas bisexuales


Una de las primeras diferencias encontradas en 1990 fue la de la estructura llamada núcleo supraquiasmático, el “reloj” de nuestro cerebro, que en los hombres homosexuales es del doble del tamaño que tiene en los hombres heterosexuales. Los experimentadores, más adelante, provocaron hormonalmente el mismo fenómeno en ratas en desarrollo y el resultado fueron ratas bisexuales, demostrando que al menos esta diferencia no dependía de la actividad sexual, sino de la acción de las hormonas sexuales en el cerebro en desarrollo.

Las historias que cuentan los huesos

Un antropólogo forense es, en realidad, una persona que ha aprendido a leer, en el alfabeto de los esqueletos humanos, las historias que cuentan de cuando estaban vivos.

Nuestra anatomía no es una característica inamovible. Nuestro cuerpo, incluidos nuestros huesos, está en constante transformación, según nuestra herencia genética, el paso del tiempo, la alimentación, las enfermedades, nuestro entorno e incluso las estructuras asociadas a ellos, como los músculos. Los esqueletos pueden mostrar peculiaridades inapreciables a ojos de un lego, pero que para un osteólogo son clarísimas.

La osteología es el estudio científico de los huesos, una subdisciplina de la antropología y la arqueología que ha atraído especialmente el interés público en los últimos años por su aplicación en la antropología forense para el esclarecimiento de delitos, principalmente asesinatos.

Como consecuencia, los antropólogos forenses que antes eran científicos anónimos que manejaban cosas tan desagradables como cuerpos humanos descompuestos, consultaban libros enormes y hablaban en un lenguaje altamente técnico se han convertido en algunos de los nuevos héroes de los medios. De ello dan fe series como Bones, basada en la vida de Kathy Reichs como antropóloga forense.

Y sin embargo, la gran mayoría de los conocimientos de la osteología son producto de estudios relativamente recientes, donde confluyen la genética, la embriología, la paleoantropología, la anatomía comparativa. En primer lugar, un esqueleto puede informarnos de la edad, sexo, estatura y probables influencias étnicas de la persona.

La edad se refleja en los extremos de los huesos largos, que en la niñez y juventud tienen placas de crecimiento, en la estructura interna de los huesos, en las articulaciones y, de modo muy especial, en las suturas que unen a los huesos que forman la bóveda craneal, muy abiertas en la niñez (incluso con los puntos sin cerrar que llamamos “fontanelas” o “mollera” en los recién nacidos) y que se alisan hasta casi desaparecer con la edad. Los dientes son otro indicador relevante.

Es sabido que la pelvis femenina es distinta de la masculina debido a que ha evolucionado junto con el tamaño del bebé humano y la forma de parir de nuestra especie, siendo por tanto más ancha y redondeada. Ésas y otras diferencias pélvicas, así como una serie de diferencias en las proporciones y tamaño de partes del cráneo permiten una determinación del sexo con casi un 100% de certeza, con la excepción de ciertos casos límite de la variabilidad humana.

Un experto puede determinar también la edad y el sexo a partir de un fémur. El fémur del hombre adulto es más recto que el de la mujer adulta que se arquea como reacción precisamente al ensanchamiento de la cadera que ocurre en la pubertad. Como un Sherlock Holmes del nuevo milenio, un antropólogo forense puede aventurar con mucha certeza que un fémur desarrollado y curvado pertenece “a una mujer adulta”, aunque los datos de la edad se afinen después con otras mediciones.

En realidad, para que los huesos relaten las historias que nos interesan (antropológicas o criminales) no basta mirarlos con actitud interesante como los actores de las series de televisión. Muchas mediciones y estudios poco espectaculares permiten obtener importantes datos. Por ejemplo, la densidad ósea de las personas predominantemente negroides es mayor que la de las personas predominantemente caucásicas o mongólicas; hay indicaciones de antecedentes étnicos también en los dientes, la estructura maxilar y otros puntos, e incluso los puntos de inserción de los músculos pueden decirnos si la persona era o no afecta a hacer ejercicio.

Hoy es sencillo determinar la estatura que un esqueleto tuvo en vida, pues tenemos ecuaciones matemáticas para calcular la estatura con bastante precisión a partir del fémur, la tibia y otros huesos largos de un esqueleto.

Pero lo más fascinante es la capacidad de los antropólogos forenses de determinar el origen de ciertas lesiones en los huesos y las posibles causas de muerte de víctimas de delitos, accidentes o, incluso, enfrentamientos armados. Dado que los huesos perduran mucho más que cualquier otra estructura corporal, son muchas veces el último testimonio de una vida y de su final, y lo siguen siendo cuando el resto del organismo se ha descompuesto.

Un antropólogo forense puede diferenciar los efectos de un golpe con un objeto contundente, un cuchillo, una flecha o una bala, y pueden evaluar si la lesión se produjo alrededor del momento de la muerte o aconteció antes y hay señales de cicatrización ósea. Numerosas enfermedades y afecciones, además, dejan su huella en nuestro esqueleto, como el raquitismo, la tuberculosis, igual que ciertas deficiencias alimenticias. Con todos estos datos, haciendo estudios químicos y físicos de los huesos, mediciones y observaciones, un antropólogo forense puede trazar un retrato muy detallado de la vida y, quizá, la muerte de una persona, sin importar la antigüedad de los huesos, como se ha demostrado en estudios de restos antiguos como la momia congelada de los Alpes Ötzi y las momias de faraones como Ramsés II y Tutankamón.

Pero quizá lo más impresionante para el público en general ha sido el descubrimiento de que, en gran medida, la forma única de nuestro rostro, que vemos como el equivalente de nuestra identidad, está escrita fundamentalmente en nuestro cráneo. Gracias a mediciones de gran cantidad de rostros de personas de distintas edades, sexos, orígenes étnicos, etc., se tiene hoy un conocimiento preciso de la densidad media de los tejidos en los distintos puntos de nuestro rostro. Utilizando estas densidades medias, es posible reconstruir, con un asombroso, a veces escalofriante grado de exactitud, el rostro que una persona tuvo en vida, como lo muestran algunas series de televisión de modo tal que parece ficción.

La antropología forense nos permite saber cómo era el rostro de Tutankamón y cómo murieron las víctimas de algunos asesinatos, pero también nos permite identificar y conocer a los muertos del pasado, desde Pizarro hasta los miembros del pueblo que construyó Stonehenge, lo cual sin duda trasciende la ficción.

El falso Pizarro


En los años 70 se hallaron en Perú unos restos presuntamente de Francisco Pizarro, pero durante mucho tiempo se habían considerado genuinos otros. El famoso antropólogo William Maples analizó los huesos del esqueleto recién hallado y catalogó las terribles heridas que mostraba, curadas o no y los comparó con la biografía de Pizarro, incluido su asesinato por un grupo de conspiradores. Los restos hasta entonces considerados genuinos resultaron ser de alguien que nunca había visto batalla y menos muerto en una, confirmando así la verdadera identidad del conquistador del Perú.

Europa en el espacio en 2009

La Agencia Espacial Europea, el mayor esfuerzo cooperativo para la exploración del espacio enfrenta uno de sus años más activos y apasionantes.

Ante la carrera espacial emprendida por la Unión Soviética y los Estados Unidos como parte de la propaganda de la Guerra Fría, Europa se encontró ante el problema de no contar con los recursos, tanto económicos como humanos, para competir con las dos superpotencias, al tiempo que tenía la necesidad de no quedarse atrás en la exploración del espacio.

Después de que la URSS sorprendiera al mundo el 4 de octubre de 1957 con el lanzamiento del Sputnik, dos científicos europeos, los físicos Edoardo Amaldi, italiano, y Pierre Victor Auger, francés, decidieron convocar a científicos de ocho países para proponer la creación de una organización espacial de Europa Occidental para aprovechar los beneficios que claramente se derivarían del conocimiento del espacio. Las reuniones comenzaron en 1961 y en 1964 se fundaron oficialmente la ELDO, con la misión de desarrollar un sistema de lanzamiento, y la ESRO, organización europea de investigación espacial. Estas dos organizaciones se fusionaron en 1975 en la Agencia Espacial Europea, o ESA por sus siglas en inglés, que hoy cuenta con una flotilla de vehículos de lanzamiento utilizados para poner en órbita satélites y ha participado en la investigación del espacio y en la construcción de la Estación Espacial Internacional.

En este proyecto, que en muchas formas es el esfuerzo internacional más importante de la historia, donde se unen numerosos países, la ESA ha participado con 12 de sus 17 países miembros, contribuyendo con el módulo de laboratorio científico Columbus y el módulo de observatorio Cupola. Además, en 2008 puso en operación su vehículo de transferencia automatizado (ATV) “Jules Verne”, el transporte automático para reabastecer la Estación Espacial Internacional.

En 2009, los proyectos de la ESA son extremadamente ambiciosos.

Éste será el año en que se lance por primera vez el cohete Vega, destionado a poner en órbita cargas mucho más pequeñas que el Ariane 5 (de 1.5 toneladas métricas a una órbita de 700 km de altura). Las cargas pequeñas han tenido problemas para encontrar medios adecuados para colocarse en órbita, sobre todo cuando más países y universidades de todo el mundo están esforzándose por tener en órbita experimentos en espacios limitados y de pesos muy bajos para optimizar sus recursos. Vega es parte de la política que ha establecido Europa para tener “acceso garantizado” al espacio.

Igualmente, en el primer semestre del año se lanzará el observatorio espacial Herschel de la ESA, un gigantesco telescopio cuya observación en las bandas infrarroja y submilimétrica le permitirán ver a través del polvo que oculta las fases iniciales de la formación estelar y planetaria. Su espejo de 3.5 metros de diámetro es mayor que el del telescopio Hubble. Su objetivo es el estudio de la formación de galaxias en los inicios del universo y su evolución, la formación de estrellas y la composición química de las atmósferas y superficies de los cuerpos del Sistema Solar, además de analizar la química molecular de todo el universo.

Junto con el Herschell se lanzará el satélite Planck, un observatorio diseñado para estudiar la radiación cósmica de microondas de fondo, conocida como la “primera luz” del universo, el eco aún perceptible del Big Bang. El Planck estudiará así las diversas hipótesis sobre las primeras etapas del universo y el origen de la estructura que tiene el cosmos en la actualidad.

2009 marcará además una nueva etapa de la colaboración de la ESA con la organización espacial rusa, cuando los cohetes Soyuz empiecen a lanzarse desde el espaciopuerto europeo situado en Kourou, el la Guayana Francesa. La ubicación de este espaciopuerto se debe a que los cohetes lanzados desde puntos cercanos al ecuador reciben un impulso favorable de la rotación terrestre, de modo que los Soyuz lanzados desde Kourou tendrán mayor capacidad de carga que los que se lanzan desde el cosmódromo de Baikonur, en Kazajstán.

En mayo de 2009, el comandante belga de la ESA Frank de Winne partirá en su segundo viaje a la Estación Espacial Internacional, a la cual voló en 2002 como ingeniero de vuelo. En esta ocasión, viajará en una Soyuz TMA-15 y encabezará la expedición 21 de la Estación Espacial Internacional, de la que será el primer comandante europeo, durante un período de seis meses en el cual tendrá a su cargo una tripulación de cinco personas.

El programa Planeta Viviente de la ESA, que consta de seis misiones ya definidas y está abierto al desarrollo de nuevos proyectos, tiene por objeto la realización de observaciones de la Tierra que nos ayuden a comprender mejor nuestro planeta

El 11 de marzo, de no haber cambios, la ESA lanzará un satélite capaz de analizar el campo gravitacional de la Tierra y determinar con más precisión que nunca la forma exacta de nuestro planeta, el geoide, así como estudiar la velocidad y dirección de la circulación de las corrientes océanicas. Este satélite, denominado GOCE, será el primero de una serie de exploradores de la Tierra que la ESA pondrá en el espacio como parte de su programa Planeta Viviente.

El segundo satélite del programa es la misión Humedad del Suelo y Salinidad Oceánica, SMOS, previsto para el primer semestre del año, que observará la humedad del suelo en las masas terrestres del planeta y la salinidad de los océanos para ayudarnos a entender el ciclo del agua en la tierra y los patrones de circulación oceánica.

En junio se lanzará la misión de Dinámica Atmosférica Aeolus, el primer sistema capaz de realizar la observación del perfil de los vientos en todo el planeta y que proporcionará información fundamental para mejorar la previsión del tiempo. La idea es contar con observaciones que permitan a los científicos crear modelos complejos de nuestro medio ambiente para predecir mejor su comportamiento.

Finalmente, la misión Cryosat-2, que ocupa el lugar de la primera misión Cryosat destruida en su lanzamiento en 2005, tiene por objeto la observación del espesor de las masas de hielo en el mar y en los glaciares montañosos utilizando un altímetro de radar, algo de gran importancia para evaluar los efectos reales del cambio climático.

Los vuelos humanos


El éxito del ATV ha motivado que los países miembros de la ESA pongan en marcha los estudios para diseñar con base en el ATV una nave espacial logística capaz de llevar tripulantes a la Estación Espacial Internacional y traerlos de vuelta en lo que se conocería como el vehículo de reentrada avanzado (ARV). Este proyecto, así como el aún incipiente sueño de una misión europea tripulada a Marte, conforman los posibles pasos de los viajes espaciales tripulados de la agencia europea.

Los enemigos de Darwin

Charles Darwin
Los 150 años de la publicación de la obra fundamental de Darwin son también 150 años de debate, controversia y ataques por parte de ciertos sectores religiosos contra lo que la biología nos enseña.

La controversia vigente entre la visión religiosa de la vida y la explicación científica de su evolución era algo que Darwin esperaba, quizá no con la violencia que se dio. Cuatro días antes de que El origen de las especies por medio de la selección natural saliera a la venta, una reseña atacó a la obra por implicar que el hombre procedía de los monos, y por creer que el hombre “nació ayer y perecerá mañana”.

La idea de que las especies cambiaban al paso del tiempo estaba en ebullición en la primera mitad del siglo XIX. Ver, como Darwin, a las distintas especies de pinzones de las Galápagos, adaptadas a distintos nichos ecológicos y necesidades de la supervivencia, sugería que todos procedían de un ancestro común, y habían cambiado para adaptarse a distintos entornos.

La idea de la transmutación de las especies era rechazada por parte del estamento religioso y favorecida por los científicos. Pero aún podía ser aceptable en la visión religiosa. Leifchild, autor de la reseña contra Darwin, expresaba: ”¿Por qué construir otra teoría para excluir a la Deidad de los actos de creación renovados? ¿Por qué no admitir de una vez que las nuevas especies fueron introducidas por la energía Creadora del Omnipotente?”

Entonces, parte del enfrentamiento inicial no era la evolución en sí, sino que Darwin propusiera la selección natural como su motor y que afirmara que dicha selección natural actuaba sobre todos los seres vivos, incluido el ser humano. Pero las controversias e insatisfacciones sobre la obra del naturalista han cambiado a lo largo del tiempo. Hoy en día, el creacionismo religioso pone en duda la existencia misma de la evolución, además de debatir no el origen de las especies, sino el de la vida misma.

El debate disparado por la publicación del libro el 24 de noviembre de 1859 se animó con reseñas negativas no firmadas como la del Obispo de Oxford, Richard Wilberforce, o la que The Times publicaba apoyando a Darwin y cuyo autor no acreditado era Thomas H. Huxley, quien se ganaría el mote de “El Bulldog de Darwin” en un debate organizado por la Asociación Británica para el Avance de la Ciencia en el que participaron tanto el obispo Wilberforce como Huxley. Los argumentos de Wilberforce terminaron preguntando si Darwin se consideraba descendiente de un mono por parte de su padre o de su madre. Thomas Huxley aprovechó la oportunidad y respondió que él no se avergonzaría de tener como ancestro a un mono, pero sí le avergonzaría verse conectado a un hombre utilizaba mal sus grandes talentos para tratar de ocultar la verdad. El golpe de efecto fue enorme.

La confrontación de ciertas visiones religiosas con los descubrimientos de Darwin ha tenido su más aguda expresión en los Estados Unidos, logrando, por ejemplo, que el estado de Tennessee prohibiera en 1925 enseñar que el hombre procede de animales inferiores. Como protesta, el profesor de instituo John Scopes se hizo arrestar por enseñar la evolución del hombre y fue juzgado en el “Juicio Scopes” o “Juicio de los Monos” de 1926, donde el fiscal y enemigo de la evolución William Jennings Bryant se enfrentó al defensor Clarence Darrow.

Darrow llamó a Bryant como “testigo experto de la defensa”, una acción legal sin precedentes, para que ilustrara al tribunal sobre la historicidad de la Biblia. El enfrentamiento favoreció a Darrow aunque, en última instancia, Scopes perdiera el juicio porque, claramente, había violado una ley. El efecto dramático del juicio sería profundo en los Estados Unidos, llegando a ser dramatizado en el teatro y el cine como Heredarás el viento, película donde Spencer Tracy hace el papel del sosías de Darrow y Frederic March interpreta a William Jennings Bryant.

En Estados Unidos, la guerra de algunos fundamentalistas contra la enseñanza de la evolución continúa con especial fuerza, y se puede decir que los movimientos creacionistas de distintos países y religiones obtienen su impulso, así sea para diferenciarse de ellos, de los creacionismos estadounidenses. En el extremo de éstos encontramos la idea de la Tierra Joven, que acepta la Biblia verbatim afirmando que el universo fue creado hace alrededor de 6.000 años, con lo cual se opone a la biología evolutiva y también a la física y la cosmología, la geología, la paleontología y otras disciplinas.

La forma más reciente y conocida de creacionismo es el llamado “Diseño inteligente”, que afirma que la evolución no está dirigida por leyes naturales, sino que es “evidente” que las especies y ciertos órganos han sido diseñados por una “fuerza” inteligente que no suelen llamar directamente Dios para intentar presentarse como una alternativa respetable. Surgió fundamentalmente como reacción a los tribunales estadounidenses cuando prohibieron la enseñanza de la creación según los relatos religiosos como si fueran ciencia.

Aunque la comunidad científica claramente define a estos intentos como pseudocientíficos, han logrado tener cierta relevancia en debates al interior de los consejos escolares que controlan los planes de estudios de modo autónomo en ciudades, distritos escolares, estados o provincias de los Estados Unidos, intentando expulsar de las aulas los conceptos esenciales de la biología evolutiva y sustituirlos por enseñanzas religiosas que quizás estarían mejor en los espacios de la casa y la iglesia.

En todo caso, el profundo significado de la labor de Charles Darwin sigue demostrándose por la intensidad del debate. Darwin demostró contundentemente que el universo viviente es tan ordenado, tan sujeto a leyes y tan comprensible por medio de la ciencia como el universo de la química y la física, y que el hombre es parte de ese universo viviente sin ningún privilegio. Los 150 años transcurridos desde la publicación de El origen de las especies no han hecho sino confirmar estos hechos. Si Galileo demostró que la Tierra no es el centro del universo, Darwin demostró que el hombre no es sino parte de un todo viviente. Algunos no perdonan todavía a ninguno de estos dos pilares del conocimiento.

Otras religiones


El catolicismo evitó en general el enfrentamiento y guardó sus distancias respecto a Darwin, afirmando únicamente que el ser humano es una “creación especial” distinta del resto de los animales. Esta posición fue ratificada en 1996 por Juan Pablo II y el Vaticano sostiene que el creacionismo “no es ciencia”. Esta posición coincide curiosamente con la del judaísmo, que considera, en un breve resumen, que “si hay selección natural, es porque Dios la quiere”. Tanto en el mundo católico como en el judío, los adversarios de Darwin son una minoría.

Ciencia al estilo estadounidense

Uno de los líderes mundiales en producción de ciencia y tecnología, además de ser el país más poderoso en lo militar y económico, sigue respondiendo por la mayor parte de la investigación mundial.

59 premios Nobel de química otorgados a ciudadanos estadounidenses, 81 de física y 90 de medicina y fisiología dan testimonio de la preeminencia estadounidense en el conocimiento científico de este siglo. No todos estos científicos nacieron en Estados Unidos. Muchos fueron a ese país por muy diverswos motivos, políticos, filosóficos, económicos o académicos, atraídos por sus universidades, sus recursos para la investigación y una atmósfera no hostil en general a las tareas científicas, aunque en la sociedad estadounidense haya como contrapeso una actitud antiintelectual, de sospecha respecto de la ciencia y los científicos.

Los orígenes

Los colonos europeos que llegaron a lo que hoy son los Estados Unidos no sólo encontraron la libertad religiosa que anhelaban. Encontraron además una gran cantidad de espacio disponible, un bien escaso en Europa.

Para muchos estudiosos, la Peste Negra del siglo XIV, que acabó con entre el 30 y el 60% de la población europea, fue uno de los detonantes de la revolución científica que se haría evidente en la Europa del Renacimiento. El hecho de que el fervor religioso no hubiera podido contener el avance de la peste, abriendo la puerta a la razón por sobre la fe, la tierra que quedó disponible a la muerte de sus propietarios, el aumento del valor de la mano de obra por su súbita escasez, son algunos los elementos que dan sustento a esta interpretación. Y ni entonces ni después los europeos habían visto espacios libres tan vastos como los que de las nuevas tierras.

El grupo inicial de la colonia de Plymouth, Massachusets, era una congregación religiosa que consideraba irreconciliables sus diferencias con la iglesia anglicana oficial en Inglaterra y emigró primero a y posteriormente al nuevo mundo.

Esta colonización fue muy distinta de las conquistas tradicionales, que utilizaban la mano de obra de los habitantes subyugados. Los peregrinos ingleses no pensaban volver ricos y triunfadores, como esperaban hacerlo muchos españoles y portugueses, sino que habían iniciado un viaje sin retorno. En parte por ello, procedieron a desplazar y aniquilar a los habitantes originarios para tomar posesión plena de sus tierras sin incluirlos en su gran plan.

El aislamiento respecto de Europa, la falta de mano de obra y el espacio que permitía a cada familia tener tanta tierra como pudiera trabajar, fueron motores del desarrollo de tecnologías novedosas y de la rápida adopción de toda forma de mecanización o avance agrícola procedente de Europa, como fue el caso del taladro de semillas y las innovaciones en el arado introducidas por el británico Jethro Tull a principios del siglo XVIII.

Un país fundado por científicos

Dos de los hombres que fundaron Estados Unidos, que concibieron su independencia y su surgimiento según los ideales de la ilustración, eran, entre otras cosas, hombres de ciencia. Benjamín Franklin demostró que los relámpagos son una forma de electricidad y fue responsable de numerosos inventos como las gafas bifocales además de promover el sistema de bibliotecas públicas de las colonias, mientras que Thomas Jefferson, estudiante de la agricultura, llevó a América varios tipos de arroz, olivos y pastos. Otros científicos de las colonias británicas estuvieron implicados en la lucha por la independencia.

Esto se reflejó en la Constitución promulgada en 1787, que establece que el Congreso tendrá potestad, “para promover el avance de la ciencia y las artes útiles”. Esta disposición se reflejaría más adelante tanto en la Revolución Francesa de 1789 como en las constituciones de los países americanos que obtuvieron su independencia a principios del siglo XIX.

La ciencia y la tecnología se vieron estrechamente vinculadas a los avances económicos del nuevo país, lo que se ejemplifica en la invención del elevador de granos y el silo elevado de Oliver Evans, de mediados de la década de 1780, o la desmotadora de algodón de 1789. La fabricación de armas requirió generar conceptos como la división del trabajo, las piezas intercambiables y tornos capaces de hacer de modo repetible formas irregulares.

El siglo XIX

En el siglo XIX Europa conservó su liderazgo en la ciencia y la tecnología, tanto que fue en Inglaterra donde William Whewell acuñó precisamente el término “scientist” o científico. Pero en Estados Unidos empezaron a aparecer personajes dedicados a resolver tecnológicamente sus problemas peculiares, como Samuel Colt, inventor del revólver, Samuel Morse, creador del telégrafo que patentó en 1837 o Charles Goodyear, que descubrió la vulcanización del caucho.

No todos los avances tecnológicos estadounidenses eran de tanta entidad, y por ello llama la atención que un producto tan humilde como el alfiler de seguridad o imperdible, creado por el neoyorkino Walter Hunt en 1849, haya sobrevivido al telégrafo en cuanto a su utilización cotidiana continuada.

La gran mayoría de los científicos estadounidenses del siglo XIX son inventores, personajes eminentemente prácticos como Elisha Graves Otis, inventor del freno de seguridad de los elevadores que permitió que se construyeran edificios de gran altura o “rascacielos”. La teoría científica parecía ser, únicamente el trampolín para obtener aparatos, inventos, patentes, aplicaciones prácticas de éxito comercial que cambiaran la forma tradicional de hacer las cosas.

El epítome de este inventor es, sin duda alguna, Thomas Alva Edison, por su sistema, su capacidad empresarial (en ocasiones rayana en la deslealtad) y su productividad, merced a la cual al morir tenía a su nombre 1.093 patentes diversas en Estados Unidos, y otras en el Reino Unido, Francia y Alemania. Además de sus inventos más conocidos, como la bombilla eléctrica comercialmente viable, la distribución de la energía eléctrica o el fonógrafo, Edison realizó numerosas aportaciones en terrenos tan diversos como la electricidad, la minería y la labor científica en sí, al establecer el primer laboratorio científico destinado a la búsqueda de innovaciones, donde trabajaron numerosos científicos cuyos logros se patentarían siempre a nombre de Edison.

La inmigración científica

El vasto espacio libre de Estados Unidos permitió que el país se abriera, en distintos momentos, a movimientos migratorios para satisfacer su hambre de mano de obra y, también, de cerebros innovadores y originales. Así, cuando el químico inglés Robert Priestley, descubridor del oxígeno y perseguido político se refugió en el nuevo país en 1794, inició un flujo que aún no ha cesado.

El primer inmigrante científico famoso del siglo XIX es, probablemente, Alexander Graham Bell, inventor del teléfono, que llegó desde Escocia en 1872, mientras que Charles Steinmetz arribó procedente de Alemania en 1889 y posteriormente desarrollaría nuevos sistemas de corriente alterna.

Pero fue la llegada de Adolfo Hitler al poder en Alemania en 1933 la que produjo la mayor y probablemente más enriquecedora ola de inmigración científica a los Estados Unidos, teniendo como uno de sus primeros protagonistas a Albert Einstein. Con el apoyo del genio judío-austríaco, gran número de físicos teóricos alemanes, tanto de ascendencia judía como simples antinazis, abandonaron Alemania y otros países ocupados para ir a Estados Unidos, entre ellos el húngaro Edward Teller, que sería el principal arquitecto de la bomba atómica estadounidense, y el físico danés Niels Bohr. A ellos se unió el más importante teórico italiano de entonces, Enrico Fermi. A partir de este momento, el predominio de los Estados Unidos en los terrenos de la ciencia se volvió indiscutible y lo sigue siendo.

Antes y después de ese momento, sin embargo, el flujo de inteligencias extranjeras a los laboratorios y universidades estadounidenses nunca cesó, como lo ejemplifica en España el Premio Nobel de fisiología y medicina Severo Ochoa, que llegó a Estados Unidos en 1941 y se hizo ciudadano de ese país en 1956. Dado que era ciudadano estadounidense cuando se le concedió el Premio Nobel en 1959, él es uno de los 90 premios de su especialidad que se mencionan al inicio de este recorrido. La inmigración científica no sólo le ha aportado a los Estados Unidos el conocimiento y las patentes de numerosos hombres y mujeres, sino también el reconocimiento.

Las paradojas

Las paradojas de la actitud estadounidense hacia la ciencia están ejemplificadas por dos fenómenos que son expresión de conflictos recurrentes.

De una parte, los movimientos religiosos creacionistas que pretenden desvirtuar, cuando no expulsar de las aulas, los conocimientos reunidos por la biología evolutiva en los últimos 150 años porque consideran, basados en su interpretación literal de la Biblia, que contradicen la verdad revelada y por tanto deben ser combatidos e incluso prohibidos. Ejemplo temprano de esto fue el famoso Juicio Scopes de 1926, donde un profesor de instituto decidió desobedecer una ley que prohibía enseñar las teorías no bíblicas del origen de las especies en escuelas públicas. El caso dio origena una obra de teatro que fue llevada al cine con el título “Heredarás el viento”, con Spencer Tracy y Fredric March.

De otra parte, cuando las visiones de la ciencia se oponen al desarrollo económico y al bienestar de la industria y el comercio, suelen verse bajo asedio cuando no simplemente despreciadas. La negativa gubernamental y social a reconocer la relación que se había hallado entre el tabaco y el cáncer de pulmón, es uno de los más claros ejemplos, como lo ha sido recientemente la negativa de los presidentes William Clinton y George W. Bush de ratificar el Protocolo de Kyoto para la reducción de la emisión de gases de invernadero, y el movimiento ideológico que pretende negar sin someterla a análisis la observación científica de que existe un proceso de cambio climático y que la actividad del hombre a través de la emisión de gases de invernadero es al menos en parte uno de los factores que están provocando o acelerando dicho cambio.

Pero hay un tercer factor, un temor a “saber demasiado” y a “jugar a ser dios” que el científico, escritor e inmigrante Isaac Asimov caracterizó como “el complejo Frankenstein”, y que permea la cultura popular estadounidense, la máxima promotora de la idea del “genio malévolo” y el “científico loco” que generalmente quieren “apoderarse del mundo”. La caricatura de una parte revela percepciones sociales y de otra las refuerza, agudizando las contradicciones de la sociedad estadounidense ante la ciencia y los hombres y mujeres que la hacen.

El proyecto científico de Barack Obama

Uno de los aspectos que han identificado y destacado a Barack Obama es que cuenta con un programa claro en cuanto a la ciencia y su promoción. Es un hecho que pese a la preeminencia científica del país, los alumnos estadounidenses se desempeñan peor en asuntos científicos que la mayoría de los 57 países más desarrollados, situándose en 29º lugar en cuanto a ciencia y en 35º en matemáticas, muy por debajo de líderes como Finlandia, Corea, Japón, Liechtenstein y Holanda.

Ante ello, Obama ha planteado en su proyecto la necesidad de asegurarse de que todos los niños de las escuelas públicas estén equipados con las habilidades necesarias de ciencia, tecnología y matemáticas para tener éxito en la economía del siglo XXI. Se propone así fortalecer la educación matemática y científica en general, incentivar el aumento de titulaciones en ciencias e ingeniería y aumentar la presencia de las mujeres y las minorías étnicas en el mundo de la ciencia y la tecnología.

Pero la propuesta más revolucionaria de Barack Obama es, precisamente, la más solicitada por los científicos de todo el mundo a sus gobiernos: más recursos, más inversión que a la larga, sin duda alguna, redituará beneficios a los países que se comprometan con ella. En concreto, el presidente entrante propone duplicar el financiamiento de la federación para la investigación básica en ciencias.

Barack Obama se propone igualmente mantener a Internet como un espacio abierto y neutral, y aprovechar las nuevas tecnologías para “llevar al gobierno (de Estados Unidos) al siglo XXI” mediante el uso de la tecnología, obteniendo ahorros, mayor seguridad y mayor eficiencia echando mano de los elementos que ya están disponibles.

Pero, sobre todo, Barack Obama ha afirmado que “las buenas políticas en Washington dependen de sólidos consejos de los científicos e ingenieros del país”, y se ha comprometido a “restaurar el principio básico de que las decisiones de cobierno deberían basarse en la mejor evidencia científicamente válida que tengamos disponible y no en las predisposiciones ideológicas de funcionarios de dependencias o personas designadas políticamente”. De este principio, ciertamente, podrían beneficiarse numerosos gobiernos que cierran los ojos a los hechos para servir a sus convicciones, por irracionales que puedan resultar.

Estas propuestas le ganaron a Barack Obama el apoyo electoral de 60 científicos galardonados con el premio Nobel en la carrera electoral. Entre las muchas expresiones de idealismo y capacidad de soñar que evidentemente ha logrado despertar entre sus simpatizantes, ésta no es la menos importante, sobre todo porque el liderazgo de Estados Unidos y su fuerza política sin duda influirán en la forma en que otros gobiernos, sintonizados o no a la visión de Barack Obama, enfrenten sus propios problemas y necesidades en el terreno de la ciencia y la innovación.

La ciencia de la música

Códice Manesse de principios del
siglo XIV.
(D.P. vía Wikimedia Commons)
Quizás sea la forma artística más popular del tercer milenio, pero durante grandes períodos históricos la música estuvo recluida la mayor parte del tiempo en las fortalezas de los poderosos.

En esta era de MP3 y acceso inmediato a toda la música que nos complace, de conciertos para todos los gustos y de todos los precios, de bailes y fiestas con música, de flujo musical continuo en lugares públicos, de radio y televisión, con frecuencia olvidamos que esta pasión del ser humano por la música no siempre pudo satisfacerse.

Antes del siglo XX, la música era un acontecimiento infrecuente y, por lo mismo, muy bienvenido. Se podía escuchar en fiestas populares, en grandes acontecimientos de la comunidad o el estado nacional, o gracias a la ocasional llegada de un músico trashumante. Lo que quedaba como oportunidad de disfrutar música eran infrecuentes conciertos públicos y la música que cada cual se podía dar a sí mismo cantando o tocando algún instrumento en sus ratos libres.

Los paleoantropólogos sólo pueden imaginarse, haciendo deducciones razonables con base en sus conocimientos, cómo se originó la música, y cómo la hicieron los primeros músicos humanos. ¿Empezó con el canto o con el silbido? No lo sabemos, pero sí tenemos datos que indican que el arco y la flauta fueron probablemente los primeros instrumentos. En los yacimientos paleolíticos se han encontrado huesos con perforaciones que habitualmente se identifican como flautas. Pero la historia escrita de la música empieza hace apenas unos 4.000 años, en escritos cuneiformes de la ciudad de Ur y en los Samavedas de la India.

La música, que los expertos definen como una forma de expresión que utiliza el ordenamiento de sonidos y silencios en el tiempo, encontró a sus primeros estudiosos, por así decirlo, en la antigua Grecia. La enorme importancia de la música en la vida cotidiana de la Grecia clásica, su presencia documentada en festivales religiosos, bodas, banquetes y funerales, la existencia de músicos profesionales con gran relevancia social (como en la actualidad) hacía inevitable que fuera también asunto de las cavilaciones filosóficas y las averiguaciones de la ciencia primigenia.

Si tensamos una cuerda entre dos barras o puentes hasta que produzca un sonido, una nota musical, y diseñamos una forma de “detener” o pisar la cuerda (por ejemplo, usando un trozo de vidrio o metal, o los propios dedos) descubriremos que al pisar la cuerda a la mitad de su ongitud vibrante obtendremos un sonido similar al original, la misma nota, pero una octava más arriba. Si, en cambio, pisamos la cuerda en un punto a los 2/3 de su lingitud, obtendremos una nota armónica con la original, una quinta perfecta. Y si pisamos a los 3/4 de la cuerda obtendremos un intervalo musical de una cuarta perfecta con relación a la nota original, también armónica. La quinta y la cuarta perfectas siempre han sido las consonancias más importantes de la música occidental.

Esta relación matemática entre las notas musicales y su armonía (a diferencia de su “disonancia”, el sonido estridente de dos notas no armónicas tocadas al mismo tiempo) fue descubierta, se dice, por Pitágoras alrededor del año 5000 antes de la era común. De aquí los griegos concluyeron que la relación entre el número y las armonías podía extenderse a la totalidad del universo, que conceptuaban igualmente armonioso y ordenado como una lira. Pero aunque ello no fuese estrictamente cierto, la implicación matemática de la música quedó fijada para siempre, y se ha confirmado una y otra vez. El famoso libro Bach, Escher, Gödel del académico Douglas Hofstadter, es el estudio clásico de la autorreferencia, y para analizarla echa mano del teorema matemático de Gödel, la obra gráfica de Maurits Cornelius Escher y la música de Johann Sebastian Bach, con los cuales expone conceptos esenciales de las matemáticas, la simetría y la inteligencia.

Más allá de las matemáticas de la música, esta expresión artística es una de las más importantes para nosotros, al menos en la actualidad. La historia de la música está llena de avances, invenciones y desarrollos tecnológicos que en su momento han sido, todos, asombrosos. Por ejemplo, la aparición del piano, cambió toda la música. Hasta ese momento, las cuerdas de los instrumentos de teclado eran pulsadas y no golpeadas, de modo que no se podía modular el volumen de los clavecines y espinetas utilizados por entonces. A fines del siglo XVII, Bartolomeo Cristofori creó en padua el “arpicémbalo piano e forte”, que golpeaba las cuerdas con mazos de fieltro de modo proporcional a la fuerza ejercida sobre las teclas, piano (suave) y forte (fuerte). De ahí en adelante, gran esfuerzo se dedicó a perfeccionar el piano consiguiendo más potencia para las grandes salas de concierto.

A veces no es conocimiento común que muchos instrumentos han tenido inventores, como el saxofón (creado opr Adolphe Sax en 1841) y no sólo genios que los perfeccionaron como hicieron los Stradivari con el violín, utilizando técnicas que aún no se han conseguido reproducir del todo. No se conoce, ciertamente, al inventor del instrumento más común de nuestro tiempo, y esencial en la historia de España: la guitarra, que encuentra sus orígenes cuando menos 3.300 años atrás, en el grabado en piedra representando a un bardo hitita con algo que ya tiene las características de lo que llamamos guitarra, ese instrumento que tiene entre sus antecesores al sitar indio, la kithara griega, la cítara latina y la quítara árabe antes de adquirir su forma actual a fines del siglo XVIII. Sí tiene inventor, sin embargo, la guitarra eléctrica de cuerpo sólido, o inventores: el guitarrista Les Paul, que aún vive, y el inventor grecoestadounidense Clarence Leonidas Fender. Ambos nombres siguen identificando a los dos modelos más populares de guitarra eléctrica, los que hicieron posible la música rock y sus múltiples derivaciones.

La ciencia y la tecnología detrás de la música, de modernos desarrollos como el violín o la gaita eléctricos, tienen la enorme ventaja de que, para disfrutar de nuestra música, ni siquiera tenemos que estar conscientes de ellas, ni de las relaciones matemáticas que hacen que nos resulte agradable una melodía o una armonía.

La reproducción de la música

La reproducción mecánica permitió que la música se convirtiera en patrimonio de todos, todo el tiempo, una historia que comenzó con la invención del fonógrafo por parte de Thomas Alva Edison en 1877, siguió con la aparición del disco fonográfico de pasta o vinilo, la radiodifusión y la cinta magnetofónica y ha llegado a la delirante popularidad que tiene hoy la reproducción de la música digitalizada y su compresión para hacerla manejable según el protocolo de compresión MP3, tan popular que a veces olvidamos que apenas surgió a mediados de la década de 1990.