Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 25, 2010

La ciencia de la nieve

Copo de nieve tomado con un
microscopio electrónico
(foto D.P. Depto. de Agricultura de
EE.UU. vía Wikimedia Commons)
El solsticio de invierno es sinónimo con la nieve, al menos en las latitudes al norte de los trópicos donde las estaciones son más acusadas. Y sin embargo, entre los trópicos, la gente gusta de imaginarse la nieve, decorar sus árboles (herederos de la vieja tradición druídica adoptada por el cristianismo) con nieve artificial y soñar que su paisaje sufra la tremenda transformación que implica la caída de un manto de nieve.

Quizá la nieve sea la forma más apasionante y atractiva que puede asumir el agua. Y es también, alternativamente, un desafío apasionante (o, mejor dicho, muchos desafíos apasionantes distintos) para la ciencia, un peligro cuando se descontrola – ya sea al caer o al deslizarse en avalanchas –, una inspiración deportiva para actividades como las diversas formas de esquí, el snowboard o las carreras en trineo, una fuerza de la selección natural debido a la que muchos animales que viven en la nieve tengan un rico pelaje blanco… y un excelente material para jugar.

La nieve se forma en regiones de la atmósfera donde el aire tiene un movimiento hacia arriba alrededor de un sistema de baja presión al que los meteorólogos llaman “ciclón extratropical”, en condiciones de muy baja temperatura (de 0 ºC o menos) y de un elevado contenido de humedad.

El agua de los copos de nieve está “superenfriada”, porque las moléculas de agua suspendidas en la atmósfera pueden mantenerse sin congelarse hasta los -35 ºC a menos que se reúnan alrededor de un núcleo de polvo, arcilla, arena, bacteria o cualquier otra partícula que pueda hallarse suspendida en el aire. No es sino hasta llegar a menos 35 grados que se pueden formar copos sin necesidad de polvo. Una vez que comienza el proceso de congenación, rápidamente se forman cristales de agua.

La forma característica del copo de nieve hexagonal plano que con frecuencia se utiliza para representar las festividades de la época, es sólo una de las que pueden adoptar los cristales de nieve. En función de la temperatura y la humedad del ambiente, se pueden dar también cristales en forma de agujas, de columnas huecas o de prismas, o copos de nieve tridimensionales llamados “dendritas”, entre otros muchos, incluidas unas curiosas columnas que desarrollan un cristal hexagonal en un extremo, y bolas que son resultado de sucesivas congelaciones y descongelaciones que ocurren mientras los cristales de nieve aún están suspendidos en la atmósfera, incluso mientras caen.

La nieve no se clasifica solamente por la forma y tamaño de los copos, sino también por su velocidad de acumulación y la forma en que se reúne en el suelo. La ideal “nieve polvo” de los esquiadores es una nieve ligera, muy seca y suave, a veces tanto que con ella no se pueden hacer bolas de nieve porque se deshace. Sin embargo, desde el momento en que la nieve se deposita en el suelo, se ve sujeta a la compactación y a cambios de temperatura en ciclos de congelación y descongelación que van haciendo que esta nieve polvo se vuelva granular, desarrolle una capa o costra de hielo y acabe convirtiéndose ya sea en hielo o en agua fangosa.

La compactación es fundamental para algunos de los usos más festivos de esta forma de agua, como las guerras de bolas de nieve y la fabricación de esculturas en nieve, desde el más sencillo y común muñeco hasta las fantasías nevadas que año tras año producen escultores especializados en este material.

Uno de los principales estudiosos de la nieve, el Dr. Ed Adams, investigador de materiales en la Universidad de Montana, destaca la enorme complejidad que se oculta detrás de la aparente sencillez de la nieve: “si pongo una caja de nieve en la nevera y vuelvo una hora después, habrá cambiado significativamente”.

Avalanchas

El estudio de las avalanchas o aludes, deslizamientos de nieve que se cobran numerosas víctimas todos los años, es una de las más activas áreas de investigación de este peculiar material, y la que ocupa al Dr. Adams.

Como ocurre con las erupciones volcánicas, los terremotos y otros desastres naturales, grandes esfuerzos se han invertido en tratar de predecir cuándo ocurrirán. En el caso de las avalanchas, además, es posible provocarlas preventivamente (y, se espera, controladamente) utilizando sistemas como cargas explosivas.

La complejidad de la nieve es un elemento clave en la formación de avalanchas. Las zonas de acumulación de nieve no son uniformes, sino que están formadas de capas con distintas propiedades y a distintas temperaturas, que se mantienen unidas entre sí y sobre la tierra por la fricción de los cristales entre sí.

En pendientes de entre 25 y 60 grados de inclinación, se pueden formar acumulaciones o losas de nieve. Cuando la fricción disminuye y se presenta además un detonante (como un árbol que cae, un cambio brusco en la temperatura y, casi nunca, por un ruido fuerte como suele presentarlo Hollywood), la nieve se desliza sobre las capas inferiores o directamente sobre el suelo, arrasándolo todo a su paso.

El estudio de las avalanchas se ha llevado al laboratorio para duplicar las condiciones que afectan a la nieve. El Dr. Adams ha concluido así que la causa más común de las avalanchas es una capa débil de nieve sobre una más sólida. Las capas débiles tienen cristales con facetas que tienen menor fricción y por tanto se pueden deslizar más fácilmente en lugar de permanecer unidos al resto de la nieve. La comprensión de la dinámica de la capa superior de las acumulaciones de nieve, espera el Dr. Adams, puede mejorar la predicción de las avalanchas.

Una mejor predicción de las avalanchas nos ayuda a tener una blanca navidad más segura. Lo que nos lleva a un último aspecto de la nieve que ha ocupado a la ciencia: ¿por qué es blanca? El impactante color de la nieve se debe a que el hielo es traslúcido, y la luz se refracta o cambia de dirección al pasar del aire al agua congelada que forma los cristales de nieve, de nuevo al pasar al aire y luego al chocar con otro cristal en otra posición. En resumen, la luz “rebota” por los cristales hasta que sale nuevamente de la nieve. Y como el hielo refracta de igual modo las distintas frecuencias de la luz, la que sale de la nieve es tan blanca como la luz del sol que entra en ella.

¿Los 400 nombres de la nieve?

Uno de los mitos más extendidos respecto de la nieve es que los pueblos inuit tienen una gran cantidad de palabras para distintos tipos de nieve. En 1911 el antropólogo Franz Boaz comentó que los inuit tenían cuatro palabras para la nieve, y… la bola de nieve creció hasta hablar de 400 vocablos. Resultó falso. Las lenguas de los grupos inuit tienen a lo mucho dos palabras para nieve. Siendo muy laxos, se contaría a lo mucho una docena, según el lingüista Steven Pinker. Pero incluirían los sinónimos de palabras en español como “ventisca”, “avalancha” y “granizo”.

diciembre 11, 2010

Somos ecosistemas

House Dust Mite
Ácaro común del polvo, Dermatophagoides
pteronyssinus.
(foto D.P. gobierno de los EE.UU.,
vía Wikimedia Commons) 
La idea de tener parásito nos horroriza y, sin embargo, asombrosas cantidades de seres vivos que nos habitan e incluso nos ayudan a vivir.

El piojo, la pulga, las infestaciones por hongos y, por supuesto, las abundantísimas infecciones ocasionadas por bacterias, protozoarios e incluso virus conforman una enorme proporción de las enfermedades que pueden afectarnos. Pero hay otros muchos seres que viven en nosotros y de los que habitualmente no estamos conscientes. Quizá, en gran medida, porque la sola idea de albergar diversos seres vivos es difícil de tolerar para muchas personas.

Afortunadamente, es imposible deshacernos de la enorme cantidad de seres vivos que viven en nosotros y sobre nosotros. Han sido siempre parte de nuestra vida y la de nuestros antepasados, y muchas de las especies que nos habitan no sólo no nos causan daños, sino que tienen una relación mutualista con nosotros, realizando tareas benéficas y con frecuencia fundamentales para nuestra vida.

Y si pretendemos tener una mayor cosciencia ecológica, es oportuno asumir también que nosotros, nuestro cuerpo, somos un entorno ecológico, con nichos de gran diversidad que atraen a habitantes igualmente variados y que nos acompañan desde el momento del nacimiento en nuestra piel, en nuestro tracto respiratorio y en el tracto digestivo. Son parte de lo que somos.

Los seres vivos más conocidos que viven en nosotros, y que nos parecen los menos amenazantes, son las numerosas bacterias y otros microorganismos que conforman nuestra “flora intestinal”, esencial para la vida aunque, si sale del entorno donde nos resulta útil, se pueden volver patógenas. En casos de ruptura de nuestros órganos, por ejemplo, esas mismas bacterias causan la infección de la cavidad abdominal llamada peritonitis.

Los participantes más conocidos de la flora intestinal, debido a la publicidad a veces exagerada de ciertos productos, son los del genus Bifidobacterium, unas bacterias que viven sin necesidad de oxígeno y que ayudan a la digestión, colaboran con el sistema inmunitario y fermentan ciertos carbohidratos. Estas bacterias conviven en nuestro tracto intestinal (y en la vagina), con los lactobacilos, que convierten la lactosa y otras azúcares en ácido láctico, provocando en su entorno niveles de acidez que impiden la proliferación de otras bacterias dañinas.

Nuestro intestino es hogar de otros lactobacilos, así como de bacterias del genus Streptococcus. Aunque solemos identificar a estas últimas, los estreptococos, como patógenos causantes de enfermedades como la neumonía, la meningitis, las caries y la fiebre reumática, hay variedades inocuas que viven en nuestra boca, piel, intestinos y tracto respiratorio superior. Algunas especies, por cierto, son indispensables para la producción del queso emmentaler.

Es en el intestino grueso donde encontramos una verdadera selva rica en vida formada por bacterias de más de 700 especies en números elevadísimos. Estos seres hacen de nuestro intestino grueso un enorme recipiente de fermentación donde digieren ciertos componentes de los que no se puede hacer cargo nuestra digestión, como la fibra alimenticia, que convierten en ácidos grasos que sí puede absorber el intestino y producen parte de las vitaminas que necesitamos, como la K y la B12 y producen algunos anticuerpos.

Si el intestino grueso es el Amazonas, nuestra boca es un océano vibrante lleno de vida. Se calcula que en cada mililitro de saliva se pueden encontrar hasta mil millones de bacterias diversas, parte de un ecosistema altamente complejo de más de 800 especies de bacterias, algunas de las cuales viven sólo en ciertas zonas de nuestra boca, como la superficie de los dientes o entre ellos, donde hay poco oxígeno (formando la placa dental que puede conducir a la caries).

Y queda además la compleja orografía de nuestra piel, con bacterias que buscan lugares húmedos y oscuros, como los sobacos, las ingles y los pies con zapatos, sobreviviendo y reproduciéndose alegremente, sin siquiera enterarse de que provocan olores que los seres humanos hallamos ofensivos y contra los cuales se han montado industrias enteras, como las de los desodorantes, así como prácticas higiénicas.

Los ácaros

Los ácaros son parientes de las garrapatas y ambos pertenecen a la clase Arachnida, que comparten con todas las arañas y escorpiones. De hecho, los ácaros son uno de los grupos más exitosos de invertebrados, ocupando numerosos hábitats aprovechando su arma fundamental: su tamaño microscópico. A la fecha, se han identificado más de 48.000 especies de ácaros, algunos de los cuales son parásitos de plantas, animales y hongos, mientras que hotros son unos bien conocidos comensales de nuestras casas: los ácaros del polvo.

Los ácaros del polvo viven en nuestros muebles y se alimentan principalmente de las escamas de piel que vamos dejando caer todos los días y que forman buena parte del polvo doméstico. Generalmente inofensivos, los ácaros del polvo sin embargo pueden provocar en algunas personas reacciones alérgicas que pueden ser graves.

Pero hay otras dos especies de ácaros que viven no sólo con nosotros, sino en nosotros, especialmente en nuestros rostros. Uno es Demodex folliculorum, que vive, como su nombre lo indica, en los folículos pilosos de las pestañas, cejas y pelos de la nariz de la gran mayoría de las personas. Este ácaro, del que se han llegado a observar hasta 25 en un solo folículo piloso, se alimenta de piel, hormonas y el sebo que produce nuestra piel. El otro habitante arácnido más común de nuestro rostro es Demodex brevis, pariente del anterior, que vive preferentemente en las glándulas sebáceas.

Al mirarnos la cara al espejo estamos viendo un mundo de vida, aunque sea microscópica, un universo apasionante de ácaros, hongos, virus y bacterias que, en lugar de provocarnos rechazo o asco, deberían servir como un constante recordatorio de la enorme capacidad de la vida de manifestarse y florecer donde quiera que haya un nicho habitable. En el complejo engranaje del equilibrio ecológico, no somos simples individuos, participamos como ecosistemas.

Antibióticos en nuestro ecosistema

El uso de antibióticos de “amplio espectro” (lo que quiere decir que son capaces de atacar a bacterias de muchas distintas variedades) puede disminuir nuestra flora intestinal, provocando diarrea, con el consecuente peligro de la deshidratación, y permitiendo que se reproduzcan otras bacterias patógenas resistentes a los antibióticos, que pueden provocar enfermedades más difíciles de tratar. Una forma de evitar estos riesgos, o minimizarlos, radica en no utilizar antibióticos innecesariamente, en siempre llevar hasta su fin previsto cualquier tratamiento con antibióticos y consumir probióticos (siempre bajo recomendación del médico) junto con el tratamiento.

diciembre 04, 2010

La ciencia del deporte

Cuando miramos hacia atrás, a los deportistas del pasado, no podemos sino admirarnos de las hazañas que algunos de ellos consiguieron con equipaciones y formas de entrenamiento que hoy se nos antojan arcaicas e, incluso, peligrosas.

Eddie Merckx en 1966
(Foto CC de Foto43 vía Wikimedia Commons)
Como ejemplo de esto último, Eddie Merckx, leyenda belga del ciclismo que ganó cinco veces el Tour de France entre 1969 y 1974 y conquistó el récord de la hora en 1972, casi nunca utilizó casco, o lo que se consideraba tal en el ciclismo: un curioso adminículo formado por tres o cuatro tiras de piel acolchadas.

El primer casco para ciclismo útil apareció a mediados de la década de 1970, demasiado tarde para el belga, y tenía poco que ver con los actuales, diseñados con materiales de máxima seguridad, malla de nylon, espuma protectora y un exterior ligero diseñado con orificios de ventilación para añadir comodidad a la seguridad del ciclista. Por no mencionar los cascos aerodinámicos extremos que aparecieron hasta los años 80, cuyos descendientes hoy vemos en las pruebas contrarreloj y algunas pruebas de pista.

Lo que desde tiempos de la Grecia clásica se consideraba solamente un enfrentamiento entre las capacidades, fuerza, agilidad, astucia y potencia de los contendientes, se ha convertido hoy también en una competencia científica. Los principios científicos dentro de las más diversas disciplinas se han orientado a la competición deportiva buscando optimizar la preparación y rendimiento del deportista. Los científicos detrás de cada deportista son actualmente un factor fundamental del éxito… o el fracaso.

La implantación de la ciencia en el deporte es, sin embargo, una consecuencia inevitable de la curiosidad científica misma, al plantearse preguntas sobre el tiempo de reacción, la resistencia muscular, los límites de la velocidad, la nutrición, la forma en que el cuerpo humano corre, salta, gira… la ropa usada por los deportistas y el rendimiento del equipamiento: balones, zapatos y zapatillas, jabalinas, canoas, raquetas, palos… y también sobre algunos aspectos especialmente atractivos, como el efecto o curvado de la trayectoria de las pelotas en el fútbol o el béisbol.

Así, por ejemplo, en septiembre de 2010 los medios informaron de un estudio publicado en la respetada revista científica ‘New Journal of Physics’ que analizaba y explicaba en detalle y en base a las leyes de la física el famoso “gol imposible” que Roberto Carlos marcó a la selección francesa en un amistoso previo al Mundial de 1998.

A los campos deportivos acudieron los científicos con sus aparatos de medición, cuando no llevaron a los propios deportistas a sus laboratorios, para analizar minuciosamente cada detalle que marcaba la diferencia entre el primer lugar y los demás. Y conforme la ciencia iba entendiendo cada vez mejor los distintos aspectos que se conjuntan en un excelente rendimiento deportivo, los entrenadores, los preparadores físicos, los patrocinadores y los propios atletas fueron acudiendo a ellos para obtener una ayuda en la consecución del ideal olímpico: citius, altius, fortius… más rápido, más alto, más fuerte.

El entrenamiento y preparación física de los deportistas, así como su nutrición, han sufrido extraordinarios cambios en las últimas décadas, maximizando sus resultados por medio del conocimiento de sistemas y técnicas probados para conseguir sus objetivos deportivos, sustituyendo a muchas creencias y supersticiones que durante mucho tiempo dominaron los entrenamientos

La tecnología de materiales es una de las más visibles en el desarrollo del deporte. La fibra de carbono, desarrollada en 1958, llegó al mundo deportivo en la década de 1980, es uno de los materiales más utilizados. Se trata de hilos formados por miles de filamentos de carbono, de gran resistencia y flexibilidad, que se emplean en materiales compuestos, formados por la fibra incrustada en una resina. Desde 1980, la fibra de carbono se encontró sirviendo por igual a los ciclistas que a los tenistas, con raquetas mucho más duras y ligeras, a los golfistas. El propio Eddy Merckx, hoy de 65 años y fabricante de bicicletas, las ofrece producidas en fibra de carbono y en aleaciones de aluminio-escandio, mucho más resistentes y ligeras que aquéllas en las que conquistó la gloria.

Los nuevos materiales se encontraron en la década de 1970 con los primeros conocimientos sólidos sobre la biomecánica del pie y la pierna… y la zapatilla deportiva pasó a ser elemento dedicado a maximizar el uso de la energía, devolviendo al pie parte de la que invierte en cada paso, acolchando, guiando y colocando el pie para conseguir el “paso perfecto”. También incluyen tecnologías de ventilación o de conservación del calor, diseños y materiales repartidos en toda su estructura para responder a la torsión, tensión y choques que sufren las distintas partes del pie, o incluso para impedir que entren al zapato piedrecillas durante las carreras a campo traviesa. Cada milisegundo de cada paso, patada, salto, giro o aterrizaje que haga un deportista se mide, registra y estudia para mejorar el rendimiento mediante sus zapatillas.

En las carreras de todo tipo, desde los míticos 100 metros lisos hasta las carreras de patines sobre hielo o la natación, la ciencia de la aerodinámica está jugando también un importante papel. Y los túneles de viento, como los usados para probar los diseños de los autos de Fórmula Uno, se emplean también para conocer la resistencia aerodinámica y el gasto energético de distintos tejidos, incluyendo detalles en apariencia tan poco relevantes como la colocación de los medios de sujeción (cremalleras, botones, cintas, etc.) que pueden representar una o dos centésimas de segundo en la crono final.

¿Puede la ciencia realmente decidir una competición? Si todos los participantes cuentan con lo último en tecnología y ciencia, tanto en su preparación como en su equipamiento, las condiciones son equitativas y el resultado seguirá siendo esencialmente responsabilidad del atleta, de su capacidad y actitud. El magistral Jesse Owens que dominó los juegos olímpicos de 1936 en Berlín, humillando las ideas racistas, también tenía lo último en tecnología de su tiempo, por más que nos parezca tecnología arcaica 74 años después.

Beneficios para todos

La ciencia y tecnología del deporte no se agota en las grandes competiciones de alto rendimiento, sino que ha ofrecido apoyo a todos quienes se ejercitan o practican cualquier deporte como aficionados. Porque no se trata únicamente de tener mejores resultados, sino también de ejercitarnos con mayor eficacia y seguridad. El moderno equipamiento tiene entre sus objetivos el evitar lesiones y problemas que eran comunes en el pasado y representaban muchas veces un gran obstáculo para el disfrute y ejercicio de nuestro deporte favorito.

noviembre 27, 2010

Pasado y futuro de las bibliotecas

Tablilla sumeria de entre el 2400 y
2200 de la Era Común con
los nombres de los dioses en
orden de importancia.
(Imagen D.P. vía Wikimedia Commons)
De los templos sumerios a Internet, los depósitos de libros siguen siendo herramientas esenciales de la enseñanza y la cultura.

Fue Francis Bacon, uno de los fundadores del método científico en los siglos XVI-XVII quien puso en palabras un concepto que hoy nos parece obvio: “El conocimiento es poder”. Y por ello, la biblioteca, como depósito de conocimiento de fácil acceso, es parte esencial del concepto del poder ejercido por toda la población consustancial a lo que consideramos que debe ser la democracia.

Las bibliotecas tienen una imponente historia de al menos cinco mil años, desde la “Casa de las tablillas” del templo de Nippur (hoy Nuffar, en Irak), la más antigua encontrada hasta hoy. Allí se guardaban más de 2000 tablillas de cerámica de escritura cuneiforme sumeria, algunas datadas alrededor del año 3.000 antes de la Era Común.

Esta biblioteca no guardaba sólo textos sagrados o administrativos. En sus libros/tablilla encontramos poemas épicos de diversos héroes e historias míticas que encontramos rescatadas y reescritas en el Antiguo Testamento bíblico.

Dos mil trescientos años más tarde, en el siglo VII antes de la Era Común, el legendario monarca asirio Asurbanipal hizo reunir y organizar una colección de la cual se conservan más de 20.000 tablillas y fragmentos. Esta gigantesca colección, conservada en su palacio y en el de su abuelo, fue la primera biblioteca con una organización sistemática y es hoy en día una de las fuentes más ricas para el conocimiento de la historia, el arte, la ciencia y la religión de la antigua Mesopotamia.

Fue a partir del siglo V a.E.C. cuando aparecieron las bibliotecas personales en la Grecia clásica, merced a coleccionistas como Pisístrato, tirano de Atenas, el geómetra Euclides, el poeta Eurípides y el filósofo Aristóteles.

Aristóteles estaba destinado a jugar un papel singular en la historia de las colecciones de libros. En el 343 a.E.C., Filipo II de Macedonia lo llamó para que dejara su natal Estagira y trabajara como tutor de su joven heredero, Alejandro, para lo cual el filósofo fue nombrado director de la Real Academia de Macedonia. Allí, además de instruir al que sería poco después Alejandro Magno, tuvo como alumno a Ptolomeo Soter, que sería uno de los principales generales de Alejandro Magno.

A la muerte de Alejandro, Ptolomeo se hizo con la corona de Egipto, llevando consigo los restos del conquistador Macedonio desde Babilonia hasta Alejandría, en Egipto. Allí, Ptolomeo encargó a Demetrio de Falerón, también discípulo de Aristóteles, la organización de la legendaria Biblioteca de Alejandría y su adjunto Musaeum (donde trabajarían numerosos sabios, entre ellos Hipatia, que recientemente inspiró a un personaje cinematográfico). La riqueza de Egipto se puso al servicio de enviados de Ptolomeo que recorrieron el mundo conocido comprando o mandando hacer copias de todos los textos guardados en bibliotecas, templos y palacios.

Mientras tanto, en Roma, Julio César soñó una biblioteca pública que nunca pudo construir, pero sí lo hizo su sucesor, César Augusto. La más famosa biblioteca pública, la Bibliotheca Ulpia, fundada por Trajano en el 114 de nuestra era, que llegó a contener 40.000 pergaminos. Eran comunes, además las bibliotecas privadas que certificaban la importancia que daban los romanos a saber leer y escribir aunque, en algún caso y según acusación de Séneca que bien podría hacerse hoy, a veces eran simple ostentación de romanos ricos que no solían dedicar tiempo a la lectura.

En los siglos VIII y IX de nuestra era toca a la cultura islámica conservar y ampliar la idea de la biblioteca en todos los dominios musulmanes. Para el siglo X, la mayor biblioteca del mundo islámico, con entre 400.000 y 600.000 volúmenes, se encontraba en Córdoba, la capital de Al-Andalus. El mundo islámico ilustrado también tuvo bibliotecas públicas como la “Sala de la sabiduría” de Bagdad, que ponía a disposición de los lectores miles de manuscritos griegos y romanos.

Esta conservación de los libros clásicos por parte del Islam ilustrado fue esencial para el renacimiento de la cultura europea después del oscurantismo. Las bibliotecas europeas, primero patrimonio de los monasterios y la realeza, poco a poco se trasladan a las universidades, y la invención de la imprenta de tipos movibles de Gutemberg en 1450, se hace posible llevar los libros a más gente que nunca antes.

Entre los años 1600 y 1700, el interés por las bibliotecas alcanza cotas nunca antes registradas. El fácil acceso a los libros hace además posible instituir de modo definitivo la biblioteca pública, esa escuela gratuita, esa oferta asombrosa para todo el público y no sólo para los miembros de una institución, que nace en Inglaterra al crearse la biblioteca Francis Trigge en Lincolnshire, mientras que en España se crea la Biblioteca Real, antecesora de la Biblioteca Nacional de España.

Pero es hasta 1850 cuando el Parlamento británico, en una acción sin precedentes, ordena que todas las ciudades de 10.000 personas o más paguen un impuesto para apoyar las bibliotecas públicas. Mientras tanto, en Estados Unidos, el impresor y polígrafo Benjamin Franklin instituía la primera biblioteca que prestaba libros al público.

Hoy, cuando Internet se ha convertido en la mayor biblioteca pública de acceso gratuito que pudiera haber imaginado cualquier bibliotecario del pasado, quizá la vanguardia la lleva la “Bibliotheca Alexandrina”, la nueva biblioteca de Alejandría creada por el gobierno egipcio, la Universidad de Alejandría y la UNESCO, como un centro de investigación que reúne, al mismo tiempo, capacidad para varios millones de volúmenes físicos, un archivo de Internet, librerías y museos especializados, un planetario y otros atractivos para la divulgación de la ciencia además de ocho centros académicos y de investigación, galerías y otras instituciones y centros de reunión. Un lugar para el pasado y el futuro de la biblioteca, institución esencial para las culturas humanas.

El libro

Comenzando como tablillas de cerámica y siguiendo en forma de rollos de papiro o pergamino durante un par de milenios, el libro sólo empezó a tener un aspecto familiar para nosotros en el siglo I d.N.E., cuando en Roma aparece el “códex”: hojas de papiro o pergamino encuadernados mediante costura y protegidos por dos cubiertas. La llegada del papel a Europa en el siglo XIII y de la imprenta en el XV, lanzaron al libro a dominar la transmisión de conocimientos y el entretenimiento, sobreviviendo hasta la fecha con cambios mínimos. Hoy, sin embargo, con el libro electrónico, que guarda el contenido en formato digital y lo muestra en una pantalla de “tinta digital” de bajo consumo eléctrico, el libro “analógico” podría estar al final de sus cinco mil años de historia.

noviembre 20, 2010

¿Usted le debe la vida a Ignaz Semmelweis?

Ignaz Semmelweis 1861
Ignaz Semmelweis
(Fotografía D.P. de "Borsos und Doctor",
vía Wikimedia Commons)
El médico apasionado hasta el tormento por combatir el dolor y las muertes que sabía evitables.

Es muy probable que usted, y yo, y muchos más tengamos una deuda impagable con un médico húngaro del siglo XIX, Ignaz Philipp Semmelweis, que a la temprana edad de 29 años hizo un descubrimiento que salvó vidas mientras amargó la suya, y quizás terminó con ella.

Nacido en 1818 en Budapest, Semmelweis estudió medicina en la Universidad de Viena, doctorándose en 1844 en la especialidad de obstetricia, el cuidado médico prenatal, durante el parto y después de éste. Dos años después entró como asistente en la Primera Clínica Obstétrica del Hospital General de Viena.

Lo que encontró allí le horrorizó. En aquel tiempo, la mayoría de las mujeres daban a luz en sus casas, con una alta tasa de mortalidad. La mitad de los fallecimientos se debían a la llamada “fiebre puerperal”, lo que hoy sabemos que es producto de una infección que a su vez provoca una inflamación generalizada, llamada sepsis. Y lo más terrible era que las mujeres que daban a luz en los hospitales, y los niños que allí nacían, tenían una mucho mayor incidencia de fiebre puerperal que las que daban a luz en sus casas.

La enfermedad se atribuía al hacinamiento en los hospitales, a la mala ventilación e incluso al comienzo de la lactancia. Aunque el británico Oliver Wendell Holmes ya había notado que la enfermedad era transmisible, y un probable vehículo eran los médicos y comadronas, no había comprobaciones experimentales.

Semmelweis observó que, en su clínica, la mortalidad era del 13,1% de las mujeres y recién nacidos, una cifra aterradora (y en los hospitales Europeos en general la cifra llegaba al 25 al 30%), mientras que en la Segunda Clínica Obstétrica del mismo hospital la mortalidad sólo era de 2,03%.

Analizando ambas clínicas, el genio húngaro observó que la única diferencia era que su clínica se dedicaba a la preparación de estudiantes de medicina y la otra se dedicaba a preparar comadronas. Y los alumnos de medicina, como en la actualidad, realizaban disecciones con cadáveres como parte fundamental de su formación, cosa que no hacían las comadronas.

En 1847, Jakob Kolletschka, profesor de medicina forense y amigo de Semmelweis, se cortó un dedo accidentalmente con el escalpelo durante una autopsia. El estudio del cuerpo de Kolletshka reveló síntomas idénticos a los de las mujeres que morían de fiebre puerperal.

Semmelweis concluyó que debía haber algo, una sustancia, un agente desconocido presente en los cadáveres y que era llevado por los estudiantes de la sala de disecciones a la de maternidad donde causaba la fiebre puerperal. Era la hipótesis del “envenenamiento cadavérico”.

En mayo de 1847 propuso que los médicos y los estudiantes se lavaran las manos con una solución de hipoclorito y cloruro de calcio entre las disecciones y la atención a las parturientas. Los estudiantes y el personal de la clínica protestaron, Semmelweis insistió y en un solo mes la mortalidad en la Primera Clínica se desplomó del 12,24% al 2,38. Para 1848, la mortalidad de las parturientas en ambas clínicas era igual, del 1,3%, y en los años siguientes se mantuvieron con mínimas diferencias.

Era una demostración contundente de que la hipótesis era sólidas, y su colega Ferdinand von Hebra escribió pronto dos artículos que explicaban las causas de la fiebre puerperal y la profilaxis propuesta para disminuir su incidencia. Y para Semelweiss, la terrible convicción de que él, con sus manos sucias, había llevado la muerte a muchas pacientes a las que deseaba servir. Esta idea lo perseguiría hasta la muerte y animaría su lucha por la profilaxis.

Los médicos que vieron los datos contundentes de Semmelweis procedieron a rechazarlos. La medicina precientífica de entonces sostenía la creencia de que la enfermedad era un desequilibrio de los cuatro supuestos humores del cuerpo humano (sangre, flema, bilis negra y bilis amarilla). Esta creencia de milenios no tenía ni una sola evidencia científica en su favor, pero se aceptaba sin titubeos, y ante los hechos, los colegas del magyar se aferraron a sus prejuicios, rechazando que una enfermedad pudiera “transmitirse” por las manos humanas y no por los “malos aires”, los “miasmas” u otros orígenes misteriosos.

De hecho, la medicina precientífica de la época, como muchas formas de pseudomedicina de la actualidad, afirmaba que no había causas comunes y enfermedades iguales, sino que cada enfermedad era única, producto de un desequilibrio integral del organismo. De hecho, pese a los datos, los médicos de la época solían afirmar que la fiebre puerperal no era una sola enfermedad, sino varias distintas, una por paciente.

El éxito del húngaro y su participación en los disturbios por los derechos civiles en 1848 le llevaron a un violento enfrentamiento con Johann Klein, el director de la clínica, que saboteó sus posibles avances. Semmelweis optó por volver a Hungría, donde pasó por diversos puestos.

Estando al frente del pabellón de maternidad del Hospital St. Rochus, Semmelweis combatió con éxito una epidemia de fiebre puerperal en 1851. Mientras en Praga y Viena morían entre 10 y 15% de las parturientas, en St. Rochus los fallecimientos cayeron al 0,85%. Con pruebas suficientes, en 1861 publicó al fin su libro sobre la etiología de la fiebre puerperal y su profilaxis. Y nuevamente sus datos y pruebas fueron rechazados.

Enfrentado a sus colegas, convencido de que era fácil salvar muchas vidas, Semmelweis empezó a dar muestras de trastornos mentales y en 1865 fue finalmente internado en un asilo para lunáticos, tan precientífico y falto de esperanza como el pabellón de maternidad al que había llegado en 1846. Si su enfermedad era grave o fue internado por presiones de quienes rechazaban sus pruebas y datos es todavía asunto de debate.

Ignaz Semmelweis murió en el asilo a sólo dos semanas de su internamiento. Según la historia más conocida, sufrió una paradójica fiebre puerperal, o septicemia, por un corte en un dedo. Otros estudiosos indican que murió después de ser violentamente golpeado por los guardias del manicomio, procedimiento por entonces común y tradicional para tranquilizar a los “locos”.

Pasteur, Líster y Koch

Mientras Semmelweis vivía el fin de su tragedia, los trabajos de Louis Pasteur ofrecían una explicación a los descubrimientos del médico húngaro: los microorganismos patógenos. En 1883, el cirujano Joseph Lister implanta al fin la idea de la cirugía estéril desinfectando personas e instrumentos. Y en 1890, Robert Koch publica los cuatro postulados que relacionan causalmente a un microbio con una enfermedad. Era el principio del fin de la superstición de los “humores”, que hoy sólo algunas pseudomedicinas sostienen, y el nacimiento de la medicina científica.

noviembre 13, 2010

Para leer noticias sobre ciencia

Science and Mechanics Nov 1931 cover
Una de las primeras revistas de divulgación
de Hugo Gernsback
(ilustración D.P. de Frank R. Paul
vía Wikimedia Commons
En la tarea de transmitir información sobre ciencia, los lectores tienen un desafío mayor del que podríamos creer.

La ciencia es una de las actividades humanas más apasionantes.

Pero su proceso suele ser poco vistoso. Los avances raras veces son tan impactantes como la vacuna de Jenner, la gravitación de Newton, la relatividad de Einstein o el avión de los hermanos Wright. Más bien son lentos y poco impresionantes a primera vista, y se van acumulando en un goteo que puede ser desesperante.

Los detalles que apasionan a quienes viven en la labor de científica y tecnológica porque conocen las implicaciones de cada avance y su contexto, no se llevan fácilmente al público con la emoción y pasión con la que se informa de unas elecciones reñidas, un partido de fútbol o una importante acción policiaca.

Esta misma semana, la prestigiosa revista científica ‘Nature' publica cinco artículos y un editorial dedicados a las células gliales del sistema nervioso, que se creía que eran sólo la estructura de soporte de las neuronas que transmiten impulsos nerviosos. De hecho “glia” es la palabra griega para “pegamento”.

En las últimas dos décadas, varios estudios indican que estas células tienen una función más compleja. Si se confirma esto, se abriría todo un campo nuevo de más preguntas que respuestas. Un tema estremecedor para los neurocientíficos que ofrece nuevas avenidas para comprender nuestro cerebro.

Pero a nivel de calle, todos tendemos a preguntar “¿qué significa eso para mí?”, y no nos gustan mucho las respuestas que empiezan diciendo “de momento, nada, pero en un futuro...”

Queremos resultados hoy mismo, y de ser posible ayer. Vivimos una comunicación cada vez más ágil y al mismo tiempo más breve. Una nota de 140 caracteres en Twitter puede ser cuando mucho de tres minutos en televisión, un cuarto de página en un diario o tres o cuatro páginas en una revista.

Pero uno solo de los cinco artículos de investigación dedicados a las células gliales (un misterio de nuestro cerebro, 84 mil millones de células gliales junto a los 86 mil millones de neuronas que tenemos) es una serie larga de páginas sobre un tema tan arcano como “Genética del desarrollo de las células gliales de los vertebrados: especificación celular".

Por supuesto, los autores, David H. Rowitch y Arnold R. Kriegerstein, mencionan que la comprensión de la genética del desarrollo de las células llamadas macroglia “tiene un gran potencial para mejorar nuestra comprensión de diversos trastornos neurológicos en los seres humanos”.

Ese lenguaje no es muy deslumbrante, sin duda. Los científicos tienden a ser extremadamente cautos en sus artículos profesionales, llamados ‘papers’, y así se los exigen, con buenas razones, las publicaciones especializadas o ‘journals’. Deben ser precisos en su explicación sobre la metodología que siguieron, para que cualquier otro científico de su área pueda duplicar con toda exactitud sus experimentos para confirmarlos o descartarlos. Deben concretar la hipótesis que pretenden probar y mostrar todas sus cartas, sus procedimientos, sus análisis matemáticos, incluso sus posibles errores o dudas.

Para asegurarse de que así lo hagan, las revistas someten cada ‘paper’ propuesto a una revisión por científicos reconocidos de la disciplina a la que se refiere. Es lo que se llama “arbitraje por pares”, y sirve como filtro contra investigaciones defectuosas en su metodología o conclusiones. Y aún así, ocasionalmente las mejores revistas publican artículos con algún error importante.

Y, por ello mismo, las conclusiones de los ‘papers’ suelen utilizar de modo abundante construcciones como "creemos que", "los resultados sugieren", "estudios adicionales podrían revelar", "la confirmación tiene el potencial de", "es probable que" y demás formas igualmente vagas y cautelosas.

La labor del periodista con frecuencia es trasladar esto a un idioma accesible, transmitir la emoción de los científicos por haber dado “un pequeño paso” adicional y tocar al lector para que perciba que el trabajo científico es merecedor de todo nuestro apoyo, sobre todo en una época en que el conocimiento científico es una fuente de riqueza mayor que muchas actividades industriales del siglo XIX y XX.

Muchas veces, sin embargo, el lector debe leer entre líneas, sabiendo que todas las semanas se publica una enorme cantidad de ‘papers’ o artículos en todas las disciplinas imaginables, desde la física de partículas hasta la geología, desde la biología molecular hasta la gastroenterología, desde las neurociencias hasta la informática. Y muchas veces lo que llega a la atención de los medios no son los trabajos más prometedores, sino los que universidades o laboratorios quieren destacar, o los realizados por científicos más “mediáticos”, simpáticos o bien relacionados.

El lector debe añadir cautela a la información de los medios. Cuando un periodista omite las construcciones cautas y condicionales de los científicos, siempre conviene suponerlas. Especialmente en temas delicados como la investigación sobre el cáncer y otras áreas de la medicina que nos preocupan mucho. Y más especialmente cuando lo que se anuncia es tan revolucionario y tan maravilloso que suena demasiado bueno para ser cierto. Probablemente lo es.

Cuando las noticias no proceden de publicaciones científicas sino de ruedas de prensa o libros recién lanzados y en proceso de comercialización, o empresas que venden servicios de salud, estética o bienestar, hay que ser aún más cauto, pues no ha existido el útil filtro del “arbitraje por pares”. Especialmente cuando el investigador se presenta como víctima de una conspiración malévola en contra de su incomprendida genialidad.

La difusión de los logros de la ciencia requiere una implicación cada vez mayor del lector común, del no científico. Quizás no basta que tengamos información sobre los avances de la ciencia y debamos educarnos para conocer el pensamiento crítico y sus métodos, que son más accesibles que los datos de la ciencia, y son la vacuna perfecta contra la desinformación y el sensacionalismo en cualquier rama de la comunicación. Y nos permiten evaluar información que, literalmente, está cambiando el mundo en que vivimos, paso a paso.


Periodismo pseudocientífico

Una buena parte de lo que se presenta como divulgación o periodismo más o menos científico es, por el contrario, promoción de creencias y afirmaciones pseudocientíficas altamente sensacionalistas y amarillistas, echando mano de supuestos expertos (generalmente autoproclamados) para promover la anticiencia, la magia, las más diversas conspiraciones y creencias irracionales varias. Un motivo adicional para educarnos en las bases de la ciencia y estar alerta ante los negociantes de supuestos misterios presentados falsamente como ciencia.

noviembre 06, 2010

La ciencia falsificada de Lysenko

Al pretender doblegar la ciencia a los dictados de la política, Lysenko arruinó vidas, causó hambrunas y sumió en el retraso la biología en el que era el país más grande del mundo.

Trofim Denisovich Lysenko
(imagen D.P. Sovfoto vía
Wikimedia Commons)
El 20 de noviembre de 1976 moría en Kiev, Ucrania, entonces parte de la Unión Soviética, Trofim Denisovich Lysenko, cubierto de honores por sucesivos gobiernos desde Stalin y que había sido la fuerza más relevante de la agricultura soviética (y en gran medida china) durante décadas.

Hijo de campesinos ucranianos, Lysenko estudió en el Instituto Agrícola de Kiev para luego trabajar en una estación experimental agrícola. Allí, en 1927, anunció un método para obtener cosechas sin fertilizantes y dijo que podía obtener una cosecha invernal de guisantes. El diario oficial soviético Pravda elogió sin límites a este “científico campesino” como prototipo de héroe soviético.

Lysenko sabía poco de herencia y genética, pero creía que los organismos cambiaban su genética de acuerdo al medio ambiente, siguiendo la teoría lamarckiana.

Jean-Baptiste Lamarck (1744-1829) fue uno de los primeros proponentes de la evolución de las especies, pero pensaba que su mecanismo era que los caracteres adquiridos podían heredarse. Por ejemplo, cortarle las orejas a un perro adulto haría que su descendencia naciera con orejas cortas. Los experimentos demostraron que esto no ocurre, y pronto Charles Darwin propuso una teoría correcta, basada en la variación genética natural de los seres vivos.

De vuelta en Ucrania, y junto con el filósofo I. Prezent, Lysenko desarrolló sus ideas como un rechazo a la genética de Mendel, “capitalista y burguesa”. Para los dirigentes soviéticos, no era cuestión de verdad o falsedad, sino de tener bases para asegurar que los cambios que experimentara la clase trabajadora definirían fatalmente el futuro.

Las afirmaciones exageradas de Lysenko sobre su capacidad de obtener cultivos abundantes y en clima adverso, y sus afirmaciones sobre híbridos absurdos (llegó a afirmar podía hacer que plantas de trigo produjeran semillas de centeno y cebada) entusiasmaron a Stalin tanto como la capacidad retórica de Lysenko. Para los científicos, sus posiciones voluntaristas y poco rigurosas resultaban casi risibles, pero dejaron de serlo cuando se vieron acompañadas de un inmenso poder político.

En 1929, Stalin declaró que se debía privilegiar la "práctica" por sobre la "teoría", donde la visión del partido era más importante que la "ciencia", y que ir al campo y hacer cosas (aunque fueran inútiles o descabelladas) era mejor que estudiar cosas extrañas en un laboratorio. Esto se ajustaba a Lysenko como un guante, y los críticos de Lysenko empezaron a enfrentar crecientes acciones de censura.

Cuando en 1935 fue puesto al frente de la Academia de Ciencias Agrícolas de la URSS, Trofim Lysenko empezó una larga purga de científicos de ideas “incorrectas” o “perjudiciales”.

El más importante biólogo soviético y padre de la genética rusa, además de feroz crítico de Lysenko, Nikolai Vavilov, murió de hambre en las cárceles de la policía política, la NKVD, en 1943, después de tres años de confinamiento por orden de Lysenko. La genética desapareció como disciplina en la URSS y la biología, la herencia y la medicina se vieron contaminadas con las ideas descabelladas del Lysenko.

Pronto, en las escuelas soviéticas se enseñaban cosas como: el gen es una parte mítica de las estructuras vivientes que en las teorías reaccionarias, como el Mendelismo-Veysmanismo-Morganismo, determina la herencia. Los cientificos soviéticos bajo el mando de Lysenko probaron científicamente que los genes no existen en la naturaleza.

Tales pruebas eran, por supuesto, imaginarias. Las teorías de Lysenko eran producto de la filosofía política y no de la práctica de la ciencia. Y sus técnicas se aplicaban por decreto, obligatoriamente, en el campo soviético y sin haberlas probado científicamente. Esto, junto con la colectivización forzada del campo que implantó Stalin, ocasionó hambrunas varias.

Nada de esto impidió que Lysenko siguiera siendo la máxima autoridad en biología en la Unión Soviética, al menos hasta el 5 de marzo de 1953, cuando murió Joseph Stalin. Durante su reinado, más de 3000 biólogos fueron despedidos, arrestados o ejecutados.

El sucesor, Nikita Kruschev, mantuvo a Lysenko en su puesto, pero al emprender la llamada "desestalinización" para terminar con el culto a la personalidad de su predecesor, y sabiendo, como campesino que era, que pese a la propaganda oficial, las ideas de Lysenko no habían beneficiado la agricultura soviética, abrió la posibilidad de tolerar las críticas al todopoderoso agrónomo.

Mientras decaían en la URSS, las ideas de Lysenko fueron adoptadas por el gobierno chino. Mao llamó "El Gran Salto Adelante" a la implantación del lysenkoísmo y la colectivización forzosa del campo con el mismo resultado amplificado: la terrible hambruna china de 1958-1961 que mató a entre 30 y 40 millones de personas, más de los que había perdido la URSS en la Segunda Guerra Mundial.

En 1961, algunos miembros del gobierno chino se rebelaron a las ideas de Mao y ordenaron el abandono de sus políticas en diversas provincias, deteniendo la hambruna. Un año después, tres físicos soviéticos proclamaron que el trabajo de Lysenko era falsa ciencia.

Lysenko fue destituido, pero no se le criticó oficialmente sino hasta que Kruschev fue retirado del poder en 1964, y una comisión oficial fue a investigar su granja experimental, demostrando su total falta de rigor y seriedad científica.

Ese año, el físico nuclear Andrei Sakharov, hoy Premio Nobel, dijo en la Asamblea General de la Academia de Ciencias que Lysenko era: responsable del vergonzoso atraso de la biología soviética y de la genética en particular, de la divulgación de visiones seudocientíficas, de aventurerismo, de la degradación del aprendizaje y por la difamación, despido, arresto, incluso muerte, de muchos científicos genuinos.

El daño hecho por Lysenko, visto a la distancia del tiempo, fue quizá el ejemplo más aterrador del peligro que corremos todos cuando la política pretende decretar la ciencia en lugar de utilizar y entender la ciencia real.

Stanislav Lem y Lysenko

En la universidad Jagielloniana de Polonia, a fines de la década de 1940, el estudiante de medicina Stanislav Lem llegó a satirizar al agrónomo soviético en una revista. Así, cuando tuvo que presentar su examen final como médico, sus principios le impidieron dar las respuestas "correctas" consagradas por el Lysenkoísmo oficial soviético. Ya que no podía recibirse como médico sin someterse a Lysenko, Stanislav Lem procedió a convertirse en uno de los más influyentes y originales escritores de la historia de la ciencia ficción, conocido sobre todo por su novela "Solaris".

octubre 30, 2010

Planetas habitables

Kepler22b-artwork
Versión artística del planeta Kepler-22B,
ubicado en la zona "ricitos de oro" de
una estrella.
(imagen D.P. de NASA/Ames/JPL-Caltech,
vía Wikimedia Commons)
Pocos sueños más apasionados que el de encontrar otros planetas donde podamos vivir, extendiéndonos por el universo como en el pasado nos extendimos por toda la Tierra.

Desde que Giordano Bruno postuló la "pluralidad de los mundos habitables” (una de las ideas que le costaron ser quemado en la hoguera por la Inquisición en Roma en 1600), en occidente se empezó a popularizar una idea que ya rondaba por Oriente desde el siglo IX, en uno de los cuentos de “Las mil noches y una noche” y que también había sido planteada con seriedad por el filósofo judío aragonés Hasdai Crescas.

Tanto en la ficción como en la ciencia, a partir del Renacimiento y de la difusión de la visión copernicana del universo, se empezó a hablar de otros cuerpos del cosmos que pudieran albergar vida. En 1516, Ludovico Ariosto, en su “Orlando Furioso”, lleva a su personaje Asdolfo a visitar la Luna. En 1647, Savinien Cyrano de Bergerac escribe sus “Viajes a los imperios del sol y de la luna”, donde describe a los primeros extraterrestres, habitantes precisamente de esos dos cuerpos celestes.

A partir de entonces, y de modo desbordado durante el siglo XX, escritores con más o menos conocimientos de física, cosmología o biología postularon primero extraterrestres esencialmente humanos. A partir de mediados del siglo XIX, y estimulados por los conceptos darwinistas de evolución, variación aleatoria y selección de supervivencia, imaginaron las más diversas variedades extraterrestres: vida mineral, vida basada en silicio y no en carbono, vida tan diferente que no podríamos siquiera identificarla como tal, vida infinitamente más inteligente y vida en forma de campos de energía. E imaginaron su encuentro con seres humanos en la Tierra, sí, pero también con frecuencia en esos planetas que la lógica decía que tenían que existir.

Sin embargo, la existencia misma de esos planetas fuera de nuestro sistema solar, los “exoplanetas” o planetas extrasolares, no se confirmó sino hasta 1992, cuando dos radioastrónomos descubrieron planetas alrededor de un pulsar, lo que muy pronto fue confirmado por observadores independientes.

Curiosamente, el primer exoplaneta había sido descubierto en 1988, pero su confirmación mediante observaciones independientes no se consiguió sino hasta el siglo XXI.

A partir de ese momento, y hasta octubre de 2010, se ha anunciado la detección de casi 500 planetas extrasolares, pero la mayoría de ellos son gigantes de gas, similares a Júpiter, Saturno o Plutón, es decir, que no son habitables. Para que un planeta sea habitable para nosotros, debe ser rocoso, como la Tierra, Marte o Venus. Y debe tener una masa suficiente como para que su gravedad mantenga una atmósfera. Además debe estar en la llamada “zona habitable”, la distancia respecto de una estrella en la que un planeta puede tener agua líquida.

Esa zona es conocida como la “zona Ricitos de Oro”, por el cuento infantil en el que la niña que llega a la casa de los osos rechaza los extremos (lo muy grande y muy pequeño, lo muy frío y lo muy caliente) para ubicarse en una media confortable. Los planetas situados en esa zona son, por tanto “planetas Ricitos de Oro”.

A fines de septiembre de 2010, en el “Astrophysical Journal”, un grupo de astrónomos dirigidos por Steven S. Vogt anunció haber hallado el primer planeta “Ricitos de Oro” de la historia, orbitando alrededor de la estrella Gliese 581, llamada así por llevar ese número en el catálogo astronómico creado por el astrónomo alemán Wilhelm Gliese. Alrededor de esa estrella ya se habían descubierto otros planetas, pero ninguno de ellos en la zona habitable como, según las conclusiones de los astrónomos, sí estaba Gliese 581g, un planeta con algo más de tres veces la masa de la Tierra, situado muy cerca de su estrella y que la orbita dándole siempre la misma cara.

No obstante, no pasaron dos semanas antes de que otro grupo de astrónomos, éstos del Observatorio de Ginebra informara de que, según sus mediciones de otro conjunto de observaciones, no encontraban evidencias de la existencia de tal planeta. Se han emprendido nuevas mediciones y observaciones que, se espera, resolverán la disputa en uno o dos años.

La enorme mayoría de los exoplanetas no se descubren observándolos directamente. De hecho, hoy podemos ver (generalmente en la banda de la radiación infrarroja) a sólo diez de ellos, los más grandes. Los demás se descubren indirectamente, observando las variaciones de la estrella alrededor de la cual orbitan y calculando qué cuerpos podrían provocar esas variaciones. Son sistemas lentos, que exigen gran trabajo y extensos cálculos.

La esperanza de encontrar más exoplanetas habitables motivó el lanzamiento, en 2009, del telescopio espacial Kepler, un observatorio diseñado específicamente con el propósito de encontrar planetas similares a la Tierra orbitando alrededor de otros planetas. Con un medidor de luz extremadamente sensible, observa las variaciones de más de 145.000 estrellas para que los astrónomos puedan analizarlos en busca de planetas. Y ya se han descubierto muchos gracias a este telescopio.

Sin embargo, un planeta habitable por nosotros no es forzosamente igual a un planeta en el que pueda haber vida extraterrestre. Conocemos sólo un caso de surgimiento y evolución de la vida, el de nuestro planeta, y sabemos por tanto que en un planeta similar al nuestro puede surgir vida. Pero no podemos descartar la posibilidad de que en condiciones muy distintas no puedan surgir formas de vida totalmente distintas de las de este planeta.

Incluso, entre los autores de ciencia ficción y los cosmólogos se han lanzado especulaciones sobre la existencia de vida en planetas muy distintos al nuestro. Los propios hallazgos de formas de vida extrañas en nuestro planeta, como las bacterias capaces de metabolizar el azufre, abren enormemente el abanico de posibilidades de cómo podrían ser los seres extraterrestres.

Para muchos, la posibilidad de encontrar planetas habitables, aunque no estuvieran habitados, significa darle a la humanidad una meta qué alcanzar, un lugar a dónde ir, una misión nueva qué cumplir. Si estamos hechos del mismo material que todo el universo, es allí a donde debemos ir, dicen los más entusiastas.

La terraformación

Si no encontramos un planeta adaptado a nuestras necesidades, podemos quizá tomar un planeta ya existente y emprender una gigantesca obra de ingeniería para adaptarlo a condiciones similares a las de la Tierra... o “terraformarlo”, como lo llamó en 1942 el escritor de ciencia ficción Jack Williamson. Eso era ciencia ficción... hasta que en 1961 el astrónomo Carl Sagan propuso someter a Venus a ingeniería planetaria para que pudiéramos habitarlo. El tema sigue siendo estudiado y analizado por científicos en todo el mundo, y sigue siendo tema de la ciencia ficción.

octubre 23, 2010

Lo natural que no lo es tanto

Por todos lados nos bombardean las palabras “natural”, “ecológico” u “orgánico”, pero ¿tienen significado esas palabras en nuestra alimentación?

La zanahoria sólo es anaranjada desde el siglo XVI,
gracias a la selección artificial.
(foto D.P. USDA via Wikimedia Commons)
Imagínese un plato con unas cuantas tuberosas parecidas a zanahorias pequeñas pero de varios cuerpos y color morado casi negro, unos frutos globulares pequeños como uvas y de color naranja profundo, largos tallos de pasto con unas pocas semillas amarillentas y redondas y unas hojas de bordes rizados que parecen hiedra.

Parecería la pesadilla de un entusiasta opositor a la manipulación genética de los alimentos. Pero lo descrito son sólo zanahorias silvestres, tomate salvaje, maíz salvaje y una peculiar planta llamada Brassica olearacea, que da origen al brécol, las coles de bruselas, los repollos y la coliflor, entre otras variedades, todas descendientes de la misma humilde planta que aún se encuentra en lugares como los riscos de yeso de la costa inglesa.

La historia de nuestra alimentación, lo sabemos, es la historia de la domesticación de numerosas especies animales y vegetales. Pero en ocasiones no tenemos muy claro cuán distintos son los productos que encontramos en nuestros platos respecto de sus antecesores lejanos.

De hecho, los ancestros de algunos de nuestros alimentos actuales ya no existen. Hemos descrito una forma de maíz silvestre que existe en la actualidad, el teosinte, pero en la naturaleza ya no existen las mazorcas de granos de maíz como lentejas que se han encontrado en antiguos enterramientos mesoamericanos. El hombre, al llegar a América y encontrar esta planta, la modificó y la seleccionó artificialmente manipulando sus genes por ensayo y error, hasta obtener el maíz que conocemos hoy.

En casos como el de la Brassica olearacea, llamada también mostaza silvestre, pequeñas sutilezas en la selección artificial llevan a cambios verdaderamente notables en el organismo final. Sí, el brécol y las coles moradas son la misma planta, la misma especie, cuyas variaciones naturales fueron aprovechadas por los agricultores al paso de los siglos.

En ocasiones, no fueron sólo las necesidades de conveniencia del cultivo o el sabor las responsables de los cambios que sufrieron distintas especies. Al menos un caso de los que mencionamos en nuestra ensalada terrible del primer párrafo nace del deseo de complacer a los monarcas. Las zanahorias del plato bien podían haber sido negras, rojas o amarillas, además de varias tonalidades del morado.

Pero en el siglo XVII, los agricultores holandeses decidieron quedar bien con la reinante casa de Orange, palabra que significa “naranja” y “anaranjado” en varios idiomas, incluido el francés, el inglés y el holandés. Así, realizaron cruzas y selecciones hasta obtener una por entonces muy novedosa y nunca antes vista zanahoria anaranjada.

Podemos imaginar que antes del siglo XVII, la idea de una zanahoria anaranjada no sólo habría sido extraña, sino incluso rechazada por “antinatural”. Y quizá pasaría lo mismo con nuestros tomates de un furibundo rojo Ferrari, pues los primeros tomates ya domesticados que trajeron los conquistadores españoles a Europa eran más bien amarillentos, lo que explica el nombre en italiano que les dio el botánico Pietro Andrea Mattioli: “pomodoro”, manzana dorada.

En muchos casos no podemos siquiera saber cómo eran los ancestros de nuestro desayuno o cena, pero los cambios sufridos por ellos en miles y miles de años de domesticación los han convertido en formas de vida que poco tienen que ver con las que podríamos llamar “naturales”.

En cuanto a los animales, casi 7.000 años de domesticación separan a los cerdos actuales de los originarios, unos 8.000 separan a la gallina moderna de sus ancestros del sureste asiático... y hasta 10.000 años podrían mediar entre las vacas y los uros de largos cuernos domesticados, como tantas otras especies, en el creciente fértil del Medio Oriente.

¿Qué tantos cambios puede sufrir un ser vivo en un espacio de tiempo tan amplio? Quizá podemos tomar como ejemplo a nuestro compañero más cercano, el perro. Aunque lleva más de 10.000 años con nosotros, y según algunos investigadores bastante más, la gran mayoría de las “razas” o variedades de perro que conocemos hoy tienen apenas unos siglos de existencia, y las más antiguas apenas alcanzan los dos mil años, como los Rottweiler, usados por las legiones romanas para pastorear el ganado de pie con el que viajaban. Es decir, toda la asombrosa y a veces extrema variedad de los perros que conocemos fueron seleccionados artificialmente en unos pocos cientos de años.

Sería muy difícil tomar a un gran danés, un yorkshire terrier y un mastín canario y a partir de ellos extrapolar el aspecto de su ancestro salvaje, el lobo gris.

Nada de lo que un ser vivo toca se mantiene inmutable. El depredador y la presa se influyen mutuamente, se hacen cambiar, evolucionar. Las flores tienen formas y colores que atraen a las abejas, y las abejas tienen aparatos sensoriales capaces de detectar ciertas formas y colores de las flores, al grado de poder ver en la frecuencia ultravioleta, donde las flores mandan intensas señales visuales. Los animales vecinos, que compiten o cooperan o simplemente tratan de mantenerse apartados del camino del otro, también se influyen entre sí.

Eso, es bueno recordarlo, es totalmente natural. Y es lo que el ser humano ha hecho con las plantas y animales que ha utilizado para sobrevivir y tener una existencia más larga y de mejor calidad. Querámoslo o no, nos guste o no, no existen los productos “naturales” con los que algunos, muchas veces con la mejor voluntad del mundo, suelen soñar.

Pero si somos el animal que más ha afectado a su entorno y a las especies con las que interactuamos, también es cierto que somos la única especie viva que está consciente de su impacto sobre el entorno y que tiene tanto la voluntad como los medios tecnológicos para moderar ese impacto, impedir que sea demasiado dañino y reorientar diversas actividades en favor de la conservación de la biodiversidad, el equilibrio ecológico y el mantenimiento de espacios amables para la vida silvestre.

Lo cual, después de todo, sería lo más natural que podemos hacer.

La ingeniería genética por lo natural

Lo que el hombre ha hecho a ciegas, por ensayo y error, durante los últimos 10.000 años al domesticar diversas especies lo podemos hacer ahora con precisión, inteligencia y conocimiento de causa gracias a la ingeniería genética. La presión política, con pocos fundamentos científicos, contra el uso de la tecnología genética está interfiriendo con un análisis racional de las mejores soluciones. Como le dijo la bioquímica Pilar Carbonero a Luis Alfonso Gámez en 2006: “Todos los riesgos achacados a los transgénicos existen desde que la agricultura es agricultura, hace unos 10.000 años".

octubre 16, 2010

La toxicología y su padre menorquín

Mathieu Orfila
(Litografía D.P. de Alexandre Colette via
Wikimedia Commons)
El suicidio de Cleopatra en el año 30 antes de la era común es, en cierto modo, un resumen de la relación del ser humano con los venenos, un conocimiento peligroso de utilidad funesta. De hecho, el geógrafo e historiador griego Strabo nos ofrece dos versiones, una, la más conocida, según la cual la emperatriz de Egipto se hizo morder por una víbora venenosa; según la otra, se aplicó un ungüento venenoso, con lo que sólo cambia el modo de administración de la letal sustancia.

El veneno consumido accidentalmente o utilizado voluntariamente para el suicidio o el asesinato ha capturado tradicionalmente la imaginación popular. No sólo porque como arma homicida es difícil de identificar y más de relacionar con el asesino, sino porque, paradójicamente, los venenos pueden tener propiedades curativas, medicinales o deseables en dosis inferiores a las letales. Esto fue astutamente resumido por el peculiar Paracelso, mezcla renacentista de precientífico y charlatán, quien observó: “la dosis hace al veneno".

Un ejemplo de lo atinado de este comentario de Paracelso lo tenemos actualmente con la aplicación de una peligrosa toxina. La toxina botulínica es una potente proteína neurotóxica producida por la bacteria anaerobia Clostridium botulinum que puede causar la muerte con una dosis de 1 nanogramo (una milmillonésima de gramo) por kilogramo de peso de la víctima provocando debilidad muscular en la cabeza, brazos y piernas, hasta paralizar los músculos respiratorios y causar la muerte.

Dosis minúsculas cuidadosamente calculadas de toxina botulínica, o botox, se empezaron a usar en la década de 1980 para tratar casos de estrabismo, relajando el músculo paralizado que fija al globo ocular en su posición. Desde 1989 se usa además con fines estéticos, al impedir que se contraigan los músculos que provocan algunas arrugas, especialmente en la frente y el entrecejo.

En la historia del veneno, el gran unificador, el encargado de compendiar el conocimiento reunido a lo largo de la historia y de empezar el camino para comprender cómo es que actúan esas mortales sustancias fue Mateo Orfila, nacido en 1787 en Mahón, Menorca, y que luchó durante toda su juventud por estudiar medicina. Su familia quiso orientarlo hacia la marina, pero él insistió en estudiar medicina primero en Valencia y luego en Barcelona, donde fue becado para estudiar química en Madrid primero y después en París.

Llevado a la química por su capacidad y relaciones, se quedó en París trabajando como asistente del laboratorio del químico Antoine François Fourcroy, pero siguió estudiando medicina decididamente y finalmente se doctoró en 1811 con una tesis sobre la orina de los pacientes de ictericia. Se veía en esa tesis ya al médico químico que desde ese mismo año se dedicaría intensamente a estudiar los venenos y sus mecanismos.

Las investigaciones de Orfila eran difíciles y, parecería hoy, algo crueles, pues implicaron más de cinco mil experimentos de venenos con perros. El conocimiento derivado de estos experimentos se vio resumido en el libro Tratado de los venenos (o Toxicología general) de 1813, considerado el texto fundacional de la toxicología científica.

La gran novedad de este tratado científico nacía de la convicción de Orfila de que los venenos sólo podían identificarse en las evacuaciones de los pacientes, considerando que podían ser absorbidos por el organismo y por tanto no llegar a ser evacuados. Su principal misión fue identificarlos en los tejidos de sus sujetos experimentales por medio de exámenes anatomopatológicos en autopsias.

Esta labor le permitió a Orfila determinar que la difusión de los venenos por el organismo se daba mediante la sangre y no, como se había creído antes, por medio de las fibras nerviosas.

Igualmente, Mateo Orfila estableció el concepto de antitóxico, una sustancia que actúa directamente contra un tóxico, como el proverbial antídoto, y no contra la enfermedad. Una forma de antitóxico es cualquiera que provoque el vómito para expulsar el veneno del organismo antes de que se absorba más por vía sanguínea. Otra forma es la neutralización de la acción del veneno, como el ácido dimercaptosuccínico que se utiliza en casos de envenenamiento por metales pesados.

El éxito de su libro, traducido a varios idiomas, se vio seguido cuatro años después por otro volumen, Elementos de química médica, que también atrajo gran atención en toda Europa. Con un prestigio bien ganado en su edspecialidad, en 1819 obtuvo el puesto de profesor de medicina legal de la Facultad de Medicina de París, puesto que le exigió adoptar la nacionalidad francesa, que mantuvo hasta su muerte.

En los años siguientes pasaría a ser profesor de química médica reconocido por su gran capacidad didáctica, autor de numerosos libros más sobre química, tratamiento de envenenamientos, medicina legal y otros temas, y fundador de la Sociedad de Química Médica (1824) encargada de la publicación de la revista científica Anales de química médica, farmacéutica y toxicológica, además de crear el Museo de Anatomía Patológica (Museo Dupuytren) y el Museo de Anatomía Comparada (Museo Orfila) que aún existen hoy en día en París. En 1834 sería nombrado Caballero de la Legión de Honor Francesa.

Entre 1838 y 1841, Orfila se vería implicado igualmente en la creación de la toxicología forenese, primero determinando que en su estado normal el cuerpo humano no contiene arsénico, lo cual asegura que la presencia de arsénico es producto de un envenenamiento accidental o intencionado, y como experto en casos de envenenamiento.

En 1850 sería nombrado Presidente de la Academia de Medicina y, después de un enfrentamiento con Luis Napoleón, debido al acendrado conservadurismo del genio, moriría al fin en 1853 y sería inhumado en el famoso cementerio de Montparnasse.

En su testamento, el genio menorquín dejó instrucciones y fondos para la creación de diversas instituciones científicas y de beneficencia. Y en un gesto hacia los alumnos a los que dedicó sus esfuerzos durante gran parte de su vida, dispuso que se hiciera su autopsia en presencia de sus estudiantes, para que aprendieran de él ya en la muerte un poco más de lo que habían aprendido del Orfila vivo.

La envenenadora que no lo fue

El asesinato por envenenamiento está íntimamente ligado, en la percepción general, con Lucrecia Borgia, la femme fatale del Renacimiento, usada por su familia como peón en bodas de conveniencia. Sin embargo, podría ser que Lucrecia Borgia fuera una víctima simple del machismo, de una reacción encendida y airada a su libre sexualidad y a su percibida impudicia, pues, para sorpresa de muchos, no existe ni una sola prueba histórica de que esta hija ilegítima del Papa Alejandro VI hubiera cometido siquiera un asesinato, no digamos ya por medio del envenenamiento.

octubre 09, 2010

Las maravillosas máquinas de Herón de Alejandría

El legado de uno de los grandes inventores antiguos nos recuerda cuán fácil es olvidar el conocimiento que hemos reunido.

Réplica de la eolípila
creada por Katie Crisalli
(foto D.P. via Wikimedia
Commons)
Seguramente usted ha escuchado decir que “quizá los antiguos tenían conocimientos superiores a los que actualmente creemos”, lo cual con frecuencia sólo quiere decir que quien habla no está muy bien informado, pero cree que su ignorancia es compartida por toda la humanidad y que lo que él (o ella) no conoce, no lo conoce nadie más. Afortunadamente no es así.

Que los antiguos griegos habían desarrollado el odómetro o cuentakilómetros, y que fue probablemente usado para calcular las distancias recorridas en el desenfrenado viaje de conquistas de Alejandro Magno, que las romanas sabían teñirse de rubias o que el genio chino Zhang Heng inventó un sismógrafo primitivo, son datos que nos muestran, sobre todo, la profundidad de nuestra ignorancia sobre el pasado, que nos gusta imaginar mucho más oscuro y brutal de lo que ya era de por sí.

Quizá la diferencia entre los logros de las culturas precientíficas y los avances logrados por la humanidad desde que desarrolló el método científico alrededor del siglo XV-XVI es que, por una parte, nosotros contamos con explicaciones demostrables de los principios del funcionamiento de ciertas cosas, y, por otra, que el conocimiento y sus productos tecnológicos no son patrimonio de una élite, sino de toda la humanidad.

Esto último puede ser el secreto para que no se pierda.

En el pasado, los principios que hoy están al alcance de todos quienes asistan a la escuela, podían ser un bien guardado secreto, y es fácil imaginar cómo provocaban el asombro entre el pueblo llano, no sólo incapaz de entender, sino sin los medios (información, escuela, medios) para llegar a entender lo que parecía magia.

Tal fue el caso de Herón, inventor que en el siglo I de la era común asombró a su natal Alejandría con una caudalosa sucesión de máquinas, aparatos, ideas, propuestas que iban desde la matemática pura hasta la aplicación tecnológica de los conocimientos de entonces. Sus trabajos le ganaron el mote de Michanikos, el hombre mecánico.

Como tantos científicos de su época, Herón realizó su trabajo en el Musaeum, el museo anexo a la legendaria Biblioteca de Alejandría, donde era profesor. Este Musaeum, donde Hipatia enseñaría e investigaría tres siglos después, se había concebido como heredero del Liceo de Aristóteles, lugar religioso de culto a las musas y espacio de enseñanza y debate.

Quizá el aparato por el que es más conocido Herón es la eolípila, una primitiva máquina de vapor que, sin embargo, no hacía más que hacer girar una bola que recibía vapor de un caldero y lo expulsaba mediante dos tubos acodados en su ecuador.

Sin embargo, la falta de aplicación práctica de este invento contrasta con el resto de la enorme cantidad de invenciones prácticas, incluso económicamente rentables, que logró Herón, muchas de ellas para los templos, donde es muy posible que los fieles no conocieran los principios que hacían moverse a los aparatos de Herón, como la máquina dispensadora de agua bendita operada con monedas, o las puertas del templo que se abrían y cerraban al parecer milagrosamente.

Era la aportación de Herón a la promoción de sus creencias paganas en una Alejandría que era un punto de encuentro de todas las religiones, y donde todas buscaban fieles y limosnas para ser más poderosas e influyentes.

Herón dejó un legado de al menos una docena de libros, pero quizá varios más, que conocemos en griego, copias medievales y traducciones al árabe. En unos se ocupa de la geometría y las matemáticas aplicadas para calcular el área y el volumen de distintos cuerpos. En otros estudia la propagación de la luz y el uso de espejos para objetivos tan prácticos como medir longitudes desde la distancia, el dispositivo dióptrico antecesor del teodolito que siguen utilizando los agrimensores y topógrafos.

En sus libros nos da también con su descripción de diversos autómatas: objetivos que giran, ruidos producidos automáticamente, sus famosas puertas y una colección de unos 80 aparatos mecánicos que funcionan con aire, vapor o presión hidráulica, entre ellos la eolípila, una bomba de dos pistones utilizada para extinguir incendios y una famosa máquina expendedora.

Un libro más estaba dedicado a máquinas de guerra y tres más al arte de mover objetos pesados, recordándonos que la capacidad de mover grandes piedras que exhibieron los antiguos no era sino expresión de sus conocimientos, es decir, tecnología.

Para los modernos historiadores, las máquinas maravillosas de Herón lo son aún más por ser el creador de los dispositivos de control por realimentación, que es el principio de lo que hoy conocemos como cibernética y que no se refiere únicamente a la informática, sino a todas las máquinas o dispositivos autorregulados. Por ejemplo, Herón diseñó un cuenco de vino que se llenaba solo, o eso parecía. El ingenioso diseño contaba con un flotador que, al bajar a cierto nivel del líquido, como los de nuestras cisternas de baño, abría una válvula y suministraba vino hasta que el flotador la cerraba nuevamente.

Eran las primeras máquinas que, así fuera primitivamente, tomaban decisiones con base en su diseño sin necesidad de la supervisión de un ser humano: un órgano de agua que usaba una corriente para interpretar música, un dispensador de agua bendita en el que una moneda depositada por el fiel levantaba una palanca que surtía agua hasta que la moneda, por su propio peso, se deslizaba, caía y cerraba la válvula.

No fue sino hasta el siglo XVII cuando volvieron a crearse dispositivos de realimentación, los hornos e incubadoras controlados por termostatos.

La historia de cómo se olvidaron algunos de esos conocimientos puede enseñarnos mucho de frente a grupos fundamentalistas, anticientíficos y con motivaciones religiosas. Los conocimientos reunidos por varias culturas fueron olvidados con relativa facilidad ya dos veces (una en el occidente cristiano y otra en el oriente islámico). Es difícil subir una montaña, requiere habilidad, preparación y gran esfuerzo, pero caer de ella al abismo es rápido, sencillo y no requiere más que un tropezón

El teatro mágico

Uno de los grandes logros de Herón fue su “teatro mágico”, desarrollado a partir de las ideas de Filón de Bizancio, ilustre científico y mecánico que antecedió trescientos años a Herón. De modo totalmente automático, el dispositivo desplegaba su escenario y en él se desarrollaba una historia con diminutos muñecos humanos, delfines, dioses, barcos y hasta efectos de sonido y llamas producidos automáticamente. Muchas máquinas de Herón se han recreado gracias a sus descripciones, pero de ésta sólo tenemos el relato de lo que hacía y el asombro que causaba.

octubre 02, 2010

Realidad y ficción del espectro electromagnético

Espectro electromagnético
(imagen CC de Horst Frank via Wikimedia Commons)
La “radiación" no se refiere solamente a la radiación nuclear, sino a una gran variedad de ondas que son, en gran medida, responsables de nuestra tecnología.

La luz visible, los rayos ultravioleta, los rayos X, las ondas de radio, las microondas, los rayos gamma, las ondas usadas para transmitir televisión (VHF, “frecuencia muy alta” y UHF, “frecuencia ultra alta”, esta última usada hoy para la televisión digital, son todas ondas electromagnéticas, parte de un continuo que apenas conocimos en el último siglo y medio.

El físico escocés James Maxwell desarrolló a mediados del siglo XIX la teoría electromagnética básica, demostrando que un grupo de fenómenos independientemente observados en la electricidad, el magnetismo y la óptica eran en realidad manifestaciones de un mismo fenómeno, el campo electromagnético, formado por ondas que viajan a la velocidad de la luz. Estas ondas se def¡nen por su longitud de onda y su frecuencia, que son inversamente proporcionales.

El paardigma de las ondas que se provocan al lanzar una piedra en un estanque tranquilo se aplica perfectamente a las ondas electromagnéticas. Todas las ondas que conocemos, como las del sonido o acústico, las sísmicas, las que se dan en cuerdas y otras, tienen un comportamiento similar.

Las ondas electromagnéticas, ordenadas de la mayor a la menor longitud de onda (y, consecuentemente, de la menor a la mayor frecuencia), forman el espectro electromagnético. La frecuencia se mide en hertzios, que son ciclos por segundo. Así, por ejemplo, las ondas del extremo inferior del espectro, las de frecuencia extremadamente baja tienen una frecuencia de 3 hertzios, o sea que ocurren tres veces cada segundo, una longitud de onda de 100 megametros (millones de metros) y transmiten muy poca energía.

Al otro extremo del espectro o continuo están los rayos gamma, con una frecuencia de 300 exahertzios, lo que significa que ocurren 300.000.000.000.000.000.000 de veces por segundo, tienen una longitud de onda minúscula, de tan solo 0,000.000.000.001 de metro (menores que un átomo), y transmiten una enorme cantidad de energía.

Entre estos dos extremos el continuo va, de menor a mayor frecuencia, de las ondas utilizadas por la telefonía común, las de la radiofonía y la televisión y las microondas, que incluyen la radiación electromagnética empleada en el radar. A continuación viene la radiación infrarroja, de hasta y sigue la estrecha franja que conocemos como "luz visible" y que va del rojo (menor frecuencia) al violeta (mayor frecuencia).

La luz visible es la única parte de todo el espectro electromagnético que podemos percibir con nuestros sentidos, aunque otros animales como algunas serpientes y reptiles pueden percibir las frecuencias infrarrojas y algunos insectos como las abejas pueden “ver” también ondas de mayor frecuencia, las ultravioleta.

La radiación ultravioleta marca una frontera extremadamente importante en el espectro electromagnético, porque ya tiene suficiente energía como para alterar a la materia expuesta a ella. Es decir, puede arrancarle un electrón a un átomo, convirtiéndolo en un ión positivo (ionizándolo). A partir de allí hablamos de radiación ionizante.

En términos de la vida de la Tierra, esto significa que esta radiación puede causar cáncer y problemas genéticos impredecibles. Es por ello que al exponernos al sol debemos utilizar un protector solar: junto con la luz y el calor que emite el sol, emite también rayos ultravioleta. Una parte de ellos es absorbida por la capa de ozono que está en la parte superior de nuestra atmósfera, pero otra parte llega hasta nosotros, y una exposición demasiado prolongada o frecuente a ellos implica riesgos.

A continuación, con aún más energía, están los “rayos X”, que además de llegar naturalmente desde el espacio como parte de la llamada “radiación natural de fondo” a la que estamos expuestos estemos donde estemos sobre el planeta, son producidos en nuestras máquinas radiológicas para generar imágenes médicas, y llegamos así a los rayos gamma, que pueden causar daño incluso mortal con exposiciones relativamente cortas. Es por ello que los rayos gamma se utilizan entre otras aplicaciones para esterilizar equipo médico y eliminar bacterias de productos alimenticios.

Es importante señalar que los rayos gamma, como el resto de la radiación electromagnética, no “permanecen" en el equipo médico o los alimentos ni los vuelven “radiactivos” después de exponerse a ellos. Hacen su trabajo y se van como se va la luz cuando apagamos una bombilla.

De la luz visible hacia abajo, en el reino de las ondas de radio y las microondas, la radiación electromagnética es no ionizante, es decir, no tiene suficiente energía para afectar nuestro ADN. Sin embargo, ciertos grupos han afirmado, sin aportar pruebas sólidas, que existe una vinculación entre ciertas enfermedades y la radiacíón no ionizante proveniente de la radiodifusión, las líneas de alta tensión, las pantallas de televisión y ordenador, la telefonía móvil e incluso los hornos de microondas.

Los estudios llevados a cabo durante décadas, sin embargo, no han conseguido demostrar que exista tal correlación, sobre todo con las medidas de simple precaución que se utilizan para regular estos dispositivos y, muy especialmente, la telefonía móvil. Estos resultados reiterados en estudios de diversos grupos y países sugiere que, en el peor de los casos, si hay un riesgo es tan pequeño que resulta muy difícil detectarlo, a diferencia del riesgo de otros cancerígenos bien identificados.

De hecho, las más importantes agencias de lucha contra el cáncer de todo el mundo, entre ellas la Asociación Española contra el Cáncer coinciden en que "los niveles de emisión no son perjudiciales para la población” aún cuando recomiendan una precaución razonable y vigilante.

Los más recientes estudios, que incluyen seguimiento durante 12 años y la evaluación de más de 5.000 afectados por el cáncer y 7.000 controles sanos en numerosos países, confirman que no hay datos que sustenten la idea de que la radiación no ionizante implica riesgos para la salud, algo que por desgracia no tiene la difusión que muchos medios suelen dar a visiones sensacionalistas y alarmantes.

El negocio del miedo

Numerosos negocios sin base científica florecen promoviendo el miedo a la radiación electromagnética no ionizante, vendiéndonos protectores más o menos mágicos que supuestamente "absorben" las radiaciones u ofreciendo asesoría sobre la indemostrada “contaminación electromagnética”, con frecuencia echando mano al mismo tiempo de rituales mágicos como el feng shui o distintas formas de la adivinación para promover un miedo irracional que les rinda beneficios económicos. Una lamentable forma de explotación de la ignorancia.

septiembre 25, 2010

La ciencia ante la belleza

Fotografía ©Mauricio-José Schwarz
El profundo tema de la belleza está siendo enfrentado por la ciencia, con la certeza de que saber objetivamente cómo nos afecta no hará menos intensos nuestros sentimientos subjetivos.

Ciertas cosas nos parecen bellas y otras no. Dado lo intensa que resulta nuestra reacción ante la belleza (y ante su opuesto, lo feo), el tema ha sido apasionadamente estudiado por la filosofía. Y también por la ciencia. Así, Pitágoras impulsó el desarrollo de la música al descubrir que los intervalos musicales no son sino subdivisiones matemáticas de las notas.

Grecia también nos dio el descubrimiento de la proporción áurea, también tema de Pitágoras y de Euclides, y que es cuando dos cantidades tienen un cociente de 1.618, la constante denotada con la letra griega “fi”. Esta proporción resulta especialmente atractiva a la vista, y los artistas la han usado en sus obras, desde los templos griegos, como el Partenón, que al parecer está construido sobre una serie de rectángulos dorados, hasta una gran parte de la pintura, arquitectura y escultura renacentista.

La proporción áurea, como se descubrió después, está también presente en la naturaleza, en elementos tan diversos como la concha del cefalópodo arcaico llamado nautilus o las espirales que forman las semillas de los girasoles (o pipas).

Pero nada de esto nos dice qué es lo bello y, menos aún, por qué nos lo parece.

Tuvo que llegar la psicología del siglo XX para empezar a analizar experimentalmente nuestras percepciones y tendencias y abrir el camino a la explicación científica de por qué algo nos parece bello.

La ciencia del arte

Uno de los más importantes neurocientíficos, Vilayanur S. Ramachandran de la Universidad de California, junto con el filósofo William Hirstein, se propuso disparar el estudio neurológico del arte con un artículo publicado en 1999 en el que proponía entender el arte a través, tentativamente, de ocho “leyes de la experiencia artística”, basado en sus estudios del cerebro y, especialmente, de alteraciones neurológicas como las que padecen los savants, que suelen tener una gran facilidad para la creación artística, tanto musical como gráfica.

Para Ramachandran y Hirstein, en la percepción del arte influye ante todo el “efecto de desplazamiento del pico”, que es fundamentalmente nuestra tendencia a la exageración. Si se entrena a un animal para diferenciar un cuadrado y un rectángulo de proporción 2:3, premiándolo por responder ante el rectángulo, la respuesta será aún más intensa ante un rectángulo más alargado, digamos de proporción 4:1. Es lo que hace un caricaturista al destacar los rasgos distintivos y eliminar o reducir los demás, provocando en nosotros el reconocimiento. O lo que hace el artista al destacar unos elementos placenteros y obviar otros.

Entre los aspectos propuestos por Ramachandran y Hirstein, uno de los más apasionantes es el de la metáfora. Cuando se hace una comparación metafórica como “Julieta es el sol”, tenemos que entender (y nos satisface hacerlo) que Julieta es tibia y protectora, no que sea amarilla y llameante. El proceso de comprensión de la analogía es en sí un misterio, pero más aún lo es el por qué, sobre todo desde un punto de vista evolutivo, nos resulta gratificante hacerlo.

Según estos estudiosos, el arte incluye aspectos como el aislamiento de un elemento de entre muchos al cual prestarle atención, la agrupación de elementos y algo que la psicología cognitiva tiene muy en cuenta en el estudio de la belleza humana: la simetría.

El rostro humano

Los estudios sobre la belleza humana también demuestran que la simetría es uno de los requisitos esenciales de la belleza, y esto ocurre en todas las culturas humanas y a todas las edades. Los bebés prefieren observar objetos o rostros simétricos en lugar de los que no lo son.

Otro de los descubrimientos asombrosos sobre el rostro humano es que un “promedio” informático de una gran cantidad de fotografías tiende a ser apreciado como más hermoso que los rostros que le dieron origen. Al menos en cierta medida, consideramos bello lo que tiende a la media.

Las características “infantiles” de las crías de los animales con cuidados paternos (grandes ojos, nariz y boca pequeñas, gran cabeza), disparan en nosotros reacciones de ternura y cuidado. Los estudios han determinado que estos rasgos son también un componente de la belleza, especialmente la femenina. El rostro de la mujer adulta retiene ciertos rasgos infantiles que el hombre pierde con la madurez sexual. Aunque cierta feminidad en el rostro del hombre tambíen es apreciada como un componente de belleza por las mujeres.

A fines de los años 90, los psicólogos Víctor Johnston y Juan Oliver-Rodríguez consiguieron observar al cerebro humano reaccionando ante la belleza, al analizar electroencefalogramas de sujetos que habían visto una serie de rostros. Unas ondas, llamadas “potenciales relacionados con acontecimientos” aumentaban cuando los sujetos observaban rostros que consideraban hermosos.

Aunque no conocemos aún el mecanismo paso a paso, sabemos que la sensación placentera que nos provoca la contemplación de la belleza surge de la activación del sistema límbico, una serie de estructuras en lo más profundo de nuestro cerebro donde residen las sensaciones de placer y de anticipación ante la posibilidad del placer.

Todos los elementos que contribuyen a que una persona sea considerada hermosa o no (y dejamos fuera muchos, como el de la estatura) son independientes de la cultura. Aunque cada cultura realizan sus peculiares variaciones sobre los temas básicos, ninguna considera especialmente bellos la asimetría, la piel defectuosa, los extremos apartados de la media o los rostros femeninos duros, angulosos y sin rasgos infantiles.

Queda por averiguar, por supuesto, qué valor evolutivo tiene nuestra apreciación de la belleza, cómo surgió en nuestra historia, por qué y, sobre todo, cómo funciona paso a paso.

Los biólogos evolutivos proponen que quizá la belleza comunica a los demás la calidad y deseabilidad de su portador. Así parece funcionar en todas las especies que tienen rasgos decorativos para atraer a sus potenciales parejas mostrando su salud, fuerza y capacidades, aunque esto no tenga, en nuestra sociedad tecnológica, el valor que pudo tener hace cien o doscientos mil años.

Esclavos de la belleza

Los estudios demuestran que las personas guapas tienen mejores oportunidades en nuestra sociedad, en la vida profesional y personal. Si queremos allanar el campo de juego debemos entender el mecanismo de este hecho, que hoy parece que no es, como se quiso creer en las últimas décadas, un asunto meramente cultural. Porque finalmente, como dice Ulrich Renz, autor de La ciencia de la belleza, si existiera una píldora para hacernos más bellos... ¿quién no la tomaría?