Comer sin miedo: Mitos, falacias y mentiras sobre la alimentación en el siglo XXI, J.M. Mulet, Destino
A veces parece que el mundo está dispuesto a decirnos cuán dañino y poco saludable es todo lo que comemos. Ya sea en Internet, en el taxi, en las reuniones de amigos, en la radio y la televisión, estamos rodeados de gente que nos informa que tal o cual alimento es en realidad un veneno peligrosísimo, una bomba de relojería cuyo consumo nos puede costar tiempo y calidad de vida. Y la solución que nos ofrecen, generalmente, incluye comer alimentos que llaman “naturales”, “orgánicos” o “ecológicos”
Pero la mayoría de quienes con toda buena fe nos informan de estos temibles peligros no tienen ni la más remota idea de cómo se obtienen esos alimentos, a duras penas han visto el campo en postales y lo más cercano a la agricultura que han hecho es germinar un par de alubias en la escuela cuando eran niños.
J.M. Mulet, investigador y profesor de biotecnología en la Universidad Politécnica de Valencia hace un recorrido por los grandes “miedos alimentarios” que conforman todo un zoo de leyendas urbanas y los desmonta explicándolos de manera amena y clara: ¿en realidad estamos envenenándonos con pesticidas, aditivos alimenticios y misteriosas sustancias químicas?, ¿los cultivos transgénicos causan daños a la salud?, ¿existen las dietas milagro?, ¿los alimentos “naturales” o “ecológicos” realmente son más sanos? La respuesta a todas estas preguntas es que no, pero lo fascinante es averiguar por qué, y descubrir que los alimentos que tenemos hoy a nuestro alcance son los más seguros de toda la historia de la humanidad y tenemos la seguridad científica de que podemos comer sin miedo y que la tecnología es lo más normal en nuestros alimentos desde la invención de la agricultura.
El bonobo y los diez mandamientos, Frans de Waal, Tusquets
Frans de Waal es un experto en comportamiento social de los primates con casi cuarenta años dedicado a explorar la cooperación, el altruismo, la resolución de conflictos y el sentido de la justicia de los primates, como punto de partida para descubrir cuáles son los orígenes evolutivos de nuestro sentido de la moral. Sus investigaciones han demostrado que los primates tienen una idea básica de la moral y saben lo que es la justicia, y en este libro ameno y sorprendente nos presenta cómo se expresa esa idea entre nuestros más cercanos parientes evolutivos, los pacíficos y muy sexuales bonobos.
El nanomundo en tus manos. Las claves de la nanociencia y la nanotecnología, Elena Casero Junquera, Carlos Briones Llorente, Pedro Serena Domingo, José Ángel Martín-Gago, Crítica
En el terreno de lo extremadamente pequeño, entre 0,1 y 100 o millonésimas de milímetro, se está gestando una de las grandes transformaciones del conocimiento. A esa escala hay materiales, estructuras e incluso máquinas formadas átomo a átomo y molécula a molécula con aplicaciones igual en la electrónica, la biotecnología o la medicina. Este libro, de científicos que trabajan en la vanguardia de esta disciplina que apenas cumple treinta años de existir, cuenta la historia, expectativas y riesgos previsibles de la nanotecnología, y nos cuenta cómo podremos disfrutar sus beneficios sin peligro.
Orígenes, Neil deGrasse Tyson y Donald Goldsmith, Paidós
Neil deGrasse Tyson se convirtió en una celebridad a nivel mundial gracias a su participación como presentador de “Cosmos”, la serie que continuó la legendaria incursión televisual de Carl Sagan. Pero Tyson era ya un experimentado divulgador que presentó varios programas en la televisión estadounidense, entre ellos “Orígenes”. La idea detrás de esa serie se plasmaría en este libro que relata los 14 mil millones de años que han transcurrido desde el Big Bang hasta llegar a donde estamos hoy, para conocer nuestros más profundos y genuinos orígenes, el punto de partida de lo que podemos llegar a ser.
Neurozapping. Aprende sobre el cerebro viendo la televisión, José Ramón Alonso, Laetoli
La televisión nos muestra con frecuencia personajes y situaciones que exhiben rasgos que para un neurocientífico son sus áreas de estudio y trastornos comunes. Utilizando la televisión como pretexto, José Ramón Alonso nos muestra muchoque las neurociencias saben sobre nuestro cerebro. ¿Cómo es una tartamudez como la del cerdito Porky? ¿Cómo saben los forenses del CSI en qué mometo se produce la muerte cerebral? ¿Qué es la psicopatía que afecta al enormemente popular Dexter? Un recorrido que nos permite aprender a partir de lo que hemos visto en la televisión y quizá empezar a verla con otros ojos.
En un metro de bosque, David George Haskell, Turner Noema
Un libro que demuestra una vez más lo artificial que resulta la separación entre ciencia y poesía, entre conocimiento y emociones. El autor, biólogo y poeta, asume la actitud del antiguo naturalista, como Darwin, de observar y registrar lo que ocurre en la naturaleza, pero elige para ello un solo metro de bosque al que acude diariamente durante un año para analizarlo desde todos los puntos de vista, ayudado sólo de una lupa y un cuaderno de campo. Aves, lombrices, depredadores, árboles, flores e insectos van pasando por el libro contándonos sus respectivas historias con un estilo rico y cordial.
Un físico en la calle, Eduardo Battaner, EUG
Esta esperada reedición de un libro de 2005 no es un libro de ensayos, sino una novela protagonizada por un profesor de física y sus conversaciones con una estudiante de historia y el tabernero del pueblo que comentan problemas de la física que se presentan en la vida cotidiana, incluso sin que nos demos cuenta de que son problemas de física. Battaner utiliza esta realidad inmediata para presentar, con todo rigor, los principios de la física que subyacen a ellos y cómo se llegó a ellos: la física de fluidos, la astrofísica, la entropía y algunas preocupaciones de la filosofía de la ciencia.
Crónicas de ciencia improbable, Pierre Barthelémy, Academia
No hay preguntas tontas, sino respuestas insuficientes. Se puede entender parte de la realidad desde el cuestionamiento más sencillo, de leyendas como la de que alguien puede encanecer en una noche, de la angustia por elegir siempre la fila más lenta del supermercado, o de cuestionamientos delirantes como la relación del Big Bang del inicio del universo con el molesto hecho de que las tostadas suelen caer del lado de la mantequilla. Barthelémy, popular blogger de ciencia de Le Monde, parte de estas preguntas para un viaje apasionante por el conocimiento en muchas de sus facetas interrelacionadas.
Si tú me dices Gen lo dejo todo, The Big Van Theory, La esfera de los libros
The Big Van Theory es un grupo de monologuistas de comedia que disfrutan de éxito en sus recorridos por España, parte de Europa y América Latina transmitiendo humor con temas científicos desde la singular perspectiva de que ellos mismos, los que nos cuentan temas de la ciencia y del trabajo cotidiano de la investigación, son científicos provenientes de distintos campos. Este libro no sólo reúne algunos de sus mejores monólogos, como, sino que incluye las explicaciones de los temas que les han dado origen, desde los aceleradores de partículas hasta las plantas transgénicas y los ejércitos de bacterias.
Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento
La generación espontánea
Un debate milenario sobre el origen de los seres vivos se resolvió finalmente a lo largo de 200 años de experimentos elegantes y audaces.
¿De dónde salen los seres vivos?
Esta pregunta parecería absurda hoy en día. Los seres vivos, sabemos, nacen de otros seres vivos. Siempre. La vida proviene de la vida y así ha sido desde su inicio, evolucionando de modo incesante y diversificándose de manera asombrosa.
Sin embargo, esto no era tan claro en la antigüedad. Ciertamente muchos animales nacían de otros, incluidos los seres humanos, pero se creía que ése era un caso especial, es decir, que había otras formas de crear seres vivos. Los babilónicos creían que los gusanos surgían espontáneamente del barro, los chinos pensaban que los pulgones nacían así del bambú y los indostanos creían que la suciedad y el sudor daban origen a las moscas.
Esta teoría de la generación espontánea la sintetizó Aristóteles diciendo que algunos seres vivos como muchos insectos emergían de “tierra o materia vegetal en putrfacción”. Y es que si aislamos un lugar donde no haya, digamos, gusanos o escarabajos, al cabo de cierto tiempo aparecían al parecer de la nada gusanos o escarabajos. Y si eso era válido para escarabajos lo podía ser para animales más grandes e incluso para seres humanos.
La hipótesis se mantuvo a lo largo de toda la antigüedad, la Edad Media y el Renacimiento. Todavía en el siglo XVII, el médico y químico flamenco Jan Baptist van Helmont, inventor de la palabra “gas”, publicó una receta para obtener ratones usando un frasco con granos de trigo y una camisa sucia de sudor. Había hecho el experimento y reportó asombrado que los ratones obtenidos con esta receta eran indistinguibles de los que se podían obtener mediante reproducción sexual.
Pero era la época en que el cuestionamiento se liberaba de las antiguas limitaciones y, en 1668, el toscano Francesco Redi, hizo una serie de experimentos cuidadosamente controlados para determinar si las larvas de mosca aparecían por sí solas de la carne en putrefacción, como afirmaba la teoría de la generación espontánea. Utilizó frascos con distintos materiales en putrefacción que dejó sin cubrir y otros frascos iguales cuyas bocas cubrió, unos con una fina tela de algodón y otros con un corcho, y pudo observar que no aparecían larvas de mosca en los que estaban cubiertos, mientras que sí aparecían en los que estaban abiertos. Otros experimentos incluían poner moscas en frascos sellados que contenían carne en descomposición. Si las moscas estaban muertas, no aparecían larvas, si estaban vivas, sí se reproducían.
Algún factor invisible que implicaba moscas vivas era el que transmitía la vida.
En 1674, seis años después de que Redi publicara sus experimentos, un comerciante y pulidor de lentes holandés llamado Anton Van Leeuwenhoek consiguió ver lo invisible: seres diminutos, vida unicelular, huevos de moscas y otros insectos. Se empezaba a prefigurar la respuesta a la controversia que había agitado Redi... aunque los defensores de la vieja hipótesis simplemente bajaron de escala y empezaron a afirmar que los microorganismos eran los que se producían espontáneamente.
Algunos experimentos como el de Louis Joblot, discípulo de Leeuwenhoek mostraban claramente que los microorganismos que se veían en las soluciones experimentales venían del propio aire circundante, pero la idea siguió sin ser aceptada por la mayoría de los naturalistas. Empezaba a aparecer el concepto de “esterilidad”, es decir, de tener un medio básico en el que el experimentador pudiera estar seguro de que no había microorganismos al inicio del experimento, para así constatar el origen de los que pudieran aparecer después.
El sacerdote galés John Needham hizo algunos experimentos hirviendo distintas materias orgánicas con la idea de matar los microorganismos que pudiera haber. Pese a que sellaba los frascos, seguían apareciendo estos seres, lo cual fue ampliamente interpretado como una validación de la generación espontánea.
Entró entonces en el debate el científico italiano Lazzaro Spallanzani, un convencido de que la experimentación rigurosa y repetida era la única forma de alcanzar certezas científicas. El científico, que después descubriría tanto la ecolocalización de los murciélagos como los procesos químicos de la digestión, repitió los experimentos de Needham demostrando que sus técnicas eran insuficientes y que, si las soluciones se hervían el tiempo suficiente y se mantenían protegidas todo el tiempo de la ocntaminacion aérea, no aparecían los microorganismos. Sus resultados, publicados en 1765, fueron ignorados pese a su contundencia.
Pero la realidad práctica se iba imponiendo a las ideas consolidadas. Así, en 1795 el confitero francés Nicholas Appert inventó un método para conservar alimentos. Su sistema implicaba introducir un alimento en un frasco, cerrar éste herméticamente y luego cocinarlo hirviéndolo durante largo tiempo. Sin proponérselo, el cocinero confirmó los resultados de Spallanzani... y de paso ganó el premio de 12 mil francos que ofrecía el ejército francés a quien lograra una gran innovación en las conservas.
Quedaba un resquicio para los defensores de la generación espontánea: argumentaron que era necesario que hubiera aire para que se operara el milagro de la generación de vida. Era su último bastión.
El minucioso trabajo de Spallanzani puso las bases para los experimentos del joven Louis Pasteur publicados en 1864 y que derrumbaron esa última plaza fuerte de la generación espontánea. Usó un preparado de caldos de carne que hirvió exhaustivamente en matraces con un alargado cuello en forma de “S” horizontal. En algunos, rompió el cuello en forma de S para que el contenido quedara expuesto al aire y al polvo, mientras que en otros dejó abierto el cuello, en consecuencia dejando que pasara el aire pero no el polvo que llevaba los microorganismos y que quedaba atrapado en la curvatura del matraz. En los primeros se desarrollaron microorganismos, en los segundos no.
Culminaban así casi 200 años desde los primeros experimentos de Redi. Quedaba entonces sólo un misterio: al menos en un momento, hace unos 3.800 millones de años, la vida sí surgió a partir de la materia inanimada. Quien descubra cómo ocurrió ese proceso pasará a la historia como Pasteur o Spallanzani.
Monumento a Lazzaro Spallanzani. (Foto CC de Massimo Barbieri, via Wikimedia Commons.) |
Esta pregunta parecería absurda hoy en día. Los seres vivos, sabemos, nacen de otros seres vivos. Siempre. La vida proviene de la vida y así ha sido desde su inicio, evolucionando de modo incesante y diversificándose de manera asombrosa.
Sin embargo, esto no era tan claro en la antigüedad. Ciertamente muchos animales nacían de otros, incluidos los seres humanos, pero se creía que ése era un caso especial, es decir, que había otras formas de crear seres vivos. Los babilónicos creían que los gusanos surgían espontáneamente del barro, los chinos pensaban que los pulgones nacían así del bambú y los indostanos creían que la suciedad y el sudor daban origen a las moscas.
Esta teoría de la generación espontánea la sintetizó Aristóteles diciendo que algunos seres vivos como muchos insectos emergían de “tierra o materia vegetal en putrfacción”. Y es que si aislamos un lugar donde no haya, digamos, gusanos o escarabajos, al cabo de cierto tiempo aparecían al parecer de la nada gusanos o escarabajos. Y si eso era válido para escarabajos lo podía ser para animales más grandes e incluso para seres humanos.
La hipótesis se mantuvo a lo largo de toda la antigüedad, la Edad Media y el Renacimiento. Todavía en el siglo XVII, el médico y químico flamenco Jan Baptist van Helmont, inventor de la palabra “gas”, publicó una receta para obtener ratones usando un frasco con granos de trigo y una camisa sucia de sudor. Había hecho el experimento y reportó asombrado que los ratones obtenidos con esta receta eran indistinguibles de los que se podían obtener mediante reproducción sexual.
Pero era la época en que el cuestionamiento se liberaba de las antiguas limitaciones y, en 1668, el toscano Francesco Redi, hizo una serie de experimentos cuidadosamente controlados para determinar si las larvas de mosca aparecían por sí solas de la carne en putrefacción, como afirmaba la teoría de la generación espontánea. Utilizó frascos con distintos materiales en putrefacción que dejó sin cubrir y otros frascos iguales cuyas bocas cubrió, unos con una fina tela de algodón y otros con un corcho, y pudo observar que no aparecían larvas de mosca en los que estaban cubiertos, mientras que sí aparecían en los que estaban abiertos. Otros experimentos incluían poner moscas en frascos sellados que contenían carne en descomposición. Si las moscas estaban muertas, no aparecían larvas, si estaban vivas, sí se reproducían.
Algún factor invisible que implicaba moscas vivas era el que transmitía la vida.
En 1674, seis años después de que Redi publicara sus experimentos, un comerciante y pulidor de lentes holandés llamado Anton Van Leeuwenhoek consiguió ver lo invisible: seres diminutos, vida unicelular, huevos de moscas y otros insectos. Se empezaba a prefigurar la respuesta a la controversia que había agitado Redi... aunque los defensores de la vieja hipótesis simplemente bajaron de escala y empezaron a afirmar que los microorganismos eran los que se producían espontáneamente.
Algunos experimentos como el de Louis Joblot, discípulo de Leeuwenhoek mostraban claramente que los microorganismos que se veían en las soluciones experimentales venían del propio aire circundante, pero la idea siguió sin ser aceptada por la mayoría de los naturalistas. Empezaba a aparecer el concepto de “esterilidad”, es decir, de tener un medio básico en el que el experimentador pudiera estar seguro de que no había microorganismos al inicio del experimento, para así constatar el origen de los que pudieran aparecer después.
El sacerdote galés John Needham hizo algunos experimentos hirviendo distintas materias orgánicas con la idea de matar los microorganismos que pudiera haber. Pese a que sellaba los frascos, seguían apareciendo estos seres, lo cual fue ampliamente interpretado como una validación de la generación espontánea.
Entró entonces en el debate el científico italiano Lazzaro Spallanzani, un convencido de que la experimentación rigurosa y repetida era la única forma de alcanzar certezas científicas. El científico, que después descubriría tanto la ecolocalización de los murciélagos como los procesos químicos de la digestión, repitió los experimentos de Needham demostrando que sus técnicas eran insuficientes y que, si las soluciones se hervían el tiempo suficiente y se mantenían protegidas todo el tiempo de la ocntaminacion aérea, no aparecían los microorganismos. Sus resultados, publicados en 1765, fueron ignorados pese a su contundencia.
Pero la realidad práctica se iba imponiendo a las ideas consolidadas. Así, en 1795 el confitero francés Nicholas Appert inventó un método para conservar alimentos. Su sistema implicaba introducir un alimento en un frasco, cerrar éste herméticamente y luego cocinarlo hirviéndolo durante largo tiempo. Sin proponérselo, el cocinero confirmó los resultados de Spallanzani... y de paso ganó el premio de 12 mil francos que ofrecía el ejército francés a quien lograra una gran innovación en las conservas.
Quedaba un resquicio para los defensores de la generación espontánea: argumentaron que era necesario que hubiera aire para que se operara el milagro de la generación de vida. Era su último bastión.
El minucioso trabajo de Spallanzani puso las bases para los experimentos del joven Louis Pasteur publicados en 1864 y que derrumbaron esa última plaza fuerte de la generación espontánea. Usó un preparado de caldos de carne que hirvió exhaustivamente en matraces con un alargado cuello en forma de “S” horizontal. En algunos, rompió el cuello en forma de S para que el contenido quedara expuesto al aire y al polvo, mientras que en otros dejó abierto el cuello, en consecuencia dejando que pasara el aire pero no el polvo que llevaba los microorganismos y que quedaba atrapado en la curvatura del matraz. En los primeros se desarrollaron microorganismos, en los segundos no.
Culminaban así casi 200 años desde los primeros experimentos de Redi. Quedaba entonces sólo un misterio: al menos en un momento, hace unos 3.800 millones de años, la vida sí surgió a partir de la materia inanimada. Quien descubra cómo ocurrió ese proceso pasará a la historia como Pasteur o Spallanzani.
Consecuencias en la saludLa idea de que todo microorganismo proviene de otro fue la base de toda la microbiología y, entre otras cosas de las prácticas de higiene han sido responsables de evitar millones y millones de muertes y cantidades enormes de sufrimiento, gracias a pioneros como Ignaz Semmelweis, que promovió la higiene de los médicos desde 1847 y de Joseph Lister, que propuso la desinfección del material quirúrgico apenas 3 años después del experimento de Pasteur. |
Aprender de los hilos naturales
La imitación de los productos de la naturaleza y su mejoramiento para atender a nuestras necesidades ha encontrado un obstáculo en los hilos producidos por humildes insectos y arácnidos.
La tecnología ha sido capaz de sintetizar una gran cantidad de sustancias naturales, generalmente no demasiado complejas, para satisfacer necesidades que de otro modo quedarían cubiertas a medias. Algunas sustancias incluso se han mejorado, como es el caso del ácido acetilsalicílico de la aspirina, menos agresivo para el aparato digestivo que el ácido salicílico que se encuentra en la corteza del sauce.
Pero los productos mucho más complejos siguen presentando un desafío enorme para el conocimiento y la ingeniería. Las fibras artificiales que se han producido a partir de fines del siglo XIX, por ejemplo, han sido de enorme importancia en la industria del vestido y en la fabricación de productos como paracaídas, chalecos antibalas y, últimamente, en la producción incluso de carrocerías de automóviles y otros productos donde la fibra de carbono se utiliza como sustituto de metales y otros productos.
Muchas fibras artificiales, pues, han sido incluso superiores a las que tradicionalmente ha utilizado el ser humano para vestirse y otros fines, como el algodón, el lino, el yute, el ratán o el cáñamo. Pero hasta hoy no ha sido posible replicar sintéticamente de modo exacto las fibras naturales. Hay aplicaciones en las que son indispensables porque sus características siguen siendo únicas.
Las primeras fibras artificiales no eran totalmente sintéticas, ya que resultaban de procesar la madera y utilizar sus celulosa para transformarla. En el caso del rayón, es producto de la reacción del disulfuro de carbono con la celulosa, mientras que la segunda fibra artificial, el acetato, es precisamente acetato de celulosa.
Fue en 1930 cuando se desarrolló la primera fibra sintética, el nylon, que tenía por objeto sustituir a la seda en la industria del vestido, y permitió que muchas mujeres pudieran usar medias que antes estaban reservadas a las clases pudientes por estar hechas de seda. Pocos años después, sin embargo, se convertiría en un suministro importante para la Segunda Guerra Mundial utilizándose en paracaídas, cuerdas y mosquiteros, entre otras aplicaciones. Al nylon le siguieron otras fibras que hoy siguen dominando el mercado: el poliéster, el acrílico y la poliolefina.
Todas estas fibras son polímeros, es decir, se toman moléculas orgánicas y se procesan de modo que creen largas cadenas similares a las fibras naturales.
Pero la distancia entre ambas, sintéticas y naturales, sigue siendo abismal. Si las fibras vegetales presentan un desafío importante, las de origen animal han sido verdaderos acertijos. La seda, por ejemplo, que se obtiene de devanar los capullos que forma el gusano de seda para su metamorfosis, se presenta en hilos dobles, y pese a ser ligera mantiene tibio a quien la usa. El nylon, que es químicamente similar pero no igual, al microscopio sus fibras son cilindros lisos y transparentes, es susceptible de estirarse pero no es absorbente, es fresco pero húmedo. ¿Cuáles son los motivos de las diferencias? Pueden ser los componentes, los enlaces químicos, la forma de las fibras, o todos estos elementos conjuntamente.
El problema se complica aún más ante una de las fibras más asombrosas del mundo animal: la seda de las arañas. O, para ser más precisos, los distintos tipos de seda que producen algunas arañas, ya que pueden generar desde una fibra estructural enormemente resistente hasta una seda de captura pegajosa y flexible, una para envolver a sus presas u otras que utilizan para proteger sus huevos. En total se conocen siete tipos distintos de seda de araña, cada una producida por una glándula especializada y que se suministran a través de pequeños orificios llamados hileras, donde captura agua y adopta su forma final. Es un material más fuerte que el acero por peso (y más elástico que la goma de látex) y casi tan fuerte como el acero en fibras de diámetro similar, además de ser extraordinariamente resistente a la tensión.
Como señalan investigadores como Lin Römer y Thomas Scheibel, que han profundizado en la composición de la tela de araña, una de las dificultades de reproducir este extraordinario material es precisamente que es el resultado de millones de años de evolución que le dan una resistencia por encima de las más desarrolladas fibras sintéticas como el Kevlar, empleado en chalecos antibalas. Y además tiene la ventaja de ser antimicrobiana, hipoalergénica (no causa reacciones alérgicas) y es 100% biodegradable, algo que no ocurre forzosamente con las fibras sintéticas existentes. Estas solas características la harían ideal para tejer apósitos, vendas y otros materiales de curación y protección para heridas.
Su compleja estructura está formada por una solución de proteínas que el animal hila y que quedan dispuestas en distintas capas y formas responsables de sus características. Esa complejidad también es responsable de que sólo en los últimos años se haya contado con la tecnología necesaria para conocer la secuencia de los aminoácidos que forman algunos de los tipos de seda de algunas arañas. Porque, presentando una realidad aún más complicada, distintas arañas producen sedas de composiciones distintas.
La búsqueda por reproducir la seda de araña es incluso más intensa que en el caso de otras fibras naturales ya que su potencial industrial es enorme.
Si no es posible reproducir la complejidad de la seda de araña en el laboratorio, y dado que tener granjas de arañas es poco viable por la agresividad que exhiben entre ellas, una de las soluciones que se han planteado es producirla utilizando sus genes. En las últimas tres décadas, investigadores como Randy Lewis, de la Universidad de Utah, han estado transfiriendo los genes responsables de la producción de seda de araña a diversos anfitriones como gusanos de seda, bacterias E. coli como las que ya se utilizan para producir proteínas complejas como la insulina humana, alfalfa y cabras cuya leche contiene proteínas de seda de araña. Una vez teniendo cantidades adecuadas de las proteínas de la fibra, el desafío es hilarlas y procesarlas para obtener un producto similar al que consiguen las arañas sin tanta parafenalia.
Una tela de araña exhibe su resistencia perlada con gotas de rocío. (Foto CC de Tiia Monto, via Wikimedia Commons) |
Pero los productos mucho más complejos siguen presentando un desafío enorme para el conocimiento y la ingeniería. Las fibras artificiales que se han producido a partir de fines del siglo XIX, por ejemplo, han sido de enorme importancia en la industria del vestido y en la fabricación de productos como paracaídas, chalecos antibalas y, últimamente, en la producción incluso de carrocerías de automóviles y otros productos donde la fibra de carbono se utiliza como sustituto de metales y otros productos.
Muchas fibras artificiales, pues, han sido incluso superiores a las que tradicionalmente ha utilizado el ser humano para vestirse y otros fines, como el algodón, el lino, el yute, el ratán o el cáñamo. Pero hasta hoy no ha sido posible replicar sintéticamente de modo exacto las fibras naturales. Hay aplicaciones en las que son indispensables porque sus características siguen siendo únicas.
Las primeras fibras artificiales no eran totalmente sintéticas, ya que resultaban de procesar la madera y utilizar sus celulosa para transformarla. En el caso del rayón, es producto de la reacción del disulfuro de carbono con la celulosa, mientras que la segunda fibra artificial, el acetato, es precisamente acetato de celulosa.
Fue en 1930 cuando se desarrolló la primera fibra sintética, el nylon, que tenía por objeto sustituir a la seda en la industria del vestido, y permitió que muchas mujeres pudieran usar medias que antes estaban reservadas a las clases pudientes por estar hechas de seda. Pocos años después, sin embargo, se convertiría en un suministro importante para la Segunda Guerra Mundial utilizándose en paracaídas, cuerdas y mosquiteros, entre otras aplicaciones. Al nylon le siguieron otras fibras que hoy siguen dominando el mercado: el poliéster, el acrílico y la poliolefina.
Todas estas fibras son polímeros, es decir, se toman moléculas orgánicas y se procesan de modo que creen largas cadenas similares a las fibras naturales.
Pero la distancia entre ambas, sintéticas y naturales, sigue siendo abismal. Si las fibras vegetales presentan un desafío importante, las de origen animal han sido verdaderos acertijos. La seda, por ejemplo, que se obtiene de devanar los capullos que forma el gusano de seda para su metamorfosis, se presenta en hilos dobles, y pese a ser ligera mantiene tibio a quien la usa. El nylon, que es químicamente similar pero no igual, al microscopio sus fibras son cilindros lisos y transparentes, es susceptible de estirarse pero no es absorbente, es fresco pero húmedo. ¿Cuáles son los motivos de las diferencias? Pueden ser los componentes, los enlaces químicos, la forma de las fibras, o todos estos elementos conjuntamente.
El problema se complica aún más ante una de las fibras más asombrosas del mundo animal: la seda de las arañas. O, para ser más precisos, los distintos tipos de seda que producen algunas arañas, ya que pueden generar desde una fibra estructural enormemente resistente hasta una seda de captura pegajosa y flexible, una para envolver a sus presas u otras que utilizan para proteger sus huevos. En total se conocen siete tipos distintos de seda de araña, cada una producida por una glándula especializada y que se suministran a través de pequeños orificios llamados hileras, donde captura agua y adopta su forma final. Es un material más fuerte que el acero por peso (y más elástico que la goma de látex) y casi tan fuerte como el acero en fibras de diámetro similar, además de ser extraordinariamente resistente a la tensión.
Como señalan investigadores como Lin Römer y Thomas Scheibel, que han profundizado en la composición de la tela de araña, una de las dificultades de reproducir este extraordinario material es precisamente que es el resultado de millones de años de evolución que le dan una resistencia por encima de las más desarrolladas fibras sintéticas como el Kevlar, empleado en chalecos antibalas. Y además tiene la ventaja de ser antimicrobiana, hipoalergénica (no causa reacciones alérgicas) y es 100% biodegradable, algo que no ocurre forzosamente con las fibras sintéticas existentes. Estas solas características la harían ideal para tejer apósitos, vendas y otros materiales de curación y protección para heridas.
Su compleja estructura está formada por una solución de proteínas que el animal hila y que quedan dispuestas en distintas capas y formas responsables de sus características. Esa complejidad también es responsable de que sólo en los últimos años se haya contado con la tecnología necesaria para conocer la secuencia de los aminoácidos que forman algunos de los tipos de seda de algunas arañas. Porque, presentando una realidad aún más complicada, distintas arañas producen sedas de composiciones distintas.
La búsqueda por reproducir la seda de araña es incluso más intensa que en el caso de otras fibras naturales ya que su potencial industrial es enorme.
Si no es posible reproducir la complejidad de la seda de araña en el laboratorio, y dado que tener granjas de arañas es poco viable por la agresividad que exhiben entre ellas, una de las soluciones que se han planteado es producirla utilizando sus genes. En las últimas tres décadas, investigadores como Randy Lewis, de la Universidad de Utah, han estado transfiriendo los genes responsables de la producción de seda de araña a diversos anfitriones como gusanos de seda, bacterias E. coli como las que ya se utilizan para producir proteínas complejas como la insulina humana, alfalfa y cabras cuya leche contiene proteínas de seda de araña. Una vez teniendo cantidades adecuadas de las proteínas de la fibra, el desafío es hilarlas y procesarlas para obtener un producto similar al que consiguen las arañas sin tanta parafenalia.
Proyecto comercial o bulo?Una empresa japonesa ha afirmado que tiene un procedimiento comercialmente viable para producir seda de araña destinada a aplicaciones tan distintas como vasos sanguíneos y ligamentos artificiales, entre otras. Su base es la fibroína, la principal proteína de la seda de araña, producida por bacterias, convertida en polvo e hilada, aunque, asegura la empresa, puede convertirse también en películas, gel, espumas y nanofibras. |
El Niño, la Niña y el mar
El clima, la atmósfera y los océanos, sus temperaturas y movimiento están estrechamente relacionados a nivel mundial, y una de las más claras expresiones de esta unión son los fenómenos de El Niño y La Niña.
Cuenta el meteorólogo de Princeton George Philander que fueron anónimos marineros y pescadores peruanos quienes dieron el nombre de “El Niño” a una corriente de agua cálida que aparecía frente a las costas de su país, en el Océano Pacífico, hacia fines de año. El nombre se refería a la fecha de Navidad, como si la conmemoración del nacimiento de Cristo tuviera alguna influencia en las corrientes marítimas.
En 1891, la Sociedad Geográfica de Lima, Perú, publicaba un artículo de Luis Carranza señalando que se había observado esa contracorriente del Pacífico entre los puertos de Paita y Pacasmayo y especulando que el fenómeno seguramente tenía influencia en el clima de esa parte del mundo.
No fue sino hasta la década de 1960 cuando los meteorólogos tuvieron las observaciones necesarias para determinar que el fenómeno era mucho más extendido y complejo, y de alcances muchísimo mayores en la climatología del planeta.
El fenómeno es una gigantesca oscilación en la temperatura de la superficie del Pacífico en la zona del trópico, que puede variar hasta en 4 ºC, provocando cambios importantes en los patrones de vientos y lluvia del occidente de América del Sur. Este cambio ha sido mucho mejor entendido desde que en 1969
Actualmente, se conoce como “El Niño” a la fase cálida de la oscilación, aproximadamente, mientras que la fase fría ha sido llamada, por contraparte, “La Niña”. El nombre completo del evento en la actualidad es El Niño/Oscilación del Sur , o ENOS, y suele tener una duración de entre 8 y 12 meses y ocurre en períodos de entre tres y cinco años. Estas son observaciones generales, pues en ocasiones el evento puede durar años, provocando efectos mucho más agudos.
El primer y más notable efecto que tiene el aumento de la temperatura en la fase de El Niño es que la presión atmosférica disminuye en la zona oriental del Pacífico Central Ecuatorial y aumenta en la occidental, provocando una importante disminución en los vientos del Este.
El Niño afecta al Norte de América en el invierno siguiente a su aparición, provocando temperaturas más cálidas que la media en Canadá occidental y central, y por todo el oeste y el norte de los Estados Unidos. Además, ocasiona que aumenten las lluvias en la costa del Golfo de México y disminuyan en el noroeste y la zona costera de Norteamérica. La Niña provoca efectos esencialmente opuestos en el clima mundial.
Igualmente son opuestos los efectos de la fase cálida y la fría del ENOS. Durante El Niño, hay más huracanes en el Pacífico que afectan a América del Norte, principalmente Estados Unidos y México, y menos huracanes en la zona del Caribe, en la costa opuesta del continente, en el Atlántico. Al mismo tiempo, la costa del norte de Suramérica, en países como Colombia, Bolivia, Perú y Ecuador es más húmeda y propensa a inundaciones, lo que ha exigido que estos países incluso organicen el tipo de cultivos que se pueden plantar en distintas zonas para evitar la pérdida de cosechas fundamentales para la alimentación, máxime tratándose de países con elevados índices de pobreza.
En su desarrollo, el ENOS tiene efectos en el clima a nivel mundial. Durante El Niño, puede aumentar o disminuir la cantidad de lluvias igual en la India que en el África oriental o los países del norte de Europa, o seauías en Indonesia, China y Australia. Los cambios provocados por el ciclo también dependen de la estación del año, y de otros ciclos climatológicos poco conocidos fuera del mundo de la meteorología.
Las condiciones meteorológicas, por supuesto, influyen en las formas de vida del planeta. Y una de las observaciones más sugerentes es que cuando ocurre un evento ENOS cambia la incidencia de enfermedades epidémicas, lo que podría indicar que los microorganismos que las provocan y, probablemente, las personas que las padecen, podrían ser sensibles a los cambios de su entorno de una forma aún no explicada.
Así, por ejemplo, Jeffrey Shaman, científico de la Universidad de Columbia, explica cómo las separaciones y reuniones de poblaciones de aves migratorias causadas por los cambios del clima debido al ENOS favorecen la aparición de nuevas cepas de virus de la gripe o influenza, del que las aves suelen ser un vector. Si una población se divide en dos y el virus evoluciona independientemente en ambas, al reunirse aumentan la posibilidad de que los dos grupos de virus intercambien ADN, formando nuevas variedades que pueden producir pandemias impredecibles.
Aunque aún no se ha establecido una relación causa-efecto, Shaman señala como un indicio el que hubiera condiciones de La Niña (fase fría) en el mundo inmediatamente antes de la mortal epidemia de gripe de 1918, y que lo mismo pasara previo a las otras pandemias de gripe notables de los últimos 100 años, en 1957, 1968 y 2009.
De comprobarse esta hipótesis, podría predecirse la aparición de algunas pandemias, no sólo de gripe, sino de malaria, cólera, dengue y fiebre del Rift, entre otras y en lugares tan apartados como África y Australia, observando el momento en el que un evento ENSO llega a la fase de La Niña.
Lo realmente difícil es predecir cuándo se presentará un evento ENSO y qué duración y fuerza tendrá. Para poderlo hacer, es necesario que los expertos en meteorología y climatología descubran las causas que lo desencandenan. Desde el año 2000, se ha presentado en 2002–2003, 2004–2005, 2006–2007 y 2009–2010. Ninguno de ellos ha tenido la intensidad que tuvo el evento de 1997–1998, considerado el acontecimiento climatológico más importante del siglo XX, y cuya intensidad fue tal que, por ejemplo, provocó el invierno más cálido en la parte continental de los Estados Unidos desde que empezaron a llevarse registros meteorológicos.
Lo más desconcertante puede ser que, mientras trabajan para desentrañar las causas de este fenómeno, cuyo desarrollo se ha llegado a entender con enorme claridad durante los últimos 50 años, los científicos del clima están conscientes de que podría no haber una causa precisa, sino que el colosal evento ENSO sea, simplemente, un fenómeno aleatorio del complejo equilibrio de nuestro planeta.
Tabla de temperaturas anormales de la superficie del océano durante El Niño de 1997. (Imagen D.P. National Centers for Environmental Prediction vía Wikimedia Commons.) |
En 1891, la Sociedad Geográfica de Lima, Perú, publicaba un artículo de Luis Carranza señalando que se había observado esa contracorriente del Pacífico entre los puertos de Paita y Pacasmayo y especulando que el fenómeno seguramente tenía influencia en el clima de esa parte del mundo.
No fue sino hasta la década de 1960 cuando los meteorólogos tuvieron las observaciones necesarias para determinar que el fenómeno era mucho más extendido y complejo, y de alcances muchísimo mayores en la climatología del planeta.
El fenómeno es una gigantesca oscilación en la temperatura de la superficie del Pacífico en la zona del trópico, que puede variar hasta en 4 ºC, provocando cambios importantes en los patrones de vientos y lluvia del occidente de América del Sur. Este cambio ha sido mucho mejor entendido desde que en 1969
Actualmente, se conoce como “El Niño” a la fase cálida de la oscilación, aproximadamente, mientras que la fase fría ha sido llamada, por contraparte, “La Niña”. El nombre completo del evento en la actualidad es El Niño/Oscilación del Sur , o ENOS, y suele tener una duración de entre 8 y 12 meses y ocurre en períodos de entre tres y cinco años. Estas son observaciones generales, pues en ocasiones el evento puede durar años, provocando efectos mucho más agudos.
El primer y más notable efecto que tiene el aumento de la temperatura en la fase de El Niño es que la presión atmosférica disminuye en la zona oriental del Pacífico Central Ecuatorial y aumenta en la occidental, provocando una importante disminución en los vientos del Este.
El Niño afecta al Norte de América en el invierno siguiente a su aparición, provocando temperaturas más cálidas que la media en Canadá occidental y central, y por todo el oeste y el norte de los Estados Unidos. Además, ocasiona que aumenten las lluvias en la costa del Golfo de México y disminuyan en el noroeste y la zona costera de Norteamérica. La Niña provoca efectos esencialmente opuestos en el clima mundial.
Igualmente son opuestos los efectos de la fase cálida y la fría del ENOS. Durante El Niño, hay más huracanes en el Pacífico que afectan a América del Norte, principalmente Estados Unidos y México, y menos huracanes en la zona del Caribe, en la costa opuesta del continente, en el Atlántico. Al mismo tiempo, la costa del norte de Suramérica, en países como Colombia, Bolivia, Perú y Ecuador es más húmeda y propensa a inundaciones, lo que ha exigido que estos países incluso organicen el tipo de cultivos que se pueden plantar en distintas zonas para evitar la pérdida de cosechas fundamentales para la alimentación, máxime tratándose de países con elevados índices de pobreza.
En su desarrollo, el ENOS tiene efectos en el clima a nivel mundial. Durante El Niño, puede aumentar o disminuir la cantidad de lluvias igual en la India que en el África oriental o los países del norte de Europa, o seauías en Indonesia, China y Australia. Los cambios provocados por el ciclo también dependen de la estación del año, y de otros ciclos climatológicos poco conocidos fuera del mundo de la meteorología.
Las condiciones meteorológicas, por supuesto, influyen en las formas de vida del planeta. Y una de las observaciones más sugerentes es que cuando ocurre un evento ENOS cambia la incidencia de enfermedades epidémicas, lo que podría indicar que los microorganismos que las provocan y, probablemente, las personas que las padecen, podrían ser sensibles a los cambios de su entorno de una forma aún no explicada.
Así, por ejemplo, Jeffrey Shaman, científico de la Universidad de Columbia, explica cómo las separaciones y reuniones de poblaciones de aves migratorias causadas por los cambios del clima debido al ENOS favorecen la aparición de nuevas cepas de virus de la gripe o influenza, del que las aves suelen ser un vector. Si una población se divide en dos y el virus evoluciona independientemente en ambas, al reunirse aumentan la posibilidad de que los dos grupos de virus intercambien ADN, formando nuevas variedades que pueden producir pandemias impredecibles.
Aunque aún no se ha establecido una relación causa-efecto, Shaman señala como un indicio el que hubiera condiciones de La Niña (fase fría) en el mundo inmediatamente antes de la mortal epidemia de gripe de 1918, y que lo mismo pasara previo a las otras pandemias de gripe notables de los últimos 100 años, en 1957, 1968 y 2009.
De comprobarse esta hipótesis, podría predecirse la aparición de algunas pandemias, no sólo de gripe, sino de malaria, cólera, dengue y fiebre del Rift, entre otras y en lugares tan apartados como África y Australia, observando el momento en el que un evento ENSO llega a la fase de La Niña.
Lo realmente difícil es predecir cuándo se presentará un evento ENSO y qué duración y fuerza tendrá. Para poderlo hacer, es necesario que los expertos en meteorología y climatología descubran las causas que lo desencandenan. Desde el año 2000, se ha presentado en 2002–2003, 2004–2005, 2006–2007 y 2009–2010. Ninguno de ellos ha tenido la intensidad que tuvo el evento de 1997–1998, considerado el acontecimiento climatológico más importante del siglo XX, y cuya intensidad fue tal que, por ejemplo, provocó el invierno más cálido en la parte continental de los Estados Unidos desde que empezaron a llevarse registros meteorológicos.
Lo más desconcertante puede ser que, mientras trabajan para desentrañar las causas de este fenómeno, cuyo desarrollo se ha llegado a entender con enorme claridad durante los últimos 50 años, los científicos del clima están conscientes de que podría no haber una causa precisa, sino que el colosal evento ENSO sea, simplemente, un fenómeno aleatorio del complejo equilibrio de nuestro planeta.
Calentamiento globalAunque los datos son escasos para tener una certeza suficiente, algunos científicos señalan que los eventos ENSO se están presentando con mayor frecuencia como respuesta al calentamiento global ocasionado por el efecto invernadero. Algunos científicos han propuesto un modelo según el cual las instancias extremas de El Niño podrían duplicarse, con los consecuentes problemas socioeconómicos y de salud a nivel mundial. |
Mary Anning, la hija del carpintero
Los fósiles encontrados, identificados y dados a conocer por esta mujer trabajadora británica dieron forma al trabajo de la paleontología del siglo XIX.
La imagen está sobrepoblada. Dos pterodáctilos se atacan en el cielo. Un ancestro de los cocodrilos está al borde del agua, donde una abigarrada colección de ictiosaurios, plesiosaurios, tortugas, peces, calamares y algunos seres prehistóricos más fantasía que reconstrucción paleontológica, se dedican principalmente a comerse unos a otros,
Se trata de una acuarela de 1830, “Duria antiquior” o “Un Dorset más antiguo”, por la región de la costa sur de la isla de Gran Bretaña. Su autor fue el pintor y geólogo Henry De la Beche y fue el primer intento de la historia en tratar de representar la vida prehistórica según la evidencia fósil disponible. Y gran parte de ella había sido encontrada, identificada, descrita, dibujada y reconstruida por Mary Anning, que ya por entonces era considerada la mayor experta en hallazgos de fósiles del mundo, pese a tener apenas 31 años de edad.
Mary Anning nació en en 1799 en la costa de Dorset, en el pueblo de Lyme Regis, hija de un carpintero de la localidad llamado Richard y de su esposa Mary, de cuyos hijos sólo sobrevivirían Mary y su hermano Joseph.
Lo que hoy es Lyme Regis estuvo, hace 200 millones de años, cerca del Ecuador, en el fondo de un mar cálido y lleno de vida. Muchos animales se vieron enterrados en el fondo lodoso y se fosilizaron mientras la zona migraba hasta su actual posición. Lyme está por tanto rodeado de los acantilados en que se convirtió ese fondo marino lodoso, verdaderas minas de fósiles.
El padre de Mary dedicaba parte de su tiempo a buscar, entre las rocas desprendidas de los acantilados, unas maravillosas “curiosidades”: los fósiles de esos seres marinos, que empezaban a dejar de ser misteriosos y a ser estudiados para tratar de saber cómo había sido la vida en el pasado y cómo habían aparecido y desaparecido esos fantásticos seres. Así la venta de fósiles era también una fuente de ingresos adicional para los Manning, que llevaban a sus hijos, desde pequeños, a buscar fósiles.
Estas habilidades serían la única forma de supervivencia de la familia cuando Richard Manning murió en 1810, dejando a su familia totalmente desprotegida. Mary y sus dos hijos emprendieron un pequeño negocio como vendedores de fósiles que les permitió escapar a la miseria, aunque con frecuencia pasarían épocas de gran escasez.
Cuando Mary tenía 12 años, la familia encontró y publicitó el hallazgo de un fósil completo de ictiosaurio, un reptil jurásico en forma de pez. El descubrimiento fue pronto adquirido por Henry Hoste Henley, un noble londinense aficionado a la geología.
Entre los hallazgos que realizó Mary Anning a lo largo de su carrera está el de los coprolitos, heces fecales fosilizadas que ofrecen importante información sobre la dieta de los animales del pasado. Fue la primera persona que identificó en Inglaterra un fósil que halló como perteneciente a un pterosaurio. Encontró también curiosidades como un fósil de sepia que aún tenía en su interior la tinta del animal.
Alrededor de 1820, Mary realizó uno de sus más importantes descubrimientos: un fósil casi completo de plesiosaurio. El animal había sido descrito a partir de restos fragmentarios, pero grandes expertos en fósiles como el francés Georges Cuvier se mostraban escépticos ante la disparidad del tamaño del reptil respecto de su pequeñísima cabeza. Al enterarse, Cuvier dejó de lado su escepticismo y declaró que el descubrimiento de Anning era de primera importancia. Comenzó entonces una correspondencia con la buscadora de fósiles que duraría hasta la muerte de ésta. El plesiosaurio de Mary aún se puede ver en el Museo de Historia Natural de Londres.
Cada vez más científicos consultaban a Mary Anning y a visitar los acantilados de Lyme Regis, no sólo por su habilidad para encontrar fósiles, sino porque la mujer, sin ninguna educación formal, había aprendido por su cuenta mucho de lo que sabían los expertos de la época y había desarrollado una habilidad propia de los palentólogos que incluso hoy puede asombrarnos: la capacidad de saber mucho acerca de un animal simplemente a partir de un fragmento.
Sobre ello, la acaudalada Harriet Silvester escribió que la joven, a la que conoció en 1824 “se ha familiarizado tan exhaustivamente con la ciencia que en el momento en que encuentra cualquier hueso sabe a qué tribu pertenece”. Y, subrayando la importancia desusada que había logrado tener Mary en una Inglaterra donde la mujer y los pobres eran considerados prácticamente desechables, señala que “tiene la costumbre de escribir y hablar con profesores y otros hombres inteligentes sobre el tema, y todos reconocen que ella entiende más de la ciencia que ninguna otra persona en el reino”.
Pero la fama y el reconocimiento no pagaban las facturas, y la familia debía depender de sus relaciones para mantenerse a flote cuando el negocio de los fósiles tenía baches, ya fuera porque no se encontraban fósiles relevantes durante un tiempo o porque no había compradores.
El coleccionista Thomas Birch, por ejemplo, que había comprado numerosos fósiles a los Anning, decidió en un momento dado subastarlos para dar a la familia lo recaudado. Tiempo después, el pintor de “Duria antiquior”, por ejemplo, mandó hacer una litografía de su acuarela y vendió copias de ella a amigos y colegas, donándole a Mary lo obtenido.
Al final de su vida, sin embargo, llegó cierto reconocimiento. Nueve años antes de su muerte, la Asociación Británica para el Avance de la Ciencia le concedió una anualidad, y la Sociedad Geológica de Londres le asignó también un ingreso periódico. Y en los últimos años de su vida pudo leer que la revista de Charles Dickens, “All Year Round” decía de ella: “la hija del carpintero se ha ganado un nombre, y se ha merecido ganarlo”. Murió en 1847 de cáncer de mama.
Al conmemorar sus 350 años de existencia, la Royal Society de Londres, que no admitió mujeres sino hasta 1945, pidió a un grupo de científicas e historiadoras de la sociedad que nombraran a las diez mujeres británicas más influyentes de la historia de la ciencia, y consideraron que una de ellas era Mary Anning, la hija del carpintero.
Dura antiquior, pintura de Henry De la Beche, 1830. (Imagen D.P. Museo de Sedgwick vía Wikimedia Commons.) |
Se trata de una acuarela de 1830, “Duria antiquior” o “Un Dorset más antiguo”, por la región de la costa sur de la isla de Gran Bretaña. Su autor fue el pintor y geólogo Henry De la Beche y fue el primer intento de la historia en tratar de representar la vida prehistórica según la evidencia fósil disponible. Y gran parte de ella había sido encontrada, identificada, descrita, dibujada y reconstruida por Mary Anning, que ya por entonces era considerada la mayor experta en hallazgos de fósiles del mundo, pese a tener apenas 31 años de edad.
Mary Anning nació en en 1799 en la costa de Dorset, en el pueblo de Lyme Regis, hija de un carpintero de la localidad llamado Richard y de su esposa Mary, de cuyos hijos sólo sobrevivirían Mary y su hermano Joseph.
Lo que hoy es Lyme Regis estuvo, hace 200 millones de años, cerca del Ecuador, en el fondo de un mar cálido y lleno de vida. Muchos animales se vieron enterrados en el fondo lodoso y se fosilizaron mientras la zona migraba hasta su actual posición. Lyme está por tanto rodeado de los acantilados en que se convirtió ese fondo marino lodoso, verdaderas minas de fósiles.
El padre de Mary dedicaba parte de su tiempo a buscar, entre las rocas desprendidas de los acantilados, unas maravillosas “curiosidades”: los fósiles de esos seres marinos, que empezaban a dejar de ser misteriosos y a ser estudiados para tratar de saber cómo había sido la vida en el pasado y cómo habían aparecido y desaparecido esos fantásticos seres. Así la venta de fósiles era también una fuente de ingresos adicional para los Manning, que llevaban a sus hijos, desde pequeños, a buscar fósiles.
Estas habilidades serían la única forma de supervivencia de la familia cuando Richard Manning murió en 1810, dejando a su familia totalmente desprotegida. Mary y sus dos hijos emprendieron un pequeño negocio como vendedores de fósiles que les permitió escapar a la miseria, aunque con frecuencia pasarían épocas de gran escasez.
Retrato de Mary Anning circa 1841. (Imagen D.P. del Museo de Historia Natural de Londres, via Wikimedia Commons) |
Entre los hallazgos que realizó Mary Anning a lo largo de su carrera está el de los coprolitos, heces fecales fosilizadas que ofrecen importante información sobre la dieta de los animales del pasado. Fue la primera persona que identificó en Inglaterra un fósil que halló como perteneciente a un pterosaurio. Encontró también curiosidades como un fósil de sepia que aún tenía en su interior la tinta del animal.
Alrededor de 1820, Mary realizó uno de sus más importantes descubrimientos: un fósil casi completo de plesiosaurio. El animal había sido descrito a partir de restos fragmentarios, pero grandes expertos en fósiles como el francés Georges Cuvier se mostraban escépticos ante la disparidad del tamaño del reptil respecto de su pequeñísima cabeza. Al enterarse, Cuvier dejó de lado su escepticismo y declaró que el descubrimiento de Anning era de primera importancia. Comenzó entonces una correspondencia con la buscadora de fósiles que duraría hasta la muerte de ésta. El plesiosaurio de Mary aún se puede ver en el Museo de Historia Natural de Londres.
Cada vez más científicos consultaban a Mary Anning y a visitar los acantilados de Lyme Regis, no sólo por su habilidad para encontrar fósiles, sino porque la mujer, sin ninguna educación formal, había aprendido por su cuenta mucho de lo que sabían los expertos de la época y había desarrollado una habilidad propia de los palentólogos que incluso hoy puede asombrarnos: la capacidad de saber mucho acerca de un animal simplemente a partir de un fragmento.
Sobre ello, la acaudalada Harriet Silvester escribió que la joven, a la que conoció en 1824 “se ha familiarizado tan exhaustivamente con la ciencia que en el momento en que encuentra cualquier hueso sabe a qué tribu pertenece”. Y, subrayando la importancia desusada que había logrado tener Mary en una Inglaterra donde la mujer y los pobres eran considerados prácticamente desechables, señala que “tiene la costumbre de escribir y hablar con profesores y otros hombres inteligentes sobre el tema, y todos reconocen que ella entiende más de la ciencia que ninguna otra persona en el reino”.
Pero la fama y el reconocimiento no pagaban las facturas, y la familia debía depender de sus relaciones para mantenerse a flote cuando el negocio de los fósiles tenía baches, ya fuera porque no se encontraban fósiles relevantes durante un tiempo o porque no había compradores.
El coleccionista Thomas Birch, por ejemplo, que había comprado numerosos fósiles a los Anning, decidió en un momento dado subastarlos para dar a la familia lo recaudado. Tiempo después, el pintor de “Duria antiquior”, por ejemplo, mandó hacer una litografía de su acuarela y vendió copias de ella a amigos y colegas, donándole a Mary lo obtenido.
Al final de su vida, sin embargo, llegó cierto reconocimiento. Nueve años antes de su muerte, la Asociación Británica para el Avance de la Ciencia le concedió una anualidad, y la Sociedad Geológica de Londres le asignó también un ingreso periódico. Y en los últimos años de su vida pudo leer que la revista de Charles Dickens, “All Year Round” decía de ella: “la hija del carpintero se ha ganado un nombre, y se ha merecido ganarlo”. Murió en 1847 de cáncer de mama.
Al conmemorar sus 350 años de existencia, la Royal Society de Londres, que no admitió mujeres sino hasta 1945, pidió a un grupo de científicas e historiadoras de la sociedad que nombraran a las diez mujeres británicas más influyentes de la historia de la ciencia, y consideraron que una de ellas era Mary Anning, la hija del carpintero.
El nombre latinoPese a su relevancia en la historia de la paleontología británica, y aunque numerosos científicos y coleccionistas de fósiles daban con frecuencia nombre a las especies descubiertas, no fue sino hasta 1878, 31 años después de su muerte, que alguien dio a una especie un nombre destinado a homenajear a Mary Anning, el Tricycloseris anningi, una especie de coral. Sin embargo, aún no se le ha dado el nombre de la paleontóloga a un reptil fósil británico, lo que sería el homenaje más justo. |
Nuestro cambiante cerebro
Una vez más, algo que los datos parciales indicaban que era irreversible, incurable y definitivo resulta no serlo. Y entonces es posible que los ciegos vean y los paralíticos anden, entre otras cosas.
Las parálisis, como la que sufrió este paciente, se producen cuando se interrumpe la comunicación de nuestro sistema nervioso central con los músculos encargados del movimiento. Es decir, la persona puede pensar en moverse y puede enviar las señales necesarias para efectuar el movimiento. En condiciones normales, los impulsos nerviosos para el movimiento viajarían de hasta las neuronas motoras de la médula espinal, cuyos largos axones se extienden a lo largo de las vías nerviosas hasta tocar las células de los músculos, donde el impulso nervioso de cada neurona provoca que una célula motora se contraiga. Actuando concertadamente, las neuronas motoras consiguen que se contraigan los músculos con un control tan delicado como el de una bailarina o un neurocirujano.
Cuando hay una lesión, generalmente a nivel de la médula espinal, de donde parten los nervios que controlan todo el cuerpo, esos impulsos nerviosos no llegan a los músculos. Los nervios se han cortado y no se pueden regenerar.
Pero los nervios seccionados no sólo transmiten los impulsos del sistema nervioso central a los músculos en el caso de movimientos voluntarios... también llevan, en sentido contrario, otras fibras nerviosas que transmiten la información sensorial al sistema nervioso: posición, temperatura, dolor, tacto, etc. El miembro paralizado generalmente es además insensible, y se pierde el control de otros músculos como los esfínteres que regulan la salida de desechos del cuerpo. Parálisis e insensibilidad suelen ir de la mano.
Lo que hicieron los médicos bajo la dirección de Geoffrey Raisman, del University College London, fue trasplantar un grupo de células del bulbo olfatorio del paciente al lugar donde la médula espinal estaba seccionada. Las células de la glia envolvente del bulbo olfatorio se pueden cultivar en el laboratorio como cualquier otro tejido, para luego ser inyectadas en el lugar de la lesión. Las células siguieron regenerándose y, con ayuda de unas fibras nerviosas del tobillo del propio paciente, permitieron que se restableciera la comunicación perdida por el corte.
Lo que se hizo fue establecer un camino para que las neuronas a ambos lados del corte
Uno de los supuestos básicos de las neurociencias fue establecido precisamente por uno de los fundadores de la disciplina, el Premio Nobel Santiago Ramón y Cajal, cuando dijo: “una vez terminado el desarrollo, las fuentes de crecimiento y regeneración de los axones y dendritas se secan irrevocablemente. En los cerebros adultos las vías nerviosas son algo fijo, terminado, inmutable. Todo puede morir, nada puede regenerarse. Corresponde a la ciencia del futuro cambiar, si es posible, este cruel decreto”.
En otras palabras, el total de neuronas que va a tener un ser humano queda determinado en su niñez. El propio Ramón y Cajal adelantó que los procesos de aprendizaje de nuevas habilidades que venían después, y a lo largo de toda la vida, se realizaban mediante la creación de nuevas conexiones por el crecimiento progresivo de las dendritas de las neuronas, esas extensiones que se conectan a los axones de otras neuronas formando los circuitos de nuestro cerebro, donde cada neurona tiene un solo axón y hasta miles de dendritas.
Desde la década de 1960 empezaron a aparecer estudios que indicaban que en algunos casos las neuronas se reproducían y migraban a zonas concretas del encéfalo. Y a fines de la década de 1990 se confirmó que esta reproducción, llamada “neurogénesis”, definitivamente ocurría en el sistema nervioso central humano, al menos en pequeña medida en algunas zonas de nuestro encéfalo, como el hipocampo.
Aunque esta reproducción es demasiado escasa como para representar una esperanza de “reparar el sistema nervioso” por sí misma, indica el camino para que se obtengan neuronas nuevas de otra forma.
Entran aquí las células madre, células no diferenciadas de nuestro cuerpo que, al desarrollarse en diversas circunstancias y medios, son capaces de convertirse en células de cualquier tejido: de la piel, de los huesos, de los pulmones... y del sistema nervioso. De hecho, las responsables de la neurogénesis en el encéfalo adulto son células madre neurales.
Conocidas por el público en teneral sobre todo por el debate debido a que originalmente sólo se podían obtener de tejido fetal, abortado voluntaria o involuntariamente, hoy las células madre se pueden obtener de donantes adultos e incluso se pueden tomar células diferenciadas y someterlas a procedimientos que las hacen volver a ser “pluripotentes”. Las células madre son una esperanza no sólo para la regeneración de distintos órganos, sino en la investigación y estudio de nuevos medicamentos. Al menos en teoría, se pueden utilizar para crear órganos o tejidos para autotrasplantes que nuestro cuerpo no podría rechazar.
En el caso de las células madre neurales, la posibilidad es la de efectivamente reparar no sólo los axones y fibras nerviosas, sino sustituir neuronas para recuperar funciones perdidas en ciertas zonas del sistema nervioso o espacios concretos, como las células de la mácula de la retina, cuya degeneración lleva a numerosos casos de ceguera.
Sólo en los últimos años han conseguido los científicos producir neuronas que pueden enviar y recibir impulsos nerviosos, especialmente neuronas motoras como las que se activan para conseguir el movimiento de los músculos. Además de producir otras células nerviosas que, sin estar implicadas en la transmisión de impulsos nerviosos, son fundamentales para el funcionamiento del sistema, como los astrocitos que protegen a las neuronas.
Nuestro sistema nervioso, finalmente, no es tan rígido como postulaba Ramón y Cajal, lo que sabemos porque, como él mismo previó, la ciencia del futuro, que es nuestro presente, ese cruel decreto. Nuestro cerebro cambia, crea conexiones, produce nuevas neuronas, puede aprovechar la ayuda externa para restablecer conexiones perdidas por lesiones o enfermedades, aprende, recuerda y evoluciona día con día.
Las parálisis, como la que sufrió este paciente, se producen cuando se interrumpe la comunicación de nuestro sistema nervioso central con los músculos encargados del movimiento. Es decir, la persona puede pensar en moverse y puede enviar las señales necesarias para efectuar el movimiento. En condiciones normales, los impulsos nerviosos para el movimiento viajarían de hasta las neuronas motoras de la médula espinal, cuyos largos axones se extienden a lo largo de las vías nerviosas hasta tocar las células de los músculos, donde el impulso nervioso de cada neurona provoca que una célula motora se contraiga. Actuando concertadamente, las neuronas motoras consiguen que se contraigan los músculos con un control tan delicado como el de una bailarina o un neurocirujano.
Cuando hay una lesión, generalmente a nivel de la médula espinal, de donde parten los nervios que controlan todo el cuerpo, esos impulsos nerviosos no llegan a los músculos. Los nervios se han cortado y no se pueden regenerar.
Pero los nervios seccionados no sólo transmiten los impulsos del sistema nervioso central a los músculos en el caso de movimientos voluntarios... también llevan, en sentido contrario, otras fibras nerviosas que transmiten la información sensorial al sistema nervioso: posición, temperatura, dolor, tacto, etc. El miembro paralizado generalmente es además insensible, y se pierde el control de otros músculos como los esfínteres que regulan la salida de desechos del cuerpo. Parálisis e insensibilidad suelen ir de la mano.
Lo que hicieron los médicos bajo la dirección de Geoffrey Raisman, del University College London, fue trasplantar un grupo de células del bulbo olfatorio del paciente al lugar donde la médula espinal estaba seccionada. Las células de la glia envolvente del bulbo olfatorio se pueden cultivar en el laboratorio como cualquier otro tejido, para luego ser inyectadas en el lugar de la lesión. Las células siguieron regenerándose y, con ayuda de unas fibras nerviosas del tobillo del propio paciente, permitieron que se restableciera la comunicación perdida por el corte.
Lo que se hizo fue establecer un camino para que las neuronas a ambos lados del corte
Uno de los supuestos básicos de las neurociencias fue establecido precisamente por uno de los fundadores de la disciplina, el Premio Nobel Santiago Ramón y Cajal, cuando dijo: “una vez terminado el desarrollo, las fuentes de crecimiento y regeneración de los axones y dendritas se secan irrevocablemente. En los cerebros adultos las vías nerviosas son algo fijo, terminado, inmutable. Todo puede morir, nada puede regenerarse. Corresponde a la ciencia del futuro cambiar, si es posible, este cruel decreto”.
En otras palabras, el total de neuronas que va a tener un ser humano queda determinado en su niñez. El propio Ramón y Cajal adelantó que los procesos de aprendizaje de nuevas habilidades que venían después, y a lo largo de toda la vida, se realizaban mediante la creación de nuevas conexiones por el crecimiento progresivo de las dendritas de las neuronas, esas extensiones que se conectan a los axones de otras neuronas formando los circuitos de nuestro cerebro, donde cada neurona tiene un solo axón y hasta miles de dendritas.
Desde la década de 1960 empezaron a aparecer estudios que indicaban que en algunos casos las neuronas se reproducían y migraban a zonas concretas del encéfalo. Y a fines de la década de 1990 se confirmó que esta reproducción, llamada “neurogénesis”, definitivamente ocurría en el sistema nervioso central humano, al menos en pequeña medida en algunas zonas de nuestro encéfalo, como el hipocampo.
Aunque esta reproducción es demasiado escasa como para representar una esperanza de “reparar el sistema nervioso” por sí misma, indica el camino para que se obtengan neuronas nuevas de otra forma.
Entran aquí las células madre, células no diferenciadas de nuestro cuerpo que, al desarrollarse en diversas circunstancias y medios, son capaces de convertirse en células de cualquier tejido: de la piel, de los huesos, de los pulmones... y del sistema nervioso. De hecho, las responsables de la neurogénesis en el encéfalo adulto son células madre neurales.
Conocidas por el público en teneral sobre todo por el debate debido a que originalmente sólo se podían obtener de tejido fetal, abortado voluntaria o involuntariamente, hoy las células madre se pueden obtener de donantes adultos e incluso se pueden tomar células diferenciadas y someterlas a procedimientos que las hacen volver a ser “pluripotentes”. Las células madre son una esperanza no sólo para la regeneración de distintos órganos, sino en la investigación y estudio de nuevos medicamentos. Al menos en teoría, se pueden utilizar para crear órganos o tejidos para autotrasplantes que nuestro cuerpo no podría rechazar.
En el caso de las células madre neurales, la posibilidad es la de efectivamente reparar no sólo los axones y fibras nerviosas, sino sustituir neuronas para recuperar funciones perdidas en ciertas zonas del sistema nervioso o espacios concretos, como las células de la mácula de la retina, cuya degeneración lleva a numerosos casos de ceguera.
Sólo en los últimos años han conseguido los científicos producir neuronas que pueden enviar y recibir impulsos nerviosos, especialmente neuronas motoras como las que se activan para conseguir el movimiento de los músculos. Además de producir otras células nerviosas que, sin estar implicadas en la transmisión de impulsos nerviosos, son fundamentales para el funcionamiento del sistema, como los astrocitos que protegen a las neuronas.
Nuestro sistema nervioso, finalmente, no es tan rígido como postulaba Ramón y Cajal, lo que sabemos porque, como él mismo previó, la ciencia del futuro, que es nuestro presente, ese cruel decreto. Nuestro cerebro cambia, crea conexiones, produce nuevas neuronas, puede aprovechar la ayuda externa para restablecer conexiones perdidas por lesiones o enfermedades, aprende, recuerda y evoluciona día con día.
Parálisis y esperanzaEn el mundo hay alrededor de tres millones de personas que viven con lesiones de la médula espinal que les impiden el movimiento en mayor o menor medida. Además de millones que padecen ceguera por degeneración macular, por lesiones en la zona de la corteza cerebral encargada de procesa la visión y otras causas que podrían ser tratadas con las terapias que se están desarrollando. |
Exoplanetas
Planetas alrededor de otras estrellas. Planetas que pueden tener vida. Sin embargo, esos planetas, que hoy son una multitud que aumenta día a día, hasta hace poco eran sólo un sueño.
Se han identificado casi 2 mil planetas fuera de nuestro sistema solar, además de otros 3 mil candidatos, que forman parte de sus propios sistemas solares y giran alrededor de numerosos soles, algunos parecidos al nuestro, que nos pueden enseñar mucho sobre cómo evolucionan los sistemas solares, y donde incluso podía haber vida.
Fue Giordano Bruno, fraile quemado por sus ideas heréticas, quien en 1584 propuso que en nuestro universo había “incontables soles, e incontables tierras todas girando alrededor de sus soles”. Ya los antiguos griegos especulaban sobre otros mundos donde hubiera vida y, en el siglo II, Luciano de Samosata escribió su libro Verdadera historia, según muchos la primera obra de ciencia ficción de la historia, donde viajaba a la Luna y conocía a sus habitantes.
Pero la idea especulativa de Giordano tenía por primera vez un sustento fáctico con la teoría de Copérnico. Desde entonces, escritores de ciencia ficción, científicos y personas comunes han tratado de imaginar cómo serían esos mundos y, sobre todo, cómo podría ser la vida que se desarrollara en ellos. Por eso la vida extraterrestre es uno de los temas esenciales de la ciencia ficción incluso hoy, cuando la gente se acerca a ese género principalmente a través del cine.
Esto oculta el inquietante hecho de que, hasta hace muy poco tiempo, no sabíamos si existían tales planetas.
Para empezar a buscar siquiera a otros planetas fue necesario primero demostrar que el sol era una estrella y que las estrellas eran, a su vez, soles. Sobre indicios y estudios de otros muchos astrónomos como Johannes Kepler o Christiaan Huygens, en 1838, Friedrich Bessel consiguió medir por primera vez la distancia a la que se encontraba una estrella y encontró que era enorme. Según sus observaciones, la estrella 61 Cygni se encontraba a 10,3 años luz de distancia de nosotros, un resultado muy preciso con los medios a su disposición si tenemos en cuenta que las mediciones con la tecnología actual sitúan esta estrella de la constelación del Cisne está a 11,4 años luz. Gracias al trabajo de Bessel se pudieron medir las distancias a otras estrellas y, con base en ellas, determinar su brillo real. Con base en esos datos se pudo determinar que el sol era una estrella y, sin duda alguna, las estrellas eran soles.
La especulación razonable es que al menos algunos de esos soles tendrían planetas a su alrededor. Y, si los tenían, la implicación de posible vida extraterrestre tomaba más visos de realidad que de ciencia ficción. Pero no fue sino hasta 1992 cuando por primera vez se identificó con certeza un exoplaneta.
No es fácil buscar exoplanetas. Entre los sistemas para identificarlos está el verlos directamente, algo que sólo ocurre si son muy grandes y muy calientes, así que muy pocos pueden ser detectados con este sistema. También se puede medir el cambio de velocidad radial de una estrella cuando la órbita un planeta muy masivo, ya que aunque tendemos a pensar que los planetas giran alrededor de una estrella inmóvil, en realidad ambos cuerpos giran alrededor de un centro gravitacional común, y un planeta con una gran masa puede hacer que la estrella se desplace, como si su eje estuviera desplazado fuera del centro, lo que podemos detectar con instrumentos especializados. También, si un planeta refleja gran cantidad de la luz de la estrella puede ser detectado midiendo el aumento en el brillo aparente de la estrella.
Pero el sistema más común para encontrar exoplanetas es el del tránsito.
Cuando un planeta pasa frente a su estrella, bloquea parte de la luz que ésta emite. Con mediciones muy precisas del brillo de las estrellas al paso del tiempo, es posible detectar variaciones muy, muy pequeñas que, si se repiten periódicamente, son indicativas de la presencia de un planeta, mientras que la cantidad de variación de la luminosidad es indicativa, de modo general, del tamaño del planeta. Y el período en el cual se producen los tránsitos permite también calcular el tamaño de su órbita.
Por supuesto, las mediciones tan precisas de la luminosidad se benefician del uso de telescopios espaciales, que no estén sometidos a las variaciones de luminosidad que pueden implicar las perturbaciones atmosféricas para los instrumentos situados en la superficie del planeta y que exigen complejos cálculos para compensarlas. Esto también ha determinado que la gran mayoría de los exoplanetas descubiertos hasta la fecha sean parientes de Júpiter, es decir, gigantes gaseosos con una enorme masa
En 2009 se puso en órbita el telescopio espacial Kepler, diseñado por la NASA concretamente para explorar nuestra región dentro de la galaxia en busca de planetas más o menos del tamaño del nuestro, especialmente los que están en la “zona habitable” alrededor de una estrella, es decir, donde la temperatura permite la existencia de agua líquida. El telescopio Kepler es un fotómetro o medidor de luz de enorme precisión que puede vigilar continuamente el brillo de más de 100.000 estrellas. En 2010, la misión Kepler identificó su primer planeta, y a principios de 2014 encontró el primer planeta del tamaño correcto en la zona habitable, el Kepler-186f. Esto no quiere decir, por supuesto, que el planeta tenga vida, sólo que puede tenerla. Se han encontrado también planetas con atmósferas y con indicios de presencia de agua.
La búsqueda de exoplanetas nos acerca también a realidades nunca vistas: planetas gigantescos, de casi del doble de Júpiter; un planeta relativamente cerca de nosotros, a “sólo” 10,5 años luz, llamado Epsilon Eridani b; planetas que, como el imaginario Tatooine de Star Wars, tienen dos soles, e incluso hay uno, HD 188753, que orbita alrededor de un sistema formado por tres soles, como para imaginarnos sus atardeceres; un planeta de 12.700 millones de años de existencia, casi tan antiguo como el propio universo, e incluso un planeta que gira alrededor del pulsar PSR J1719-1438 y que está hecho de diamante.
Pero un planeta con vida sería, para nosotros, mucho más valioso que uno de diamante. De hecho, el valor del diamante disminuye con su abundancia, algo que no ocurriría, al contrario, si descubrimosmás abundancia de vida en el universo.
Interpretaciones artísticas de exoplanetas halllados por el sistema HARPS. (Imagen D.P. European Southern Observatory via Wikimedia Commons.) |
Fue Giordano Bruno, fraile quemado por sus ideas heréticas, quien en 1584 propuso que en nuestro universo había “incontables soles, e incontables tierras todas girando alrededor de sus soles”. Ya los antiguos griegos especulaban sobre otros mundos donde hubiera vida y, en el siglo II, Luciano de Samosata escribió su libro Verdadera historia, según muchos la primera obra de ciencia ficción de la historia, donde viajaba a la Luna y conocía a sus habitantes.
Pero la idea especulativa de Giordano tenía por primera vez un sustento fáctico con la teoría de Copérnico. Desde entonces, escritores de ciencia ficción, científicos y personas comunes han tratado de imaginar cómo serían esos mundos y, sobre todo, cómo podría ser la vida que se desarrollara en ellos. Por eso la vida extraterrestre es uno de los temas esenciales de la ciencia ficción incluso hoy, cuando la gente se acerca a ese género principalmente a través del cine.
Esto oculta el inquietante hecho de que, hasta hace muy poco tiempo, no sabíamos si existían tales planetas.
Para empezar a buscar siquiera a otros planetas fue necesario primero demostrar que el sol era una estrella y que las estrellas eran, a su vez, soles. Sobre indicios y estudios de otros muchos astrónomos como Johannes Kepler o Christiaan Huygens, en 1838, Friedrich Bessel consiguió medir por primera vez la distancia a la que se encontraba una estrella y encontró que era enorme. Según sus observaciones, la estrella 61 Cygni se encontraba a 10,3 años luz de distancia de nosotros, un resultado muy preciso con los medios a su disposición si tenemos en cuenta que las mediciones con la tecnología actual sitúan esta estrella de la constelación del Cisne está a 11,4 años luz. Gracias al trabajo de Bessel se pudieron medir las distancias a otras estrellas y, con base en ellas, determinar su brillo real. Con base en esos datos se pudo determinar que el sol era una estrella y, sin duda alguna, las estrellas eran soles.
La especulación razonable es que al menos algunos de esos soles tendrían planetas a su alrededor. Y, si los tenían, la implicación de posible vida extraterrestre tomaba más visos de realidad que de ciencia ficción. Pero no fue sino hasta 1992 cuando por primera vez se identificó con certeza un exoplaneta.
No es fácil buscar exoplanetas. Entre los sistemas para identificarlos está el verlos directamente, algo que sólo ocurre si son muy grandes y muy calientes, así que muy pocos pueden ser detectados con este sistema. También se puede medir el cambio de velocidad radial de una estrella cuando la órbita un planeta muy masivo, ya que aunque tendemos a pensar que los planetas giran alrededor de una estrella inmóvil, en realidad ambos cuerpos giran alrededor de un centro gravitacional común, y un planeta con una gran masa puede hacer que la estrella se desplace, como si su eje estuviera desplazado fuera del centro, lo que podemos detectar con instrumentos especializados. También, si un planeta refleja gran cantidad de la luz de la estrella puede ser detectado midiendo el aumento en el brillo aparente de la estrella.
Pero el sistema más común para encontrar exoplanetas es el del tránsito.
Cuando un planeta pasa frente a su estrella, bloquea parte de la luz que ésta emite. Con mediciones muy precisas del brillo de las estrellas al paso del tiempo, es posible detectar variaciones muy, muy pequeñas que, si se repiten periódicamente, son indicativas de la presencia de un planeta, mientras que la cantidad de variación de la luminosidad es indicativa, de modo general, del tamaño del planeta. Y el período en el cual se producen los tránsitos permite también calcular el tamaño de su órbita.
Por supuesto, las mediciones tan precisas de la luminosidad se benefician del uso de telescopios espaciales, que no estén sometidos a las variaciones de luminosidad que pueden implicar las perturbaciones atmosféricas para los instrumentos situados en la superficie del planeta y que exigen complejos cálculos para compensarlas. Esto también ha determinado que la gran mayoría de los exoplanetas descubiertos hasta la fecha sean parientes de Júpiter, es decir, gigantes gaseosos con una enorme masa
En 2009 se puso en órbita el telescopio espacial Kepler, diseñado por la NASA concretamente para explorar nuestra región dentro de la galaxia en busca de planetas más o menos del tamaño del nuestro, especialmente los que están en la “zona habitable” alrededor de una estrella, es decir, donde la temperatura permite la existencia de agua líquida. El telescopio Kepler es un fotómetro o medidor de luz de enorme precisión que puede vigilar continuamente el brillo de más de 100.000 estrellas. En 2010, la misión Kepler identificó su primer planeta, y a principios de 2014 encontró el primer planeta del tamaño correcto en la zona habitable, el Kepler-186f. Esto no quiere decir, por supuesto, que el planeta tenga vida, sólo que puede tenerla. Se han encontrado también planetas con atmósferas y con indicios de presencia de agua.
La búsqueda de exoplanetas nos acerca también a realidades nunca vistas: planetas gigantescos, de casi del doble de Júpiter; un planeta relativamente cerca de nosotros, a “sólo” 10,5 años luz, llamado Epsilon Eridani b; planetas que, como el imaginario Tatooine de Star Wars, tienen dos soles, e incluso hay uno, HD 188753, que orbita alrededor de un sistema formado por tres soles, como para imaginarnos sus atardeceres; un planeta de 12.700 millones de años de existencia, casi tan antiguo como el propio universo, e incluso un planeta que gira alrededor del pulsar PSR J1719-1438 y que está hecho de diamante.
Pero un planeta con vida sería, para nosotros, mucho más valioso que uno de diamante. De hecho, el valor del diamante disminuye con su abundancia, algo que no ocurriría, al contrario, si descubrimosmás abundancia de vida en el universo.
Buscadores de planetasPara identificar tránsitos de posibles planetas ante las miles de estrellas que está observando el telescopio Kepler, la NASA mantiene un sitio web llamado “Planet Hunters”, donde la gente común y corriente ayuda a identificar tránsitos entre la masiva cantidad de datos que aporta el telescopio todos los días... finalmente, el ser humano sigue siendo el instrumento decisivo en la exploración científica. |
De geología y evolución
Una de las más contundentes evidencias que confirman que la evolución de las especies ha ocurrido comenzó con una observación tan sencilla como audaz.
Existe una población de tortugas verdes, unas enormes tortugas marinas que se encuentran en aguas tropicales de casi todo el mundo, que habita en la costa de Brasil y que tiene la peculiar costumbre de que, para reproducirse, nada una impresionante distancia de 2.000 kilómetros hasta la Isla de Ascensión, a la mitad del océano Atlántico entre Brasil y África, en la cordillera que lo recorre de norte a sur, la llamada Dorsal Mesoatlántica.
La pregunta razonable que cualquier biólogo se hace ante un fenómeno así es ¿por qué ocurre? Estas tortugas se reproducen en playas cercanas a las de su nacimiento, aunque viven la mayor parte del tiempo en el mar, cerca de costas que pueden estar relativamente alejadas de su costa natal, generalmente en islas donde entre otras cosas hay menos depredadores de sus nidos. Pero la distancia que viajan las tortugas de la isla de Ascensión es muchísimo mayor que la habitual entre otras de su especie.
La respuesta a esta pregunta se encuentra en una observación que hizo a principios del siglo XX el geofísico alemán Alfred Lothar Wegener: la plataforma continental de Suramérica parecía que podía encajar con extraordinaria precisión en África. Y la Antártida, Australia, la India y Madagascar parecían piezas de un puzzle alrededor del extremo sur de África. Cierto, no fue Wegener el primero en notar este curioso hecho, que ya se había registrado en el siglo XVI conforme se iban haciendo los primeros mapas detallados del mundo que se iba descubriendo, literalmente, día a día. Pero fue él quien por primera vez se planteó una posibilidad que iba en contra de la hipótesis sobre nuestro planeta que llevaba 50 años dominando la geología.
Según esta hipótesis, llamada “geosinclinal”, las masas de los continentes eran características fijas de la superficie terrestre, apenas alteradas por algunos movimientos que provocaban los plegamientos de la corteza que forman las cordilleras. Esta visión de la corteza terrestre era coherente, además, con la edad que se calculaba por entonces que tenía la Tierra, y que era de entre 18 y 400 millones de años. Este cálculo cambiaría conforme se iban descubriendo más datos sobre asuntos como la composición interna del planeta, o la historia del sistema solar y del universo.
Wegener pensó que esto no era así, sino que quizás los continentes se movían, acercándose y alejándose entre sí, una idea audaz que con el tiempo se convertiría en la teoría de la tectónica de placas, según la cual la corteza terrestre está formada por distintas placas en movimiento, que “flotan”, por decirlo de alguna manera, sobre el manto terrestre. Algunas placas se alejan entre sí, otras están chocando y una se mete por debajo de la otra (subducción) mientras que algunas se mueven en direcciones contrarias provocando fricción. Es la tectónica de placas.
Para sustentar su hipótesis, Wegener echó mano de la relativamente nueva ciencia de la paleontología. Se dedicó no sólo a comparar las capas geológicas a ambos lados del Atlántico y otros aspectos que sustentaban su teoría, sino que estudió los fósiles presentes en las dos costas.
Cuando se analizan los fósiles presentes en continentes que estuvieron unidos en el pasado, es posible ver que en un momento dado, estamos ante las mismas especies. Si no había puentes terrestres que hubieran unido a los continentes (como se creía antes de Wegener), lo que se demostraba con la evidencia geológica, la única explicación que quedaba era que los continentes habían estado unidos en un momento del pasado y se habían separado lentamente.
La evidencia fósil fue uniendo las piezas del puzzle del planeta. Los helechos Glossopteris se encontraban en puntos de las costas de Sudamérica y África que alguna vez estuvieron unidos, pero también en puntos de la India, la Antártida y Australia, dibujando la forma en que estuvieron juntos estos continentes. El reptil fósil Cinognathus también unía a Sudamérica y África, mientras que el Lystrosaurus aparecía en África, la India y la Antártida.
La evidencia fósil de Wegener sustentaba su idea de la corteza terrestre en movimiento. Pero, al mismo tiempo, la tectónica de placas explicaba fenómenos que con el tiempo se han situado como algunas de las más sólidas pruebas sobre la evolución.
En el modelo contemporáneo, la corteza terrestre está dividida en siete grandes placas, ocho de menor tamaño y una gran cantidad de otros pequeños fragmentos. A lo largo de la historia del planeta, estas placas se han desplazado, formando en ocasiones grandes continentes que luego se han separado en un movimiento incesante. La última vez que esto ocurrió fue hace unos 225 millones de años, cuando los continentes estaban unidos en la masa llamada “Pangea”. Esto coincidió con una de las más completas extinciones de especies en la Tierra, la Pérmica-Triásica, en la que desapareció entre el 90 y el 95% de todas las especies marinas.
A partir de entonces, podemos seguir la historia de la vida, su evolución y adaptación, a lo largo de las líneas de los continentes en movimiento. Los elefantes, que aparecieron en África, vieron que parte de su población era apartada con el desplazamiento de la India, y ambos grupos empezaron a evolucionar y adaptarse independientemente, dando lugar al elefante africano y el elefante asiático que conocemos hoy.
El otro ejemplo clásico es la fauna australiana. El continente australiano se separó de los demás hace 55 millones de años y su aislamiento fue responsable de que en él los mamíferos evolucionaran independientemente de todos los demás, sin desarrollar la placenta como forma de alimentación y protección de las crías en formación, sino el marsupio o bolsa donde terminan su desarrollo.
La evolución fue una prueba de la tectónica de placas, y ésta a su vez es una demostración de cómo se ha desarrollado la evolución de varias maneras. Un buen ejemplo de cómo las distintas disciplinas del conocimiento se entrelazan para ofrecernos una explicación cada vez más completa del mundo que nos rodea y de su evolución.
La dorsal mesoatlántica. (Foto D.P de National Oceanic and Atmospheric Administration via Wikimedia Commons) |
La pregunta razonable que cualquier biólogo se hace ante un fenómeno así es ¿por qué ocurre? Estas tortugas se reproducen en playas cercanas a las de su nacimiento, aunque viven la mayor parte del tiempo en el mar, cerca de costas que pueden estar relativamente alejadas de su costa natal, generalmente en islas donde entre otras cosas hay menos depredadores de sus nidos. Pero la distancia que viajan las tortugas de la isla de Ascensión es muchísimo mayor que la habitual entre otras de su especie.
La respuesta a esta pregunta se encuentra en una observación que hizo a principios del siglo XX el geofísico alemán Alfred Lothar Wegener: la plataforma continental de Suramérica parecía que podía encajar con extraordinaria precisión en África. Y la Antártida, Australia, la India y Madagascar parecían piezas de un puzzle alrededor del extremo sur de África. Cierto, no fue Wegener el primero en notar este curioso hecho, que ya se había registrado en el siglo XVI conforme se iban haciendo los primeros mapas detallados del mundo que se iba descubriendo, literalmente, día a día. Pero fue él quien por primera vez se planteó una posibilidad que iba en contra de la hipótesis sobre nuestro planeta que llevaba 50 años dominando la geología.
Según esta hipótesis, llamada “geosinclinal”, las masas de los continentes eran características fijas de la superficie terrestre, apenas alteradas por algunos movimientos que provocaban los plegamientos de la corteza que forman las cordilleras. Esta visión de la corteza terrestre era coherente, además, con la edad que se calculaba por entonces que tenía la Tierra, y que era de entre 18 y 400 millones de años. Este cálculo cambiaría conforme se iban descubriendo más datos sobre asuntos como la composición interna del planeta, o la historia del sistema solar y del universo.
Wegener pensó que esto no era así, sino que quizás los continentes se movían, acercándose y alejándose entre sí, una idea audaz que con el tiempo se convertiría en la teoría de la tectónica de placas, según la cual la corteza terrestre está formada por distintas placas en movimiento, que “flotan”, por decirlo de alguna manera, sobre el manto terrestre. Algunas placas se alejan entre sí, otras están chocando y una se mete por debajo de la otra (subducción) mientras que algunas se mueven en direcciones contrarias provocando fricción. Es la tectónica de placas.
Para sustentar su hipótesis, Wegener echó mano de la relativamente nueva ciencia de la paleontología. Se dedicó no sólo a comparar las capas geológicas a ambos lados del Atlántico y otros aspectos que sustentaban su teoría, sino que estudió los fósiles presentes en las dos costas.
Cuando se analizan los fósiles presentes en continentes que estuvieron unidos en el pasado, es posible ver que en un momento dado, estamos ante las mismas especies. Si no había puentes terrestres que hubieran unido a los continentes (como se creía antes de Wegener), lo que se demostraba con la evidencia geológica, la única explicación que quedaba era que los continentes habían estado unidos en un momento del pasado y se habían separado lentamente.
La evidencia fósil fue uniendo las piezas del puzzle del planeta. Los helechos Glossopteris se encontraban en puntos de las costas de Sudamérica y África que alguna vez estuvieron unidos, pero también en puntos de la India, la Antártida y Australia, dibujando la forma en que estuvieron juntos estos continentes. El reptil fósil Cinognathus también unía a Sudamérica y África, mientras que el Lystrosaurus aparecía en África, la India y la Antártida.
La evidencia fósil de Wegener sustentaba su idea de la corteza terrestre en movimiento. Pero, al mismo tiempo, la tectónica de placas explicaba fenómenos que con el tiempo se han situado como algunas de las más sólidas pruebas sobre la evolución.
En el modelo contemporáneo, la corteza terrestre está dividida en siete grandes placas, ocho de menor tamaño y una gran cantidad de otros pequeños fragmentos. A lo largo de la historia del planeta, estas placas se han desplazado, formando en ocasiones grandes continentes que luego se han separado en un movimiento incesante. La última vez que esto ocurrió fue hace unos 225 millones de años, cuando los continentes estaban unidos en la masa llamada “Pangea”. Esto coincidió con una de las más completas extinciones de especies en la Tierra, la Pérmica-Triásica, en la que desapareció entre el 90 y el 95% de todas las especies marinas.
A partir de entonces, podemos seguir la historia de la vida, su evolución y adaptación, a lo largo de las líneas de los continentes en movimiento. Los elefantes, que aparecieron en África, vieron que parte de su población era apartada con el desplazamiento de la India, y ambos grupos empezaron a evolucionar y adaptarse independientemente, dando lugar al elefante africano y el elefante asiático que conocemos hoy.
El otro ejemplo clásico es la fauna australiana. El continente australiano se separó de los demás hace 55 millones de años y su aislamiento fue responsable de que en él los mamíferos evolucionaran independientemente de todos los demás, sin desarrollar la placenta como forma de alimentación y protección de las crías en formación, sino el marsupio o bolsa donde terminan su desarrollo.
La evolución fue una prueba de la tectónica de placas, y ésta a su vez es una demostración de cómo se ha desarrollado la evolución de varias maneras. Un buen ejemplo de cómo las distintas disciplinas del conocimiento se entrelazan para ofrecernos una explicación cada vez más completa del mundo que nos rodea y de su evolución.
La tectónica de placas y nuestra especieHace unos 7 millones de años que el linaje humano (los homininos) se separó de los demás primates, y la tectónica de placas podría explicar parcialmente por qué. El surgimiento de la “Pared de África”, una cadena de montañas y mesetas que van desde Etiopía hasta Sudáfrica, habría obstaculizado, según una hipótesis, la llegada de la humedad oceánica a los antiguos valles, convirtiendo exuberantes selvas tropicales en las sabanas y llanuras que favorecieron que nuestros ancestros desarrollaran la capacidad de caminar en dos patas, el primer escalón que lleva a lo que somos hoy. |
Impresión 3D: de curiosidad a promesa de vida
Cuando la tecnología se pone al servicio no sólo de la industria y de la diversión, sino de la felicidad, podemos hablar, inequívocamente, de progreso.
En 2013 comenzaron a aparecer en las noticias pacientes, principalmente niños, con prótesis de manos funcionales e incluso divertidas, de colores vivos o que imitaban a algún superhéroe como “Ironman”.
Y, lo más sorprendente, estas prótesis costaban decenas o cientos de euros, comparadas con las prótesis habituales de hasta decenas de miles de euros.
Los responsables: unos dispositivos que prometen convertirse en una presencia tan común en el hogar como la impresora y el ordenador: la impresora en 3D. Se trata de máquinas capaz de usar un archivo de instrucciones para crear con ellas un objeto físico, como una impresora en papel plasma los trazos o fotografías de un programa de manipulación de imágenes o diseño.
La impresión en 3D no esculpe, retirando material de un bloque, sino que va depositando material en capas sucesivas para dar forma al objeto, por lo que se conoce también como “fabricación aditiva”.
Esta idea la llevó a la práctica en 1984 Charles, “Chuck” Hull, al patentar la estereolitografía. Esta forma de impresión usa un cabezal de luz ultravioleta que “dibuja” cada capa en un depósito lleno de un fotopolímero que se “cura” o endurece en presencia de la luz. Una plataforma hace descender la capa para que se haga la segunda sobre ella y así sucesivamente. Poco después se empezarían a utilizar otros materiales, desde resinas y plásticos hasta metales y cerámicas, otros medios, como el láser o el calor, y otros procedimientos para lograr la impresión, como boquillas que depositan directamente materiales que se solidifican.
El primer uso de las impresoras de Hull fue la creación rápida de prototipos para las más diversas industrias, un proceso que, al ahorrar el largo tiempo necesario para producir esos prototipos a mano, compensaba el enorme coste, de cientos de miles de euros, de las primeras impresoras.
Los dispositivos dispararon la especulación creativa. En 1999, un equipo del instituto de medicina regenerativa Wake Forest utilizó la impresión en 3D para crear el andamiaje de una vejiga urinaria que se usó como base para cultivar células de la vejiga de un joven, que así pudo recibir un trasplante con sus propias células. Este instituto está desarrollando técnicas de bioimpresión capaces de ir colocando células en disposiciones tridimensionales, “imprimiendo” con ellas. En el año 2000 lograron crear un riñón funcional en miniatura, mientras que otra empresa consiguió imprimir por primera vez vasos sanguíneos en 2009.
El arte, la moda, el diseño y otras muchas disciplinas han ido acudiendo a la impresión 3D para proyectos cada vez más ambiciosos, como el primer avión robótico o el primer automóvil íntegramente impresos en 3D, que ya han sido una realidad.
Los precios de las impresoras en 3D van en picado y su accesibilidad aumenta exponencialmente. Uno de los sistemas para lograr esto han sido las impresoras en 3D diseñadas para producir, precisamente, las piezas de otras impresoras en 3D, formando una cadena de máquinas capaces de autoclonar sus componentes plásticos. Tal es el caso del proyecto RepRap del Dr. Adrian Bowyer de la Universidad de Bath, que lanzó la primera impresora autorreplicable, llamada Darwin, en 2008.
La explosión de este tipo de aparatos significa, también, que el consumidor tiene cada vez más la posibilidad de hacerse de modo accesible con productos que de otra forma serían demasiado costosos o, simplemente, serían difíciles de encontrar. Cada día más sitios web ofrecen la posibilidad de descargar archivos gratuitos para impresión, desde piezas de ajedrez con formas y personajes distintos hasta parasoles para objetivos fotográficos, floreros o carcasas para teléfonos móviles. Es sólo el principio.
Las impresoras en 3D empezaron a ser realmente accesibles para el consumidor apenas en 2011, al aparecer las primeras máquinas de menos de mil euros y formas de que uno, si lo desea, haga su propia impresora en 3D, ya sea adquiriendo los planos o directamente por medio de kits para armar.
Las impresoras para el consumidor constan, generalmente de una base con el ordenador que recibe e interpreta los planos o instrucciones y controla el proceso, y un cabezal impresor dispuesto en barras que le confieren movimiento en 3 dimensiones, que funde y deposita plástico suministrado en forma de filamento por una bobina. Como en el caso de las impresoras en 2D, el elemento clave de la calidad de una impresora es su resolución, en este caso, el grosor de cada capa, que afecta la calidad final del producto. En teoría, pueden producir cualquier pequeño objeto de plástico con el archivo correspondiente.
En 2008 año se consiguió imprimir una pierna prostética totalmente en 3D, sin siquiera necesidad de ensamblar sus piezas, que permitió a un paciente caminar sin problemas. Era el primer paso para abatir el coste y tiempo necesarios para la adaptación de miembros artificiales.
Las prótesis de manos son especialmente costosas por su complejidad. O lo eran. Ahora, como parte de los modelos que pueden descargarse de Internet para imprimirse en casa se encuentran manos prostéticas que utilizan electrónica accesible para que el usuario las mueva, servomotores más baratos y una estructura de plástico. Los pacientes tienen a su alcance una prótesis de calidad, de última tecnología… y a un precio que incluso les permite tener varias, según la ocasión, lo cual resulta atractivo, de nuevo, más para los niños. De hecho, las prótesis no intentan asemejarse a las manos originales, sino que gritan su peculiaridad orgullosamente.
Las manos son sólo un principio. Conforme haya mejores materiales y tecnología más barata, las posibilidades en la prostética pueden ser tan asombrosas como imprimir un rostro desfigurado usando el hueso, cartílago y piel que permitan la reconstrucción del aspecto de personas desfiguradas. O, en un terreno más mundano, esta tecnología también puede resolver problemas en apariencia más triviales, como el reemplazo de una válvula de una bomba de agua que de otro modo requeriría mucho más tiempo y dinero.
Lo que se podría llamar un futuro en gran medida impreso en 3D.
Impresora en 3D, 2014 (Foto CC via Wikimedia Commons) |
Y, lo más sorprendente, estas prótesis costaban decenas o cientos de euros, comparadas con las prótesis habituales de hasta decenas de miles de euros.
Los responsables: unos dispositivos que prometen convertirse en una presencia tan común en el hogar como la impresora y el ordenador: la impresora en 3D. Se trata de máquinas capaz de usar un archivo de instrucciones para crear con ellas un objeto físico, como una impresora en papel plasma los trazos o fotografías de un programa de manipulación de imágenes o diseño.
La impresión en 3D no esculpe, retirando material de un bloque, sino que va depositando material en capas sucesivas para dar forma al objeto, por lo que se conoce también como “fabricación aditiva”.
Esta idea la llevó a la práctica en 1984 Charles, “Chuck” Hull, al patentar la estereolitografía. Esta forma de impresión usa un cabezal de luz ultravioleta que “dibuja” cada capa en un depósito lleno de un fotopolímero que se “cura” o endurece en presencia de la luz. Una plataforma hace descender la capa para que se haga la segunda sobre ella y así sucesivamente. Poco después se empezarían a utilizar otros materiales, desde resinas y plásticos hasta metales y cerámicas, otros medios, como el láser o el calor, y otros procedimientos para lograr la impresión, como boquillas que depositan directamente materiales que se solidifican.
El primer uso de las impresoras de Hull fue la creación rápida de prototipos para las más diversas industrias, un proceso que, al ahorrar el largo tiempo necesario para producir esos prototipos a mano, compensaba el enorme coste, de cientos de miles de euros, de las primeras impresoras.
Los dispositivos dispararon la especulación creativa. En 1999, un equipo del instituto de medicina regenerativa Wake Forest utilizó la impresión en 3D para crear el andamiaje de una vejiga urinaria que se usó como base para cultivar células de la vejiga de un joven, que así pudo recibir un trasplante con sus propias células. Este instituto está desarrollando técnicas de bioimpresión capaces de ir colocando células en disposiciones tridimensionales, “imprimiendo” con ellas. En el año 2000 lograron crear un riñón funcional en miniatura, mientras que otra empresa consiguió imprimir por primera vez vasos sanguíneos en 2009.
El arte, la moda, el diseño y otras muchas disciplinas han ido acudiendo a la impresión 3D para proyectos cada vez más ambiciosos, como el primer avión robótico o el primer automóvil íntegramente impresos en 3D, que ya han sido una realidad.
Los precios de las impresoras en 3D van en picado y su accesibilidad aumenta exponencialmente. Uno de los sistemas para lograr esto han sido las impresoras en 3D diseñadas para producir, precisamente, las piezas de otras impresoras en 3D, formando una cadena de máquinas capaces de autoclonar sus componentes plásticos. Tal es el caso del proyecto RepRap del Dr. Adrian Bowyer de la Universidad de Bath, que lanzó la primera impresora autorreplicable, llamada Darwin, en 2008.
La explosión de este tipo de aparatos significa, también, que el consumidor tiene cada vez más la posibilidad de hacerse de modo accesible con productos que de otra forma serían demasiado costosos o, simplemente, serían difíciles de encontrar. Cada día más sitios web ofrecen la posibilidad de descargar archivos gratuitos para impresión, desde piezas de ajedrez con formas y personajes distintos hasta parasoles para objetivos fotográficos, floreros o carcasas para teléfonos móviles. Es sólo el principio.
Las impresoras en 3D empezaron a ser realmente accesibles para el consumidor apenas en 2011, al aparecer las primeras máquinas de menos de mil euros y formas de que uno, si lo desea, haga su propia impresora en 3D, ya sea adquiriendo los planos o directamente por medio de kits para armar.
Las impresoras para el consumidor constan, generalmente de una base con el ordenador que recibe e interpreta los planos o instrucciones y controla el proceso, y un cabezal impresor dispuesto en barras que le confieren movimiento en 3 dimensiones, que funde y deposita plástico suministrado en forma de filamento por una bobina. Como en el caso de las impresoras en 2D, el elemento clave de la calidad de una impresora es su resolución, en este caso, el grosor de cada capa, que afecta la calidad final del producto. En teoría, pueden producir cualquier pequeño objeto de plástico con el archivo correspondiente.
En 2008 año se consiguió imprimir una pierna prostética totalmente en 3D, sin siquiera necesidad de ensamblar sus piezas, que permitió a un paciente caminar sin problemas. Era el primer paso para abatir el coste y tiempo necesarios para la adaptación de miembros artificiales.
Las prótesis de manos son especialmente costosas por su complejidad. O lo eran. Ahora, como parte de los modelos que pueden descargarse de Internet para imprimirse en casa se encuentran manos prostéticas que utilizan electrónica accesible para que el usuario las mueva, servomotores más baratos y una estructura de plástico. Los pacientes tienen a su alcance una prótesis de calidad, de última tecnología… y a un precio que incluso les permite tener varias, según la ocasión, lo cual resulta atractivo, de nuevo, más para los niños. De hecho, las prótesis no intentan asemejarse a las manos originales, sino que gritan su peculiaridad orgullosamente.
Las manos son sólo un principio. Conforme haya mejores materiales y tecnología más barata, las posibilidades en la prostética pueden ser tan asombrosas como imprimir un rostro desfigurado usando el hueso, cartílago y piel que permitan la reconstrucción del aspecto de personas desfiguradas. O, en un terreno más mundano, esta tecnología también puede resolver problemas en apariencia más triviales, como el reemplazo de una válvula de una bomba de agua que de otro modo requeriría mucho más tiempo y dinero.
Lo que se podría llamar un futuro en gran medida impreso en 3D.
Las armas impresasToda tecnología es susceptible de ser utilizada para la destrucción, como lo descubrió Alfred Nobel cuando sus explosivos para hacer túneles pasaron al mundo bélico. En 2013 se distribuyeron los archivos de la primera pistola en 3D de un solo tiro, que fueron descargados miles de veces de inmediato. Aunque hasta la fecha nunca se ha usado para dañar a nadie, los expertos advierten que este mal uso inevitable no debe ser, en modo alguno, pretexto para ponerle trabas a la tecnología. |
Karl Landsteiner, los tipos sanguíneos y el virus de la polio
Nuestro sistema inmune nos defiende de amenazas externas, pero puede volverse contra nosotros. El conocimiento de nuestra sangre, inmunidad y enfermedades fue la pasión de un médico austríaco.
En 1628, William Harvey describió por primera vez la circulación sanguínea completa, basado en antecedentes como el de Miguel Servet, que había descubierto la circulación pulmonar en 80 años antes. Poco después se intentó por primera vez transfundir la sangre de una persona a otra. La idea era reponer la sangre perdida con la de otra persona. Los intentos fueron terribles fracasos que provocaban la muerte del paciente.
Fue en 1655 cuando Richard Lower realizó la primera transfusión exitosa entre perros: desangró a uno casi hasta la muerte y lo revivió con sangre de otro. En 1667, el francés Jean-Baptiste Denis logró transfundir sangre de una oveja a dos personas, logrando que los tres sobrevivieran.
Qué era la sangre y por qué las transfusiones podían ser mortales resultaba un misterio en ese momento. Apenas se habían descubierto, poco después de Harvey, los glóbulos rojos o eritrocitos por parte de Jan Swammerdam, un pionero holandés de la microscopía. Ante los fracasos, la idea se olvidó hasta el siglo XIX, donde hubo experimentos, incluso escalofriantes como el intento de hacer una transfusión de leche de cabra al aparato circulatorio de un ser humano. Sólo hubo un caso exitoso registrado, cuando el ginecólogo inglés James Blundell, en 1818, salvó la vida a una paciente después de parir con una transfusión.
¿Qué determinaba que una transfusión fuera exitosa o resultara mortal para el receptor? La respuesta llegó hasta 1901 de la mano de un médico austríaco que trabajaba en el Instituto de Patología de Viena, Karl Landsteiner.
Landsteiner abordó el problema mediante un experimento. Tomó muestras de sangre de quienes trabajaban con él y procedió a mezclarlas. En algunos casos, la sangre de una persona provocaba que la de otra se aglutinara, y en otros no. Sistematizando las mezclas de sangre y los resultados que arrojaban, concluyó que la sangre se podía clasificar en tres grupos A, B y O (que originalmente llamó C). Según su tipología, una sangre de tipo A, por ejemplo, provocaría una aglutinación mortal en las de alguien que tuviera el tipo B o el tipo O, pero no en alguien que también fuera del tipo A. El descubrimiento le valió el Premio Nobel de Medicina o Fisiología de 1930.
Sus colaboradores pronto describieron un cuarto tipo sanguíneo, AB, que tenía las características de A y B y podía recibir transfusiones de sangre tipo A, B, O o AB. La tipología sanguínea y transfusiones dependían de que los eritrocitos tuvieran o no, en su superficie, los antígenos A o B, o ambos (AB), o ninguno (O).
Este descubrimiento fue interpretado en 1907 por el estadounidense Reuben Ottenberg como indicador de las posibilidades de éxito de una transfusión. Si se sabía el tipo sanguíneo de donante y receptor, se podría evitar que una transfusión provocara reacciones indeseables y la muerte.
A partir de ese momento, la pérdida de sangre por heridas, úlceras, partos difíciles y otras causas dejaba de ser necesariamente una sentencia de muerte.
Al virus de la polio y de vuelta a la sangre
Karl Landsteiner había nacido en Viena en 1868. Su padre, un famoso periodista, murió cuando Karl tenía sólo 6 años y fue criado sólo por su madre y parientes. A los 17 años consiguió entrar a estudiar medicina en la Universidad de Viena, donde encontró su verdadero tema de interés: la química orgánica. Por desgracia, no había suficientes puestos para investigadores y muchas veces Landsteiner tuvo que realizar su trabajo de investigación pasando de uno a otro instituto desde 1891, trabajando con algunos de los más influyentes científicos de su época, como el Emil Fischer, que llegaría a ganar el Premio Nobel. Su matrimonio, celebrado en 1916 duró hasta su muerte.
A partir de entonces, Landsteiner destacó publicando trabajos de bacteriología, anatomía patológica e inmunidad serológica, desarrollando algunos procesos que en aún hoy se siguen utilizando para trabajos de inmunología, y realizó importantes aportaciones al estudio de la sífilis, mortal enfermedad venérea que fue devastadora y muy temida hasta la aparición de los primeros medicamentos eficaces en 1910.
En 1908 se interesó por la poliomielitis, cuando logró inocularle la enfermedad a un mono, permitiendo así tener un modelo animal. En los años siguientes, trabajando en el Instituto Pasteur de Francia con Constantin Levaditi, logró demostrar que la polio era causada por un virus, describió su transmisión y su ciclo de vida y en 1912 demostró que era posible, aunque difícil, desarrollar una vacuna contra esta aterradora enfermedad. Tendrían que pasar más de cuatro décadas para que Jonas Salk desarrollara la primera vacuna contra la polio en 1955.
Sin quedar satisfecho con sus grandes aportaciones, hacia el final de su vida Karl Landsteiner volvió al tejido que le dio un Nobel: la sangre. Pese a haberse retirado oficialmente en 1939, siguió investigando y en 1940, trabajando en Estados Unidos junto con Alexander Wiener, publicó su descubrimiento de otro factor sanguíneo, el Rh, nombre que se le dio por haber sido estudiado en monos rhesus. El factor Rh se tiene (+) o no se tiene (-) dando como resultado la tipología que conocemos actualmente, que son los tipos descubiertos en 1901 y un signo positivo o negativo: A+, A-, B+, B-, etc.
Los dos científicos descubrieron que este factor era el responsable de una aterradora enfermedad infantil producida cuando la madre y el feto tienen tipos sanguíneos no compatibles, y el bebé se ve atacado por el sistema inmune de su madre. El descubrimiento permitió detectar y tratar estos casos, precisamente con transfusiones sanguíneas al bebé, evitando así que nazca con daños que en el pasado eran relativamente comunes.
Pese a su relevancia como fundador de la inmunología y la hematología, Landsteiner nunca disfrutó de los reflectores y raras veces dio entrevistas o habló en público. Su pasión era su laboratorio y trabajando en él sufrió en 1943 un infarto cardíaco que terminó con su vida.
Karl Landsteiner en la década de 1920. (Foto de la National Sciences Academy via Wikimedia Commons) |
Fue en 1655 cuando Richard Lower realizó la primera transfusión exitosa entre perros: desangró a uno casi hasta la muerte y lo revivió con sangre de otro. En 1667, el francés Jean-Baptiste Denis logró transfundir sangre de una oveja a dos personas, logrando que los tres sobrevivieran.
Qué era la sangre y por qué las transfusiones podían ser mortales resultaba un misterio en ese momento. Apenas se habían descubierto, poco después de Harvey, los glóbulos rojos o eritrocitos por parte de Jan Swammerdam, un pionero holandés de la microscopía. Ante los fracasos, la idea se olvidó hasta el siglo XIX, donde hubo experimentos, incluso escalofriantes como el intento de hacer una transfusión de leche de cabra al aparato circulatorio de un ser humano. Sólo hubo un caso exitoso registrado, cuando el ginecólogo inglés James Blundell, en 1818, salvó la vida a una paciente después de parir con una transfusión.
¿Qué determinaba que una transfusión fuera exitosa o resultara mortal para el receptor? La respuesta llegó hasta 1901 de la mano de un médico austríaco que trabajaba en el Instituto de Patología de Viena, Karl Landsteiner.
Landsteiner abordó el problema mediante un experimento. Tomó muestras de sangre de quienes trabajaban con él y procedió a mezclarlas. En algunos casos, la sangre de una persona provocaba que la de otra se aglutinara, y en otros no. Sistematizando las mezclas de sangre y los resultados que arrojaban, concluyó que la sangre se podía clasificar en tres grupos A, B y O (que originalmente llamó C). Según su tipología, una sangre de tipo A, por ejemplo, provocaría una aglutinación mortal en las de alguien que tuviera el tipo B o el tipo O, pero no en alguien que también fuera del tipo A. El descubrimiento le valió el Premio Nobel de Medicina o Fisiología de 1930.
Sus colaboradores pronto describieron un cuarto tipo sanguíneo, AB, que tenía las características de A y B y podía recibir transfusiones de sangre tipo A, B, O o AB. La tipología sanguínea y transfusiones dependían de que los eritrocitos tuvieran o no, en su superficie, los antígenos A o B, o ambos (AB), o ninguno (O).
Este descubrimiento fue interpretado en 1907 por el estadounidense Reuben Ottenberg como indicador de las posibilidades de éxito de una transfusión. Si se sabía el tipo sanguíneo de donante y receptor, se podría evitar que una transfusión provocara reacciones indeseables y la muerte.
A partir de ese momento, la pérdida de sangre por heridas, úlceras, partos difíciles y otras causas dejaba de ser necesariamente una sentencia de muerte.
Al virus de la polio y de vuelta a la sangre
Karl Landsteiner había nacido en Viena en 1868. Su padre, un famoso periodista, murió cuando Karl tenía sólo 6 años y fue criado sólo por su madre y parientes. A los 17 años consiguió entrar a estudiar medicina en la Universidad de Viena, donde encontró su verdadero tema de interés: la química orgánica. Por desgracia, no había suficientes puestos para investigadores y muchas veces Landsteiner tuvo que realizar su trabajo de investigación pasando de uno a otro instituto desde 1891, trabajando con algunos de los más influyentes científicos de su época, como el Emil Fischer, que llegaría a ganar el Premio Nobel. Su matrimonio, celebrado en 1916 duró hasta su muerte.
A partir de entonces, Landsteiner destacó publicando trabajos de bacteriología, anatomía patológica e inmunidad serológica, desarrollando algunos procesos que en aún hoy se siguen utilizando para trabajos de inmunología, y realizó importantes aportaciones al estudio de la sífilis, mortal enfermedad venérea que fue devastadora y muy temida hasta la aparición de los primeros medicamentos eficaces en 1910.
En 1908 se interesó por la poliomielitis, cuando logró inocularle la enfermedad a un mono, permitiendo así tener un modelo animal. En los años siguientes, trabajando en el Instituto Pasteur de Francia con Constantin Levaditi, logró demostrar que la polio era causada por un virus, describió su transmisión y su ciclo de vida y en 1912 demostró que era posible, aunque difícil, desarrollar una vacuna contra esta aterradora enfermedad. Tendrían que pasar más de cuatro décadas para que Jonas Salk desarrollara la primera vacuna contra la polio en 1955.
Sin quedar satisfecho con sus grandes aportaciones, hacia el final de su vida Karl Landsteiner volvió al tejido que le dio un Nobel: la sangre. Pese a haberse retirado oficialmente en 1939, siguió investigando y en 1940, trabajando en Estados Unidos junto con Alexander Wiener, publicó su descubrimiento de otro factor sanguíneo, el Rh, nombre que se le dio por haber sido estudiado en monos rhesus. El factor Rh se tiene (+) o no se tiene (-) dando como resultado la tipología que conocemos actualmente, que son los tipos descubiertos en 1901 y un signo positivo o negativo: A+, A-, B+, B-, etc.
Los dos científicos descubrieron que este factor era el responsable de una aterradora enfermedad infantil producida cuando la madre y el feto tienen tipos sanguíneos no compatibles, y el bebé se ve atacado por el sistema inmune de su madre. El descubrimiento permitió detectar y tratar estos casos, precisamente con transfusiones sanguíneas al bebé, evitando así que nazca con daños que en el pasado eran relativamente comunes.
Pese a su relevancia como fundador de la inmunología y la hematología, Landsteiner nunca disfrutó de los reflectores y raras veces dio entrevistas o habló en público. Su pasión era su laboratorio y trabajando en él sufrió en 1943 un infarto cardíaco que terminó con su vida.
La prueba de paternidadAntes de que se pudiera secuenciar el ADN, la prueba de paternidad por excelencia era la tipología sanguínea. No podía demostrar que un hombre fuera con certeza padre de un hijo, sólo que podía serlo o, contundentemente, en algunos casos, que NO podía serlo. Por ejemplo, dos padres de tipo A, sólo pueden tener hijos A u O (si los dos tienen un cromosoma dominante A y uno recesivo O). En tal caso, un hijo con tipo AB o B no podría ser hijo del padre, que tendría forzosamente que tener sangre de tipo B. Una herramienta imprecisa, pero la única que se tuvo durante años. |
La muerte de las estrellas
Las estrellas, como los seres vivos, nacen, se desarrollan y mueren. Pero sólo se reproducen después de su muerte, dando origen a otros cuerpos estelares.
Uno de los acontecimientos más emocionantes para la comunidad de astrónomos es la aparición de una supernova en los cielos, una explosión cósmica colosal que es el más espectacular final que puede tener una de una estrella. En la historia humana se habrán podido ver quizá unas mil supernovas, nada más, la primera de ellas registrada por los astrónomos chinos en el año 184 de la era común.
La fuerza de una supernova es suficiente para crear todos los elementos naturales que tienen más protones que el hierro, ya que consigue que se fusionen los núcleos de los elementos que se forman en el interior de las estrellas dando lugar a otros más pesados. Todos los elementos con más de 26 protones han sido creados en supernovas.
Lo que resulta sorprendente en un principio es que las estrellas no sean eternas o, al menos, que no todas hayan surgido en los inicios del universo hace unos 13.800 millones de años. Ciertamente hay algunas estrellas que se calcula que tienen esa edad, pero la mayoría de las que podemos observar y cuyas edades podemos estimar tienen entre mil y diez mil millones de años.
Las estrellas, entonces, existen a lo largo de un ciclo que va desde su nacimiento hasta su muerte. Y todo el ciclo depende de la cantidad de masa que tenga cada una de ellas.
Todo comienza en una nube de materia. Y la materia más abundante del universo, como descubrió la cosmóloga Cecilia Payne-Gaposchkin, es el hidrógeno, de modo que es el principal componente de las nebulosas, junto con helio y polvo estelar.
Toda la materia que existe atrae a todo el resto de la materia con la fuerza más omnipresente del universo, la gravedad, que es a la vez la más débil pero la que actúa a más distancia. Debido a la atracción gravitacional, se van formando nubes que al aumentar su masa ejercen una mayor atracción y sumando más materia. Finalmente, la estrella es tan masiva que su propia gravedad es lo bastante intensa para provocar que los núcleos de hidrógeno se fusionen formando núcleos de helio. Esa fusión libera una enorme cantidad de energía y provoca que se dispare y se ponga en marcha, en toda la estrella, un proceso de fusión en cadena que la convierte en un horno nuclear colosal.
Toda la energía que sale de la estrella en forma de luz, de calor, de radiaciones electromagnéticas, etc., es producto de esa fusión. A lo largo de la vida de la estrella, lo que los astrónomos llaman su “secuencia principal”, el hidrógeno se agota y pueden darse procesos de fusión del helio creando otros elementos mientras el núcleo de la estrella se va contrayendo lentamente como resultado de la pérdida de la energía que irradia, aumentando la presión y la temperatura de la propia estrella.
De hecho, cuando vemos una estrella en su secuencia principal, como el caso de nuestro Sol, estamos viendo también una lucha de equilibrio entre la gravedad de la estrella, que atrae la materia hacia su centro, y la presión del gas que la impulsa hacia afuera.
Pero, eventualmente, el combustible se agota y la estrella muere.
Esa muerte puede darse de distintas maneras.
Un fenómeno que participa en el final de muchas estrellas es lo que se conoce como “presión de degeneración” de los electrones o neutrones. Se trata de un principio de la mecánica cuántica que impide que estas partículas elementales ocupen los mismos niveles de energía.
Si la estrella tiene menos de 0,4 veces la masa del Sol (el Sol equivale a 333.000 veces la masa de la Tierra), es una enana roja. Nunca hemos visto la muerte de una enana roja porque sus vidas son de varios billones de años, más que la edad del universo, de modo que sólo podemos especular que su muerte se produce convirtiéndose en una enana blanca con el combustible agotado que irradia la energía que le queda de su época activa y, eventualmente, una enana negra fría, o bien podría estallar como una supernova.
Cuando la estrella tiene una masa mayor, de hasta 1,44 veces la del Sol, puede pasar varios miles de millones de años en su secuencia principal hasta que, por el agotamiento de su combustible, los gases de su exterior se expanden como una gigante roja, fusionando helio, antes de perder sus capas externas. Lo que queda entonces es una enana blanca, como en el caso de las estrellas más pequeñas, que no se contrae más debido a la presión de degeneración de los electrones, que actúan contra la gravedad.
Pero una estrella puede ser mucho más masiva que nuestro Sol. si tiene entre 1,44 y 3 veces la masa solar, esta cantidad de materia hará que al agotarse el combustible nuclear de la estrella colapse, se comprima debido a su propia atracción gravitacional, hasta formar una estrella de neutrones, un cuerpo extremadamente masivo. La masa de estas estrellas vence la presión de degeneración de los electrones, pero no la de los neutrones. Las estrellas de neutrones pueden emitir ondas de radio si giran a gran velocidad por lo que se les conoce como pulsares.
Si una estrella tiene una masa de aproximadamente 5 veces la del sol o mayor, cuando termina la fusión de hidrógeno lo que ocurrirá es la explosión de una supernova, y la materia restante después de esa colosal liberación de energía formará un agujero negro, una estrella tan densa que su atracción gravitacional impide incluso que la luz salga de ella. La enorme masa de del agujero negro vence a los fenómenos de presión de degeneración permitiendo un colapso total de la estrella. Lo que ocurre dentro de un agujero negro es uno de los grandes misterios de la cosmología, pero hoy sabemos que muchas galaxias tienen uno de ellos en su centro.
Esto quiere decir que muchas galaxias que conocemos hoy son producto de la explosión de supernovas cuya materia ha formado otras nubes que se han condensado en estrellas, planetas, sistemas solares y galaxias. Y estas mismas estrellas y galaxias tendrán también un ciclo de vida y un final.
Sabemos que el universo mismo tuvo un principio, o al menos es lo que nos dicen todas las observaciones y cálculos de la cosmología. ¿Tendrá un final? Ésa es una pregunta cuya respuesta aún está a la espera de nuevos descubrimientos.
La nebulosa de la hélice es lo que queda de la muerte de una estrella similar a nuestro sol, con una enana blanca en su centro. (Foto CC Spitzer Space Telescope NASA vía Wikimedia Commons) |
La fuerza de una supernova es suficiente para crear todos los elementos naturales que tienen más protones que el hierro, ya que consigue que se fusionen los núcleos de los elementos que se forman en el interior de las estrellas dando lugar a otros más pesados. Todos los elementos con más de 26 protones han sido creados en supernovas.
Lo que resulta sorprendente en un principio es que las estrellas no sean eternas o, al menos, que no todas hayan surgido en los inicios del universo hace unos 13.800 millones de años. Ciertamente hay algunas estrellas que se calcula que tienen esa edad, pero la mayoría de las que podemos observar y cuyas edades podemos estimar tienen entre mil y diez mil millones de años.
Las estrellas, entonces, existen a lo largo de un ciclo que va desde su nacimiento hasta su muerte. Y todo el ciclo depende de la cantidad de masa que tenga cada una de ellas.
Todo comienza en una nube de materia. Y la materia más abundante del universo, como descubrió la cosmóloga Cecilia Payne-Gaposchkin, es el hidrógeno, de modo que es el principal componente de las nebulosas, junto con helio y polvo estelar.
Toda la materia que existe atrae a todo el resto de la materia con la fuerza más omnipresente del universo, la gravedad, que es a la vez la más débil pero la que actúa a más distancia. Debido a la atracción gravitacional, se van formando nubes que al aumentar su masa ejercen una mayor atracción y sumando más materia. Finalmente, la estrella es tan masiva que su propia gravedad es lo bastante intensa para provocar que los núcleos de hidrógeno se fusionen formando núcleos de helio. Esa fusión libera una enorme cantidad de energía y provoca que se dispare y se ponga en marcha, en toda la estrella, un proceso de fusión en cadena que la convierte en un horno nuclear colosal.
Toda la energía que sale de la estrella en forma de luz, de calor, de radiaciones electromagnéticas, etc., es producto de esa fusión. A lo largo de la vida de la estrella, lo que los astrónomos llaman su “secuencia principal”, el hidrógeno se agota y pueden darse procesos de fusión del helio creando otros elementos mientras el núcleo de la estrella se va contrayendo lentamente como resultado de la pérdida de la energía que irradia, aumentando la presión y la temperatura de la propia estrella.
De hecho, cuando vemos una estrella en su secuencia principal, como el caso de nuestro Sol, estamos viendo también una lucha de equilibrio entre la gravedad de la estrella, que atrae la materia hacia su centro, y la presión del gas que la impulsa hacia afuera.
Pero, eventualmente, el combustible se agota y la estrella muere.
Esa muerte puede darse de distintas maneras.
Un fenómeno que participa en el final de muchas estrellas es lo que se conoce como “presión de degeneración” de los electrones o neutrones. Se trata de un principio de la mecánica cuántica que impide que estas partículas elementales ocupen los mismos niveles de energía.
Si la estrella tiene menos de 0,4 veces la masa del Sol (el Sol equivale a 333.000 veces la masa de la Tierra), es una enana roja. Nunca hemos visto la muerte de una enana roja porque sus vidas son de varios billones de años, más que la edad del universo, de modo que sólo podemos especular que su muerte se produce convirtiéndose en una enana blanca con el combustible agotado que irradia la energía que le queda de su época activa y, eventualmente, una enana negra fría, o bien podría estallar como una supernova.
Cuando la estrella tiene una masa mayor, de hasta 1,44 veces la del Sol, puede pasar varios miles de millones de años en su secuencia principal hasta que, por el agotamiento de su combustible, los gases de su exterior se expanden como una gigante roja, fusionando helio, antes de perder sus capas externas. Lo que queda entonces es una enana blanca, como en el caso de las estrellas más pequeñas, que no se contrae más debido a la presión de degeneración de los electrones, que actúan contra la gravedad.
Pero una estrella puede ser mucho más masiva que nuestro Sol. si tiene entre 1,44 y 3 veces la masa solar, esta cantidad de materia hará que al agotarse el combustible nuclear de la estrella colapse, se comprima debido a su propia atracción gravitacional, hasta formar una estrella de neutrones, un cuerpo extremadamente masivo. La masa de estas estrellas vence la presión de degeneración de los electrones, pero no la de los neutrones. Las estrellas de neutrones pueden emitir ondas de radio si giran a gran velocidad por lo que se les conoce como pulsares.
Si una estrella tiene una masa de aproximadamente 5 veces la del sol o mayor, cuando termina la fusión de hidrógeno lo que ocurrirá es la explosión de una supernova, y la materia restante después de esa colosal liberación de energía formará un agujero negro, una estrella tan densa que su atracción gravitacional impide incluso que la luz salga de ella. La enorme masa de del agujero negro vence a los fenómenos de presión de degeneración permitiendo un colapso total de la estrella. Lo que ocurre dentro de un agujero negro es uno de los grandes misterios de la cosmología, pero hoy sabemos que muchas galaxias tienen uno de ellos en su centro.
Esto quiere decir que muchas galaxias que conocemos hoy son producto de la explosión de supernovas cuya materia ha formado otras nubes que se han condensado en estrellas, planetas, sistemas solares y galaxias. Y estas mismas estrellas y galaxias tendrán también un ciclo de vida y un final.
Sabemos que el universo mismo tuvo un principio, o al menos es lo que nos dicen todas las observaciones y cálculos de la cosmología. ¿Tendrá un final? Ésa es una pregunta cuya respuesta aún está a la espera de nuevos descubrimientos.
El fin de nuestro solHemos visto que nuestro sol eventualmente se convertirá en una gigante roja. De hecho, se prevé que se expandirá tanto que abarcará la órbita de la Tierra dentro de alrededor de 6 o 7 mil millones de años. Pero el aumento de su temperatura acabará previsiblemente con la vida en la Tierra dentro de algo menos de dos mil millones de años. A menos que los seres humanos sobrevivamos y colonicemos otros planetas, no podremos ser testigos de los últimos capítulos de la estrella que nos dio la vida. |
Que invente Unamuno
Miguel de Unamuno en 1930. (Foto D.P. anónima vía Wikimedia Commons) |
La frase así, por sí misma, se puede interpretar de varias formas.
“Me da pereza inventar, que inventen ellos.”
“Carezco de los medios necesarios para inventar, que inventen ellos.”
“No creo en los beneficios de la invención, que inventen ellos.”
“Yo cumplo mi función en el mundo, y no es la de inventar, que inventen ellos.”
Estos ejemplos bastan para ver que sin un contexto mayor, la frase en sí misma no significa demasiado. Y quizás por eso ha sido utilizada y citada en apoyo de afirmaciones incluso contradictorias.
La primera pregunta que habría que responder para determinar cuál es el sentido que probablemente Unamuno quiso darle a su frase es la que nos sugiere precisamente la diversidad de interpretaciones que tiene: ¿era Unamuno enemigo de la ciencia y la técnica?
Curiosamente, la respuesta depende del momento al que hagamos referencia, acudiendo a la definición del contemporáneo y frecuente adversario de Unamuno, Ortega y Gasset, “yo soy yo y mi circunstancia”, Unamuno fue distinto en distintas circunstancias.
Antes de 1897, Unamuno era radicalmente favorable a la ciencia. Según cuenta Josep Eladi Baños en su ensayo de 2007 “Cien años de ¡Que inventen ellos!”, hasta entonces el filósofo era un positivista, un convencido de que la ciencia lo podía todo, tenía todas las respuesta, físicas y metafísicas, que el hombre pudiera plantear, sin pensar en que hay preguntas que según como se formulen son simplemente imposibles de responder. La profunda crisis religiosa que sufrió Unamuno en 1897 y que lo llevó a abandonar también a su partido, el PSOE, transformó su visión y se fue orientando progresivamente más hacia la espiritualidad como fuente de respuestas. A partir de 1897, Unamuno fue cada vez más anticientífico, pero más como postura filosófica que le permitía cimentar su visión mística que como un rechazo en la práctica a los avances que la ciencia iba ofreciendo a la sociedad y que le resultaban fascinantes.
La segunda pregunta es precisamente cuál es el contexto en el que escribió la frase y qué implicaba en su visión general de la realidad. Aquí hay también dos respuestas. La primera vez que aparece la frase es en su ensayo “El pórtico del templo” de 1906, y se produce en una conversación entre dos amigos, Román y Sabino, en los que se puede ver el espíritu del debate ciencia-religión que mantuvieron Ortega y Gasset y Unamuno, Ortega del lado de la razón y Unamuno de la mística. Román defiende que el español inventa “otras cosas” aunque no sean tan evidentemente útiles como las de la ciencia.
ROMÁN – ¡Ah! ¿Y quién te dice que no hemos inventado otras cosas?Unamuno parecía estar tomando la posición de la última de las interpretaciones sugeridas: los españoles tienen una función literaria, espiritual, filosófica, y ésa es su aportación a la división del trabajo entre los seres humanos, así que la invención científica les queda a “ellos” sin renunciar a la posibilidad de beneficiarnos de ella, como ellos se beneficiarían del trabajo artístico y espiritual español.
SABINO – ¡Cosas inútiles!
ROMÁN – Y ¿quién es juez de su utilidad? Desengáñate: cuando no nos ponemos a inventar cosas de esas, es que no sentimos la necesidad de ellas.
SABINO – Pero así que otros las inventan, las tomamos de ellos, nos las apropiamos y de ellas nos servimos; ¡eso sí!
ROMÁN – Inventen, pues, ellos y nosotros nos aprovecharemos de sus invenciones. Pues confío y espero en que estarás convencido, como yo lo estoy, de que la luz eléctrica alumbra aquí tan bien como allí donde se inventó.
La impresión que deja es que encuentra necesario el rechazo filosófico de la ciencia aunque no lo lleve a la práctica, como si fuera un requisito de su espiritualidad tardíamente descubierta. Pero al mismo tiempo es un enamorado del progreso en muchas otras facetas.
En su obra magna de 1912, El sentimiento trágico de la vida, Unamuno retomaría la frase para responder a quien se escandalizaba por ella. Y se reafirmaba: “Expresión paradójica a que no renuncio” para luego explicarse: “ ¿Que no tenemos espíritu científico? ¿Y qué, si tenemos algún espíritu? ¿Y se sabe si el que tenemos es o no compatible con ese otro?” Y continuaba “Mas al decir, ¡que inventen ellos!, no quise decir que hayamos de contentarnos con un papel pasivo, no. Ellos a la ciencia de que nos aprovecharemos; nosotros, a lo nuestro”.
En otra ocasión, Unamuno insistiría “Es inútil darle vueltas, nuestro don es ante todo un don literario, y todo aquí, incluso la filosofía, se convierte en literatura.”
Su separación de su postura filosófica originaria comenzó con un rechazo a lo que entiende como “cientificismo” (“fe ciega en la ciencia”) al que separa de la “verdadera ciencia” en su ensayo llamado precisamente “Cientificismo” de 1902 cuando dice: “el cientificismo es la fe, no de los hombres de ciencia, sino de esa burguesía intelectual, ensoberbecida y envidiosa” a la cual acusa de no entender la ciencia pero al mismo tiempo de no poder negar “los efectos del ferrocarril, del telégrafo, del teléfono, del fonógrafo, de las ciencias aplicadas en general” que mencionaría después.
Y esto parecía darle cierta tranquilidad. No era necesario resolver ese problema porque como español lo suyo no era la ciencia. Y además, si la ciencia combatía la fe, un hombre de fe debía combatir a la ciencia.
Pero al paso del tiempo, parece irse radicalizando hasta declararse enemigo de la ciencia. Da la impresión de que su desilusión porque la ciencia no puede responder a preguntas trascendentes lo lleva a concluir que debe rechazarla, hasta que llega a escribirle a su amigo Pedro Jiménez Ilundain: “Yo no le oculto que hago votos por la derrota de la técnica y hasta de la ciencia”.
El problema de Unamuno es un conflicto que aún no se resuelve. Tal vez quien ha dado la mejor explicación al respecto fue su amigo Enrique de Areilza, en carta también a Jiménez Ilundain. Según Areilza, como la ciencia no le ha traído a Unamuno gloria ni tranquilidad de espíritu, “la odia a muerte; la odia tanto o más cuanto la tiene dentro; es la espina dolorosa que mortifica su fe, pero de la cual no podrá desprenderse porque constituye el fondo de su gran saber y su valía”.
Si tal es la explicación correcta a la relación de Unamuno con la ciencia, es también reflejo del conflicto que muchos siguen teniendo. No, ciertamente, los científicos españoles para quienes el “¡que inventen ellos!” es parte de una circunstancia pasada que, por fortuna, ha cambiado.
Invisibilidad, engaño y simulación naturales
El sueño de la invisibilidad es una realidad para numerosas especies animales y vegetales que, por distintos métodos, se aseguran de pasar tan desapercibidos como si no estuvieran allí.
Para las presas y los depredadores, una forma de mantenerse vivo es ser más rápido, más temible o más astuto que sus adversario. Pero esas opciones representan un gasto enorme de recursos, de esfuerzo y de riesgo, como lo demuestra la carrera armamentística que mantienen especies como los guepardos y las gacelas, donde cada uno de ellos ha creado una presión de selección para el otro, al favorecer la supervivencia y reproducción precisamente de los más rápidos de cada una de ambas especies, poniendo a la larga a ambas en peligro.
Pero hay una opción de ahorro de recursos que con frecuencia se ha desarrollado en el mundo vivo: no hacer nada. Mimetizarnos con el entorno, desaparecer o fingir lo que no somos.
Especialmente si nuestros depredadores o presas son reptiles, el mecanismo de su visión suele depender de la detección del movimiento contra un fondo, de modo que si un animal queda inmóvil (incluso dejando de respirar), se vuelve invisible. La inmovilidad es la forma más sencilla del mimetismo que los biólogos llaman “cripsis”: adaptaciones de conducta y aspecto que hacen que los animales pasen inadvertidos, un vocablo que procede del griego “kryptos” que significa “secreto” y que encontramos en otras palabras como ”cripta” o “criptografía”, el arte del cifrado.
Otra opción frecuente es adoptar (evolutivamente, se entiende, no de modo voluntario) un aspecto que no nos obligue a hacer demasiado, sino que baste para confundir, ahuyentar, distraer o repeler a los posibles depredadores. La cripsis homocromática o de color igual implica que el ser vivo adopte un color similar al fondo contra el que habitualmente lo vemos, como ocurre con los animales que mudan su pelaje de verano por uno blanco durante el invierno para ser menos detectables al estar en la nieve. Lo mismo pasa con el color verde de algunas ranas, el color tostado de muchos animales del desierto o de la sabana, como el león, o el color cenizo de algunas polillas y lagartijas que las disimula contra los troncos de los árboles.
Pero también puede ser un mimetismo mucho más completo, que resulte un completo disfraz, asumiendo el aspecto de partes de su entorno. Los insectos palo y los insectos hoja, así como las orugas que simulan ser ramitas verdes se benefician de esta característica. Muchos insectos hoja subrayan la ilusión con su comportamiento, agitándose cuando hay viento para no llamar la atención por su inmovilidad, precisamente.
Otros animales se caracterizan por utilizar patrones más o menos repetitivos que sirven de elementos disruptivos para no resaltar contra el fondo en el que habitualmente se mueven o para hacer menos identificable visualmente al individuo, como es el caso de las cebras, los tigres o los leopardos. En el mar, el maestro del camuflaje o cripsis entre los depredadores es el llamado pez piedra (Synanceia verrucosa), común en los océanos Índico y Pacífico, que se confunde con el fondo marino gracias a su aspecto pedregoso y accidentado, acechando hasta que pasa una presa cerca para saltar y devorarla. Como añadido tiene la característica de tener espinas venenosas en la aleta dorsal que lo convierten en el pez más tóxico del mundo para los humanos.
Existe además una forma de mimetismo distinta de la cripsis en la cual un ser vivo, en vez de camuflarse para disimular su presencia, cambia ésta adoptando la forma de otro animal o algún rasgo de éste para ofrecer un aspecto temible, tóxico o simplemente de mal sabor.
Un ejemplo de esta transformación es la imitación de la serpiente coralillo, que vive a lo largo del continente americano y es mortalmente venenosa. Se distingue por una sucesión de bandas rojas y negras separadas por anillos amarillos, coloración brillante que advierte que se trata de un animal tóxico. La falsa coralillo, absolutamente inocua, ha adoptado una coloración de bandas rojas separadas por tres anillos sucesivos: negro, amarillo y negro. Aunque la imitación no es precisa, basta para engañar a los depredadores y al hombre, que ha creado incluso rimas para identificar el peligro. En español se dice: “si el rojo toca amarillo, es coralillo”. Otros ejemplos son las mariposas y orugas que tienen ocelos o falsos ojos que hacen que parezcan la cabeza de grandes animales o serpientes igualmente peligrosas.
Una de las formas más curiosas de la cripsis o camuflaje es directamente la invisibilidad parcial. Es una opción útil si uno no vive en el fondo del mar, donde las distintas texturas y colores permiten que evolucione un camuflaje efectivo. Viviendo lejos del fondo, no existe esa opción. Algunos seres vivos en el mar, como las larvas de la anguila o los calamares del género Chiroteuthis, pulpos, moluscos y caracoles, han desarrollado tejidos transparentes que los hacen invisibles a menos que uno los esté buscando con detenimiento.
De hecho, cuentan los expertos, el océano está habitado por enormes cantidades de organismos que han desarrollado la transparencia como mecanismo de supervivencia, y solemos nadar entre ellos sin siquiera darnos cuenta de que están allí. Pero esto también provoca su propia carrera armamentística, presionando para que los depredadores vayan desarrollando la capacidad de ver la porción ultravioleta del espectro electromagnético para detectar a sus presas.
El campeón del mimetismo, sin embargo, son los cefalópodos: calamares, pulpos y sepias, que han desarrollado órganos de pigmentación llamados “cromatóforos” que les permiten cambiar de aspecto casi instantáneamente. Su capacidad de cambiar de aspecto está tan desarrollada que se utiliza también como método de comunicación entre sepias y como parte del cortejo.
Hablando de cortejo, el mimetismo es utilizado de forma muy eficaz para la reproducción por muchísimas plantas, entre las que las más evidentes son las orquídeas, que simulan los órganos reproductivos de hembras de distintos insectos para conseguir que el macho intente copular con ellas y como resultado se convierta en el diseminador de su polen.
La mentira verbal puede ser privativa del ser humano, pero la capacidad de engañar es, claramente, una necesidad vital para la supervivencia.
Búho nevado aterrizando en Canadá. (Foto CC David Hemmings via Wikimedia Commons) |
Pero hay una opción de ahorro de recursos que con frecuencia se ha desarrollado en el mundo vivo: no hacer nada. Mimetizarnos con el entorno, desaparecer o fingir lo que no somos.
Especialmente si nuestros depredadores o presas son reptiles, el mecanismo de su visión suele depender de la detección del movimiento contra un fondo, de modo que si un animal queda inmóvil (incluso dejando de respirar), se vuelve invisible. La inmovilidad es la forma más sencilla del mimetismo que los biólogos llaman “cripsis”: adaptaciones de conducta y aspecto que hacen que los animales pasen inadvertidos, un vocablo que procede del griego “kryptos” que significa “secreto” y que encontramos en otras palabras como ”cripta” o “criptografía”, el arte del cifrado.
Otra opción frecuente es adoptar (evolutivamente, se entiende, no de modo voluntario) un aspecto que no nos obligue a hacer demasiado, sino que baste para confundir, ahuyentar, distraer o repeler a los posibles depredadores. La cripsis homocromática o de color igual implica que el ser vivo adopte un color similar al fondo contra el que habitualmente lo vemos, como ocurre con los animales que mudan su pelaje de verano por uno blanco durante el invierno para ser menos detectables al estar en la nieve. Lo mismo pasa con el color verde de algunas ranas, el color tostado de muchos animales del desierto o de la sabana, como el león, o el color cenizo de algunas polillas y lagartijas que las disimula contra los troncos de los árboles.
Pero también puede ser un mimetismo mucho más completo, que resulte un completo disfraz, asumiendo el aspecto de partes de su entorno. Los insectos palo y los insectos hoja, así como las orugas que simulan ser ramitas verdes se benefician de esta característica. Muchos insectos hoja subrayan la ilusión con su comportamiento, agitándose cuando hay viento para no llamar la atención por su inmovilidad, precisamente.
Otros animales se caracterizan por utilizar patrones más o menos repetitivos que sirven de elementos disruptivos para no resaltar contra el fondo en el que habitualmente se mueven o para hacer menos identificable visualmente al individuo, como es el caso de las cebras, los tigres o los leopardos. En el mar, el maestro del camuflaje o cripsis entre los depredadores es el llamado pez piedra (Synanceia verrucosa), común en los océanos Índico y Pacífico, que se confunde con el fondo marino gracias a su aspecto pedregoso y accidentado, acechando hasta que pasa una presa cerca para saltar y devorarla. Como añadido tiene la característica de tener espinas venenosas en la aleta dorsal que lo convierten en el pez más tóxico del mundo para los humanos.
Existe además una forma de mimetismo distinta de la cripsis en la cual un ser vivo, en vez de camuflarse para disimular su presencia, cambia ésta adoptando la forma de otro animal o algún rasgo de éste para ofrecer un aspecto temible, tóxico o simplemente de mal sabor.
Un ejemplo de esta transformación es la imitación de la serpiente coralillo, que vive a lo largo del continente americano y es mortalmente venenosa. Se distingue por una sucesión de bandas rojas y negras separadas por anillos amarillos, coloración brillante que advierte que se trata de un animal tóxico. La falsa coralillo, absolutamente inocua, ha adoptado una coloración de bandas rojas separadas por tres anillos sucesivos: negro, amarillo y negro. Aunque la imitación no es precisa, basta para engañar a los depredadores y al hombre, que ha creado incluso rimas para identificar el peligro. En español se dice: “si el rojo toca amarillo, es coralillo”. Otros ejemplos son las mariposas y orugas que tienen ocelos o falsos ojos que hacen que parezcan la cabeza de grandes animales o serpientes igualmente peligrosas.
Una de las formas más curiosas de la cripsis o camuflaje es directamente la invisibilidad parcial. Es una opción útil si uno no vive en el fondo del mar, donde las distintas texturas y colores permiten que evolucione un camuflaje efectivo. Viviendo lejos del fondo, no existe esa opción. Algunos seres vivos en el mar, como las larvas de la anguila o los calamares del género Chiroteuthis, pulpos, moluscos y caracoles, han desarrollado tejidos transparentes que los hacen invisibles a menos que uno los esté buscando con detenimiento.
De hecho, cuentan los expertos, el océano está habitado por enormes cantidades de organismos que han desarrollado la transparencia como mecanismo de supervivencia, y solemos nadar entre ellos sin siquiera darnos cuenta de que están allí. Pero esto también provoca su propia carrera armamentística, presionando para que los depredadores vayan desarrollando la capacidad de ver la porción ultravioleta del espectro electromagnético para detectar a sus presas.
El campeón del mimetismo, sin embargo, son los cefalópodos: calamares, pulpos y sepias, que han desarrollado órganos de pigmentación llamados “cromatóforos” que les permiten cambiar de aspecto casi instantáneamente. Su capacidad de cambiar de aspecto está tan desarrollada que se utiliza también como método de comunicación entre sepias y como parte del cortejo.
Hablando de cortejo, el mimetismo es utilizado de forma muy eficaz para la reproducción por muchísimas plantas, entre las que las más evidentes son las orquídeas, que simulan los órganos reproductivos de hembras de distintos insectos para conseguir que el macho intente copular con ellas y como resultado se convierta en el diseminador de su polen.
La mentira verbal puede ser privativa del ser humano, pero la capacidad de engañar es, claramente, una necesidad vital para la supervivencia.
Interferencia de señalesEl engaño o camuflaje no es necesariamente siempre visual. Los depredadores pueden utilizar otros sentidos para detectar a sus presas, y por ello hay también mimetismos olfativos o, incluso, auditivos. La polilla tigre, por ejemplo, es capaz de emitir ultrasonidos que, creen los investigadores, sirven para interferir con las señales que usa para detectar a sus presas por sonar su principal depredador: el murciélago. |
Suscribirse a:
Entradas (Atom)