Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

mayo 12, 2015

Hablar sin hablar

Comunicarse con otros seres humanos es algo que hacemos continuamente, de formas que la ciencia del comportamiento apenas empieza a comprender, y que van mucho más allá de la palabra.

La mano abierta y levantada, la sonrisa y las cejas levantadas
son gestos de saludo que compartimos todos los humanos, de
todas las culturas, la más básica comunicación no verbal.
(Imagen CC NASA vía Wikimedia Commons) 
La comunicación humana por excelencia es el lenguaje. Hasta donde sabemos, ninguna otra especie animal cuenta con un lenguaje estructurado, capaz de expresar abstracciones y de formular cuestionamientos. Escrito, nuestro lenguaje es capaz de informarnos, educarnos y evocar en nosotros todas nuestras emociones, tanto positivas como negativas, en obras académicas, periodísticas o literarias. Hablado es nuestra forma esencial de interactuar con otros seres humanos.

Hoy, cuando gran cantidad de interacciones se realizan mediante la palabra escrita a través de las redes sociales o la mensajería instantánea de textos, suele decirse que la comunicación es incompleta, hay malentendidos cuando una frase se interpreta con tal o cual entonación, falta una serie de elementos que modifican, incluso invierten, el sentido que se pretende dar a una oración. Nos quejamos de que la ironía en las redes sociales falla con frecuencia e incluso hemos desarrollado emoticonos para darle entonación a nuestras palabras.

Estas quejas nos revelan claramente que, pese a su enorme valor, el lenguaje verbal es apenas una parte de la comunicación que establecemos entre nosotros. Una comunicación que es esencial sobre todo porque somos primero que nada un animal gregario, social, y el funcionamiento de nuestras comunidades depende en gran medida de que nos entendamos unos a otros claramente.

A la comunicación que no depende de las palabras la llamamos “comunicación no verbal”. Fue Charles Darwin, en su libro “La expresión de las emociones en los animales y en el hombre”, quien por primera vez intentó estudiar científicamente aspectos de la comunicación no verbal como las expresiones faciales y la gestualidad. Para Darwin, al menos algunas expresiones eran universales y determinadas genéticamente.

Las tendencias antropológicas de la primera mitad del siglo XX, por su parte, afirmaban que todo el lenguaje no verbal, incluidas las expresiones faciales, dependían de la cultura. Fue necesario que aparecieran científicos como los fundadores de la etología (la ciencia que estudia el comportamiento genéticamente determinado) para confirmar que, efectivamente, hay un repertorio fundamental de expresiones que son comunes a todos los seres humanos, a todas las culturas, y que por tanto es razonable suponer que son parte de nuestra dotación genética. A fines de la década de 1950, el psicólogo Paul Ekman identificó seis emociones básicas que se corresponden a expresiones faciales universales y que comunican, sin decirlo, cuándo estamos enfadados, alegres, tristes, temerosos, sorprendidos o asqueados.

Sabemos que las diversas culturas establecen límites a la expresión de ciertas emociones bajo determinadas condiciones, pero sabemos también que todos los seres humanos entendemos claramente que una sonrisa es una expresión amistosa. En ninguna cultura significa otra cosa.

Las expresiones faciales son parte de una de las cuatro grandes categorías de la comunicación no verbal: el lenguaje corporal. En esta categoría se incluye también la gestualidad que acompaña a nuestro lenguaje, la postura del cuerpo, o el contacto visual. Todos podemos reconocer una “actitud” amenazante o conciliadora, reveladas en la postura que asume una persona, e incluso tenemos expresiones verbales para ellas, como “bajar la cabeza”, “ser muy echado palante” o “mirar a la gente desde arriba”.

Otra categoría, a la que hacíamo alusión en el primer párrafo, son todos los modificadores auditivos de nuestro lenguaje verbal, lo que los psicólogos sociales llaman “paralenguaje”: la entonación, la inflexión, el énfasis, la velocidad del habla, las pausas, el volumen, la risa y otros sonidos cambian, modulan o alteran las palabras a las que acompañan y son precisamente lo que más echamos en falta en la comunicación textual de las redes sociales.

La tercera categoría del lenguaje no verbal es el espacio interpersonal, cuyo estudio se llama “proxémica” y se refiere a cómo nuestra proximidad física con otras personas expresa nuestra relación con ellos. Así, por ejemplo, cuando conversamos con un amigo lo hacemos a una distancia que encontraríamos incómoda si se tratara de un extraño. De hecho, cuando las circunstancias nos obligan a tener una cercanía excesiva con desconocidos, como ocurre en un autobús repleto o en un ascensor, establecemos una “distancia social” al evitar que nuestras miradas se encuentren, con frecuencia fijando la vista en puntos poco conflictivos como los números de piso que se van sucediendo o los anuncios en los medios de transporte, lo que le da material de trabajo abundante a comediantes y publicistas. Este manejo de la cercanía física como expresión de nuestras emociones o actitudes se da no sólo a nivel individual, sino de grupos. Cuando varios amigos se reúnen en un corro lo hacen a distancias mucho menores que cuando se trata de desconocidos.

La cuarta y última categoría de la comunicación no verbal está conformada por nuestros efectos personales: ropa, accesorios, maquillaje, peinado, joyería y otros elementos que también utilizamos continuamente para decir quiénes somos, cómo nos percibimos a nosotros mismos, cómo queremos ser vistos y valorados. Quien utiliza el cabello corto y un traje oscuro está enviando un mensaje muy distinto de quien usa el pelo largo, vaqueros y una cazadora informal, y al menos en una primera instancia nos llevan a hacer juicios sobre ellos basados en la primera impresión.

Por supuesto, los distintos elementos del lenguaje no verbal no funcionan de modo independiente, sino que están bombardeándonos de modo continuo y simultáneo (o, al revés, con ellos bombardeamos nosotros a los demás continuamente). Una entonación displicente, un gesto de asco, una gran distancia física y una ropa atildada dan un mensaje totalmente distinto de una entonación amable, una sonrisa, un intento de cercanía y ropa informal pero cuidada. Todo ello a veces puede ser mucho más poderoso que las palabras que se están diciendo y nos comunica con los demás mucho más ampliamente de lo que parece a primera vista.

Los excesos

Algunas personas suelen presentar el lenguaje no verbal como una ciencia exacta que se puede utilizar para lograr resultados asombrosos en quienes nos rodean, influir en ellos y controlarlos, o al menos de “saber lo que realmente piensan y sienten” descodificando sus gestos y posturas. Aunque cada vez sabemos más acerca de esta forma de comunicación fundamental, aún no estamos ni siquiera cerca de poder lograr esas fantásticas afirmaciones que solemos hallar en el mundo de la “autoayuda” y otras expresiones del new age.

mayo 10, 2015

La guerra y la paz de Alfred Nobel

Uno de los apellidos más conocidos del mundo, el de Alfred Nobel, resume una historia que va mucho más allá del “inventor de la dinamita” con el que se suele despachar al apasionado inventor sueco.

Cada año, los medios de comunicación repiten una y otra vez el apellido Nobel, primero, durante todo el año pero sobre todo en septiembre, haciéndose cábalas sobre quiénes podrían ser los ganadores de los premios que llevan ese nombre, una tensión informativa potenciada por el hecho de que los responsables de conceder los premios son herméticos respecto a los candidatos que están o no teniendo en consideración. Después, a lo largo de una semana o dos, se van sucediendo los anuncios de los nombres de los premiados del año en física, química, medidina o fisiología, paz y literatura. Finalmente, el 10 de diciembre es la ceremonia de entrega de los premios en Estocolmo, Suecia, salvo el de la Paz, que se entrega en Oslo, Noruega.

Lo que con frecuencia se omite en la abundante información que celebra a los científicos, escritores y activistas por la paz, es el por qué de la fecha de entrega de los premios, aunque suele anotarse que la asignación en metálico que acompaña el diploma y la medalla proceden de un fideicomiso creado con la fortuna de Alfred Nobel. La asignación, por cierto, en 2014 fue de unos 840.000 euros.

La ceremonia de entrega de los premios tiene por objeto recordar la fecha de la muerte de su creador, el 10 de diciembre de 1896, en San Remo, Italia, uno de sus muchos hogares.

Su primer hogar, sin embargo, fue Estocolmo, donde nació el 21 de octubre de 1833, cuarto de los ocho hijos de un emprendedor ingeniero e inventor, Immanuel, y su esposa Karolina. Apenas tenía 9 años cuando su padre llevó a la familia a San Petersburgo, Rusia, donde había fundado una empresa dedicada a suministrar equipo a los ejércitos del desastroso zar Nicolás I y que sería además pionera en la instalación de calefacción doméstica en Rusia.

La mudanza le significó además a Alfred abandonar la única escuela a la que asistiría en su vida, pues en lo sucesivo sería educado por tutores con una educación amplia que incluyó las artes, la literatura, varios idiomas, además de técnica y ciencia que animaron su amor por la ingeniería y los explosivos, estimulado por su propio padre. Habiendo encontrado su vocación, Immanuel mandó a Alfred en 1850 lo envió a estudiar ingeniería química visitando Suecia, Alemania, Francia y los Estados Unidos.

La familia no volvería a Suecia sino hasta 1859, abandonando Rusia después de que la empresa había quebrado cuando el nuevo gobierno ruso se negó a respetar acuerdos previos con los Nobel. Para entonces, Alfred ya tenía a su nombre tres patentes menores: de un medidor de gas, de un medidor de líquidos y de un barómetro mejorado. Pero desde sus viajes, su mayor interés era la nitroglicerina, un potente explosivo descubierto por Ascanio Sobrero en 1847. Alfred siguió experimentando en San Petersburgo hasta que decidió reunirse con su familia en Suecia en 1863 y pronto instalaron una fábrica de nitroglicerina y de unos detonadores inventados por él mismo que servían para hacerla estallar.

La principal característica de la nitroglicerina es su inestabilidad, su impredecibilidad para estallar o no. De hecho, un hermano de Nobel, Emil, murió junto con otros trabajadores de su fábrica en 1864 debido a una explosión de nitroglicerina en sus instalaciones de Estocolmo, lo cual además obligó a Nobel a llevar su laboratorio a zonas menos pobladas. El desafío que enfrentaban los químicos de la época era encontrar una forma de dominar la nitroglicerina y conseguir que se mantuviera estable, estallando sólo cuando se deseara.

La solución que encontró Nobel fue mezclar la nitroglicerina con tierra de diatomeas llamada “kieselguhr”. El sílice, un material inerte (del que está hecha mayormente la arena) estabilizaba la nitroglicerina formando una pasta a la que se podía dar forma de tubos para introducirla en orificios en la roca y hacer más efectiva su explosión. Llamó a la combinación “dinamita” y, junto con unos casquillos detonadores mejorados que había producido, cambió el mundo de la ingeniería permitiendo por primera vez explosiones potentes, controladas y eficientes. La minería, la construcción de carreteras, la demolición y otras industrias lo convirtieron en millonario en poco tiempo.

Desde 1865, su pasión por la invención y la industria lo llevarían a fundar más de 90 fábricas e industrias diversas en 20 países, muchas de las cuales hoy siguen existiendo sin que se conozca su relación originaria con Nobel.  Y reuniría 355 patentes, la mayoría relacionadas con explosivos, pero también con sus avances en la creación de caucho y piel sintéticos, seda artificial, forja de piezas metálicas y otros descubrimientos.
Pero su logro, que veía como una gran aportación al progreso y a la mejoría de la vida de toda la gente a su alrededor, llamó de inmediato la atención de la industria bélica. Nobel mismo, un pacifista declarado, vio el asunto con inquietud. No quería eso, pero no podía evitarlo.

En 1888, cuando murió su hermano Ludvig, a su vez inventor del buque cisterna e innovador en la industria petrolera, algunos diarios interpretaron erróneamente que el fallecido había sido Alfred, y lo describieron como un hombre que se había enriquecido diseñando formas de matar a más gente más rápido, y como el “el mercader de la muerte”. Esto impactó profundamente al inventor. Se consideraba un pacifista, un hombre ilustrado que escribía poemas y obras teatrales, que disfrutaba del arte y buscaba logros que mejoraran la vida de su sociedad. No era, pensaba él, un mercader de la muerte, aunque sus inventos fueran usados incorrectamente por otros.
Cuando murió, en 1896, se descubrió con sorpresa que había dispuesto que la mayor parte de su fortuna se destinara a invertirse en valores seguros y sus beneficios se entregaran cada año a las personas que, durante el año anterior, le hubieran dado el mayor beneficio a la humanidad en cinco áreas. Era su forma de afirmar su convicción de paz con la fortuna que había obtenido, en parte, por la guerra

Alfred Nobel, siempre inmerso en su trabajo, por cierto, nunca se casó y nunca tuvo hijos.

El debate del testamento

Los albaceas destinados a hacer realidad los premios dispuestos por Nobel, dos ingenieros de sus empresas, no se decidieron a llevar a cabo sus deseos, especialmente ante la oposición por parte de la familia de Alfred Nobel. Tendrían que pasar cinco años para que se entregaran por primera vez los premios en 1901. Y, desde entonces, nunca han estado desprovistos de debate tanto por las decisiones como por la forma de tomarlas y la fidelidad o falta de ella a las disposiciones testamentarias del inventor.

diciembre 31, 2014

Libros para navidad

Comer sin miedo: Mitos, falacias y mentiras sobre la alimentación en el siglo XXI, J.M. Mulet, Destino

A veces parece que el mundo está dispuesto a decirnos cuán dañino y poco saludable es todo lo que comemos. Ya sea en Internet, en el taxi, en las reuniones de amigos, en la radio y la televisión, estamos rodeados de gente que nos informa que tal o cual alimento es en realidad un veneno peligrosísimo, una bomba de relojería cuyo consumo nos puede costar tiempo y calidad de vida. Y la solución que nos ofrecen, generalmente, incluye comer alimentos que llaman “naturales”, “orgánicos” o “ecológicos”

Pero la mayoría de quienes con toda buena fe nos informan de estos temibles peligros no tienen ni la más remota idea de cómo se obtienen esos alimentos, a duras penas han visto el campo en postales y lo más cercano a la agricultura que han hecho es germinar un par de alubias en la escuela cuando eran niños.

J.M. Mulet, investigador y profesor de biotecnología en la Universidad Politécnica de Valencia hace un recorrido por los grandes “miedos alimentarios” que conforman todo un zoo de leyendas urbanas y los desmonta explicándolos de manera amena y clara: ¿en realidad estamos envenenándonos con pesticidas, aditivos alimenticios y misteriosas sustancias químicas?, ¿los cultivos transgénicos causan daños a la salud?, ¿existen las dietas milagro?, ¿los alimentos “naturales” o “ecológicos” realmente son más sanos? La respuesta a todas estas preguntas es que no, pero lo fascinante es averiguar por qué, y descubrir que los alimentos que tenemos hoy a nuestro alcance son los más seguros de toda la historia de la humanidad y tenemos la seguridad científica de que podemos comer sin miedo y que la tecnología es lo más normal en nuestros alimentos desde la invención de la agricultura.

El bonobo y los diez mandamientos, Frans de Waal, Tusquets

Frans de Waal es un experto en comportamiento social de los primates con casi cuarenta años dedicado a explorar la cooperación, el altruismo, la resolución de conflictos y el sentido de la justicia de los primates, como punto de partida para descubrir cuáles son los orígenes evolutivos de nuestro sentido de la moral. Sus investigaciones han demostrado que los primates tienen una idea básica de la moral y saben lo que es la justicia, y en este libro ameno y sorprendente nos presenta cómo se expresa esa idea entre nuestros más cercanos parientes evolutivos, los pacíficos y muy sexuales bonobos.

El nanomundo en tus manos. Las claves de la nanociencia y la nanotecnología, Elena Casero Junquera, Carlos Briones Llorente, Pedro Serena Domingo, José Ángel Martín-Gago, Crítica

En el terreno de lo extremadamente pequeño, entre 0,1 y 100 o millonésimas de milímetro, se está gestando una de las grandes transformaciones del conocimiento. A esa escala hay materiales, estructuras e incluso máquinas formadas átomo a átomo y molécula a molécula con aplicaciones igual en la electrónica, la biotecnología o la medicina. Este libro, de científicos que trabajan en la vanguardia de esta disciplina que apenas cumple treinta años de existir, cuenta la historia, expectativas y riesgos previsibles de la nanotecnología, y nos cuenta cómo podremos disfrutar sus beneficios sin peligro.

Orígenes, Neil deGrasse Tyson y Donald Goldsmith, Paidós

Neil deGrasse Tyson se convirtió en una celebridad a nivel mundial gracias a su participación como presentador de “Cosmos”, la serie que continuó la legendaria incursión televisual de Carl Sagan. Pero Tyson era ya un experimentado divulgador que presentó varios programas en la televisión estadounidense, entre ellos “Orígenes”. La idea detrás de esa serie se plasmaría en este libro que relata los 14 mil millones de años que han transcurrido desde el Big Bang hasta llegar a donde estamos hoy, para conocer nuestros más profundos y genuinos orígenes, el punto de partida de lo que podemos llegar a ser.

Neurozapping. Aprende sobre el cerebro viendo la televisión, José Ramón Alonso, Laetoli

La televisión nos muestra con frecuencia personajes y situaciones que exhiben rasgos que para un neurocientífico son sus áreas de estudio y trastornos comunes. Utilizando la televisión como pretexto, José Ramón Alonso nos muestra muchoque las neurociencias saben sobre nuestro cerebro. ¿Cómo es una tartamudez como la del cerdito Porky? ¿Cómo saben los forenses del CSI en qué mometo se produce la muerte cerebral? ¿Qué es la psicopatía que afecta al enormemente popular Dexter? Un recorrido que nos permite aprender a partir de lo que hemos visto en la televisión y quizá empezar a verla con otros ojos.

En un metro de bosque, David George Haskell, Turner Noema

Un libro que demuestra una vez más lo artificial que resulta la separación entre ciencia y poesía, entre conocimiento y emociones. El autor, biólogo y poeta, asume la actitud del antiguo naturalista, como Darwin, de observar y registrar lo que ocurre en la naturaleza, pero elige para ello un solo metro de bosque al que acude diariamente durante un año para analizarlo desde todos los puntos de vista, ayudado sólo de una lupa y un cuaderno de campo. Aves, lombrices, depredadores, árboles, flores e insectos van pasando por el libro contándonos sus respectivas historias con un estilo rico y cordial.

Un físico en la calle, Eduardo Battaner, EUG

Esta esperada reedición de un libro de 2005 no es un libro de ensayos, sino una novela protagonizada por un profesor de física y sus conversaciones con una estudiante de historia y el tabernero del pueblo que comentan problemas de la física que se presentan en la vida cotidiana, incluso sin que nos demos cuenta de que son problemas de física. Battaner utiliza esta realidad inmediata para presentar, con todo rigor, los principios de la física que subyacen a ellos y cómo se llegó a ellos: la física de fluidos, la astrofísica, la entropía y algunas preocupaciones de la filosofía de la ciencia.

Crónicas de ciencia improbable, Pierre Barthelémy, Academia

No hay preguntas tontas, sino respuestas insuficientes. Se puede entender parte de la realidad desde el cuestionamiento más sencillo, de leyendas como la de que alguien puede encanecer en una noche, de la angustia por elegir siempre la fila más lenta del supermercado, o de cuestionamientos delirantes como la relación del Big Bang del inicio del universo con el molesto hecho de que las tostadas suelen caer del lado de la mantequilla. Barthelémy, popular blogger de ciencia de Le Monde, parte de estas preguntas para un viaje apasionante por el conocimiento en muchas de sus facetas interrelacionadas.

Si tú me dices Gen lo dejo todo, The Big Van Theory, La esfera de los libros

The Big Van Theory es un grupo de monologuistas de comedia que disfrutan de éxito en sus recorridos por España, parte de Europa y América Latina transmitiendo humor con temas científicos desde la singular perspectiva de que ellos mismos, los que nos cuentan temas de la ciencia y del trabajo cotidiano de la investigación, son científicos provenientes de distintos campos. Este libro no sólo reúne algunos de sus mejores monólogos, como, sino que incluye las explicaciones de los temas que les han dado origen, desde los aceleradores de partículas hasta las plantas transgénicas y los ejércitos de bacterias.

diciembre 30, 2014

La generación espontánea

Un debate milenario sobre el origen de los seres vivos se resolvió finalmente a lo largo de 200 años de experimentos elegantes y audaces.

Monumento a Lazzaro Spallanzani.
(Foto CC de Massimo Barbieri, via
Wikimedia Commons.)
¿De dónde salen los seres vivos?

Esta pregunta parecería absurda hoy en día. Los seres vivos, sabemos, nacen de otros seres vivos. Siempre. La vida proviene de la vida y así ha sido desde su inicio, evolucionando de modo incesante y diversificándose de manera asombrosa.

Sin embargo, esto no era tan claro en la antigüedad. Ciertamente muchos animales nacían de otros, incluidos los seres humanos, pero se creía que ése era un caso especial, es decir, que había otras formas de crear seres vivos. Los babilónicos creían que los gusanos surgían espontáneamente del barro, los chinos pensaban que los pulgones nacían así del bambú y los indostanos creían que la suciedad y el sudor daban origen a las moscas.

Esta teoría de la generación espontánea la sintetizó Aristóteles diciendo que algunos seres vivos como muchos insectos emergían de “tierra o materia vegetal en putrfacción”. Y es que si aislamos un lugar donde no haya, digamos, gusanos o escarabajos, al cabo de cierto tiempo aparecían al parecer de la nada gusanos o escarabajos. Y si eso era válido para escarabajos lo podía ser para animales más grandes e incluso para seres humanos.

La hipótesis se mantuvo a lo largo de toda la antigüedad, la Edad Media y el Renacimiento. Todavía en el siglo XVII, el médico y químico flamenco Jan Baptist van Helmont, inventor de la palabra “gas”, publicó una receta para obtener ratones usando un frasco con granos de trigo y una camisa sucia de sudor. Había hecho el experimento y reportó asombrado que los ratones obtenidos con esta receta eran indistinguibles de los que se podían obtener mediante reproducción sexual.

Pero era la época en que el cuestionamiento se liberaba de las antiguas limitaciones y, en 1668, el toscano Francesco Redi, hizo una serie de experimentos cuidadosamente controlados para determinar si las larvas de mosca aparecían por sí solas de la carne en putrefacción, como afirmaba la teoría de la generación espontánea. Utilizó frascos con distintos materiales en putrefacción que dejó sin cubrir y otros frascos iguales cuyas bocas cubrió, unos con una fina tela de algodón y otros con un corcho, y pudo observar que no aparecían larvas de mosca en los que estaban cubiertos, mientras que sí aparecían en los que estaban abiertos. Otros experimentos incluían poner moscas en frascos sellados que contenían carne en descomposición. Si las moscas estaban muertas, no aparecían larvas, si estaban vivas, sí se reproducían.

Algún factor invisible que implicaba moscas vivas era el que transmitía la vida.

En 1674, seis años después de que Redi publicara sus experimentos, un comerciante y pulidor de lentes holandés llamado Anton Van Leeuwenhoek consiguió ver lo invisible: seres diminutos, vida unicelular, huevos de moscas y otros insectos. Se empezaba a prefigurar la respuesta a la controversia que había agitado Redi... aunque los defensores de la vieja hipótesis simplemente bajaron de escala y empezaron a afirmar que los microorganismos eran los que se producían espontáneamente.

Algunos experimentos como el de Louis Joblot, discípulo de Leeuwenhoek mostraban claramente que los microorganismos que se veían en las soluciones experimentales venían del propio aire circundante, pero la idea siguió sin ser aceptada por la mayoría de los naturalistas. Empezaba a aparecer el concepto de “esterilidad”, es decir, de tener un medio básico en el que el experimentador pudiera estar seguro de que no había microorganismos al inicio del experimento, para así constatar el origen de los que pudieran aparecer después.

El sacerdote galés John Needham hizo algunos experimentos hirviendo distintas materias orgánicas con la idea de matar los microorganismos que pudiera haber. Pese a que sellaba los frascos, seguían apareciendo estos seres, lo cual fue ampliamente interpretado como una validación de la generación espontánea.

Entró entonces en el debate el científico italiano Lazzaro Spallanzani, un convencido de que la experimentación rigurosa y repetida era la única forma de alcanzar certezas científicas. El científico, que después descubriría tanto la ecolocalización de los murciélagos como los procesos químicos de la digestión, repitió los experimentos de Needham demostrando que sus técnicas eran insuficientes y que, si las soluciones se hervían el tiempo suficiente y se mantenían protegidas todo el tiempo de la ocntaminacion aérea, no aparecían los microorganismos. Sus resultados, publicados en 1765, fueron ignorados pese a su contundencia.

Pero la realidad práctica se iba imponiendo a las ideas consolidadas. Así, en 1795 el confitero francés Nicholas Appert inventó un método para conservar alimentos. Su sistema implicaba introducir un alimento en un frasco, cerrar éste herméticamente y luego cocinarlo hirviéndolo durante largo tiempo. Sin proponérselo, el cocinero confirmó los resultados de Spallanzani... y de paso ganó el premio de 12 mil francos que ofrecía el ejército francés a quien lograra una gran innovación en las conservas.

Quedaba un resquicio para los defensores de la generación espontánea: argumentaron que era necesario que hubiera aire para que se operara el milagro de la generación de vida. Era su último bastión.

El minucioso trabajo de Spallanzani puso las bases para los experimentos del joven Louis Pasteur publicados en 1864 y que derrumbaron esa última plaza fuerte de la generación espontánea. Usó un preparado de caldos de carne que hirvió exhaustivamente en matraces con un alargado cuello en forma de “S” horizontal. En algunos, rompió el cuello en forma de S para que el contenido quedara expuesto al aire y al polvo, mientras que en otros dejó abierto el cuello, en consecuencia dejando que pasara el aire pero no el polvo que llevaba los microorganismos y que quedaba atrapado en la curvatura del matraz. En los primeros se desarrollaron microorganismos, en los segundos no.

Culminaban así casi 200 años desde los primeros experimentos de Redi. Quedaba entonces sólo un misterio: al menos en un momento, hace unos 3.800 millones de años, la vida sí surgió a partir de la materia inanimada. Quien descubra cómo ocurrió ese proceso pasará a la historia como Pasteur o Spallanzani.

Consecuencias en la salud

La idea de que todo microorganismo proviene de otro fue la base de toda la microbiología y, entre otras cosas de las prácticas de higiene han sido responsables de evitar millones y millones de muertes y cantidades enormes de sufrimiento, gracias a pioneros como Ignaz Semmelweis, que promovió la higiene de los médicos desde 1847 y de Joseph Lister, que propuso la desinfección del material quirúrgico apenas 3 años después del experimento de Pasteur.

diciembre 29, 2014

Aprender de los hilos naturales

La imitación de los productos de la naturaleza y su mejoramiento para atender a nuestras necesidades ha encontrado un obstáculo en los hilos producidos por humildes insectos y arácnidos.

Una tela de araña exhibe su resistencia perlada con gotas
de rocío. (Foto CC de Tiia Monto, via Wikimedia Commons)
La tecnología ha sido capaz de sintetizar una gran cantidad de sustancias naturales, generalmente no demasiado complejas, para satisfacer necesidades que de otro modo quedarían cubiertas a medias. Algunas sustancias incluso se han mejorado, como es el caso del ácido acetilsalicílico de la aspirina, menos agresivo para el aparato digestivo que el ácido salicílico que se encuentra en la corteza del sauce.

Pero los productos mucho más complejos siguen presentando un desafío enorme para el conocimiento y la ingeniería. Las fibras artificiales que se han producido a partir de fines del siglo XIX, por ejemplo, han sido de enorme importancia en la industria del vestido y en la fabricación de productos como paracaídas, chalecos antibalas y, últimamente, en la producción incluso de carrocerías de automóviles y otros productos donde la fibra de carbono se utiliza como sustituto de metales y otros productos.

Muchas fibras artificiales, pues, han sido incluso superiores a las que tradicionalmente ha utilizado el ser humano para vestirse y otros fines, como el algodón, el lino, el yute, el ratán o el cáñamo. Pero hasta hoy no ha sido posible replicar sintéticamente de modo exacto las fibras naturales. Hay aplicaciones en las que son indispensables porque sus características siguen siendo únicas.

Las primeras fibras artificiales no eran totalmente sintéticas, ya que resultaban de procesar la madera y utilizar sus celulosa para transformarla. En el caso del rayón, es producto de la reacción del disulfuro de carbono con la celulosa, mientras que la segunda fibra artificial, el acetato, es precisamente acetato de celulosa.

Fue en 1930 cuando se desarrolló la primera fibra sintética, el nylon, que tenía por objeto sustituir a la seda en la industria del vestido, y permitió que muchas mujeres pudieran usar medias que antes estaban reservadas a las clases pudientes por estar hechas de seda. Pocos años después, sin embargo, se convertiría en un suministro importante para la Segunda Guerra Mundial utilizándose en paracaídas, cuerdas y mosquiteros, entre otras aplicaciones. Al nylon le siguieron otras fibras que hoy siguen dominando el mercado: el poliéster, el acrílico y la poliolefina.

Todas estas fibras son polímeros, es decir, se toman moléculas orgánicas y se procesan de modo que creen largas cadenas similares a las fibras naturales.

Pero la distancia entre ambas, sintéticas y naturales, sigue siendo abismal. Si las fibras vegetales presentan un desafío importante, las de origen animal han sido verdaderos acertijos. La seda, por ejemplo, que se obtiene de devanar los capullos que forma el gusano de seda para su metamorfosis, se presenta en hilos dobles, y pese a ser ligera mantiene tibio a quien la usa. El nylon, que es químicamente similar pero no igual, al microscopio sus fibras son cilindros lisos y transparentes, es susceptible de estirarse pero no es absorbente, es fresco pero húmedo. ¿Cuáles son los motivos de las diferencias? Pueden ser los componentes, los enlaces químicos, la forma de las fibras, o todos estos elementos conjuntamente.

El problema se complica aún más ante una de las fibras más asombrosas del mundo animal: la seda de las arañas. O, para ser más precisos, los distintos tipos de seda que producen algunas arañas, ya que pueden generar desde una fibra estructural enormemente resistente hasta una seda de captura pegajosa y flexible, una para envolver a sus presas u otras que utilizan para proteger sus huevos. En total se conocen siete tipos distintos de seda de araña, cada una producida por una glándula especializada y que se suministran a través de pequeños orificios llamados hileras, donde captura agua y adopta su forma final. Es un material más fuerte que el acero por peso (y más elástico que la goma de látex) y casi tan fuerte como el acero en fibras de diámetro similar, además de ser extraordinariamente resistente a la tensión.

Como señalan investigadores como Lin Römer y Thomas Scheibel, que han profundizado en la composición de la tela de araña, una de las dificultades de reproducir este extraordinario material es precisamente que es el resultado de millones de años de evolución que le dan una resistencia por encima de las más desarrolladas fibras sintéticas como el Kevlar, empleado en chalecos antibalas. Y además tiene la ventaja de ser antimicrobiana, hipoalergénica (no causa reacciones alérgicas) y es 100% biodegradable, algo que no ocurre forzosamente con las fibras sintéticas existentes. Estas solas características la harían ideal para tejer apósitos, vendas y otros materiales de curación y protección para heridas.

Su compleja estructura está formada por una solución de proteínas que el animal hila y que quedan dispuestas en distintas capas y formas responsables de sus características. Esa complejidad también es responsable de que sólo en los últimos años se haya contado con la tecnología necesaria para conocer la secuencia de los aminoácidos que forman algunos de los tipos de seda de algunas arañas. Porque, presentando una realidad aún más complicada, distintas arañas producen sedas de composiciones distintas.

La búsqueda por reproducir la seda de araña es incluso más intensa que en el caso de otras fibras naturales ya que su potencial industrial es enorme.

Si no es posible reproducir la complejidad de la seda de araña en el laboratorio, y dado que tener granjas de arañas es poco viable por la agresividad que exhiben entre ellas, una de las soluciones que se han planteado es producirla utilizando sus genes. En las últimas tres décadas, investigadores como Randy Lewis, de la Universidad de Utah, han estado transfiriendo los genes responsables de la producción de seda de araña a diversos anfitriones como gusanos de seda, bacterias E. coli como las que ya se utilizan para producir proteínas complejas como la insulina humana, alfalfa y cabras cuya leche contiene proteínas de seda de araña. Una vez teniendo cantidades adecuadas de las proteínas de la fibra, el desafío es hilarlas y procesarlas para obtener un producto similar al que consiguen las arañas sin tanta parafenalia.

Proyecto comercial o bulo?

Una empresa japonesa ha afirmado que tiene un procedimiento comercialmente viable para producir seda de araña destinada a aplicaciones tan distintas como vasos sanguíneos y ligamentos artificiales, entre otras. Su base es la fibroína, la principal proteína de la seda de araña, producida por bacterias, convertida en polvo e hilada, aunque, asegura la empresa, puede convertirse también en películas, gel, espumas y nanofibras.

diciembre 28, 2014

El Niño, la Niña y el mar

El clima, la atmósfera y los océanos, sus temperaturas y movimiento están estrechamente relacionados a nivel mundial, y una de las más claras expresiones de esta unión son los fenómenos de El Niño y La Niña.

Tabla de temperaturas anormales de la superficie del océano
durante El Niño de 1997. (Imagen D.P. National Centers
for Environmental Prediction vía Wikimedia Commons.)
Cuenta el meteorólogo de Princeton George Philander que fueron anónimos marineros y pescadores peruanos quienes dieron el nombre de “El Niño” a una corriente de agua cálida que aparecía frente a las costas de su país, en el Océano Pacífico, hacia fines de año. El nombre se refería a la fecha de Navidad, como si la conmemoración del nacimiento de Cristo tuviera alguna influencia en las corrientes marítimas.

En 1891, la Sociedad Geográfica de Lima, Perú, publicaba un artículo de Luis Carranza señalando que se había observado esa contracorriente del Pacífico entre los puertos de Paita y Pacasmayo y especulando que el fenómeno seguramente tenía influencia en el clima de esa parte del mundo.

No fue sino hasta la década de 1960 cuando los meteorólogos tuvieron las observaciones necesarias para determinar que el fenómeno era mucho más extendido y complejo, y de alcances muchísimo mayores en la climatología del planeta.

El fenómeno es una gigantesca oscilación en la temperatura de la superficie del Pacífico en la zona del trópico, que puede variar hasta en 4 ºC, provocando cambios importantes en los patrones de vientos y lluvia del occidente de América del Sur. Este cambio ha sido mucho mejor entendido desde que en 1969

Actualmente, se conoce como “El Niño” a la fase cálida de la oscilación, aproximadamente, mientras que la fase fría ha sido llamada, por contraparte, “La Niña”. El nombre completo del evento en la actualidad es El Niño/Oscilación del Sur , o ENOS, y suele tener una duración de entre 8 y 12 meses y ocurre en períodos de entre tres y cinco años. Estas son observaciones generales, pues en ocasiones el evento puede durar años, provocando efectos mucho más agudos.

El primer y más notable efecto que tiene el aumento de la temperatura en la fase de El Niño es que la presión atmosférica disminuye en la zona oriental del Pacífico Central Ecuatorial y aumenta en la occidental, provocando una importante disminución en los vientos del Este.

El Niño afecta al Norte de América en el invierno siguiente a su aparición, provocando temperaturas más cálidas que la media en Canadá occidental y central, y por todo el oeste y el norte de los Estados Unidos. Además, ocasiona que aumenten las lluvias en la costa del Golfo de México y disminuyan en el noroeste y la zona costera de Norteamérica. La Niña provoca efectos esencialmente opuestos en el clima mundial.

Igualmente son opuestos los efectos de la fase cálida y la fría del ENOS. Durante El Niño, hay más huracanes en el Pacífico que afectan a América del Norte, principalmente Estados Unidos y México, y menos huracanes en la zona del Caribe, en la costa opuesta del continente, en el Atlántico. Al mismo tiempo, la costa del norte de Suramérica, en países como Colombia, Bolivia, Perú y Ecuador es más húmeda y propensa a inundaciones, lo que ha exigido que estos países incluso organicen el tipo de cultivos que se pueden plantar en distintas zonas para evitar la pérdida de cosechas fundamentales para la alimentación, máxime tratándose de países con elevados índices de pobreza.

En su desarrollo, el ENOS tiene efectos en el clima a nivel mundial. Durante El Niño, puede aumentar o disminuir la cantidad de lluvias igual en la India que en el África oriental o los países del norte de Europa, o seauías en Indonesia, China y Australia. Los cambios provocados por el ciclo también dependen de la estación del año, y de otros ciclos climatológicos poco conocidos fuera del mundo de la meteorología.

Las condiciones meteorológicas, por supuesto, influyen en las formas de vida del planeta. Y una de las observaciones más sugerentes es que cuando ocurre un evento ENOS cambia la incidencia de enfermedades epidémicas, lo que podría indicar que los microorganismos que las provocan y, probablemente, las personas que las padecen, podrían ser sensibles a los cambios de su entorno de una forma aún no explicada.

Así, por ejemplo, Jeffrey Shaman, científico de la Universidad de Columbia, explica cómo las separaciones y reuniones de poblaciones de aves migratorias causadas por los cambios del clima debido al ENOS favorecen la aparición de nuevas cepas de virus de la gripe o influenza, del que las aves suelen ser un vector. Si una población se divide en dos y el virus evoluciona independientemente en ambas, al reunirse aumentan la posibilidad de que los dos grupos de virus intercambien ADN, formando nuevas variedades que pueden producir pandemias impredecibles.

Aunque aún no se ha establecido una relación causa-efecto, Shaman señala como un indicio el que hubiera condiciones de La Niña (fase fría) en el mundo inmediatamente antes de la mortal epidemia de gripe de 1918, y que lo mismo pasara previo a las otras pandemias de gripe notables de los últimos 100 años, en 1957, 1968 y 2009.

De comprobarse esta hipótesis, podría predecirse la aparición de algunas pandemias, no sólo de gripe, sino de malaria, cólera, dengue y fiebre del Rift, entre otras y en lugares tan apartados como África y Australia, observando el momento en el que un evento ENSO llega a la fase de La Niña.

Lo realmente difícil es predecir cuándo se presentará un evento ENSO y qué duración y fuerza tendrá. Para poderlo hacer, es necesario que los expertos en meteorología y climatología descubran las causas que lo desencandenan. Desde el año 2000, se ha presentado en 2002–2003, 2004–2005, 2006–2007 y 2009–2010. Ninguno de ellos ha tenido la intensidad que tuvo el evento de 1997–1998, considerado el acontecimiento climatológico más importante del siglo XX, y cuya intensidad fue tal que, por ejemplo, provocó el invierno más cálido en la parte continental de los Estados Unidos desde que empezaron a llevarse registros meteorológicos.

Lo más desconcertante puede ser que, mientras trabajan para desentrañar las causas de este fenómeno, cuyo desarrollo se ha llegado a entender con enorme claridad durante los últimos 50 años, los científicos del clima están conscientes de que podría no haber una causa precisa, sino que el colosal evento ENSO sea, simplemente, un fenómeno aleatorio del complejo equilibrio de nuestro planeta.

Calentamiento global

Aunque los datos son escasos para tener una certeza suficiente, algunos científicos señalan que los eventos ENSO se están presentando con mayor frecuencia como respuesta al calentamiento global ocasionado por el efecto invernadero. Algunos científicos han propuesto un modelo según el cual las instancias extremas de El Niño podrían duplicarse, con los consecuentes problemas socioeconómicos y de salud a nivel mundial.

diciembre 27, 2014

Mary Anning, la hija del carpintero

Los fósiles encontrados, identificados y dados a conocer por esta mujer trabajadora británica dieron forma al trabajo de la paleontología del siglo XIX.

Dura antiquior, pintura de Henry De la Beche, 1830.
(Imagen D.P. Museo de Sedgwick vía Wikimedia Commons.)
La imagen está sobrepoblada. Dos pterodáctilos se atacan en el cielo. Un ancestro de los cocodrilos está al borde del agua, donde una abigarrada colección de ictiosaurios, plesiosaurios, tortugas, peces, calamares y algunos seres prehistóricos más fantasía que reconstrucción paleontológica, se dedican principalmente a comerse unos a otros,

Se trata de una acuarela de 1830, “Duria antiquior” o “Un Dorset más antiguo”, por la región de la costa sur de la isla de Gran Bretaña. Su autor fue el pintor y geólogo Henry De la Beche y fue el primer intento de la historia en tratar de representar la vida prehistórica según la evidencia fósil disponible. Y gran parte de ella había sido encontrada, identificada, descrita, dibujada y reconstruida por Mary Anning, que ya por entonces era considerada la mayor experta en hallazgos de fósiles del mundo, pese a tener apenas 31 años de edad.

Mary Anning nació en en 1799 en la costa de Dorset, en el pueblo de Lyme Regis, hija de un carpintero de la localidad llamado Richard y de su esposa Mary, de cuyos hijos sólo sobrevivirían Mary y su hermano Joseph.

Lo que hoy es Lyme Regis estuvo, hace 200 millones de años, cerca del Ecuador, en el fondo de un mar cálido y lleno de vida. Muchos animales se vieron enterrados en el fondo lodoso y se fosilizaron mientras la zona migraba hasta su actual posición. Lyme está por tanto rodeado de los acantilados en que se convirtió ese fondo marino lodoso, verdaderas minas de fósiles.

El padre de Mary dedicaba parte de su tiempo a buscar, entre las rocas desprendidas de los acantilados, unas maravillosas “curiosidades”: los fósiles de esos seres marinos, que empezaban a dejar de ser misteriosos y a ser estudiados para tratar de saber cómo había sido la vida en el pasado y cómo habían aparecido y desaparecido esos fantásticos seres. Así la venta de fósiles era también una fuente de ingresos adicional para los Manning, que llevaban a sus hijos, desde pequeños, a buscar fósiles.

Estas habilidades serían la única forma de supervivencia de la familia cuando Richard Manning murió en 1810, dejando a su familia totalmente desprotegida. Mary y sus dos hijos emprendieron un pequeño negocio como vendedores de fósiles que les permitió escapar a la miseria, aunque con frecuencia pasarían épocas de gran escasez.

Retrato de Mary Anning circa 1841.
(Imagen D.P. del Museo de Historia Natural
de Londres, via Wikimedia Commons)
Cuando Mary tenía 12 años, la familia encontró y publicitó el hallazgo de un fósil completo de ictiosaurio, un reptil jurásico en forma de pez. El descubrimiento fue pronto adquirido por Henry Hoste Henley, un noble londinense aficionado a la geología.

Entre los hallazgos que realizó Mary Anning a lo largo de su carrera está el de los coprolitos, heces fecales fosilizadas que ofrecen importante información sobre la dieta de los animales del pasado. Fue la primera persona que identificó en Inglaterra un fósil que halló como perteneciente a un pterosaurio. Encontró también curiosidades como un fósil de sepia que aún tenía en su interior la tinta del animal.

Alrededor de 1820, Mary realizó uno de sus más importantes descubrimientos: un fósil casi completo de plesiosaurio. El animal había sido descrito a partir de restos fragmentarios, pero grandes expertos en fósiles como el francés Georges Cuvier se mostraban escépticos ante la disparidad del tamaño del reptil respecto de su pequeñísima cabeza. Al enterarse, Cuvier dejó de lado su escepticismo y declaró que el descubrimiento de Anning era de primera importancia. Comenzó entonces una correspondencia con la buscadora de fósiles que duraría hasta la muerte de ésta. El plesiosaurio de Mary aún se puede ver en el Museo de Historia Natural de Londres.

Cada vez más científicos consultaban a Mary Anning y a visitar los acantilados de Lyme Regis, no sólo por su habilidad para encontrar fósiles, sino porque la mujer, sin ninguna educación formal, había aprendido por su cuenta mucho de lo que sabían los expertos de la época y había desarrollado una habilidad propia de los palentólogos que incluso hoy puede asombrarnos: la capacidad de saber mucho acerca de un animal simplemente a partir de un fragmento.

Sobre ello, la acaudalada Harriet Silvester escribió que la joven, a la que conoció en 1824 “se ha familiarizado tan exhaustivamente con la ciencia que en el momento en que encuentra cualquier hueso sabe a qué tribu pertenece”. Y, subrayando la importancia desusada que había logrado tener Mary en una Inglaterra donde la mujer y los pobres eran considerados prácticamente desechables, señala que “tiene la costumbre de escribir y hablar con profesores y otros hombres inteligentes sobre el tema, y todos reconocen que ella entiende más de la ciencia que ninguna otra persona en el reino”.

Pero la fama y el reconocimiento no pagaban las facturas, y la familia debía depender de sus relaciones para mantenerse a flote cuando el negocio de los fósiles tenía baches, ya fuera porque no se encontraban fósiles relevantes durante un tiempo o porque no había compradores.

El coleccionista Thomas Birch, por ejemplo, que había comprado numerosos fósiles a los Anning, decidió en un momento dado subastarlos para dar a la familia lo recaudado. Tiempo después, el pintor de “Duria antiquior”, por ejemplo, mandó hacer una litografía de su acuarela y vendió copias de ella a amigos y colegas, donándole a Mary lo obtenido.

Al final de su vida, sin embargo, llegó cierto reconocimiento. Nueve años antes de su muerte, la Asociación Británica para el Avance de la Ciencia le concedió una anualidad, y la Sociedad Geológica de Londres le asignó también un ingreso periódico. Y en los últimos años de su vida pudo leer que la revista de Charles Dickens, “All Year Round” decía de ella: “la hija del carpintero se ha ganado un nombre, y se ha merecido ganarlo”. Murió en 1847 de cáncer de mama.

Al conmemorar sus 350 años de existencia, la Royal Society de Londres, que no admitió mujeres sino hasta 1945, pidió a un grupo de científicas e historiadoras de la sociedad que nombraran a las diez mujeres británicas más influyentes de la historia de la ciencia, y consideraron que una de ellas era Mary Anning, la hija del carpintero.

El nombre latino

Pese a su relevancia en la historia de la paleontología británica, y aunque numerosos científicos y coleccionistas de fósiles daban con frecuencia nombre a las especies descubiertas, no fue sino hasta 1878, 31 años después de su muerte, que alguien dio a una especie un nombre destinado a homenajear a Mary Anning, el Tricycloseris anningi, una especie de coral. Sin embargo, aún no se le ha dado el nombre de la paleontóloga a un reptil fósil británico, lo que sería el homenaje más justo.

diciembre 26, 2014

Nuestro cambiante cerebro

Una vez más, algo que los datos parciales indicaban que era irreversible, incurable y definitivo resulta no serlo. Y entonces es posible que los ciegos vean y los paralíticos anden, entre otras cosas.

"El cirujano" de Jan Van Hemessen muestra cómo se buscaba
alterar el comportamiento extrayendo la "piedra de la locura"
una forma de charlatanería común en el siglo XV-XVI.
(Imagen D.P. Museo del Prado vía Wikimedia Commons.)
En el otoño de este 2014, los diarios dieron la noticia de que un hombre de 40 años, paralizado después de un ataque con un cuchillo, había podido caminar con ayuda de una andadera gracias a una innovadora cirugía experimental.

Las parálisis, como la que sufrió este paciente, se producen cuando se interrumpe la comunicación de nuestro sistema nervioso central con los músculos encargados del movimiento. Es decir, la persona puede pensar en moverse y puede enviar las señales necesarias para efectuar el movimiento. En condiciones normales, los impulsos nerviosos para el movimiento viajarían de hasta las neuronas motoras de la médula espinal, cuyos largos axones se extienden a lo largo de las vías nerviosas hasta tocar las células de los músculos, donde el impulso nervioso de cada neurona provoca que una célula motora se contraiga. Actuando concertadamente, las neuronas motoras consiguen que se contraigan los músculos con un control tan delicado como el de una bailarina o un neurocirujano.

Cuando hay una lesión, generalmente a nivel de la médula espinal, de donde parten los nervios que controlan todo el cuerpo, esos impulsos nerviosos no llegan a los músculos. Los nervios se han cortado y no se pueden regenerar.

Pero los nervios seccionados no sólo transmiten los impulsos del sistema nervioso central a los músculos en el caso de movimientos voluntarios... también llevan, en sentido contrario, otras fibras nerviosas que transmiten la información sensorial al sistema nervioso: posición, temperatura, dolor, tacto, etc. El miembro paralizado generalmente es además insensible, y se pierde el control de otros músculos como los esfínteres que regulan la salida de desechos del cuerpo. Parálisis e insensibilidad suelen ir de la mano.

Lo que hicieron los médicos bajo la dirección de Geoffrey Raisman, del University College London, fue trasplantar un grupo de células del bulbo olfatorio del paciente al lugar donde la médula espinal estaba seccionada. Las células de la glia envolvente del bulbo olfatorio se pueden cultivar en el laboratorio como cualquier otro tejido, para luego ser inyectadas en el lugar de la lesión. Las células siguieron regenerándose y, con ayuda de unas fibras nerviosas del tobillo del propio paciente, permitieron que se restableciera la comunicación perdida por el corte.

Lo que se hizo fue establecer un camino para que las neuronas a ambos lados del corte

Uno de los supuestos básicos de las neurociencias fue establecido precisamente por uno de los fundadores de la disciplina, el Premio Nobel Santiago Ramón y Cajal, cuando dijo: “una vez terminado el desarrollo, las fuentes de crecimiento y regeneración de los axones y dendritas se secan irrevocablemente. En los cerebros adultos las vías nerviosas son algo fijo, terminado, inmutable. Todo puede morir, nada puede regenerarse. Corresponde a la ciencia del futuro cambiar, si es posible, este cruel decreto”.

En otras palabras, el total de neuronas que va a tener un ser humano queda determinado en su niñez. El propio Ramón y Cajal adelantó que los procesos de aprendizaje de nuevas habilidades que venían después, y a lo largo de toda la vida, se realizaban mediante la creación de nuevas conexiones por el crecimiento progresivo de las dendritas de las neuronas, esas extensiones que se conectan a los axones de otras neuronas formando los circuitos de nuestro cerebro, donde cada neurona tiene un solo axón y hasta miles de dendritas.

Desde la década de 1960 empezaron a aparecer estudios que indicaban que en algunos casos las neuronas se reproducían y migraban a zonas concretas del encéfalo. Y a fines de la década de 1990 se confirmó que esta reproducción, llamada “neurogénesis”, definitivamente ocurría en el sistema nervioso central humano, al menos en pequeña medida en algunas zonas de nuestro encéfalo, como el hipocampo.

Aunque esta reproducción es demasiado escasa como para representar una esperanza de “reparar el sistema nervioso” por sí misma, indica el camino para que se obtengan neuronas nuevas de otra forma.

Entran aquí las células madre, células no diferenciadas de nuestro cuerpo que, al desarrollarse en diversas circunstancias y medios, son capaces de convertirse en células de cualquier tejido: de la piel, de los huesos, de los pulmones... y del sistema nervioso. De hecho, las responsables de la neurogénesis en el encéfalo adulto son células madre neurales.

Conocidas por el público en teneral sobre todo por el debate debido a que originalmente sólo se podían obtener de tejido fetal, abortado voluntaria o involuntariamente, hoy las células madre se pueden obtener de donantes adultos e incluso se pueden tomar células diferenciadas y someterlas a procedimientos que las hacen volver a ser “pluripotentes”. Las células madre son una esperanza no sólo para la regeneración de distintos órganos, sino en la investigación y estudio de nuevos medicamentos. Al menos en teoría, se pueden utilizar para crear órganos o tejidos para autotrasplantes que nuestro cuerpo no podría rechazar.

En el caso de las células madre neurales, la posibilidad es la de efectivamente reparar no sólo los axones y fibras nerviosas, sino sustituir neuronas para recuperar funciones perdidas en ciertas zonas del sistema nervioso o espacios concretos, como las células de la mácula de la retina, cuya degeneración lleva a numerosos casos de ceguera.

Sólo en los últimos años han conseguido los científicos producir neuronas que pueden enviar y recibir impulsos nerviosos, especialmente neuronas motoras como las que se activan para conseguir el movimiento de los músculos. Además de producir otras células nerviosas que, sin estar implicadas en la transmisión de impulsos nerviosos, son fundamentales para el funcionamiento del sistema, como los astrocitos que protegen a las neuronas.

Nuestro sistema nervioso, finalmente, no es tan rígido como postulaba Ramón y Cajal, lo que sabemos porque, como él mismo previó, la ciencia del futuro, que es nuestro presente, ese cruel decreto. Nuestro cerebro cambia, crea conexiones, produce nuevas neuronas, puede aprovechar la ayuda externa para restablecer conexiones perdidas por lesiones o enfermedades, aprende, recuerda y evoluciona día con día.

Parálisis y esperanza

En el mundo hay alrededor de tres millones de personas que viven con lesiones de la médula espinal que les impiden el movimiento en mayor o menor medida. Además de millones que padecen ceguera por degeneración macular, por lesiones en la zona de la corteza cerebral encargada de procesa la visión y otras causas que podrían ser tratadas con las terapias que se están desarrollando.

diciembre 25, 2014

Exoplanetas

Planetas alrededor de otras estrellas. Planetas que pueden tener vida. Sin embargo, esos planetas, que hoy son una multitud que aumenta día a día, hasta hace poco eran sólo un sueño.

Interpretaciones artísticas de exoplanetas halllados por el
sistema HARPS. (Imagen D.P. European Southern
Observatory via Wikimedia Commons.)
Se han identificado casi 2 mil planetas fuera de nuestro sistema solar, además de otros 3 mil candidatos, que forman parte de sus propios sistemas solares y giran alrededor de numerosos soles, algunos parecidos al nuestro, que nos pueden enseñar mucho sobre cómo evolucionan los sistemas solares, y donde incluso podía haber vida.

Fue Giordano Bruno, fraile quemado por sus ideas heréticas, quien en 1584 propuso que en nuestro universo había “incontables soles, e incontables tierras todas girando alrededor de sus soles”. Ya los antiguos griegos especulaban sobre otros mundos donde hubiera vida y, en el siglo II, Luciano de Samosata escribió su libro Verdadera historia, según muchos la primera obra de ciencia ficción de la historia, donde viajaba a la Luna y conocía a sus habitantes.

Pero la idea especulativa de Giordano tenía por primera vez un sustento fáctico con la teoría de Copérnico. Desde entonces, escritores de ciencia ficción, científicos y personas comunes han tratado de imaginar cómo serían esos mundos y, sobre todo, cómo podría ser la vida que se desarrollara en ellos. Por eso la vida extraterrestre es uno de los temas esenciales de la ciencia ficción incluso hoy, cuando la gente se acerca a ese género principalmente a través del cine.

Esto oculta el inquietante hecho de que, hasta hace muy poco tiempo, no sabíamos si existían tales planetas.

Para empezar a buscar siquiera a otros planetas fue necesario primero demostrar que el sol era una estrella y que las estrellas eran, a su vez, soles. Sobre indicios y estudios de otros muchos astrónomos como Johannes Kepler o Christiaan Huygens, en 1838, Friedrich Bessel consiguió medir por primera vez la distancia a la que se encontraba una estrella y encontró que era enorme. Según sus observaciones, la estrella 61 Cygni se encontraba a 10,3 años luz de distancia de nosotros, un resultado muy preciso con los medios a su disposición si tenemos en cuenta que las mediciones con la tecnología actual sitúan esta estrella de la constelación del Cisne está a 11,4 años luz. Gracias al trabajo de Bessel se pudieron medir las distancias a otras estrellas y, con base en ellas, determinar su brillo real. Con base en esos datos se pudo determinar que el sol era una estrella y, sin duda alguna, las estrellas eran soles.

La especulación razonable es que al menos algunos de esos soles tendrían planetas a su alrededor. Y, si los tenían, la implicación de posible vida extraterrestre tomaba más visos de realidad que de ciencia ficción. Pero no fue sino hasta 1992 cuando por primera vez se identificó con certeza un exoplaneta.

No es fácil buscar exoplanetas. Entre los sistemas para identificarlos está el verlos directamente, algo que sólo ocurre si son muy grandes y muy calientes, así que muy pocos pueden ser detectados con este sistema. También se puede medir el cambio de velocidad radial de una estrella cuando la órbita un planeta muy masivo, ya que aunque tendemos a pensar que los planetas giran alrededor de una estrella inmóvil, en realidad ambos cuerpos giran alrededor de un centro gravitacional común, y un planeta con una gran masa puede hacer que la estrella se desplace, como si su eje estuviera desplazado fuera del centro, lo que podemos detectar con instrumentos especializados. También, si un planeta refleja gran cantidad de la luz de la estrella puede ser detectado midiendo el aumento en el brillo aparente de la estrella.

Pero el sistema más común para encontrar exoplanetas es el del tránsito.

Cuando un planeta pasa frente a su estrella, bloquea parte de la luz que ésta emite. Con mediciones muy precisas del brillo de las estrellas al paso del tiempo, es posible detectar variaciones muy, muy pequeñas que, si se repiten periódicamente, son indicativas de la presencia de un planeta, mientras que la cantidad de variación de la luminosidad es indicativa, de modo general, del tamaño del planeta. Y el período en el cual se producen los tránsitos permite también calcular el tamaño de su órbita.

Por supuesto, las mediciones tan precisas de la luminosidad se benefician del uso de telescopios espaciales, que no estén sometidos a las variaciones de luminosidad que pueden implicar las perturbaciones atmosféricas para los instrumentos situados en la superficie del planeta y que exigen complejos cálculos para compensarlas. Esto también ha determinado que la gran mayoría de los exoplanetas descubiertos hasta la fecha sean parientes de Júpiter, es decir, gigantes gaseosos con una enorme masa

En 2009 se puso en órbita el telescopio espacial Kepler, diseñado por la NASA concretamente para explorar nuestra región dentro de la galaxia en busca de planetas más o menos del tamaño del nuestro, especialmente los que están en la “zona habitable” alrededor de una estrella, es decir, donde la temperatura permite la existencia de agua líquida. El telescopio Kepler es un fotómetro o medidor de luz de enorme precisión que puede vigilar continuamente el brillo de más de 100.000 estrellas. En 2010, la misión Kepler identificó su primer planeta, y a principios de 2014 encontró el primer planeta del tamaño correcto en la zona habitable, el Kepler-186f. Esto no quiere decir, por supuesto, que el planeta tenga vida, sólo que puede tenerla. Se han encontrado también planetas con atmósferas y con indicios de presencia de agua.

La búsqueda de exoplanetas nos acerca también a realidades nunca vistas: planetas gigantescos, de casi del doble de Júpiter; un planeta relativamente cerca de nosotros, a “sólo” 10,5 años luz, llamado Epsilon Eridani b; planetas que, como el imaginario Tatooine de Star Wars, tienen dos soles, e incluso hay uno, HD 188753, que orbita alrededor de un sistema formado por tres soles, como para imaginarnos sus atardeceres; un planeta de 12.700 millones de años de existencia, casi tan antiguo como el propio universo, e incluso un planeta que gira alrededor del pulsar PSR J1719-1438 y que está hecho de diamante.

Pero un planeta con vida sería, para nosotros, mucho más valioso que uno de diamante. De hecho, el valor del diamante disminuye con su abundancia, algo que no ocurriría, al contrario, si descubrimosmás abundancia de vida en el universo.

Buscadores de planetas

Para identificar tránsitos de posibles planetas ante las miles de estrellas que está observando el telescopio Kepler, la NASA mantiene un sitio web llamado “Planet Hunters”, donde la gente común y corriente ayuda a identificar tránsitos entre la masiva cantidad de datos que aporta el telescopio todos los días... finalmente, el ser humano sigue siendo el instrumento decisivo en la exploración científica.

diciembre 23, 2014

De geología y evolución

Una de las más contundentes evidencias que confirman que la evolución de las especies ha ocurrido comenzó con una observación tan sencilla como audaz.

La dorsal mesoatlántica. (Foto D.P de National Oceanic
and Atmospheric Administration via Wikimedia Commons)
Existe una población de tortugas verdes, unas enormes tortugas marinas que se encuentran en aguas tropicales de casi todo el mundo, que habita en la costa de Brasil y que tiene la peculiar costumbre de que, para reproducirse, nada una impresionante distancia de 2.000 kilómetros hasta la Isla de Ascensión, a la mitad del océano Atlántico entre Brasil y África, en la cordillera que lo recorre de norte a sur, la llamada Dorsal Mesoatlántica.

La pregunta razonable que cualquier biólogo se hace ante un fenómeno así es ¿por qué ocurre? Estas tortugas se reproducen en playas cercanas a las de su nacimiento, aunque viven la mayor parte del tiempo en el mar, cerca de costas que pueden estar relativamente alejadas de su costa natal, generalmente en islas donde entre otras cosas hay menos depredadores de sus nidos. Pero la distancia que viajan las tortugas de la isla de Ascensión es muchísimo mayor que la habitual entre otras de su especie.

La respuesta a esta pregunta se encuentra en una observación que hizo a principios del siglo XX el geofísico alemán Alfred Lothar Wegener: la plataforma continental de Suramérica parecía que podía encajar con extraordinaria precisión en África. Y la Antártida, Australia, la India y Madagascar parecían piezas de un puzzle alrededor del extremo sur de África. Cierto, no fue Wegener el primero en notar este curioso hecho, que ya se había registrado en el siglo XVI conforme se iban haciendo los primeros mapas detallados del mundo que se iba descubriendo, literalmente, día a día. Pero fue él quien por primera vez se planteó una posibilidad que iba en contra de la hipótesis sobre nuestro planeta que llevaba 50 años dominando la geología.

Según esta hipótesis, llamada “geosinclinal”, las masas de los continentes eran características fijas de la superficie terrestre, apenas alteradas por algunos movimientos que provocaban los plegamientos de la corteza que forman las cordilleras. Esta visión de la corteza terrestre era coherente, además, con la edad que se calculaba por entonces que tenía la Tierra, y que era de entre 18 y 400 millones de años. Este cálculo cambiaría conforme se iban descubriendo más datos sobre asuntos como la composición interna del planeta, o la historia del sistema solar y del universo.

Wegener pensó que esto no era así, sino que quizás los continentes se movían, acercándose y alejándose entre sí, una idea audaz que con el tiempo se convertiría en la teoría de la tectónica de placas, según la cual la corteza terrestre está formada por distintas placas en movimiento, que “flotan”, por decirlo de alguna manera, sobre el manto terrestre. Algunas placas se alejan entre sí, otras están chocando y una se mete por debajo de la otra (subducción) mientras que algunas se mueven en direcciones contrarias provocando fricción. Es la tectónica de placas.

Para sustentar su hipótesis, Wegener echó mano de la relativamente nueva ciencia de la paleontología. Se dedicó no sólo a comparar las capas geológicas a ambos lados del Atlántico y otros aspectos que sustentaban su teoría, sino que estudió los fósiles presentes en las dos costas.

Cuando se analizan los fósiles presentes en continentes que estuvieron unidos en el pasado, es posible ver que en un momento dado, estamos ante las mismas especies. Si no había puentes terrestres que hubieran unido a los continentes (como se creía antes de Wegener), lo que se demostraba con la evidencia geológica, la única explicación que quedaba era que los continentes habían estado unidos en un momento del pasado y se habían separado lentamente.

La evidencia fósil fue uniendo las piezas del puzzle del planeta. Los helechos Glossopteris se encontraban en puntos de las costas de Sudamérica y África que alguna vez estuvieron unidos, pero también en puntos de la India, la Antártida y Australia, dibujando la forma en que estuvieron juntos estos continentes. El reptil fósil Cinognathus también unía a Sudamérica y África, mientras que el Lystrosaurus aparecía en África, la India y la Antártida.

La evidencia fósil de Wegener sustentaba su idea de la corteza terrestre en movimiento. Pero, al mismo tiempo, la tectónica de placas explicaba fenómenos que con el tiempo se han situado como algunas de las más sólidas pruebas sobre la evolución.

En el modelo contemporáneo, la corteza terrestre está dividida en siete grandes placas, ocho de menor tamaño y una gran cantidad de otros pequeños fragmentos. A lo largo de la historia del planeta, estas placas se han desplazado, formando en ocasiones grandes continentes que luego se han separado en un movimiento incesante. La última vez que esto ocurrió fue hace unos 225 millones de años, cuando los continentes estaban unidos en la masa llamada “Pangea”. Esto coincidió con una de las más completas extinciones de especies en la Tierra, la Pérmica-Triásica, en la que desapareció entre el 90 y el 95% de todas las especies marinas.

A partir de entonces, podemos seguir la historia de la vida, su evolución y adaptación, a lo largo de las líneas de los continentes en movimiento. Los elefantes, que aparecieron en África, vieron que parte de su población era apartada con el desplazamiento de la India, y ambos grupos empezaron a evolucionar y adaptarse independientemente, dando lugar al elefante africano y el elefante asiático que conocemos hoy.

El otro ejemplo clásico es la fauna australiana. El continente australiano se separó de los demás hace 55 millones de años y su aislamiento fue responsable de que en él los mamíferos evolucionaran independientemente de todos los demás, sin desarrollar la placenta como forma de alimentación y protección de las crías en formación, sino el marsupio o bolsa donde terminan su desarrollo.

La evolución fue una prueba de la tectónica de placas, y ésta a su vez es una demostración de cómo se ha desarrollado la evolución de varias maneras. Un buen ejemplo de cómo las distintas disciplinas del conocimiento se entrelazan para ofrecernos una explicación cada vez más completa del mundo que nos rodea y de su evolución.

La tectónica de placas y nuestra especie

Hace unos 7 millones de años que el linaje humano (los homininos) se separó de los demás primates, y la tectónica de placas podría explicar parcialmente por qué. El surgimiento de la “Pared de África”, una cadena de montañas y mesetas que van desde Etiopía hasta Sudáfrica, habría obstaculizado, según una hipótesis, la llegada de la humedad oceánica a los antiguos valles, convirtiendo exuberantes selvas tropicales en las sabanas y llanuras que favorecieron que nuestros ancestros desarrollaran la capacidad de caminar en dos patas, el primer escalón que lleva a lo que somos hoy.

diciembre 22, 2014

Impresión 3D: de curiosidad a promesa de vida

Cuando la tecnología se pone al servicio no sólo de la industria y de la diversión, sino de la felicidad, podemos hablar, inequívocamente, de progreso.

Impresora en 3D, 2014
(Foto CC via Wikimedia Commons)
En 2013 comenzaron a aparecer en las noticias pacientes, principalmente niños, con prótesis de manos funcionales e incluso divertidas, de colores vivos o que imitaban a algún superhéroe como “Ironman”.

Y, lo más sorprendente, estas prótesis costaban decenas o cientos de euros, comparadas con las prótesis habituales de hasta decenas de miles de euros.

Los responsables: unos dispositivos que prometen convertirse en una presencia tan común en el hogar como la impresora y el ordenador: la impresora en 3D. Se trata de máquinas capaz de usar un archivo de instrucciones para crear con ellas un objeto físico, como una impresora en papel plasma los trazos o fotografías de un programa de manipulación de imágenes o diseño.

La impresión en 3D no esculpe, retirando material de un bloque, sino que va depositando material en capas sucesivas para dar forma al objeto, por lo que se conoce también como “fabricación aditiva”.

Esta idea la llevó a la práctica en 1984 Charles, “Chuck” Hull, al patentar la estereolitografía. Esta forma de impresión usa un cabezal de luz ultravioleta que “dibuja” cada capa en un depósito lleno de un fotopolímero que se “cura” o endurece en presencia de la luz. Una plataforma hace descender la capa para que se haga la segunda sobre ella y así sucesivamente. Poco después se empezarían a utilizar otros materiales, desde resinas y plásticos hasta metales y cerámicas, otros medios, como el láser o el calor, y otros procedimientos para lograr la impresión, como boquillas que depositan directamente materiales que se solidifican.

El primer uso de las impresoras de Hull fue la creación rápida de prototipos para las más diversas industrias, un proceso que, al ahorrar el largo tiempo necesario para producir esos prototipos a mano, compensaba el enorme coste, de cientos de miles de euros, de las primeras impresoras.

Los dispositivos dispararon la especulación creativa. En 1999, un equipo del instituto de medicina regenerativa Wake Forest utilizó la impresión en 3D para crear el andamiaje de una vejiga urinaria que se usó como base para cultivar células de la vejiga de un joven, que así pudo recibir un trasplante con sus propias células. Este instituto está desarrollando técnicas de bioimpresión capaces de ir colocando células en disposiciones tridimensionales, “imprimiendo” con ellas. En el año 2000 lograron crear un riñón funcional en miniatura, mientras que otra empresa consiguió imprimir por primera vez vasos sanguíneos en 2009.

El arte, la moda, el diseño y otras muchas disciplinas han ido acudiendo a la impresión 3D para proyectos cada vez más ambiciosos, como el primer avión robótico o el primer automóvil íntegramente impresos en 3D, que ya han sido una realidad.

Los precios de las impresoras en 3D van en picado y su accesibilidad aumenta exponencialmente. Uno de los sistemas para lograr esto han sido las impresoras en 3D diseñadas para producir, precisamente, las piezas de otras impresoras en 3D, formando una cadena de máquinas capaces de autoclonar sus componentes plásticos. Tal es el caso del proyecto RepRap del Dr. Adrian Bowyer de la Universidad de Bath, que lanzó la primera impresora autorreplicable, llamada Darwin, en 2008.

La explosión de este tipo de aparatos significa, también, que el consumidor tiene cada vez más la posibilidad de hacerse de modo accesible con productos que de otra forma serían demasiado costosos o, simplemente, serían difíciles de encontrar. Cada día más sitios web ofrecen la posibilidad de descargar archivos gratuitos para impresión, desde piezas de ajedrez con formas y personajes distintos hasta parasoles para objetivos fotográficos, floreros o carcasas para teléfonos móviles. Es sólo el principio.

Las impresoras en 3D empezaron a ser realmente accesibles para el consumidor apenas en 2011, al aparecer las primeras máquinas de menos de mil euros y formas de que uno, si lo desea, haga su propia impresora en 3D, ya sea adquiriendo los planos o directamente por medio de kits para armar.

Las impresoras para el consumidor constan, generalmente de una base con el ordenador que recibe e interpreta los planos o instrucciones y controla el proceso, y un cabezal impresor dispuesto en barras que le confieren movimiento en 3 dimensiones, que funde y deposita plástico suministrado en forma de filamento por una bobina. Como en el caso de las impresoras en 2D, el elemento clave de la calidad de una impresora es su resolución, en este caso, el grosor de cada capa, que afecta la calidad final del producto. En teoría, pueden producir cualquier pequeño objeto de plástico con el archivo correspondiente.

En 2008 año se consiguió imprimir una pierna prostética totalmente en 3D, sin siquiera necesidad de ensamblar sus piezas, que permitió a un paciente caminar sin problemas. Era el primer paso para abatir el coste y tiempo necesarios para la adaptación de miembros artificiales.

Las prótesis de manos son especialmente costosas por su complejidad. O lo eran. Ahora, como parte de los modelos que pueden descargarse de Internet para imprimirse en casa se encuentran manos prostéticas que utilizan electrónica accesible para que el usuario las mueva, servomotores más baratos y una estructura de plástico. Los pacientes tienen a su alcance una prótesis de calidad, de última tecnología… y a un precio que incluso les permite tener varias, según la ocasión, lo cual resulta atractivo, de nuevo, más para los niños. De hecho, las prótesis no intentan asemejarse a las manos originales, sino que gritan su peculiaridad orgullosamente.

Las manos son sólo un principio. Conforme haya mejores materiales y tecnología más barata, las posibilidades en la prostética pueden ser tan asombrosas como imprimir un rostro desfigurado usando el hueso, cartílago y piel que permitan la reconstrucción del aspecto de personas desfiguradas. O, en un terreno más mundano, esta tecnología también puede resolver problemas en apariencia más triviales, como el reemplazo de una válvula de una bomba de agua que de otro modo requeriría mucho más tiempo y dinero.

Lo que se podría llamar un futuro en gran medida impreso en 3D.

Las armas impresas

Toda tecnología es susceptible de ser utilizada para la destrucción, como lo descubrió Alfred Nobel cuando sus explosivos para hacer túneles pasaron al mundo bélico. En 2013 se distribuyeron los archivos de la primera pistola en 3D de un solo tiro, que fueron descargados miles de veces de inmediato. Aunque hasta la fecha nunca se ha usado para dañar a nadie, los expertos advierten que este mal uso inevitable no debe ser, en modo alguno, pretexto para ponerle trabas a la tecnología.

diciembre 21, 2014

Karl Landsteiner, los tipos sanguíneos y el virus de la polio

Nuestro sistema inmune nos defiende de amenazas externas, pero puede volverse contra nosotros. El conocimiento de nuestra sangre, inmunidad y enfermedades fue la pasión de un médico austríaco.

Karl Landsteiner en la década de 1920.
(Foto de la National Sciences Academy
via Wikimedia Commons)
En 1628, William Harvey describió por primera vez la circulación sanguínea completa, basado en antecedentes como el de Miguel Servet, que había descubierto la circulación pulmonar en 80 años antes. Poco después se intentó por primera vez transfundir la sangre de una persona a otra. La idea era reponer la sangre perdida con la de otra persona. Los intentos fueron terribles fracasos que provocaban la muerte del paciente.

Fue en 1655 cuando Richard Lower realizó la primera transfusión exitosa entre perros: desangró a uno casi hasta la muerte y lo revivió con sangre de otro. En 1667, el francés Jean-Baptiste Denis logró transfundir sangre de una oveja a dos personas, logrando que los tres sobrevivieran.

Qué era la sangre y por qué las transfusiones podían ser mortales resultaba un misterio en ese momento. Apenas se habían descubierto, poco después de Harvey, los glóbulos rojos o eritrocitos por parte de Jan Swammerdam, un pionero holandés de la microscopía. Ante los fracasos, la idea se olvidó hasta el siglo XIX, donde hubo experimentos, incluso escalofriantes como el intento de hacer una transfusión de leche de cabra al aparato circulatorio de un ser humano. Sólo hubo un caso exitoso registrado, cuando el ginecólogo inglés James Blundell, en 1818, salvó la vida a una paciente después de parir con una transfusión.

¿Qué determinaba que una transfusión fuera exitosa o resultara mortal para el receptor? La respuesta llegó hasta 1901 de la mano de un médico austríaco que trabajaba en el Instituto de Patología de Viena, Karl Landsteiner.

Landsteiner abordó el problema mediante un experimento. Tomó muestras de sangre de quienes trabajaban con él y procedió a mezclarlas. En algunos casos, la sangre de una persona provocaba que la de otra se aglutinara, y en otros no. Sistematizando las mezclas de sangre y los resultados que arrojaban, concluyó que la sangre se podía clasificar en tres grupos A, B y O (que originalmente llamó C). Según su tipología, una sangre de tipo A, por ejemplo, provocaría una aglutinación mortal en las de alguien que tuviera el tipo B o el tipo O, pero no en alguien que también fuera del tipo A. El descubrimiento le valió el Premio Nobel de Medicina o Fisiología de 1930.

Sus colaboradores pronto describieron un cuarto tipo sanguíneo, AB, que tenía las características de A y B y podía recibir transfusiones de sangre tipo A, B, O o AB. La tipología sanguínea y transfusiones dependían de que los eritrocitos tuvieran o no, en su superficie, los antígenos A o B, o ambos (AB), o ninguno (O).

Este descubrimiento fue interpretado en 1907 por el estadounidense Reuben Ottenberg como indicador de las posibilidades de éxito de una transfusión. Si se sabía el tipo sanguíneo de donante y receptor, se podría evitar que una transfusión provocara reacciones indeseables y la muerte.

A partir de ese momento, la pérdida de sangre por heridas, úlceras, partos difíciles y otras causas dejaba de ser necesariamente una sentencia de muerte.

Al virus de la polio y de vuelta a la sangre

Karl Landsteiner había nacido en Viena en 1868. Su padre, un famoso periodista, murió cuando Karl tenía sólo 6 años y fue criado sólo por su madre y parientes. A los 17 años consiguió entrar a estudiar medicina en la Universidad de Viena, donde encontró su verdadero tema de interés: la química orgánica. Por desgracia, no había suficientes puestos para investigadores y muchas veces Landsteiner tuvo que realizar su trabajo de investigación pasando de uno a otro instituto desde 1891, trabajando con algunos de los más influyentes científicos de su época, como el Emil Fischer, que llegaría a ganar el Premio Nobel. Su matrimonio, celebrado en 1916 duró hasta su muerte.

A partir de entonces, Landsteiner destacó publicando trabajos de bacteriología, anatomía patológica e inmunidad serológica, desarrollando algunos procesos que en aún hoy se siguen utilizando para trabajos de inmunología, y realizó importantes aportaciones al estudio de la sífilis, mortal enfermedad venérea que fue devastadora y muy temida hasta la aparición de los primeros medicamentos eficaces en 1910.

En 1908 se interesó por la poliomielitis, cuando logró inocularle la enfermedad a un mono, permitiendo así tener un modelo animal. En los años siguientes, trabajando en el Instituto Pasteur de Francia con Constantin Levaditi, logró demostrar que la polio era causada por un virus, describió su transmisión y su ciclo de vida y en 1912 demostró que era posible, aunque difícil, desarrollar una vacuna contra esta aterradora enfermedad. Tendrían que pasar más de cuatro décadas para que Jonas Salk desarrollara la primera vacuna contra la polio en 1955.

Sin quedar satisfecho con sus grandes aportaciones, hacia el final de su vida Karl Landsteiner volvió al tejido que le dio un Nobel: la sangre. Pese a haberse retirado oficialmente en 1939, siguió investigando y en 1940, trabajando en Estados Unidos junto con Alexander Wiener, publicó su descubrimiento de otro factor sanguíneo, el Rh, nombre que se le dio por haber sido estudiado en monos rhesus. El factor Rh se tiene (+) o no se tiene (-) dando como resultado la tipología que conocemos actualmente, que son los tipos descubiertos en 1901 y un signo positivo o negativo: A+, A-, B+, B-, etc.

Los dos científicos descubrieron que este factor era el responsable de una aterradora enfermedad infantil producida cuando la madre y el feto tienen tipos sanguíneos no compatibles, y el bebé se ve atacado por el sistema inmune de su madre. El descubrimiento permitió detectar y tratar estos casos, precisamente con transfusiones sanguíneas al bebé, evitando así que nazca con daños que en el pasado eran relativamente comunes.

Pese a su relevancia como fundador de la inmunología y la hematología, Landsteiner nunca disfrutó de los reflectores y raras veces dio entrevistas o habló en público. Su pasión era su laboratorio y trabajando en él sufrió en 1943 un infarto cardíaco que terminó con su vida.

La prueba de paternidad

Antes de que se pudiera secuenciar el ADN, la prueba de paternidad por excelencia era la tipología sanguínea. No podía demostrar que un hombre fuera con certeza padre de un hijo, sólo que podía serlo o, contundentemente, en algunos casos, que NO podía serlo. Por ejemplo, dos padres de tipo A, sólo pueden tener hijos A u O (si los dos tienen un cromosoma dominante A y uno recesivo O). En tal caso, un hijo con tipo AB o B no podría ser hijo del padre, que tendría forzosamente que tener sangre de tipo B. Una herramienta imprecisa, pero la única que se tuvo durante años.