Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Ni niño ni niña

La variabilidad cromosómica en la especie humana es mucho más asombrosa, compleja y desafiante de lo que no hace muchas décadas creíamos.

Cromosomas de una persona con síndrome de Turner, abajo
a la derecha está el cromosoma X y el espacio vacío del
cromosoma Y faltante. (Imagen CC-GFDL de The Cat,
vía Wikimedia Commons)
Los seres humanos solemos buscar fronteras precisas que no existen en la realidad. Quisiéramos saber dónde termina una especie y empieza otra, pero nos encontramos una infinidad de gradaciones. Esperábamos que el electrón girara en una órbita precisa alrededor del núcleo del átomo, y lo que hay es una nube de probabilidad donde el electrón aparece y desaparece desafiando al sentido común. La atmósfera de la Tierra no termina en un punto para dar lugar al espacio interplanetario, sino que se va desvaneciendo.

En el terreno del sexo, tan delicado por el equipaje moral y emocional que nos acompaña, vamos aprendiendo a romper esquemas rígidos, por ejemplo con la aceptación creciente de la homosexualidad y la bisexualidad, siempre presentes aunque históricamente reprimidas culturalmente, así como de la posibilidad de que una persona tenga una identidad sexual distinta de la que dictan sus cromosomas.

Incluso en esos casos podríamos buscar consuelo pensando que, más allá de las preferencias, gustos o percepciones de uno mismo, se nace genéticamente niño o niña, o XY o XX.

Pero más o menos 1 de cada 400 niños que nacen en el mundo no son ni XY ni XX.

Los variables cromosomas

Las células germinales, óvulos y espermatozoides, se desarrollan a partir de células con la dotación genética completa de nuestra especie: 23 pares de cromosomas. Al desarrollarse, estas células se dividen en dos, cada una de ellas con sólo uno de cada par de cromosomas. Esos 23 cromosomas se unirán a los 23 de la otra célula germinal para dar lugar a una dotación genética totalmente nueva, recombinando los cromosomas del padre y de la madre.

Pero en el proceso de desarrollo de los óvulos o espermatozoides, puede haber errores al momento de esta división, y que en las células resultantes falte o sobre algún cromosoma, un trastorno que tiene el nombre de aneuploidía. Estos trastornos pueden ser monosomías, cuando sólo está presente uno de los cromosomas del par; trisomías, cuando hay tres cromosomas en lugar de dos, y tetrasomías o pentasomías que, como su nombre lo indica, cuando hay cuatro o cinco copias de los cromosomas.

Generalmente, cuando los cromosomas faltantes o sobrantes son de los primeros 22 pares, los que no intervienen en la determinación del sexo, el ser resultante no puede sobrevivir. Hay algunas trisomías con las que algunas personas pueden sobrevivir ocasionalmente, pero con notables trastornos. La más conocida es la trisomía 21, donde hay tres copias del cromosoma 21, y que provoca el Síndrome de Down. Un ser humano también puede sobrevivir con trisomía 18, que provoca el síndrome de Edwards con malformaciones en órganos como los riñones o el corazón, o trisomía 13, causante del síndrome de Patau que presenta diversas graves malformaciones en el encéfalo, la médula espinal y el desarrollo.

Cuando los cromosomas afectados son los del par 23, el que determina nuestro sexo biológico, los trastornos pueden ser más benignos. Puede haber personas con un sólo cromosoma X, que padecen diversos trastornos conocidos como el síndrome de Turner, pero no es posible vivir sólo con el cromosoma Y. El X lleva una gran cantidad de genes que resultan esenciales para la vida, mientras que el cromosoma Y solamente lleva algunas decenas de genes, uno de los cuales determina el sexo biológico.

Además, en cuanto a cromosomas excedentes, es posible tener todas las combinaciones de tres, cuatro o cinco cromosomas del par 23, siempre y cuando al menos uno de ellos sea X.

Es muy probable que usted conozca a algunas personas que tengan tres cromosomas del par 23: XXX, XYY o XXY. En el primer caso, se trata de mujeres que pueden tener algunas anormalidades del aprendizaje y suelen tener una estatura superior a la media. Las personas con trisomía XYY son hombres de aspecto normal, también con una estatura superior a la media, y que pueden tener problemas de aprendizaje. La trisomía XXY es un poco más seria y da lugar a hombres estériles, con bajos niveles de testosterona, algunos problemas de masa muscular y genitales muy pequeños, La gran mayoría de quienes tienen estas trisomías no son diagnosticados nunca, ya que su aspecto y conducta están dentro de la variación normal. Las tetrasomías y pentasomías, menos frecuentes, suelen dar como resultado mujeres con serias anormalidades físicas y mentales.

Se estima que 1 de cada 1000 niñas son XXX y 1 de cada 1000 niños son XYY.

Aún así hay variaciones adicionales, no tan poco comunes pero sí muy poco conocidas, en las que una misma persona puede tener en su cuerpo algunas células con distintas cargas genéticas, lo que se conoce como mosaico genético o “mosaicismo”. Por ejemplo, algunas células son XX y otras son XY, y la determinación del sexo en cuanto a los genitales puede ser poco clara, una condición llamada hermafroditismo donde pueden estar presentes órganos sexuales femeninos y masculinos, generalmente no funcionales o con sólo uno de ellos capaz de funcionar para la reproducción. El hermafroditismo se trata quirúrgicamente para dar al paciente genitales adecuados a su preferencia sexual.

Así, el 30% de las mujeres con Síndrome de Turner muestran algún nivel de mosaico genético, donde tienen células XX y otras donde sólo está el cromosoma X.

Y, para demoler nuestra esperanza de tener alguna claridad, existe un fenómeno adicional mucho menos común en humanos: el quimerismo. Se llama “quimera”, por el mítico animal formado de partes de otros varios, a los seres vivos que tienen celulas genéticamente diferentes, un fenómeno que se produce cuando se fusionan dos óvulos fecundados con cargas genéticas totalmente distintas. En el caso de los cromosomas sexuales, hay personas que tienen a la vez células XX y células XY. Si la cantidad de ambas es la misma, la persona es un verdadero hermafrodita.

Como tantos otros dominios de la ciencia, la genética ha demostrado que la variabilidad de la vida es mucho mayor de lo que suponíamos en el pasado. No hay fronteras claras, y no siempre existe la “normalidad” como la quisiéramos idealmente.

Lo cual es una lección que todos podemos aprender, no sólo en cuanto a genética y biología, sino en cuanto a lo impreciso de nuestras propias preconcepciones ante una realidad compleja.

El mito XYY

Dos estudios con serios problemas metodológicos llevaron en la década de 1960 a la creencia de que los hombres con trisomía XYY eran especialmente agresivos y con tendencias delictivas, algo que la prensa divulgó con igual poco rigor. Aunque ya en 1970 nuevos estudios demostraban que el comportamiento medio de los hombres XYY no era distinto del de los XY, el mito ha persistido.

Conductores y superconductores

Nos sirven para desentrañar los misterios de las partículas elementales, detectar alteraciones en nuestro cuerpo, ahorrar energía y levitar, todo ello con la buena y vieja electricidad.

Levitación de un imán sobre un superconductor.
(Foto CC de Mariusz.stepien vía Wikimedia Commons)
Cuando uno se somete a una resonancia magnética que crea imágenes precisas del interior de nuestro cuerpo usadas en diagnósticos, se beneficia de la superconducción eléctrica.

Su historia comienza hacia 1720. Un astrónomo aficionado y científico que experimentaba con electricidad estática, descubrió que ésta no sólo estaba en el vidrio que frotaba para producirla y atraer objetos pequeños. También el corcho podía hacerlo. Conectó al corcho una serie de varitas, y luego un hilo, observando que la “virtud eléctrica” se transmitía por ellos y seguía atrayendo objetos pequeños. Pronto estaba tendiendo hilos en las casas de sus conocidos y probando distintos materiales, hasta conseguir que su electricidad estática viajara unos 250 metros. Esto también le permitió determinar que algunos materiales eran conductores y otros aislantes.

Stephen Gray, había dado un salto enorme entre quienese trabajaban con la electricidad desde 1600, cuando el también británico William Gilbert la había descrito y nombrado.

La conducción eléctrica no se refiere sólo a la corriente que alimenta nuestros aparatos y dispositivos. Por ejemplo, el manejo de pequeñas corrientes eléctricas en los materiales semiconductores descritos por Michael Faraday en 1833, como el silicio, ha permitido la existencia de todo el universo de la informática y las telecomunicaciones.

¿De qué depende que un material sea conductor, semiconductor o aislante? Dado que la electricidad no es más que una corriente de electrones en movimiento, los conductores serán los materiales que permitan que los electrones se muevan con mayor libertad, algo para lo cual son ideales metales como el cobre, el aluminio o el oro.

Los aislantes impiden el flujo de electricidad a lo largo de un material, actuando de hecho como barreras, por la forma en que están unidas sus moléculas, como ocurre con el látex o los plásticos. Los semiconductores, por su parte, están en un punto intermedio entre los otros dos. La capacidad de conducción es inversamente proporcional a la resistencia que tiene un material al flujo de corriente.

El salto al superconductor

La resistencia eléctrica de todos los materiales es lo que permite que la corriente eléctrica, al ser obstaculizada por ella, se convierta en luz en una bombilla incandescente, en calor en un hornillo, en ondas electromagnéticas dentro de un microondas o en un campo de inducción en grandes hornos de acero o en cocinas de inducción.

Pero la resistencia eléctrica es también un problema: la corriente eléctrica se va debilitando y convirtiendo en otras formas de energía, principalmente calor, conforme va recorriendo cualquier material, por buen conductor que sea. Transportar energía eléctrica implica una pérdida de corriente.

En 1911, el físico holandés Heike Kamerlingh Onnes hizo un descubrimiento tan trascendente como el de la conducción eléctrica de Stephen Gray. Onnes probaba la conducción eléctrica del mercurio a distintas temperaturas, pues se sabía que la resistencia de los materiales bajaba proporcionalmente a la temperatura. Pero al enfriar el mercurio a -269 grados centígrados, la temperatura del helio líquido, su resistencia cayó súbicamente a cero, simplemente desapareció, y el mercurio se convirtió en algo nuevo: un superconductor capaz de transmitir electricidad sin pérdidas. Así, si se aplica corriente a un anillo superconductor, ésta puede dar vueltas eternamente a su alrededor. El descubrimiento le valió a Onnes el Premio Nobel de física de 1913.

¿Para qué sirven los superconductores? En los años siguientes, multitud de investigadores realizaron trabajos con distintos materiales para determinar cómo y a qué temperatura se podrían convertir en superconductores. Entre ellos, dos alemanes descubrieron que los superconductores repelían los campos magnéticos en movimiento. Lo que esto significaba en la práctica era que se podía hacer que un imán levitara sobre un superconductor.

Esta propiedad, llamada “maglev” o levitación magnética, fue una de las primeras aplicaciones de los superconductores, en trenes cuyas vías están formadas de bobinas que crean un campo magnético que repele unos imanes de la parte inferior del tren y lo hace avanzar flotando o levitando sobre las vías, permitiéndole moverse con seguridad y suavidad a velocidades de hasta 500 km/h. Si los imanes son de superconductores enfriados con nitrógeno líquido, que es de coste relativamente bajo, se obtiene una mayor eficiencia en el uso de la energía.

Entre las aplicaciones de los superconductores se cuentan dispositivos como circuitos digitales de gran velocidad para tener ordenadores más rápidos, filtros de microondas que se pueden emplear en bases de telefonía móvil, motores y generadores eléctricos con un gasto de energía mucho menos que los convencionales y enormes electroimanes de gran potencia que igual se utilizan en los escáneres médicos que en detectores de partículas como los que emplea el Gran Colisionador de Hadrones (LHC) del CERN.

El LHC es, esencialmente, un par de grandes tubos circulares en cuyo interior se disparan protones que se aceleran utilizando electroimanes que también les obligan a curvar su trayectoria hasta, finalmente, colisionar a velocidades cercanas a las de la luz. El enorme dispositivo emplea 1232 electroimanes principales, cada uno de ellos de 15 metros de longitud y con un peso de 35 toneladas. Otros gigantescos electroimanes superconductores se utilizan en los detectores del LHC para poder percibir y registrar las colisiones que están desvelándonos algunos de los secretos del mundo subatómico.

Una de las búsquedas más intensas en la física de los superconductores es la búsqueda de materiales que puedan exhibir propiedades superconductivas a temperaturas “altas”. Actualmente se han desarrollado superconductores capaces de funcionar a -139 ºC. El santo grial de esta búsqueda sería el mítico “superconductor a temperatura ambiente”, que haría más por la conservación de energía en el mundo que ninguna otra tecnología imaginable.

¿Y el escáner?

Los escáneres de diagnóstico como la resonancia magnética están formados por un “donut” o anillo donde entra el paciente y que es un electroimán en cuyo interior hay una bobina con helio e hidrógeno líquido con una fuerza magnética 60 mil veces más potente que la de la Tierra que obliga a que los protones del agua de nuestro cuerpo se alineen según el campo magnético. Al quitar el campo, los protones vuelven a su posición normal emitiendo pequeñas cantidades de energía que son interpretadas como detallados gradientes de luz en las imágenes de la resonancia.

La ciencia al servicio de la pintura

Estudiar los problemas que sufre nuestro legado artístico y cultural y hacer lo posible por conservarlo de la mejor manera también es una forma de hacer ciencia.

Retrato del Dux Giovanni_Mocenigo, pintura de Gentile Bellini,
1480, antes y después de su restauración.
(Fotos D.P.  vía Wikimedia Commons)
La pintura es un arte efímero.

Quienes tienen en su poder las grandes obras pictóricas del pasado enfrentan continuamente el desafío de defenderlas de los numerosos factores que pueden degradarlas, distorsionarlas o destruirlas de muy diversas maneras.

Bien conocido es el caso de la Capilla Sixtina pintada al fresco por Miguel Ángel entre 1508 y 1512, que acumuló durante más de 450 años el humo de las velas y de los incensarios, la humedad y el bióxido de carbono emitidos por millones de visitantes. Para quien contempló la obra maestra antes de su restauración (llevada a cabo entre 1980 y 1999), el techo era una obra maestra evidente pero oscura, amarillenta y opaca. La restauración implicó el uso de técnicas muy cuidadosas para tratar de retirar las capas de hollín, sales y otros materiales sin afectar los trazos de Miguel Ángel.

Otro fresco que ha sido imposible rescatar en su esplendor original es el pintado por Leonardo Da Vinci alrededor de 1495 en el refectorio del convento de Santa Maria delle Grazie en Milán, “La última cena”. Dado que la pintura se realizó en una pared exterior, fue afectada rápida y profundamente por la humedad.

La pintura, finalmente, no es sino la aplicación de diversos pigmentos a una superficie empleando un medio que eventualmente desaparecerá (secándose o curándose) de modo tal que los pigmentos queden adheridos permanentemente. En la pintura al fresco, el medio es el agua y los pigmentos son absorbidos por la escayola sobre la que se pinta. En la pintura al óleo, el medio es algún aceite secativo, que puede ser de linaza, de semillas de amapola, de nuez o de cártamo, y que al secarse forma una superficie dura e impermeable

Belleza en peligro

La conservación del arte echa mano de diversas disciplinas científicas precisamente por la enorme variedad de amenazas que penden sobre todo cuadro desde el momento en que se termina. Aunque, por supuesto, el daño se produce muy lentamente al paso de muchos años, lo que en su momento generó la ilusión de que las pinturas al óleo, principalmente, tenían la posibilidad de ser permanentes en su textura y colorido.

El primer enemigo de una pintura son los elementos del medio ambiente, su atmósfera y su temperatura. La superficie al óleo se contrae y expande como reacción a los cambios de temperatura, y lo hace de modo poco uniforme, por lo que este simple ciclo presente día tras día y a lo largo de las estaciones del año, es uno de los responsables de las grietas que aparecen en las pinturas al óleo. Igualmente, el exceso de humedad o la excesiva sequedad, afectan la estructura de la superficie de la pintura.

Lo mismo ocurre con el sustrato sobre el cual se ha aplicado la pintura. Los más tradicionales son tablas de madera y lienzos o telas de distintas fibras vegetales. Las tablas (como aquélla sobre la que está pintada La Gioconda de Leonardo) pueden deformarse o rajarse al paso del tiempo y como consecuencia de los factores medioambientales, además de que son susceptibles a los ataques de insectos que comen madera. La tela, en cambio, puede aflojarse y crear pliegues en presencia de altos niveles de humedad, o hacerse más tenso, provocando el desprendimiento de escamas de pintura.

El barniz con el que solían cubrirse algunos óleos puede oscurecerse al paso del tiempo adoptando una tonalidad marrón o amarillenta. Y claro, el hollín, el dióxido de carbono y otros contaminantes pueden incluso incrustarse en la pintura afectándola de modo permanente

Finalmente, la exposición al sol directo o a la luz ultravioleta puede producir alteraciones en los pigmentos, cambiando su brillo, su tono, su luminosidad. Al paso de los siglos se han cambiado diversos pigmentos para obtener mejores y más duraderos resultados. Por ejemplo, el blanco que se hacía originalmente con plomo se amarilleaba fácilmente y para el siglo XIX se había sustituido por óxido de zinc. Pero no existe el pigmento perfecto. Así como los carteles que se dejan al sol van desvaneciéndose por la luz, así lo están haciendo lentamente todos los cuadros que podemos ver en El Prado o el Louvre.

Y todo ello sin contar con los daños físicos (golpes, talladuras, caídas) que puede sufrir un cuadro en su existencia.

Éstos son los motivos por los cuales los museos tienen controles ambientales y de luz muy estrictos y en algunos casos imponen limitaciones como ver ciertas obras con una luz muy tenue, para prolongar su vida. Por ello mismo, también, todas las pinturas que tienen tanto museos como particulares son sometidas a revisiones y restauraciones periódicas que principalmente constan de repintar zonas dañadas, fortalecer la capa de pintura y limpiar la superficie. Y, en un futuro muy cercano, la limpieza se podrá hacer con rayos láser finamente ajustados para, mediante disparos precisos, eliminar el barniz y la suciedad... como se usa para eliminar tatuajes no deseados

Restauración de El Greco

El Greco pintó sus primeros cuadros usando témpera de huevo sobre tablas de madera, para después preferir el óleo sobre tela, principalmente de lino. Uno de los más recientes trabajos de restauración importantes realizados por el Museo del Prado es el de “El expolio de Cristo”, un cuadro de El Greco propiedad de la Catedral de Toledo donde se recuperaron pequeñas zonas donde se había caído la pintura, se aplicaron sustancias para consolidar la superficie e impedir que se siguiera descamando y limpiando el barniz del recubrimiento para mostrar los colores, luces y sombras originales del cuadro.

Así está hecha la estación espacial internacional

Desde el año 2000 hay seres humanos habitando de modo permanente la estación espacial internacional, un logro tecnológico singular en el que han confluido conocimientos, voluntarios... y los más diversos materiales.

La Estación Espacial Internacional tomada desde el
transbordador espacial en 2009.
(Foto D.P. NASA vía Wikimedia Commons)
En 1998 se lanzaron y empezaron a montar los primeros componentes de la estación espacial internacional, ISS por su nombre en inglés. Era la culminación, y al mismo tiempo el principio, de uno de los más grandes esfuerzos compartidos por distintos países en la exploración espacial a través de las agencias espaciales de Estados Unidos, Canadá, Rusia, Europa y Japón.

La ISS está formada por módulos fabricados por distintos países en los quevive y trabaja la tripulación, como los laboratorios y módulos de servicio, zonas de carga y observatorios, unidos entre sí con piezas llamadas “nodos”. En ellos se acoplan las naves que llevan y traen a la estación personal y suministros.

Tanto los metales como todos los demás componentes de la ISS han tenido que responder a estándares extremadamente estrictos en cuanto a aspectos como su resistencia a la corrosión, su durabilidad y su comportamiento en caso de incendio, lo que incluye que no sean inflamables, que no produzcan chispas accidentalmente y que al someterse a altas temperaturas no emitan gases tóxicos, ya que debe proteger al máximo a los habitantes de la estación, que no pueden abandonarla de emergencia.

Y, además, deben ser tan ligeros como sea posible, ya que poner en órbita cada kilogramo de material tiene un elevado coste. Cuando se comenzó a construir la ISS, se calcula que ese coste era de alrededor de 24.000 dólares.

Ya terminada, la ISS tiene un peso de 450 toneladas. O lo tendría en tierra, por supuesto, no en su situación, la llamada “órbita terrestre baja”, a unos 400 km de la superficie del planeta. Y todo ese colosal peso, algo menos del que tiene un Boeing 747, tuvo que ser transportado desde tierra.

Lo primero que vemos en la ISS es un recubrimiento exterior que tiene precisamente por objeto protegerla de choques de pequeños objetos. Es el escudo MM/OD, siglas de “micrometeoritos y desechos orbitales”. En los módulos fabricados por Estados Unidos el escudo es una hoja de aluminio de 1,3 mm de espesor, separada 10 centímetros del casco de presión, formado por aluminio más resistente y de más de 3 mm de espesor, incluso 7 mm en algunas zonas más expuestas.

Ese espacio de 10 centímetros está ocupado por varias capas de un tejido cerámico de gran resistencia, el nextel, y una segunda capa de un tejido similar al kevlar, material utilizado para fabricar chalecos antibalas y otras protecciones. Esta disposición tiene por objeto que cuando el escudo exterior sea atravesado por un desecho orbital, éste se rompa en pequeños fragmentos que sean absorbidos o ralentizados por los tejidos para llegar al casco de presión en forma de una nube de partículas, disipando la energía del choque a lo largo de un área mucho mayor.

Otros módulos utilizan otros diseños. Los rusos, por ejemplo, emplean una estructura de panal de aluminio sobre una segunda capa de plástico para disipar los choques y que es, se calcula, aún más eficiente.

Para todo efecto práctico, todos los módulos presurizados, que son de forma cilíndrica, actúan como una lata de aluminio para refrescos a gran escala.

El vidrio del que están hechas las ventanas de la ISS es, igual que el de nuestras ventanas, fundamentalmente de silicio, fusionado con otra variedad de vidrio de silicio y trióxido de boro para fomar el material llamado “borosilicato”, un vidrio mucho más resistente y que se contrae y expande menos que el común al verse sometido a cambios de temperatura. La ventana en sí está formada por cuatro capas de vidrio que tienen un espesor de hasta 3 centímetros: una exterior para protección contra choques de pequeños objetos, dos gruesos paneles de vidrio de presión, uno de los cuales es sólo protección adicional pues según los cálculos uno solo de ellos bastaría para garantizar la seguridad de la nave, y finalmente un panel interno resistente a rayaduras y otras marcas. Las ventanas tienen además la protección adicional de contraventanas, al estilo de las casas más rústicas, fabricadas con aluminio, Nextel y Kevlar.

El brazo robótico europeo, construido por la Agencia Espacial Europea, permite la manipulación y traslado de pequeñas cargas, trabajando con los astronautas cuando están realizando caminatas extravehiculares, e incluso para transportarlos a los lugares del exterior donde tienen que trabajar, ahorrándoles esfuerzo y tiempo. También sirve para inspeccionar, instalar y reemplazar los paneles solares. Sus componentes principales son tubos de fibra de carbono, como la utilizada en los autos de Fórmula 1, unidos por segmentos de aluminio, terminando en ambos extremos en “manos” o efectores metálicos. También el Canadarm2, brazo robótico construido por la organización espacial canadiense. El tercer brazo robótico de la ISS, es de termoplástico con fibra de carbono, en 19 capas superpuestas para obtener la mayor resistencia posible. El poco peso y, por tanto, poca inercia de estos brazos robóticos son indispensables porque, a diferencia de otros manipuladores y grúas de la ISS, éstos no están fijos en una base, sino que se pueden desplazar por el exterior de la ISS fijando una mano en agarraderas especiales mientras mueven la otra, ya sea para sus manipulaciones o para avanzar a la siguiente agarradera, como orugas moviéndose sobre la estación.

A ambos lados del conjunto central de módulos de la ISS se encuentran unos enormes conjuntos de paneles solares sostenidos que le proporcionan la energía necesaria para accionar sus diversos sistemas y le dan su aspecto distintivo. La Estructura de Armazón Integrada (ITS en inglés) está formada por tubos de aluminio extruido que además de sostener las celdillas fotovoltaicas albergan el sistema de distribución eléctrica, además del sistema de refrigeración, en una interesante paradoja: en el frío espacial casi absoluto, la ISS captura energía del sol pero la convierte en calor en su interior con el funcionamiento del equipo e incluso de los astronautas y es fundamental irradiar ese calor al espacio para mantener una temperatura adecuada en la estación.

Otros materiales

Además del aluminio y los plásticos reforzados con fibra de carbono, los materiales más abundantes en la ISS son el hidruro de níquel que utilizan las baterías de la estación, plásticos, titanio para la fontanería, que permite recuperar todos los desechos y el vapor de agua para reciclarlos, magnesio, elastómeros (polímeros elásticos como la goma) y el cloruro de polivinilo (PVC), todos ellos producidos y aplicados bajo estrictas especificaciones.

Lise Meitner

Lise Meitner venció los prejuicios de la Europa de principios del siglo XX para convertirse en una de las grandes figuras de la física nuclear. Pero los prejuicios del XXI aún la mantienen en una injusta oscuridad.

Lise Meitner en Viena alrededor
de 1906. (Foto D.P. vía
Wikimedia Commons)
El 11 de febrero de 1939, Lise Meitner publicaba en la revista Nature, junto con su sobrino, el físico Otto Frisch, el estudio “Desintegración del uranio por neutrones: un nuevo tipo de reacción nuclear”. Explicaba por qué un átomo de uranio golpeado por un neutrón no lo absorbía, transmutándose en un elemento más pesado (los elementos se identifican por su número de protones, que le dan sus características únicas). Por el contrario, el resultado eran elementos más ligeros como el bario y el kriptón.

Meitner y Frisch proponían que el choque del neutrón dividía, rompía, al átomo de uranio en dos átomos más ligeros. Parte de la masa original del uranio se convertía en energía según la ecuación de Einstein E=mc^2, que dice que la energía en la que se puede convertir la materia es igual a su masa multiplicada por la velocidad de la luz al cuadrado.

El artículo llamó a este nuevo tipo de reacción “fisión nuclear”, y es la fuente de la energía nuclear, ya sea usada en bombas atómicas o para la paz en aplicaciones médicas, científicas, tecnológicas, nucleoeléctricas, etc.

Los resultados que desentrañaba Lise Meitner procedían de experimentos que había diseñado con Otto Hahn y que había llevado a cabo este químico junto con Fritz Strassman.

El descubrimiento de la fisión nuclear era uno de los más importantes en la súbita expansión que tuvo la física nuclear en las primeras décadas del siglo XX. Tanto que en 1944 se le concedió el premio Nobel a Otto Hahn “por su descubrimiento de la fisión de los núcleos pesados”. Ni la Academia ni Hahn hicieron mención a Lise Meitner, que había sido, cuando menos, tan importante como Hahn en toda la investigación. Una omisión que, junto con su ausencia durante muchos años de los relatos de la historia de la física atómica, es de las grandes –y frecuentes– injusticias contra las mujeres de la ciencia.

De Viena a Cambridge, por Copenhague

Lise Meitner nació en 1878 en Viena, hija de una familia de raíces judías, pero no practicante de la religión.

Su poco común historia educativa se debió a la revolucionaria convicción de su padre Philipp de que sus ocho hijos debían recibir la misma educación fueran varones o mujeres. Lise exhibió pronto facilidad y gusto por las matemáticas, y su padre se encargó de que la desarrollara con profesores privados, ya que las chicas no podían estudiar en los bachilleratos para chicos. Con esas bases, en 1901 Lise consiguió convertirse en la primera mujer en ser admitida a las clases de física y laboratorios de la Universidad de Viena, donde estudió con algunos de los grandes nombres de la física de entonces, como Anton Lampa y Ludwig Boltzmann.

En 1906 fue la segunda mujer que obtenía un doctorado en física de esa universidad. Aunque era un logro, vale la pena tener presente que tres de sus hermanas eventualmente obtendrían también doctorados. Sin embargo, una cosa era tener el título y otra conseguir un puesto en la investigación. En 1907, Max Planck la invitó a que fuera a Berlín para hacer su postdoctorado. Pero la única forma de hacerlo fue como investigadora sin sueldo que, además, no podía entrar a los laboratorios de química del instituto donde trabajaba, pues se temía que el cabello de las mujeres se incendiara.

A su llegada conoció a Otto Hahn, con quien colaboraría durante las siguientes tres décadas. Su trabajo acerca de los procesos radiactivos se desarrollaba en la frontera entre la química y la física, la primera disciplina a cargo de Hahn y la segunda de Meitner. En su trabajo conjunto descubrieron el elemento protactinio en 1917 y desarrollaron nuevos métodos de investigación de la desintegración radiactiva.

Pero no fue sino hasta 1912 cuando el grupo de investigación fue trasladado al Instituto Kaiser Wilhelm, donde Otto Hahn fue nombrado director del instituto de la radioactividad y, finalmente, con el apoyo y admiración de colegas como Max Planck, Lise Meitner fue reconocida en 1918, gracias a su trabajo en la radiactividad, como directora del departamento de física del institituto. En 1923 descubrió un efecto en el cual, si se arranca un electrón de una órbita inferior en un átomo, es reemplazado por uno de una órbita superior, emitiendo en el proceso un fotón u otro electrón. Este mismo efecto fue descrito poco después de modo independiente por Pierre Auger, pero injustamente hoy se le conoce como “efecto Auger”. Por sus logros, en 1926 fue la primera mujer nombrada profesora de física en la Universidad de Berlín.

Para 1930, había publicado más de 80 investigaciones y había sido nominada ocho veces al Nobel junto con Hahn entre 1924 y 1934, además de obtener el Premio Leibniz y el AAAWS, conocido como el “Nobel para Mujeres”.

Pese a haber adoptado la fe evangélica y trabajar como enfermera del ejército austriaco durante la Primera Guerra Mundial, para cuando Alemania se anexó Austria en marzo de 1938 tuvo que huir a Suecia, donde el Nobel de Física de 1924, Manne Siegbahn, la recibió. Pero el científico no era partidario de que las mujeres trabajaran en ciencia, de modo que le escatimó los recursos necesarios para investigar.

En noviembre de ese año, Hahn y Meitner se reunieron clandestinamente en Copenhague para planificar el experimento que llevaría al descubrimiento de la fisión nuclear. Lise Meitner, además, previó la posibilidad de una reacción en cadena que podría provocar la súbita liberación de una cantidad colosal de energía: la bomba atómica. Tanto Estados Unidos como Alemania emprendieron proyectos para crear esa arma, que Meitner lamentaría que hubiera tenido que existir.

Ignorada por la Academia Sueca y por Otto Hahn en el Nobel de Química de 1944, en los años posteriores a la guerra trabajó en la aplicación de la energía nuclear para la paz, participando en la creación del primer reactor nuclear sueco en 1947.

Lise Meitner no volvió a Austria o Alemania. Al jubilarse como investigadora en Suecia se mudó al Reino Unido con algunos familiares como su sobrino Otto Frisch. Murió en Cambridge el 27 de octubre de 1968. Su epitafio, compuesto por Frisch, dice: “Lise Meitner: una física que nunca perdió su humanidad”.

A falta del Nobel

A partir de 1946 Lise Meitner recibió una gran cantidad de reconocimientos, doctorados honoris causa, la Medalla Max Planck de la Sociedad Alemana de Física, la inclusión en la Real Academia Sueca de Ciencias y en la Royal Society de Londres, entre otras muchas academias, y el Premio Enrico Fermi. Además, su nombre se ha dado a asteroides y cráteres tanto de la Luna como de Venus y, en 1997, el elemento 109 recibió el nombre de meitnerium, en su honor.

La pandemia de gripe de 1918, lecciones y temores

La gripe suele ser una molestia anual que pagamos como impuesto inevitable. Pero de cuando en cuando se puede convertir en uno de los peores genocidas que hemos conocido.

Hospital improvisado en Camp Funston, Kansas.
(Foto D.P. vía Wikimedia Commons)
En 1997, en Hong Kong, 18 personas sufrieron una infección de gripe y seis de ellas murieron.

Este acontecimiento disparó las alarmas epidemiológicas en todo el mundo. Lo especial de este caso no era la infección de gripe, ni que causara algunas muertes, sino que se trataba de un virus de la gripe que nunca antes, hasta donde sabemos, había infectado a seres humanos.

La denominación científica del virus es H5N1. Su nombre popular, gripe aviar, surgió porque el virus se había identificado en 1996 en gansos de la provincia de Guangdong, en China. Detectado en granjas avícolas y en mercados de animales vivos en Hong Kong, el virus de pronto dio el poco frecuente salto de las aves a los seres humanos causando la muerte del 33% de los afectados.

En 2003, el virus volvió a hacer su aparición en China y en la República de Corea, y en 2004 se detectó en Vietnam, Tailandia y Japón, provocando varias muertes. Un año después llegaba a Indonesia. Y en enero de 2014 se registró la primera muerte por gripe aviar en Norteamérica, en la provincia de Alberta, Canadá.

En el caso de la gripe aviar, así como en el caso de la gripe porcina o gripe A que provocó una gran preocupación en 2009 (preocupación que resultó excesiva, pero en el momento no había modo de saberlo y era mejor errar del lado de la precaución) el temor a la posibilidad de una pandemia se hallaba en uno de los capítulos más atroces de la enfermedad humana, la pandemia de gripe de 1918 que dejó a su paso el aterrador saldo de más de 50 millones de víctimas y probablemente hasta 100 millones, ocho millones de ellas en España. En sólo un año, se cobró tantas víctimas, o poco menos, como las que se estima que provocó la peste negra de 1348-51 en Europa.

La pandemia de 1918

Todos los inviernos, la gripe estacional provoca molestias, malestares y algunas muertes, principalmente entre niños con pocas defensa, gente mayor y personas que ya tienen problemas respiratorios o de inmunodepresión. Pero el invierno de 1918
era diferente, más virulenta, más contagiosa y, sobre todo, más mortal, especialmente para personas entre 15 y 35 años de edad.

Era una época en que la población europea había sido ya diezmada por los terribles combates de la Primera Guerra Mundial, iniciada en 1914 y que llegaría a su fin en noviembre de 1918. En total, más de 9 millones de seres humanos habían sucumbido en los combates de ésa que entonces se llamó la Gran Guerra. Y, de pronto, una enfermedad venía a complicar las cosas brutalmente.

Ya en 1889-90 otra pandemia de la llamada “gripe rusa”, causada por un virus H2N2 había recorrido el mundo desde oriente hasta Estados Unidos dejando un millón de muertos, la más terrible epidemia del siglo XIX. Este antecedente provocó preocupación cuando en la primavera de 1918 apareció un virus en los Estados Unidos que pronto saltó a Europa, infectando a grandes cantidades de jóvenes combatientes en el frente de batalla, la mayoría de los cuales se recuperaron sin problemas. Muchos, sin embargo, desarrollaron una agresiva neumonía frecuentemente mortal.

En sólo dos meses, la gripe, desusadamente contagiosa, pasó de la población militar a la civil y salió de Europa llegando a Asia, Áfica, Sudamérica y Norteamérica. Después de sufrir lo que al parecer fue una nueva mutación, en agosto se presentaron nuevos brotes en Europa, África y Estados Unidos, no sólo altamente contagiosos, sino desusadamente mortales.

Donde la gripe estacional sólo causaba la muerte del 0,01% de las personas infectadas, esta nueva cepa mataba al 2,5% de los afectados, aunque en países como India llegó a un índice de mortalidad del 5%. Y lo hacía de modo cruel, a través de una neumonía que literalmente asfixiaba a sus víctimas.

Finalmente, en la primavera de 1919 el mundo fue golpeado por un tercer brote pandémico, al término del cual, uno de cada cinco seres humanos de todo el mundo se habían contagiado. Y, por supuesto, la medicina en ese momento no tenía armas para enfrentar el problema, apenas podía tratar los síntomas y buscar que los pacientes sobrevivieran. No había vacunas, que aparecerían hacia 1940, ni medicamentos antivirales. La única terapia que tenía cierta efectividad era la transfusión de sangre a pacientes enfermos procedente de pacientes que se habían infectado y habían sobrevivido, y que funcionaba como una especie de vacuna.

Cada oleada de gripe duró unas 12 semanas: atacaba con fuerza y luego desaparecía, como lo hace la gripe estacional.

Curiosamente, una de las razones por las cuales se conoce a esta pandemia como la “gripe española” es que los informes sobre ella estaban cuidadosamente censurados en los países participantes en la Primera Guerra Mundial. Pero en la España neutral, donde incluso Alfonso XIII sufrió el contagio y llegó a enfermar gravemente, los diarios informaban libremente sobre la enfermedad, dando la impresión de que en España era mucho más grave que en el resto de Europa. Habiendo llegado de Francia, sin embargo, en España se le conoció como “gripe francesa”.

Desde entonces, los profesionales de la salud han estado preocupados por la posibilidad de que se repita una pandemia con esas características mortales. El temor se ha visto reavivado por otros brotes alarmantes: la pandemia de gripe asiática de 1957 causó 2 millones de muertes, y la de gripe de Hong Kong de 1968-1970 se cobró un millón más. Todo esto explica también las medidas, afortunadamente innecesarias, que se tomaron ante la gripe A que apareció en 2009 y sigue activa: una mutación del virus podría volver a poner en peligro a millones de personas.

El hecho de que el virus de la gripe tenga tendencia a mutar fácilmente, lo que le permite anular las defensas que el cuerpo humano pueda haber criado con anteriores infecciones, es su mayor peligro. Por ello, quizá sería razonable, cuando los organismos mundiales encargados de la salud dan la voz de alerta, pensar que están haciendo su mejor esfuerzo para evitar otra tragedia.

Clasificación de los virus de la gripe

El tipo más común de virus de la gripe en humanos es el A, que se clasifica según dos proteínas importantes en su envoltura exterior: la hemaglutinina y la neuraminidasa. Hay 16 subtipos de la primera y 9 de la segunda, y los anticuerpos para uno de ellos no afectan a los otros. Así, hay virus H1-H16 y N1-N9. El virus H1N1, de origen porcino y comúnmente llamado “gripe A” tiene los tipos 1 de ambas proteínas, y distintas variedades del mismo fueron responsables de las gripes de 1918 y de 2009. El ser humano sólo puede ser infectado por virus H1, 2, 3, 5, 7 y 9 y N1 y 2.

El sistema de señales de tu cuerpo

Nuestro complejo sistema nervioso, nuestra ventana al mundo y la base de nuestra personalidad, es resultado de al menos 600 millones de años de evolución que aún no comprendemos del todo.

Representaciones de los distintos
sistemas nerviosos del reino animal.
(Ilustración CC de Xjmos, vía
Wikimedia Commons) 
Una parte decididamente importante de nosotros está formada por células, las neuronas, que reaccionan ante estímulos del medio ambiente: la luz, la temperatura, el sonido, el movimiento, la textura de las cosas, el olor... y se comunican con otras células que llevan la información a los centros de interpretación y procesamiento de nuestra cabeza, y que a su vez toman decisiones o actúan. Cuando emprendemos una acción, otras neuronas llevan información a tejidos como los músculos, estimulándolos para que se contraigan o relajen.

Son las células de nuestro sistema nervioso, nuestro aparato para interactuar con el mundo exterior e incluso con nuestro mundo interior, con sistemas de alarma como los de dolor o irritación... o de placer como al degustar un alimento que nos satisface.

Podemos argumentar que nuestro encéfalo, el centro de procesamiento y toma de decisiones, es el mecanismo más complejo que conocemos en todo el universo.

No sabemos aún exactamente cómo funciona. Hemos determinado qué función tienen algunas regiones, hemos descubierto cómo se transmiten los impulsos nerviosos de una neurona a otra mediante las sustancias llamadas neurotransmisores, pero estamos muy lejos de comprender a cabalidad cómo funciona ese órgano que es, finalmente, el que nos hace ser nosotros mismos.

Pero más allá de su funcionamiento, nos ofrece otro misterio no menos intrigante: ¿cómo evolucionó?

Los humildes orígenes

Todo animal multicelular necesita una forma de percibir su entorno y que sus células actúen coordinadamente para funcionar, su sistema nervioso.

Sólo el animal más primitivo, la esponja, carece de sistema nervioso. Después de todo, su única actividad es filtrar el agua que pasa por ella, y cada célula captura sus nutrientes. Pero para tener actividad, hace falta tener neuronas.

Todas las células perciben su entorno y reaccionan a él, de distintas formas. Los seres unicelulares ciliados, por ejemplo, se mueven activamente hacia la luz o el alimento y se retiran si perciben sustancias venenosas. Pero los seres multicelulares requirieron especializar distintas células en tejidos dedicados a funciones concretas como el movimiento, la digestión o la transmisión de impulsos.

Incluso unas pocas neuronas o células nerviosas pueden bastar para sobrevivir, como ocurre con los diminutos gusanos redondos llamados Caenorhabditis elegans o, como prefieren abreviar los biólogos, C. elegans. Los hermafroditas de esta especie tienen, todos y cada uno de ellos, únicamente 302 neuronas, y con ellas se las arreglan para sobrevivir. Parecen pocas, hasta que descubrimos que cada uno tiene únicamente 959 células (que aumentan a 1031 cuando se convierten en machos).

La uniformidad en el funcionamiento de las células nerviosas en todos los animales parece un indicio de que estas peculiares células todas provienen del mismo antecesor común. Uno de los mejores candidatos para serlo parece ser un organismo similar a los gusanos llamado Urbilateria, que vivió hace unos 600 millones de años.

El sistema nervioso más sencillo es la “red nerviosa” de animales como las medusas o las anémonas (los cnidarios). Sus neuronas nerviosas forman un sistema difuso donde la estimulación de cualquiera de ellas se transmite a todas las demás, que además se comunican en ambos sentidos. Es de suponerse que así fueron los primeros animales que tuvieron sistemas nerviosos.

A lo largo de la evolución, la comunicación entre las neuronas se “polarizó”, es decir, empezó a ocurrir sólo en un sentido: los impulsos visuales van por sus neuronas sólo de los ojos a la corteza visual, no de vuelta; hay otras neuronas encargadas de enviar impulsos para mover el ojo o contraer la pupila, pero ésas no reciben información a su vez.

Una característica singular del proceso evolutivo de nuestro sistema nervioso es que nos cuenta cómo llegamos a tener cabeza.

En la ciencia ficción o la fantasía es fácil pensar en un ser que tenga los ojos en el pecho o el sentido del olfato en los codos... o incluso el cerebro junto al hígado, por decir, algo. Pero los animales tienden a tener sus sentidos agrupados en la cabeza. Ésta es una tendencia evolutiva que los biólogos llaman “cefalización”, es decir, la concentración órganos sensoriales (como los ojos, la nariz y el oído) y el órgano nervioso más importante en la cabeza. Se especula que, dado que los animales se mueven hacia adelante, es ventajoso que los órganos sensoriales estén a la vanguardia, para evaluar su medio ambiente.

Conforme las redes nerviosas se fueron organizando y especializando, se alinearon en cordones organizados. Los animales que tienen simetría bilateral (es decir, que su lado izquierdo es imagen reflejada de su lado derecho) centralizaron estos cordones formando lo que se llama, precisamente, sistema nervioso central. En el caso de los vertebrados, alrededor del cordón dorsal se desarrolló una protección en forma de columna vertebral.

El camino evolutivo del sistema nervioso humano pasa por los pequeños primeros mamíferos que convivieron escurriéndose entre las patas de los dinosaurios hace unos 225 millones de años, dotados de pequeños cerebros como el de la musaraña, que pesa menos de dos décimas de gramo. A lo largo de este tiempo, la corteza cerebral fue ampliándose, creciendo junto con nuestro cráneo hasta asumir su forma actual, la más desarrollada de los primates, hace alrededor de 100.000 años. Somos, entonces, una especie joven con un encéfalo de aproximadamente kilo y medio, gris y de aspecto arrugado debido a los pliegues de la corteza que, se cree, permiten aumentar su superficie y las conexiones entre sus neuronas.

Finalmente, siempre conviene tener presente que, aunque identificamos al encéfalo con nuestra personalidad, voluntad y percepción, nuestro sistema nervioso está también a cargo de todo lo que hace nuestro cuerpo sin que nosotros lo asumamos conscientemente: el ritmo cardiaco, la respiración, el tono muscular, los movimientos de nuestros órganos digestivos, la secreción de hormonas, el hambre, el impulso sexual, y todo, todo lo que somos.

Nuestro encéfalo

El centro nervioso humano está formado por algo menos de cien mil millones de células nerviosas unidas por medio de, se calcula, al menos un billón de conexiones que nos permiten desde comer con cubiertos hasta resolver ecuaciones de la mecánica cuántica, disparar un balón con efecto al ángulo de la portería contraria o escribir un poema, abrazar a nuestros seres queridos y construir aviones cada vez más seguros. Y es la única estructura conocida que se ocupa en tratar de entenderse a sí misma.

Las bacterias, ¿lado oscuro y lado luminoso?

Las pocas veces que hablamos de bacterias suelen ocuparse de las enfermedades causadas por estos seres unicelulares, pero sin ellas sería inconcebible nuestra propia vida.

Ejemplares de Eschirichia coli captados con un microscopio
electrónico.
(Foto DP NIAD, vía Wikimedia Commons)
Pese a que hay 40 millones de bacterias en un solo gramo de tierra y que biólogos como Michael Hogan calculan que la masa total de ellas en nuestro planeta es mayor que la masa de todas las plantas y animales que existen sumados, estos seres fueron desconocidos para la humanidad hasta 1676, cuando el holandés Anton Von Leeuwenhoek informó haber visto pequeños seres unicelulares, que llamó “animálculos”, con sus primitivos microscopios.

Pero esas formas de vida que luego se llamarían bacterias no son animales. Son una categoría de seres vivos unicelulares, que miden apenas unas micras (millonésimas de metro) y cuyo ADN no está agrupado en un núcleo, sino que existe en una sola, larga cadena. Por eso se les llama “procariotes” a diferencia de los “eucariotes”, células cuyo ADN sí está encerrado en un núcleo.

En los años siguientes a su descubrimiento, científicos como Louis Pasteur y Robert Koch demostraron que las bacterias eran causantes de muchas enfermedades, como la tuberculosis, la neumonía, la salmonelosis, el tétanos, la sífilis y muchas más. Y en el siglo XX Alexander Fleming desarrolló los primeros antibióticos salvadores de vidas ante estas afecciones.

Pero sólo el 1% de las bacterias que conocemos son nuestros enemigos biológicos. Muchas otras tienen una actividad que nos puede resultar beneficiosa, agradable o, incluso, esencial incluso para nuestra vida.

Nuestro cuerpo tiene, de media y según un cálculo publicado a fines de 2013, algo más de 37 billones (millones de millones, 37 con doce ceros) de células de todo tipo, desde los glóbulos rojos que llevan el oxígeno a todo el cuerpo hasta las neuronas que forman el sistema nervioso o las fibras musculares que nos permiten movernos. Por cada una de ellas, albergamos entre tres y diez bacterias que han evolucionado junto con nosotros durante millones de años, para bien y para mal, formando el pequeño ecosistema dinámico que somos nosotros.

Cuando hablamos de “flora intestinal”, por ejemplo, nos referimos a varios tipos de organismos, principalmente bacterias que cumplen varias funciones en nuestro aparato digestivo: ayudan a absorber nutrientes, apoyan el sistema inmune, producen enzimas que para digerir diversos alimentos, sintetizan vitaminas que necesitamos, como la K y la B12, y son importantes auxiliares en el combate contra organismos que nos provocan enfermedades, estimulando la producción de anticuerpos e impidiendo con su presencia que colonicen nuestro tracto intestinal.

Las muchas funciones de las bacterias en nuestro organismo es buena señal de la enorme variabilidad que tienen las bacterias en cuanto a su forma de supervivencia.

Algunas de ellas necesitan oxígeno para generar energía, pero otras no, por lo que se les llama anaeróbicas. Su respiración se realiza mediante el proceso que llamamos fermentación, que convierte los azúcares en ácidos, gases o alcohol sin presencia de oxígeno, de modo que se emplean para producir ácido láctico, acético, butírico, acetona, alcohol etílico e incluso hidrógeno, como posible forma de obtener este elemento para almacenar energía de modo limpio. La fermentación bacteriana más conocida convierte la lactosa de la leche en ácido láctico, el principio del proceso de fabricación del queso. Esta fermentación bacteriana es también la que se utiliza para producir el yogurt.

Algunas bacterias se alimentan de otros organismos, mientras que otras variedades pueden producir su propio alimento, ya sea mediante la fotosíntesis, como las plantas, o mediante la llamada síntesis química, que hacen bacterias como las llamadas “extremófilas”, que han llegado a los medios de comunicación en los últimos años debido a que son seres capaces de vivir en condiciones, precisamente, extremas, como las que viven en las profundidades heladas y oscuras en un lago que está bajo una enorme capa de hielo en la Antártida.

Pero también este proceso es el que usan las bacterias que, en las raíces de las plantas, convierten el nitrógeno de la atmósfera (el gas más abundante en nuestra atmósfera, de la que forma casi el 80%) en compuestos de nitrógeno fijo como los nitratos, que las plantas pueden utilizar en su metabolismo. Para valorar su importancia, recordemos que los fertilizantes aportan a las plantas nutrientes en forma de compuestos, principalmente de nitrógeno, además de otras sustancias como fósforo, potasio y azufre. Sin las bacterias nitrificantes, que producen el 90% del nitrógeno fijo del planeta, no podría vivir la mayoría de las plantas... ni, por tanto, nosotros.

Las bacterias fueron los primeros organisms modificados genéticamente, en este caso para sintetizar sustancias que necesitamos, a parti de 1978, cuando se insertó el gen humano que sintetiza la insulina en la bacteria E. coli. Así, desde principios de la década de 1980, la gran mayoría de la insulina que, en distintas variedades, utilizan los diabéticos para controlar su afección se produce así, lo cual es mucho mejor que usar insulinas procedentes de animales que no son exactamente iguales a la humana. Otras bacterias se han modificado para sintetizar hormona del crecimiento humano gracias a la cual se pueden tratar las formas de enanismo causadas por la deficiencia de esta hormona. Y también se utilizan a fin de producir factor de coagulación para el tratamiento de hemorragias como las provocadas por la hemofilia.

Entre las investigaciones que se están llevando a cabo actualmente sobre bacterias genéticamente modificadas destacan las orientadas a conseguir variedades que sean más eficientes en la producción de biocombustibles, haciéndolos económicamente competitivos frente a los destilados del petróleo.

Si la abundancia de bacterias es tal que, en palabras de Andy Knoll, investigador de Harvard, vivimos en el mundo de las bacterias más que ellas en el nuestro, el conocimiento que seguimos reuniendo sobre ellas nos permite vivir mejor en ese mundo, combatiendo las enfermedades que algunas nos provocan algunas y aprovechando las capacidades bioquímicas de otras.

En el principio...

Si bien no sabemos aún cómo comenzó la vida, sí sabemos que las bacterias son los primeros descendientes del ancestro común de todos los seres vivos. Las primeras bacterias aparecieron hace alrededor de 3.800 millones de años y dominaron la Tierra durante 2 mil millones de años antes de que hicieran su aparición las células con núcleo y, mucho después, los seres multicelulares. Es decir, todos los seres vivos, incluidos nosotros, tenemos como nuestro humilde origen un ancestro común que fue una bacteria. Somos bacterias con cientos de millones de años de evolución.

Cuando Hubble descubrió el universo

Así concluía un camino desde los inicios de la civilización, cuando se creía que todas las estrellas estaban fijas en una esfera que giraba alrededor de la Tierra.

Edwin Hubble y el telescopio Hooker
del monte Wilson con el que descubrió
el corrimiento al rojo de las galaxias.
(Foto de Hubble DP, foto del
telescopio CC de Andrew Dunn,
vía Wikimedia Commons)
 
El 1º de enero de 1925 podría ser considerado como el primer día de la existencia del universo. O al menos el primer día que los seres humanos nos enteramos de ella.

El descubrimiento lo había hecho algo más de un año atrás un joven astrónomo, Edwin Powell Hubble, pero ese día se lo dio a conocer a los ochenta astrónomos de la Sociedad Astronómica Estadounidense que celebraban su reunión anual en la ciudad de Washington.

Los astrónomos sabían que existía el universo, claro, pero el concepto que tenían de él era muy distinto del que se tuvo desde ese día. La Vía Láctea era considerada como el universo entero. Esa banda luminosa del cielo nocturno era objeto de reflexión desde la antigua Grecia, cuando filósofos precursores de la ciencia como Anaxágoras y Demócrito especulaban que la formaban innumerables estrellas, pero Aristóteles discrepaba. Había sido Galileo quien, en 1610, confirmó que estaba formada por millones y millones de estrellas.

El problema lo planteaban ciertos manchones difusos de luz llamados “nebulosas” y que, en 1845, un aristócrata irlandés que se había permitido el mayor telescopio de su época, William Parsons, había descubierto que tenían forma de espiral. ¿Eran tales nebulosas espirales parte de la Vía Láctea o, como suponían algunos pocos, eran otros universos, otras galaxias?

En 1920, el tema fue objeto de un encuentro conocido simplemente como “El gran debate” entre Harlow Shapley y Heber Curtis, dos astrónomos estadounidenses. En ese momento, Estados Unidos ya era la mayor potencia astronómica al tener los mayores y mejor situados telescopios del mundo, y ambos científicos estaban en la vanguardia de la especialidad. El primero argumentaba, basándose en su interpretación de algunos datos, que las nebulosas espirales eran simplemente parte de la galaxia, posición mayoritaria. El segundo usaba otros datos y otras interpretaciones para sostener que eran otras muy lejanas galaxias.

Edwin Hubble estaba del lado de Curtis, y pronto tendría datos para demostrarlo.

El profesor insatisfecho

Edwin Powell Hubble nació en el Medio Oeste de los Estados Unidos, en el estado de Missouri, el 20 de noviembre de 1899. La familia se mudó a Chicago, donde el joven estudió el bachillerato y se enamoró de la joven literatura de ciencia ficción, especialmente del trabajo de Julio Verne y Henry Rider Haggard, además de desarrollar sus habilidades deportivas en el atletismo, el baloncesto y el boxeo.

Pese a haber obtenido su licenciatura en matemáticas y astronomía en 1910, cuando obtuvo una preciada beca para ir a la universidad de Oxford, en Inglaterra, prefirió dedicarse al derecho. Al volver a los Estados Unidos en 1913 se instaló como abogado, además de ser profesor de español y física en un instituto. Pronto confirmó que su vocación era la astronomía y volvió a estudiar.

Su carrera se vio interrumpida en 1917, apenas obtenido su título, cuando decidió enrolarse en el ejército debido a la Primera Guerra Mundial. Al terminar el conflicto en 1919 y con el grado de mayor del ejército, entró finalmente a ejercer su profesión como astrónomo en el observatorio del Monte Wilson, que tenía el que era en ese momento el telescopio más potente del planeta. Allí se encontró con Harlow Shapley, quien había conseguido ni más ni menos medir con precisión la Vía Láctea: 300.000 años luz. Que era, según creía, el tamaño de todo el universo.

En octubre de 1923, Hubble descubrió, en una de las nebulosas que observaba, un destello que creyó que se trataba de una nova, una estrella que estalla al final de su vida. Pero comparando diversas placas fotográficas tomadas por otros astrónomos determinó que se trataba de una estrella de la clase de las cefeidas, que se distinguen por ser variables.

El brillo de cada una de las cefeidas aumenta y disminuye en ciclos muy precisos. El de algunas dura uno o dos días terrestres, mientras que el de otras puede durar decenas de días. Dado que los cambios de las cefeidas dependen del brillo que tienen si se descuentan variables como la distancia o la interferencia de polvo interestelar, la astrónoma Henrietta Leavitt descubrió la relación entre el ciclo de cambios de brillo y la luminosidad intrínseca, lo que permite calcular la distancia a la que cada una de ellas está de nosotros.

La cefeida observada por Hubble en la nebulosa llamada M31 o, más popularmente, Andrómeda, se encontraba entonces a un millón de años luz... muy lejos de la Vía Láctea. Andrómeda era otra galaxia, otro cúmulo de estrellas como la nuestra.

Si Copérnico había sacado a la Tierra del centro del sistema solar y después habíamos descubierto que nuestro sistema solar no estaba en el centro de la Vía Láctea, Hubble había determinado que, además, nuestra galaxia era sólo una entre tantas, hoy sabemos que entre cientos de miles de millones de galaxias.

Una vez habiendo confirmado y reconfirmado sus cálculos, Hubble presentó su descubrimiento ese 1º de enero de 1925. De hecho, no lo hizo él. Por alguna causa que quedó en el misterio, dejó que fuera el astrónomo Henry Norris Russell quien lo hiciera saber al congreso de astrónomos, que en los siguientes meses confirmarían el hecho: “allá afuera” había un universo increíblemente más grande de lo que habían imaginado hasta entonces, más misterios por descubrir y más conocimientos qué obtener con sólo sus cinco sentidos.

En palabras de Edwin Hubble: “Equipado con sus cinco sentidos, el hombre explora el universo a su alrededor y llama a esta aventura Ciencia”.

La carrera de Hubble siguió cosechando logros asombrosos. En 1929 pudo demostrar que el universo estaba expandiéndose a una velocidad creciente, un logro quizá aún mayor y que fundó la cosmología moderna. Desarrolló un sistema de clasificación estelar, volvió al ejército para colaborar como científico en el esfuerzo aliado de la Segunda Guerra Mundial y después fue uno de los promotores de la construcción del observatorio del Monte Palomar, por lo que fue el primer astrónomo que utilizó su moderno telescopio. Murió poco después, el 28 de septiembre de 1953.

El Nobel esquivo

El gran sueño incumplido de Edwin Hubble fue la obtención de un premio Nobel. Incluso, según se cuenta, contrató a un publicista para que promoviera su imagen con vistas al premio. Pero no hay Nobel de astronomía, y fue por tanto el gran ausente en la larga lista de reconocimientos que recibió a lo largo de su vida y después. El que se diera su nombre al telescopio espacial que nos ha mostrado de modo impactante las maravillas del universo, sin embargo, probablemente lo ha hecho más conocido de lo que lo hubiera hecho ganar el Nobel.

¿El mundo es de los insectos?

Cálculos conservadores indican que hay al menos un trillón de insectos en el mundo, más de 140 millones de ellos por cada uno de los 7.000 millones de nosotros.

Gusanos de maguey (Aegiale hesperiaris) en un restaurante
mexicano, considerados una exquisitez.
(Foto DP de Andy Sadler, vía Wikimedia Commons)
En 1971 se estrenó una película que sembró la preocupación en todo el mundo: La crónica Hellstrom. En esta mezcla de ciencia, ciencia ficción y horror, un supuesto científico, Nils Hellstrom, presentaba escenas de la vida de diversos insectos nunca antes filmadas, y ofrecía afirmaciones pseudocientíficas para convencer al espectador que el ser humano sería eventualmente erradicado del planeta, vencido por los insectos en la lucha por la supervivencia.

Aunque era ficción, el filme subrayaba aspectos que distinguen a los insectos entre los demás seres vivos. Al tener una vida corta y ser capaces de reproducirse a enorme velocidad, son enormemente adaptables. Cualquier mutación o variación natural benéfica se puede difundir rápidamente y volverse patrimonio de toda la especie.

Los insectos son abundantes. Se conoce quizás un millón de especies de insectos (de un total de 1.300.000 especies vivas). Y los entomólogos, especialistas en el estudio de esta clase de animales, creen que ésta es sólo una pequeña muestra, como lo revela que, cada año se describen miles especies nuevas de insectos.

Pese a ese flujo constante de descubrimientos, se calcula que puede haber hasta 10 millones de especies de insectos más. Suficientes para mantener ocupados a los entomólogos durante varios miles de años en el futuro. Y esa diversidad se convierte, según estimaciones de la Universidad de Arizona, en unos 140 millones de insectos por cada ser

Los cálculos son admitidamente imprecisos por lo difícil que es incluso detectar algunos insectos. No los mayores, especialmente como los escarabajos rinoceronte y titán, o los wetas neozelandeses similares a saltamontes gigantescos, enormes insectos que pueden llegar a pesar hasta 100 gramos. Pero al otro extremo se encuentran insectos tan pequeños como las avispas parásitas de la familia Mymaridae, una de cuyas especies tiene un macho que mide apenas 139 micrómetros, algo más de una décima de un milímetro. Y sólo de esta familia se calcula que existen más de 1.400 especies.

La historia de estos seres se inicia hace unos 535 millones de años, cuando se produjo la diversificación de los seres que vivían en los océanos para dar lugar a variedades como los vertebrados, los moluscos o los artrópodos. Estos últimos se caracterizan por tener un exoesqueleto y extremidades articuladas. A diferencia de los vertebrados, que tienen la estructura rígida de sus cuerpos en el interior, en la forma de huesos, los artrópodos desarrollaron otra solución al problema que implicaba sostener los órganos internos. Su esqueleto está en el exterior, con lo que además cumple una importante función como protección contra las agresiones del exterior.

Los biólogos creen, con base en los datos de los que disponen, que los insectos debieron evolucionar de un ser parecido a una lombriz de tierra que desarrolló un par de patas en cada segmento, como los ciempiés (que tampoco son insectos). Eventualmente, sus muchos segmentos se unieron formando los tres que les son característicos, sus patas migraron al tórax y, hace más de 400 millones de años, por fin aparecieron los insectos, la clase más abundante y diversificada de los artrópodos. Sus características distintivas son la segmentación de su cuerpo en cabeza, tórax y abdomen, así como los tres pares de patas articuladas que tienen únicamente en el tórax, ojos compuestos y un par de antenas. Son parientes así tanto de los crustáceos que suelen ser apreciados como alimentos (las gambas, centollos, bugres y langostas) como de otras variedades que pese a su parecido no son insectos, como las arañas y los miriápodos.

A partir de ese momento, los insectos fueron diversificándose y evolucionando para ocupar prácticamente todos los nichos ecológicos del planeta. Sólo como ejemplos, los hemípteros, como las cigarras, los pulgones y las chinche, aparecieron hace entre 300 y 350 millones de años, mientras que los dípteros (cuyo más conocido representante es la mosca doméstica) hicieron su entrada 50 millones de años después. Las mariposas y las cucarachas surgieron hace entre 150 y 200 millones de años y los mantofasmatodeos son los benjamines, habiendo aparecido hace apenas unos 50 millones de años. Curiosamente, son también el orden de insectos más recientemente descubierto, en 2002.

Así como su esqueleto sustenta a todo el organismo del insecto, podemos decir, sin exagerar demasiado, que la vida en el planeta, considerada como un gran organismo, está sostenida por la estructura que forman los insectos, y que son mucho más que la plaga o la molestia con la que más fácilmente se les identifica. Por ejemplo, la polinización de muchas plantas depende de la visita de insectos como las abejas que se alimentan de su néctar o polen.

Los insectos son además la gran máquina de reciclaje del planeta, gracias a su variabilidad en cuanto a alimentación: si estuvo vivo, algún insecto lo comerá. Así, los insectos juegan un papel esencial en la descomposición de la materia orgánica tanto animal como vegetal, garantizando su reincorporación al ciclo alimentario.

Pero así como comen lo que sea, los insectos son también un socorrido alimento en el mundo vivo. Reptiles, anfibios, aves, peces, mamíferos, otros insectos y otros artrópodos como los ácaros y las arañas, e incluso algunas plantas comen insectos. Para algunos es su dieta básica y para otros es parte de una alimentación más variada.

En el caso del hombre, en las especies precursoras de la nuestra y en nuestros parientes más cercanos (como los chimpancés y bonobos) los insectos han sido una fuente de proteínas que sólo rechazamos hoy por motivos culturales, pese a que es costumbre en países de América Latina, África, Asia y Oceanía.

Aunque no los comamos directamente, distintos productos de los insectos son parte de nuestra dieta, empezando por la miel. Quizá en un futuro los insectos vuelvan al plato de las sociedades occidentales como algo más que una curiosidad, pero aún si no lo hacen, nunca está de más recordar que, individuo por individuo, kilo por kilo, los humanos somos habitantes de un mundo dominado por los insectos.

¿Las cucarachas o las avispas?

Uno de los mitos perdurables sobre los insectos es que sólo las cucarachas sobrevivirían a una guerra nuclear total. Sin embargo, los datos no han sustentado esa idea. Cierto, las cucarachas pueden sobrevivir a 10 veces más radiación que un ser humano, pero no son las campeonas en el mundo de los insectos. Esa distinción corresponde a las avispas del género Habrobracon, que pueden soportar hasta 200 veces más radiación que los seres humanos.

Neptuno, el planeta anunciado

El menos visitado de los planetas de nuestro sistema solar, el más lejano del sol, se descubrió sólo después de que cuidadosos cálculos matemáticos demostraran que debía existir.

Neptuno, fotografiado por la sonda espacial Voyager.
(Foto DP Nasa/JPL vía Wikimedia Commons)
Una de las descripciones más perdurables de nuestro planeta nos la ofreció el astrónomo y divulgador Carl Sagan. En 1990, pidió a la NASA que girara la cámara de la sonda Voyager 1 cuando estaba a más de 6 mil millones de kilómetros de la Tierra, y tomara una foto de nuestro hogar planetario. El resultado es una fotografía que se conoció como el “punto azul pálido”.

El color distintivo de nuestro planeta lo comparte con el azul claro de Urano y, sobre todo, con el profundo color azul de Neptuno, el planeta más alejado del sol, el último de los que conforman nuestro sistema solar. (Plutón se ha reclasificado como “planeta enano” después de que se encontraron otros cuerpos incluso mayores que él en el llamado “cinturón de Kuiper”, formado por millones de pequeños cuerpos celestes.)

Pero Neptuno es azul no debido al agua. No puede haber agua en estado líquido en ese lejano planeta, un gigante de gas cuya atmósfera está formada principalmente por hidrógeno, helio y metano, un gas formado por carbono e hidrógeno. Este metano es responsable, al menos en parte, del color del planeta, pues absorbe la luz roja y refleja la luz verde.

Sin embargo, los astrónomos no descartan que pueda haber otros compuestos, aún no identificados, que participen en el notable color de Neptuno, y que lo hacen mucho más profundo que el de Urano.

Debajo de la atmósfera, hay un océano formado por una mezcla líquida de hielos de agua, amoníaco y metano, y en su centro existe un núcleo de hierro que, se calcula, tiene una masa algo mayor que la de la Tierra. Pero, en su conjunto, Neptuno tiene 17 veces la masa de nuestro planeta en un volumen 58 veces mayor. Esto lo convierte en el tercer planeta más masivo, después de Júpiter y Saturno. Y al ser el planeta más lejano del sol es también el que tiene la órbita más prolongada: tarda 165 años en dar una vuelta alrededor del sol, de modo que desde su descubrimiento completó una órbita apenas en 2011.

Pero al acercarnos a Neptuno vemos que su color no es uniforme, que hay franjas de distintas tonalidades que hablan de tremendas turbulencias con vientos de hasta 2.100 kilómetros por hora y, cuando lo visitó la sonda Voyager 2, encontró una mancha de azul más oscuro, similar a la gran mancha roja de Júpiter y formada también por una colosal tormenta. En Neptuno, esas manchas azul oscuro aparecen y desaparecen cada pocos años.

Neptuno también tiene otras dos características que lo distinguen. Primero, como los otros gigantes de nuestro Sistema Solar, está rodeado por anillos, nueve de ellos y muy tenues. El más exterior muestra tres agrupamientos de material que destacan, y que se han llamado Libertad, Igualdad y Fraternidad, como homenaje a la revolución francesa. En segundo lugar, el campo magnético de Neptuno está inclinado a 47 grados del eje de su rotación, cuando en los demás planetas, salvo en Urano, el campo magnético está mucho más cerca del eje de giro.

Neptuno tiene 13 lunas conocidas hasta la fecha, algunas que tienen sus órbitas dentro de los propios anillos del planeta.

Descubrimiento y estudio

El 27 y 28 de diciembre de 1612, Galileo Galilei fue el primer ser humano que vio al planeta que hoy conocemos como Neptuno. Pero debido a su órbita, en ese momento parecía estar en un mismo lugar en los cielos, como las estrellas, cerca de Júpiter, y el genio florentino así lo consignó en sus notas. Precisamente lo que distinguía a los planetas desde la antigüedad era que se movían respecto del fondo de estrellas que parecían inmóviles. “Planeta” significa, precisamente, vagabundo, y cuando Galileo se encontró con Neptuno, no parecía vagabundear.

En 1821, el astrónomo francés Alexis Bouvard notó que las observaciones astronómicas de Urano se desviaban de los cálculos que había hecho sobre la órbita de ese planeta. Sus matemáticas eran sólidas, pues en 1808 había publicado tablas muy precisas sobre las órbitas de Saturno y Júpiter. El que sus cálculos fallaran con Urano le indicaban que “algo” estaba ejerciendo una atracción gravitatoria sobre el planeta, desviándolo de la órbita que debería seguir, y ese “algo”, claro, no podía ser sino otro planeta aún no descubierto, un octavo miembro de nuestro sistema solar.

Con la publicación del razonamiento de Bouvard se inició una pequeña carrera por encontrar al octavo planeta del sistema solar. Los antiguos conocían 6, y desde que se inició la observación astronómica sólo se había encontrado uno más, precisamente Urano, descubierto por el astrónomo William Herschel en 1781.

Sin embargo, tuvio que pasar un cuarto de siglo para que el planeta cuya masa causaba estas varicaciones. El problema era saber hacia dónde había que mirar. Otro astrónomo francés, Urbain Le Verrier, utilizó las posiciones observadas de Urano y un complejo desarrollo matemático calculando las pequeñas discrepancias de Urano, utilizando las leyes de la gravitación de Newton. El 31 de agosto de 1846, Le Verrier informó a la Academia Francesa dónde señalaban sus cálculos que debería estar el nuevo planeta (el logro es compartido por el británico John Couch Adams, quien dos días después envió por correo a la Royal Society sus propios cálculos, igualmente precisos). El 18 de septiembre, le envió sus datos a su colega, el astrónomo alemán Johann Gottfried Galle, quien los recibió el 23. Esa misma noche, Galle orientó el telescopio del Observatorio de Berlín hacia el punto previsto por Le Verrier y encontró a Neptuno.

Desde entonces, lo que hemos aprendido de Neptuno ha sido fundamentalmente por medio de diversos telescopios y gracias a la única sonda que ha visitado al gigante azul. En 1989 el Voyager 2, el mismo que un año después tomaría la fotografía del “punto azul pálido”, pasó a menos de 5.000 kilómetros de la capa superior de nubes de Neptuno, enviándonos una serie de fotografías del planeta y de su luna, Tritón.

Cualquier misión planeada para estudiar a Neptuno tardaría 12 años en llegar a su destino. Ése es uno de los motivos por los cuales en este momento ni la NASA ni la ESA tienen previsto ningún intento por enviar una sonda a estudiar más a fondo al planeta límite de nuestro sistema solar.

Tritón

La más grande luna de Neptuno es también la mayor de su pequeña constelación de satélites: Tritón. Es una de las sólo tres lunas del sistema solar que posee su propia atmósfera, pese a tener solamente dos tercios del tamaño de nuestra propia luna. Pese a las bajísimas temperaturas que privan en Tritón, cuenta con géiseres activos que lanzan el nitrógeno gaseoso que compone su atmósfera y crea vientos que dejan marcas en su gélida superficie.

Antivacunas: un desastre que está ocurriendo

La desinformación científica y el miedo están protagonizando cada vez más brotes de enfermedades que se creían erradicadas en occidente.

Estatua conmemorativa de la campaña mundial de vacunación
contra la viruela que erradicó esta enfermedad en 1980.
(Foto CC de Thorkild Tylleskar, vía Wikimedia Commons)
La vacunación es probablemente la más exitosa intervención médica de la historia humana.

Enfermedades que eran comunes e inevitables se han vuelto prevenibles, una de las enfermedades que más vidas humanas se cobraba año tras año, la viruela, fue totalmente erradicada en 1980. Y se investiga para prevenir y curar con vacunas enfermedades como la malaria o el VIH/SIDA.

Sin embargo, desde que Edward Jenner introdujo las vacunas en el siglo XVIII, ha habido oposición a ellas por diversos motivos, desde los religiosos hasta la ignorancia y la desinformación maliciosa.

Resulta asombroso que, pese a los beneficios probados y comprobados de las vacunas, y a la seguridad una y otra vez confirmada de su aplicación, en el siglo XXI sigue habiendo una propaganda antivacunas que está provocando el resurgimiento de algunas enfermedades.

Quienes nunca sufrieron esas enfermedades, protegidos por las vacunas, las consideran “leves” o “tolerables”, como el sarampión o la tos ferina, aunque no sólo hacen sufrir a quienes las padecen, principalmente niños, sino que tienen el potencial de causar la muerte y daños de por vida en algunos casos. Sólo en 2013, el sarampión mató todav´ía a más de 158.000 niños en el mundo, una cifra escalofriante.

El moderno movimiento antivacunas empezó en 1998, cuando el médico británico Andrew Wakefield publicó un estudio que relacionaba la vacuna triple vírica (sarampión, rubéola y paperas) con el autismo.

El riesgo que denunciaba era grave, y otros investigadores de inmediato intentaron confirmar los resultados. Sin embargo, nadie lo consiguió. Empezaron a sumarse decenas de estudios que no hallaban la correlación y sugerían que Wakefield había cometido un simple error. Pero, en 2004, ante la creciente evidencia de prácticas inadecuadas, diez de los investigadores que habían firmado el estudio se retractaron de él, y una investigación periodística descubrió que Wakefield no sólo había recibido dinero de abogados de familias que estaban demandando a empresas productoras de vacunas, sino que él mismo había solicitado una patente para un supuesto sustituto de la vacuna.

Wakefield no había cometido un error. Se comprobó que había falsificado los datos del estudio. En 2007, el Consejo Médico General del Reino Unido le retiró la licencia para practicar la medicina y, en 2010, la revista médica “The Lancet”, que había publicado el estudio original, decidió retractarlo.

Sin embargo, en la percepción popular, animada por la militancia de personas que a su sinceridad sumaban una enorme ignorancia sobre las vacunas y los estudios que sustentan su valor para salvar vidas.

Y el resultado ha sido que en muchos países están resurgiendo enfermedades prevenibles, con el sufrimiento que implican y con números crecientes de víctimas mortales o que sufren secuelas de por vida, como los daños cerebrales permanentes que puede ocasionar el sarampión.

Incluso políticos y personajes que deberían preocuparse por expresar opiniones bien informadas y basadas en estudios científicos sólidos han contribuido al miedo contra distintas vacunas, poniendo en riesgo a quienes podrían beneficiarse de ellas pese a que no hay estudios que indiquen que representan ningún riesgo especial o preocupante.

Los movimientos antivacunas ponen en riesgo avances innegables como la muy reciente declaración de erradicación de la poliomielitis de la India, donde había sido tradicionalmente endémica.

El resultado: cada vez más brotes de sarampión, tosferina o paperas en los últimos años, con la constante de que algunos afectados no habían sido vacunados por la mal aconsejada decisión de sus padres. En España en 2013 los casos de paperas fueron más del doble de 2012, en 2011 se denunció un repunte en los casos de tos ferina y a fines de 2013 se supo de brotes de varicela, principalmente en Madrid. La situación es más grave en países como Gran Bretaña y Estados Unidos.

La inmunidad de grupo

En la década de 1970, cuando se empezó a vacunar a niños contra las bacterias causantes de la neumonía y de meningitis (pneumococos y Haemophillus), se hicieron estudios con grandes cantidades de personas para determinar los efectos de las campañas. Y se descubrió que, conforme más niños eran vacunados, iban disminuyendo también las infecciones en adultos a los que ya no se podía vacunar con eficacia y en otras personas susceptibles a estas afecciones.

¿Qué ocurría? Que las personas no inmunizadas tenían menos probabilidades de encontrarse con una persona infectada que le pudiera contagiar la enfermedad, de modo que quedaban protegidos indirectamente por las campañas de vacunación.

A esto se le llama “inmunidad de grupo”.

La vacunación no es, pese a todo, una Hay niños que tienen deficiencias en el sistema inmune y no pueden ser vacunados. Lo mismo pasa con una pequeña cantidad de niños que son alérgicos a alguno de los componentes de las vacunas. Y además las vacunas sólo son eficaces en un 80-90% de los casos. Es decir, entre uno y dos de cada 10 niños vacunados no quedarán inmunizados ante la enfermedad y, si se les expone a cualquier persona en etapa contagiosa, enfermarán.

Pero si la mayoría de la gente a su alrededor está vacunada, es muy poco probable que se contagien. La gente inmunizada a su alrededor sirve como escudo que lo protege de los agentes infecciosos.

La inmunidad de grupo, además, se hace más relevante hoy en día, cuando la gente tiene una movilidad mayor que nunca en la historia, de país en país, de continente en continente. No es difícil que alguien infectado con sarampión o, mucho más grave, poliomielitis, viaje de países donde aún es común la enfermedad a países donde ya se considera erradicada. Por ejemplo, en España no ha habido casos de polio desde 1989. Pero tampoco los había habido en Siria desde 1999, y a fines de 2013 se habían confirmado diez casos de polio en el país, sumido en una terrible guerra donde es posible que algunos combatientes extranjeros trajeran la polio desde países como Afganistán o Pakistán, donde sigue siendo un problema. No es impensable que se trajera la enfermedad desde Siria, y entonces sólo la inmunidad de grupo impediría que se extendiera entre quienes no están inmunizados.

Por eso se dice que vacunar a un niño es también vacunar a los demás.

En la mira: la malaria y otros males

Estudios publicados en 2103 indican que una vacuna contra la malaria, un antiguo sueño de los inmunólogos, consiguió reducir a la mitad los casos en niños en Sudáfrica. De confirmarse los resultados, la esperada vacuna contra el mayor asesino de niños del mundo podría llegar a las farmacias en 2015.