Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

agosto 31, 2012

La amenaza de la poliomielitis

Una terrible enfermedad que aún no se ha podido erradicar y contra la que, sin embargo, resulta enormemente sencillo protegernos.

El pabellón de pulmones de acero de un hospital californiano
a principios de la década de 1950.
(foto D.P. de la Food and Drug Administration, vía
Wikimedia Commons)
Imaginemos el pabellón de un hospital ocupado por enormes cilindros de acero, cada uno de ellos conectado a una bomba y ocupado por un niño del que sólo sobresale la cabeza a través de un orificio hermético. La bomba disminuye la presión dentro del cilindro y el pecho del niño se expande, haciendo que inspire. Luego invierte la acción y aumenta la presión, de modo que el pecho del niño se contrae, exhalando. Este ciclo mecánico permite la supervivencia de personas que tienen paralizados los músculos respiratorios.

El aparato, llamado "pulmón de acero" o, más técnicamente, "ventilador de presión negativa", fue la única esperanza de vida para miles de víctimas de las epidemias de poliomielitis que recorrieron el mundo en la primera mitad del siglo XX, la gran mayoría de ellos niños. Para las víctimas de las epidemias ocurridas anteriormente, no había ni siquiera esa esperanza.

Y dado que la mayoría de las víctimas eran menores de edad, principalmente por debajo de los cinco años, y que originalmente la enfermedad se llamaba simplemente "parálisis infantil", se entiende que durante mucho tiempo la sola palabra "poliomielitis" o su versión breve, "polio", fueran causa de terror entre los padres

La poliomielitis es una enfermedad aguda altamente infecciosa provocada por el poliovirus, miembro de la familia de los enterovirus, la cual incluye a más de 60 variedades capaces de provocar enfermedades al ser humano. Entra por la boca o la nariz y se reproduce infectando las células del tracto gastrointestinal para después entrar al torrente sanguíneo y el sistema linfático.

En realidad, el 95% de las infecciones de polio son asintomáticas, es decir, transcurren sin que el paciente tenga ninguna alteración y sólo es detectable mediante análisis.

En el 5% restante, la infección puede causar síntomas leves similares a una gripe. Pero si el virus llega al sistema nervioso, puede provocar una serie de síntomas dolorosos y muy molestos o, en los casos más graves, afectar al cerebro y la médula espinal provocando distintos tipos de parálisis, incluso la respiratoria.

Después de que la infección termina su curso, unos pocos días después de la aparición de los síntomas, la parálisis puede seguir agravándose durante semanas o meses, poniendo en peligro incluso la vida del paciente. Pasado ese tiempo, lo más frecuente es que el uso de los músculos afectados se recupere parcial o totalmente.

Sin embargo, en una de cada 200 infecciones la parálisis es irreversible, y causa la muerte de entre el 2 y el 5% de los niños infectados, y entre el 25 y el 30% de los adultos, principalmente por complicaciones respiratorias y cardiacas.

La enfermedad toma su nombre precisamente de sus más graves expresiones, pues proviene de las raíces griegas "gris" (polio), "médula" (myelos) e "itis" (inflamación), es decir, inflamación de la materia gris de la médula espinal, que es lo que provoca la parálisis.

Una vez que se ha declarado la enfermedad, la única opción que tienen los médicos es ofrecer alivio a los síntomas y tratar de evitar complicaciones mientras la infección sigue su curso. No hay cura, no hay tratamiento, no hay más opción que esperar.

Las epidemias y la derrota de la polio

Aunque hay menciones a lo largo de toda la historia de enfermedades que podrían identificarse con la poliomielitis. Así, una estela de la XVIII dinastía egipcia muestra a a un hombre con una pierna escuálida y ayudándose de un bastón. Podría ser un caso de polio, pero es sólo una conjetura.

La primera descripción de la enfermedad la realizó en Inglaterra, en 1789, el médico Michael Underwood. En los siguientes años se vivirían epidemias de polio en distintos países europeos. Los primeros casos bien documentados se dieron en los países escandinavos en la segunda mitad de ese siglo, que fue también cuando por primera vez se detectó la afección en los Estados Unidos.

El siglo XX fue el de las grandes epidemias en todo el mundo. En la de 1916, por ejemplo, quedó paralítico casi totalmente de la cintura para abajo el que sería presidente de los Estados Unidos durante la Segunda Guerra Mundial, Franklin Delano Roosevelt. Pero la mayor epidemia internacional alcanzó cotas sin precedentes en la década de 1950. En 1952 se reportaron casi 60.000 casos en Estados Unidos, con más de 20.000 casos de parálisis y más de 3.000 fallecimientos. En España, en 1958, llegaron a reportarse más de 2.000 casos que dieron como consecuencia más de 300 muertes.

La preocupación por la epidemia llevó en 1954 a la creación de la primera vacuna contra la polio, desarrollada en Estados Unidos por Jonas Salk. Le siguió la más perfeccionada vacuna de Albert Savin y, finalmente, la vacuna trivalente que se administra en la actualidad

El mundo se empeñó en una campaña de erradicación de la polio mediante la vacunación con un éxito extraordinario. Las tasas de incidencia de la enfermedad cayeron de media un 90% un año después del inicio de las campañas de vacunación. Los 350.000 casos que se reportaron mundialmente en 1988 se redujeron a tan solo 1.352 en 2010.

El último caso de polio natural en Estados Unidos ocurrió en 1979. Los pocos casos posteriores se deben a personas no vacunadas que han estado expuestas al virus mediante los países donde la enfermedad sigue siendo endémica. En España, la enfermedad fue erradicada en 1988.

Por desgracia, la poliomielitis sigue siendo endémica en Afganistán, Nigeria y Pakistán. Y según informa la Organización Mundial de la Salud, entre 2009 y 2010 la polio se reintrodujo mediante contagio desde estas zonas en otros 23 países donde ya se consideraba erradicada.

La amenaza es tal que resulta imperativo que los niños de todo el mundo sigan vacunándose. Mientras haya lugares donde exista el virus de la poliomielitis y vivamos en un mundo donde las personas y los bienes se trasladan globalmente con una facilidad sin precedentes, la amenaza no ha desaparecido. Aunque sus terribles secuelas no sean tan evidentes en nuestra sociedad. Mejor no olvidar.

Famosos y polio

Muchos personajes conocidos que nacieron durante la epidemia de los años 50 sufrieron poliomielitis y, en su mayoría, se recuperaron sin secuelas notables. Tal es el caso de actores como Donald Sutherland, Alan Alda o Mia Farrow (quien pasó un tiempo en un pulmón de acero), el director Francis Ford Coppola, el escritor de ciencia ficción Arthur C. Clarke o el músico de rock Neil Young. Otros, sin embargo, viven aún hoy con las consecuencias de su enfermedad infantil, como Itzhak Perlman, uno de los más aclamados violinistas clásicos actuales, quien se ve obligado a tocar sentado pues sólo puede mantenerse en pie con muletas.

agosto 24, 2012

Los asombrosos rayos inexistentes

Una de las bases del método científico es que sus experimentos son reproducibles, que cualquiera puede llegar a los mismos resultados a partir del mismo método. Cuando esto no ocurre, suenan las alarmas.


Robert Williams Wood, el
desenmascarador de los "rayos N"
(fotografía del Dominio Público)
El descubrimiento de los rayos X realizado por Wilhelm Conrad Roentgen en 1895 sacudió al mundo más allá de los espacios donde los científicos trabajaban en los inicios de la gran revolución de la física de fines del siglo XIX y principios del XX.

Esto se debió no sólo al descubrimiento en sí, sino a la difusión de una fotografía tomada unos días después con rayos X por Roentgen, donde la mano de su esposa mostraba con claridad sus huesos y la alianza matrimonial. Por primera vez que se podía ver así el interior del cuerpo humano y el público se unió en su fascinación a los científicos.

Uno de los entusiastas del trabajo subsecuente con los rayos X fue el notable científico francés René Prosper Blondlot, que ya había alcanzado notoriedad al medir la velocidad de las ondas de radio de distintas frecuencias, demostrando que era igual a la velocidad de la luz y confirmando así experimentalmente la visión de James Clerk Maxwell de que luz, magnetismo y electricidad eran manifestaciones de la misma fuerza: la electromagnética.

Habiendo además recibido tres premios de la Academia de Ciencias de Francia, Blondlot empezó a trabajar con rayos X. Mientras intentaba someterlos a polarización, en 1903 reportó haber descubierto otros rayos totalmente diferentes, a los que llamó "N" en honor de su ciudad natal, Nancy, en cuya universidad además trabajaba.

En poco tiempo, muchos otros científicos estaban estudiando los rayos N siguiendo las afirmaciones de Blondlot.

Los rayos X se habían detectado mediante mediciones y sus efectos eran espectaculares, como lo demostraba la fotografía de Anna Bertha Roentgen, eso que hoy llamamos una "radiografía". Pero los rayos N no se detectaban así. Era necesario ver un objeto en condiciones de oscuridad casi total y entonces, al surgir los rayos N, se veía mejor. Por ejemplo, una pequeña chispa producida por dos electrodos, cuya intensidad aparentemente aumentaba en presencia de los rayos N.

Irving Langmuir, ganador del Premio Nobel de Química, mencionaba otro procedimiento para producir rayos N: se calentaba un alambre en un tubo de hierro que tuviera una abertura y se ponía sobre ésta un trozo de aluminio de unos 3 milímetros de espesor, y los rayos N saldrían atravesando el aluminio. Al caer sobre un objeto tenuemente iluminado, éste podía verse mejor... según Blondlot y sus seguidores.

Dicho de otro modo, la presencia o ausencia de los rayos N se detectaba sólo subjetivamente, de acuerdo a la percepción del experimentador.

Y, sobre esta base, en poco tiempo se desató una verdadera locura de los rayos N, con cada vez más afirmaciones cada vez más extravagantes. Blondlot afirmaba que los rayos N atravesaban una hoja de platino de 4 mm de espesor, pero no la sal de roca, que podían almacenarse en algunos materiales, que una lima de acero templado sostenida cerca de los ojos permitía que se vieran mejor las superficies y contornos "iluminados" por los rayos N. Y afirmó haber descubierto los rayos N1, que en lugar de aumentar la luminosidad, la disminuían. Sus experiencias implicaban prismas y lentes hechos de materiales no ópticos, que usaba para refractar y difractar los rayos N.

Un biofísico, Augustin Charpentier, produjo una abundante serie de estudios sobre los rayos N, llegando a publicar siete artículos científicos en un solo mes. Entre sus descubrimientos, que los conejos y las ranas emitían rayos N, y que éstos aumentaban la sensibilidad de la vista, olor, sabor y audición en los humanos. Se afirmó que tenían propiedades terapéuticas, e incluso que los rayos N emitidos por la materia viviente eran distintos de alguna manera y se bautizaron como "rayos fisiológicos".

Pero no todo era entusiasmo.

Apenas un mes después de la publicación original aparecieron informes de científicos que no podían replicar o reproducir los experimentos de Blondlot, algo que fue más frecuente mientras más extravagante se volvía la ola de afirmaciones respecto de estos rayos que, pese a todo, seguían siendo detectados únicamente mediante la vista como variaciones de la luminosidad.

Uno de los científicos que no pudo replicar los resultados de Blondlot fue Robert W. Wood, autor de grandes aportaciones en el terreno de la óptica y la radiación ultravioleta e infrarroja, quien decidió ir a Francia a visitar a Blondlot.

Según el relato de Langmuir, Blondlot le mostró a Wood las fotografías de la variación en luminosidad de un objeto supuestamente por causa de los rayos N. pero Wood pudo determinar que las condiciones en que se habían tomado las fotografías eran poco fiables. Luego le mostró cómo un prisma de aluminio refractaba los rayos N permitiendo ver los componentes de dichos rayos. En un momento de la demostración, en la habitación oscura, Wood quitó el prisma de aluminio del aparato, pese a lo cual Blondlot afirmaba seguir viendo el espectro de rayos N.

Wood quedó convencido de que los rayos N eran un fenómeno ilusorio, un error de percepción que no tenía una contraparte medible real. Wood publicó sus resultados en la revista Nature en 1904 y su artículo fue un balde de agua fría para quienes trabajaban en los rayos N. Hubo intentos adicionales de medirlos con criterios objetivos, detectores y sensores, pero en un año habían desaparecido del panorama científico. Incluso Blondlot dejó de trabajar con ellos aunque, hasta su muerte en 1930, siguió creyendo que eran reales.

Para Irving Langmuir, el caso de los rayos N es ejemplo de lo que llamó, en una conferencia de 1953, "ciencia patológica", aquélla en que "no hay implicada falta de honradez, pero en la cual la gente se ve engañada para aceptar resultados falsos por una falta de comprensión acerca de lo que los seres humanos pueden hacerse a sí mismos para desorientarse por efectos subjetivos, deseos ilusorios o interacciones límite".

Un relato útil para que tanto científicos como público en general seamos cautos ante afirmaciones extraordinarias, aunque provengan de científicos respetados que, como todo ser humano, pueden equivocarse.

Más ciencia patológica

En 1989, los físicos Stanley Pons y Martin Fleischmann afirmaron haber conseguido un proceso de fusión en frío para obtener energía. Nadie pudo reproducir sus resultados, y ambos optaron por abandonar la comunidad científica para seguir trabajando en espacios pseudocientíficos donde nunca pudieron tampoco reproducir sus resultados. Lo mismo ocurrió con la supuesta demostración de Jacques Benveniste de que el agua tenía memoria de los materiales que había tenido disueltos. Pese a todo, hay gente que sigue creyendo en la fusión fría, la memoria del agua... y los rayos N.

agosto 17, 2012

Telescopios, gallinas y método científico

Antes de los grandes descubrimientos están los pequeños descubrimientos, los avances técnicos, la realización de todos los elementos, ideas, herramientas y conocimientos necesarios para empezar a hacer ciencia.

(Foto GFDL de Baksteendegeweldige, vía Wikimedia Commons)
Solemos representar al método científico como un ideal preciso de observación, postulado de hipótesis y nuevas observaciones o experimentos para confirmar o rechazar la hipótesis. Pero la realización de un experimento suele exigir un proceso previo que implica resolver gran cantidad de problemas técnicos que en ocasiones se vuelven grandes obstáculos para el avance del trabajo de los expertos.

Así, Galileo Galilei tuvo que diseñar sus telescopios con base en los relatos que llegaban del instrumento fabricado por Hans Lipperschey, conseguir los mejores vidrios, aprender a pulirlos para hacer sus lentes, producir los tubos con distintos materiales y determinar los principios ópticos del funcionamiento de las dos lentes, la curvatura exacta y la distancia ideal, antes de poner el ojo en el instrumento y, eventualmente, descubrir que Copérnico estaba en lo cierto y ser el primero en ver desde las manchas solares hasta las lunas de Júpiter.

Y, por supuesto, está el azar, lo inesperado, los descubrimientos que "no estaban en el guión original", los acontecimientos fortuitos llamados "serendipia", vocablo que llegó al inglés en el siglo XVIII, basado en el cuento de hadas persa "Los tres príncipes de Serendip", (nombre de Sri Lanka en farsi) en el cual los príncipes resuelven los problemas a los que se enfrentan mediante una enorme suerte o "chiripa", palabra que bien podría provenir de la misma "serendip".

Por supuesto, nadie hace un descubrimiento por azar si no está atento a él. En ocasiones un científico desprecia algún dato por considerarlo irrelevante o producto de un error de medición sólo para que otro más alerta revele que dicho dato es fundamental para una explicación.

Estos elementos se reúnen en una historia poco conocida de la biología, un terreno mucho más incierto y pantanoso que el de la astronomía o la física por la enorme variabilidad que tienen los organismos vivientes. El protagonista es Andrew Nalbandov, un fisiólogo nacido en la península de Crimea, refugiado de la revolución soviética y titulado en Alemania, pero que en 1940 trabajaba en la Universidad de Winsconsin como un reconocido biólogo especializado en reproducción que, a diferencia de la mayoría de sus colegas, prefería usar animales de granja como sujetos experimentales en lugar de la omnipresente rata de laboratorio.

El objeto de estudio de Nalbandov era una pequeña glándula endócrina situada en lo más recóndito del cerebro de todos los vertebrados: la hipófisis o pituitaria, que en los seres humanos tiene el tamaño de un guisante y un peso de 0,5 gramos y que, sin embargo, hoy sabemos que es fundamental para muchísimas funciones de nuestro cuerpo mediante la secreción de una gran cantidad de hormonas.

Nalbandov quería estudiar la función de la glándula pituitaria, y para ello desarrolló un diseño experimental que implicaba la remoción quirúrgica de la glándula pituitaria en gallinas, con objeto de observar las alteraciones químicas, biológicas y de conducta de los animales privados de este órgano.

Por supuesto, si la glándula pituitaria es pequeña en los seres humanos, en las gallinas es minúscula, de modo que, antes que nada, el biólogo tuvo que dominar una depurada técnica quirúrgica para extraer la pituitaria de sus animales experimentales.

Pero parecía difícil dominar la técnica. Como Nalbandov le relató a W. I. B. Beveridge, para su libro "El arte de la investigación científica": "Después de que había dominado la técnica quirúrgica, mis aves seguían muriendo y a las pocas semanas de la operación ya no quedaba ninguna". Todos los intentos del investigador por evitar esta mortandad fracasaron estrepitosamente.

Parkes y Hill, investigadores ingleses, habían desarrollado el delicado procedimiento para llegar a la pituitaria a través del paladar suave de las gallinas y extraerla, pero todos sus sujetos experimentales habían muerto. Su conclusión fue que las gallinas no podían sobrevivir sin esta glándula. Pero Nalbandov sabía que otros investigadores trabajaban con mamíferos y anfibios a los que se les había quitado la pituitaria y no sufrían de estos problemas.

Cuando había decidido "resignarse a hacer algunos experimentos a corto plazo y abandonar el proyecto", el 98% de un grupo de gallinas operadas sobrevivió hasta tres semanas, y algunas de ellas hasta 6 meses. Nalbandov concluyó orgullosamente que esto se debía a que su técnica quirúrgica se había perfeccionado finalmente gracias a la práctica y se alistó para emprender un experimento a largo plazo.

Y, entonces, sus gallinas operadas empezaron a morir nuevamente. No sólo las recién operadas, sino las que habían sobrevivido varios meses. Era evidente que la explicación para la supervivencia de las gallinas no estaba en la firme mano del experimentador. Nalbandov persistió en sus experimentos, atento a las variables que podrían marcar la diferencia entre la supervivencia y la muerte, descartando enfermedades, infecciones y otras posibles causas. "Pueden imaginar", escribió Nalbandov, "cuán frustrante era no poder aprovechar algo que obviamente estaba teniendo un profundo efecto en la capacidad de estos animales de sobrevivir a la operación".

Una noche, a las 2 de la mañana, Nalbandov volvía a casa de una fiesta. Al pasar frente al laboratorio notó que las luces del bioterio donde se mantenían sus gallinas y, culpando a algún alumno descuidado, se detuvo para apagarlas. Pocas noches después vovió a ver las luces encendidas y decidió investigar.

Resultó que estaba de servicio un conserje sustituto que prefería dejar las luces del bioterio encendidas para encontrar la salida, pues los interruptores de la luz no estaban junto a la puerta, cosa que no hacía el conserje habitual. Al profundizar en el asunto, Nalbandov pudo determinar que los períodos de supervivencia de sus gallinas coincidían con las épocas en que estuvo trabajando el conserje sustituto.

Nalbandov pudo demostrar rápidamente y con un experimento debidamente controlado que las gallinas que pasaban la noche a oscuras morían, mientras que las que tenían al menos dos horas de luz artificial durante la noche sobrevivían indefinidamente. La explicación química era que las aves en la oscuridad no comían y desarrollaban una hipoglicemia de la que no se podían recuperar, mientras que las que tenían luz comían más y seguían vivas indefinidamente.

Este descubrimiento fue la antesala de docenas de experimentos y publicaciones de Nalbandov que ayudaron a definir la función de la glándula pituitaria, y que se prolongaron durante cuatro décadas de trabajo científico.

La pituitaria

Entre otras muchas funciones, la pituitaria sintetiza y secreta numerosas hormonas importantes, como la hormona del crecimiento humano, la estimulante de la tiroides, la betaendorfina (un neurotransmisor), la prolactina (responsable de más de 300 efectos, entre ellos la producción de leche después del embarazo y la gratificación después del acto sexual), la hormona luteinizante y la estimulante de los folículos, que controlan la ovulación y la oxitocina, que interviene en el parto y en el orgasmo y aún no se comprende a fondo.

agosto 10, 2012

La vida en rojo

"Mi sangre es un camino", escribió Miguel Hernández, y el conocimiento del líquido esencial de nuestra vida es también un camino para salvar vidas y comprender nuestro organismo.

Glóbulos rojos o eritrocitos de sangre humana
sedimentados.
(Imagen D.P. de MDougM, vía Wikimedia Commons)
Pese a todo lo que conocemos hoy acerca de la sangre, sigue siendo un material misterioso y singular (al que Isaac Asimov llamó "el río viviente") que no solemos ver salvo en situaciones altamente desusadas y que se ha convertido en un arma fundamental del arsenal médico para salvar vidas.

Para las culturas antiguas, la sangre, que se podía extraer en pequeñas cantidades pero cuyo derramamiento más allá de cierto límite era sinónimo de muerte, tenía siempre un papel relevante en la mitología. Para los antiguos chinos, los seres humanos recibimos nuestra "esencia" del padre mientras que la madre nos da su sangre para vivir. La sangre se identificaba con la imaginaria "fuerza vital", esa creencia común a todas las culturas primitivas que en la India se llama "prana", en occidente "vis vitalis" y en la mitología china "qi".

El valor de la sangre, real y simbólico, era reconocido por todas las culturas. Se consideraba que era un elemento fundamental en la herencia, de modo que hablamos de familiares "de sangre" o de "hermanos de sangre" para implicar que están genéticamente relacionados, e incluso de cierta "pureza de sangre" para significar una imaginaria limpieza genética que pertenece al reino de la ideología y no al de la biología. El Antiguo Testamento dedica atención a evitar que las personas coman sangre (origen de las tradiciones del sacrificio "kosher" judío y el "halal" islámico, ambos destinados a extraer la mayor cantidad posible de la sangre de los animales destinados al consumo humano) por considerar que la sangre es la transmisora de la vida.

Como dato curioso, esta prohibición de comer la sangre de los animales es la justificación que utiliza la iglesia de los Testigos de Jehová desde 1945 para prohibir las transfusiones de sangre a sus adeptos, aunque esto les cueste la vida.

El conocimiento de la sangre ha estado además estrechamente relacionado con el de los órganos y tejidos relacionados con su circulación: venas y arterias, cuyas diferencias descubrió el filósofo griego Alcmeón de Crotona realizando algunas disecciones en el siglo VI a.n.e. y, por supuesto, el corazón y los pulmones.

La sangre está formada por plasma, leucocitos (o glóbulos blancos), eritrocitos (o glóbulos rojos) y plaquetas.

El plasma es un líquido formado en más del 91% por agua, mientras que el resto de su composición incluye distintos elementos. Lleva así proteínas son una reserva nutritiva para las células y también pueden servir como transportadoras de otras sustancias que se vinculan a ellas desde los órganos que las producen hasta las células que los necesitan. Entre esas proteínas está, por ejemplo, el colesterol, y el fibrinógeno, descubierto a fines del siglo XVIII por el anatomista británico William Hewson y que forma la estructura de los coágulos de sangre.

También transporta enzimas, nutrientes para las células de todo el cuerpo, se hace cargo de recoger los desechos del metabolismo celular y llevarlo para su proceso en los riñones y el hígado, del mismo modo en que transporta hormonas desde las glándulas que las producen a los puntos del cuerpo donde ejercen su actividad.

Los leucocitos o glóbulos se dividen en cinco tipos y forman la línea de defensa de nuestro cuerpo, nuestro sistema inmunitario. Los neutrófilos destruyen todo tipo de bacterias que entren al organismo, los eosinófilos destruyen las sustancias capaces de producir alergias o inflamación además de paralizar a posibles parásitos, los basófilos regulan la coagulación de la sangre, los linfocitos destruyen células cancerosas y células infestadas por virus, así como células invasoras diversas, y tienen capacidad de activar y coordinar a otras células del sistema inmunitario; finalmente, los monocitos pueden ingerir organismos patógenos, neutrófilos muertos y los desechos de las células muertas del cuerpo.

Los elementos más característicos de la sangre son, por supuesto, los eritrocitos o glóbulos rojos, que deben su color (como el planeta Marte) a la hemoglobina, por el hierro que contiene, fundamental para transportar oxígeno desde los pulmones a todas las células de nuestro cuerpo y el bióxido de carbono de desecho de las células a los pulmones, para deshacerse de él.

Estas células fueron descubiertas en 1658, por el joven microscopista holandés Jan Swammerdam (curiosamente, años después y ya como científico relevante, Swammerdam ofreció evidencias de que los impulsos para el movimiento de los músculos no se transmitían por medio de la sangre, sino que eran responsabilidad del sistema nervioso).

La ignorancia sobre lo que era la sangre no impidió que en 1667 se realizaran los primeros experimentos de transfusión, en este caso entre terneras y seres humanos, procedimiento que no alcanzó demasiado éxito. Algunas transfusiones entre humanos tuvieron mejor suerte, pero los motivos de las reacciones indeseables no se descubrieron sino hasta 1900, cuando el austriaco Karl Landsteiner descubrió que había tres tipos de sangre, A, B y 0 (cero u "o"), a los que se añadió un cuarto, el tipo AB, en 1902 y que marcaban ciertas incompatibilidades. La sangre tipo 0 puede transfundirse a gente con cualquier tipo; la A sólo a quienes tienen tipo A o AB, la B a quienes tienen B o AB y la sangre AB sólo a quienes tienen sangre AB.

40 años después, Landsteiner también realizó la clasificación de otro rasgo de compatibilidad sanguínea, el "factor Rh", que puede ser positivo o negativo. Y hay al menos otros 30 factores (menos conocidos) de tipología sanguínea que pueden ser importantes para determinar la compatibilidad para transfusiones.

Las transfusiones de sangre entera son poco frecuentes ahora. La práctica común es fraccionar la sangre mediante centrifugación para obtener plasma, eritrocitos, leucocitos y plaquetas y utilizarlos según sean necesarios para distintos casos,.

En la actualidad, una de las grandes búsquedas de la tecnología médica es la producción artificial de sangre, ya sea a partir de células madre o por clonación, para obtener sangre en cantidades suficientes y totalmente libre del riesgo de infecciones (por ejemplo, de hepatitis B o VIH).

Donar sangre

Mientras no haya sangre artificial abundante, barata y segura, la única esperanza de vida y salud de muchísimas personas es que otras donen sangre. Donar no representa ningún riesgo de enfermedad y siempre es necesario, aún si tenemos un tipo de sangre común como 0+ o A+. Nunca, en ningún país del mundo, ha sido suficiente la sangre donada para satisfacer todas las necesidades de atención sanitaria, de modo que es una de las acciones solidarias y altruistas más sencillas y relevantes que podemos realizar.

agosto 03, 2012

El arcoiris revelador de la espectroscopía

El comportamiento del espectro electromagnético nos da la clave para conocer la composición química de cuanto nos rodea, desde las estrellas hasta las pistas de un crimen.

Espectrómetro infrarrojo utilizado en laboratorios químicos.
(Foto GFDL de Ishikawa (photothèque CNEP,
vía Wikimedia Commons)
El espectáculo de un arco de colores en el cielo sigue siendo sobrecogedor incluso hoy, cuando sabemos cómo y por qué se produce. No es extraño que lo fuera aún más cuando era un misterio cuya primera explicación, hasta donde sabemos, propuso Aristóteles, para quien era el reflejo de la luz del sol en las nubes en un ángulo determinado, con lo que explicaba también por qué el arcoiris no se halla en un lugar concreto, sino que se ve en una dirección determinada. Cada observador ve su propio arcoiris.

Fue Isaac Newton quien, alrededor de 1670, determinó que el continuo de colores, que llamó "espectro", se debía a que la luz blanca del sol se descomponía mediante refracción, haciendo que sus distintas longitudes de onda se desviaran en ángulos distintos. Por tanto, los colores son luz de determinadas longitudes de onda en un continuo desde el violeta hasta el rojo.

En 1802, utilizando prismas de mucho mejor calidad que los que tenía Newton, gracias a los avances en la producción de vidrio, el químico británico William Hyde Wollaston descubrió que el espectro newtoniano del sol no era realmente continuo, sino que estaba interrumpido por una serie de líneas negras. Estas líneas fueron descubiertas independientemente, estudiadas por el fabricante de vidrio Josef Von Fraunhofer, que les dió el nombre con el que las conocemos actualmente y contó hasta 574.

Por supuesto, no sólo puede descomponerse la luz solar con un prisma, sino que cualquier fuente luminosa es susceptible de ser así tratada. En 1853, el físico sueco Anders Johan Angstrom descubrió que cuando se producía una chispa eléctrica, se encontraban presentes dos espectros sobreimpuestos, uno de ellos del metal del que estaba compuesto el electrodo y el otro del gas a través del cual pasaba la luz. A partir de sus experiencias, dedujo que un gas incandescente emite las mismas longitudes de onda que absorbe cuando está frío y se hace pasar luz a través de él.

Así, al calentar vapor de sodio, éste emite una determinada serie de longitudes de onda. Cuando la luz solar pasa por el vapor de sodio, su espectro exhibe líneas de Fraunhofer precisamente en esas longitudes de onda. Con estas observación, el físico alemán Gustav Kirchoff y Robert Bunsen demostraron la existencia de sodio en el sol mediante el espectroscopio que inventaron.

Kirchoff estableció las principales leyes de la espectroscopía: que un objeto sólido caliente produce luz con un espectro continuo, que un gas tenue caliente produce líneas espectrales en determinadas longitudes de onda según los niveles de energía de sus átomos y que un objeto sólido caliente rodeado de un gas tenue frío produce luz en un espectro casi continuo, con brechas en determinadas longitudes de onda.

Nacía así la disciplina dedicada a estudiar los materiales por medio de la observación del espectro luminoso, la espectroscopía. O espectrografía, cuando se utiliza una una placa fotográfica o un elemento similar.

Así, del mismo modo en que Kirchoff y Bunsen pudieron determinar que el Sol contiene sodio (por absorber las mismas longitudes de onda que una lámpara de sodio), podemos determinar previamente qué longitudes absorben distintos materiales. Cuando tenemos una muestra de composición desconocida, podemos analizar la luz que refleja o deja pasar para saber qué elementos contiene.

Hoy hay varios tipos de espectroscopía basados en el estudio ya sea de la absorción, emisión o dispersión de distintos tipos de energía por distintos materiales. La moderna espectroscopía no utiliza únicamente la luz visible, sino que puede emplear todo el espectro electromagnético, analizando la descomposición, por ejemplo, de la luz ultravioleta o infrarroja, los rayos X, e incluso el sonido o incluso la absorción y emisión de partículas. Hay alrededor de medio centenar de tipos de espectroscopía, todos derivados de los mismos principios.

Gracias a esta potente herramienta, podemos estudiar las estrellas del universo a nuestro alrededor para conocer su composición química, y ésta nos da la clave para saber su edad aproximada, pues tenemos un modelo bastante claro de cómo se desarrolla la vida de una estrella. Pero la espectroscopía nos puede decir mucho más. La temperatura de una estrella, su velocidad de rotación y la velocidad a la que se mueve con respecto a nosotros son factores que también afectan el espectro de su luz, y que la ciencia ha ido aprendiendo a interpretar.

Quizá las ciencias forenses sean uno de los mejores ejemplos de las muchas utilidades que tiene la espectroscopía. ¿Una firma es original o falsa? La tinta que la compone puede ser sometida a análisis espectroscópico para determinar su composición química. Lo mismo pasa con los pigmentos y lienzos de cuadros sospechosos de ser falsificaciones, que se somenten a estudio para determinar si contienen sustancias más modernas que la época a la que se atribuyen. Una moderna tinta de gel en un documento del siglo XII que debería tener una tinta de sales de hierro denuncia su falsedad casi a gritos.

Más allá de su uso obvio para determinar la composición de todo tipo de muestras, la espectroscopía está siendo investigada para su uso en áreas novedosas como la determinación del momento de la muerte en casos de asesinato, estudiando cómo se van alterando los huesos al paso del tiempo. Esto podría también ser una forma adicional de datación para muestras más antiguas, sirviendo a la paleontología, la paleoantropología y la historia.

Y si usted se ha sometido alguna vez a una resonancia magnética, quizá no sepa que su cuerpo ha sido sometido a uno de los más modernos tipos de espectroscopía en el que potentes electroimanes estimulan los núcleos de los átomos del cuerpo para producir un campo que puede ser detectado por sensores para formar una representación gráfica muy detallada de las zonas estudiadas. Un logro que nos muestra el largo camino que hemos andado desde que por primera vez intentamos explicar el asombroso arcoiris.

Los mitos del arcoiris


Para los sumerios, un arcoiris indicaba que los dioses aprobaban una guerra en preparación, mientras que para los nórdicos era el puente que unía al mundo humano con Asgard, el mundo de los dioses. Para los hebreos era el símbolo de la promesa de Dios de no volver a aniquilar a la humanidad con una inundación, para los griegos era el modo de transporte de Iris, la mensajera de los dioses, y para los mayas Ixchel, la mujer-arcoiris era la diosa del amor. Pero quizá el más curioso arcoiris es el chino, al que sólo le atribuyen cinco colores y que era anuncio de la presencia de un dragón, y por tanto una gran bendición.