Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

La vida en rojo

"Mi sangre es un camino", escribió Miguel Hernández, y el conocimiento del líquido esencial de nuestra vida es también un camino para salvar vidas y comprender nuestro organismo.

Glóbulos rojos o eritrocitos de sangre humana
sedimentados.
(Imagen D.P. de MDougM, vía Wikimedia Commons)
Pese a todo lo que conocemos hoy acerca de la sangre, sigue siendo un material misterioso y singular (al que Isaac Asimov llamó "el río viviente") que no solemos ver salvo en situaciones altamente desusadas y que se ha convertido en un arma fundamental del arsenal médico para salvar vidas.

Para las culturas antiguas, la sangre, que se podía extraer en pequeñas cantidades pero cuyo derramamiento más allá de cierto límite era sinónimo de muerte, tenía siempre un papel relevante en la mitología. Para los antiguos chinos, los seres humanos recibimos nuestra "esencia" del padre mientras que la madre nos da su sangre para vivir. La sangre se identificaba con la imaginaria "fuerza vital", esa creencia común a todas las culturas primitivas que en la India se llama "prana", en occidente "vis vitalis" y en la mitología china "qi".

El valor de la sangre, real y simbólico, era reconocido por todas las culturas. Se consideraba que era un elemento fundamental en la herencia, de modo que hablamos de familiares "de sangre" o de "hermanos de sangre" para implicar que están genéticamente relacionados, e incluso de cierta "pureza de sangre" para significar una imaginaria limpieza genética que pertenece al reino de la ideología y no al de la biología. El Antiguo Testamento dedica atención a evitar que las personas coman sangre (origen de las tradiciones del sacrificio "kosher" judío y el "halal" islámico, ambos destinados a extraer la mayor cantidad posible de la sangre de los animales destinados al consumo humano) por considerar que la sangre es la transmisora de la vida.

Como dato curioso, esta prohibición de comer la sangre de los animales es la justificación que utiliza la iglesia de los Testigos de Jehová desde 1945 para prohibir las transfusiones de sangre a sus adeptos, aunque esto les cueste la vida.

El conocimiento de la sangre ha estado además estrechamente relacionado con el de los órganos y tejidos relacionados con su circulación: venas y arterias, cuyas diferencias descubrió el filósofo griego Alcmeón de Crotona realizando algunas disecciones en el siglo VI a.n.e. y, por supuesto, el corazón y los pulmones.

La sangre está formada por plasma, leucocitos (o glóbulos blancos), eritrocitos (o glóbulos rojos) y plaquetas.

El plasma es un líquido formado en más del 91% por agua, mientras que el resto de su composición incluye distintos elementos. Lleva así proteínas son una reserva nutritiva para las células y también pueden servir como transportadoras de otras sustancias que se vinculan a ellas desde los órganos que las producen hasta las células que los necesitan. Entre esas proteínas está, por ejemplo, el colesterol, y el fibrinógeno, descubierto a fines del siglo XVIII por el anatomista británico William Hewson y que forma la estructura de los coágulos de sangre.

También transporta enzimas, nutrientes para las células de todo el cuerpo, se hace cargo de recoger los desechos del metabolismo celular y llevarlo para su proceso en los riñones y el hígado, del mismo modo en que transporta hormonas desde las glándulas que las producen a los puntos del cuerpo donde ejercen su actividad.

Los leucocitos o glóbulos se dividen en cinco tipos y forman la línea de defensa de nuestro cuerpo, nuestro sistema inmunitario. Los neutrófilos destruyen todo tipo de bacterias que entren al organismo, los eosinófilos destruyen las sustancias capaces de producir alergias o inflamación además de paralizar a posibles parásitos, los basófilos regulan la coagulación de la sangre, los linfocitos destruyen células cancerosas y células infestadas por virus, así como células invasoras diversas, y tienen capacidad de activar y coordinar a otras células del sistema inmunitario; finalmente, los monocitos pueden ingerir organismos patógenos, neutrófilos muertos y los desechos de las células muertas del cuerpo.

Los elementos más característicos de la sangre son, por supuesto, los eritrocitos o glóbulos rojos, que deben su color (como el planeta Marte) a la hemoglobina, por el hierro que contiene, fundamental para transportar oxígeno desde los pulmones a todas las células de nuestro cuerpo y el bióxido de carbono de desecho de las células a los pulmones, para deshacerse de él.

Estas células fueron descubiertas en 1658, por el joven microscopista holandés Jan Swammerdam (curiosamente, años después y ya como científico relevante, Swammerdam ofreció evidencias de que los impulsos para el movimiento de los músculos no se transmitían por medio de la sangre, sino que eran responsabilidad del sistema nervioso).

La ignorancia sobre lo que era la sangre no impidió que en 1667 se realizaran los primeros experimentos de transfusión, en este caso entre terneras y seres humanos, procedimiento que no alcanzó demasiado éxito. Algunas transfusiones entre humanos tuvieron mejor suerte, pero los motivos de las reacciones indeseables no se descubrieron sino hasta 1900, cuando el austriaco Karl Landsteiner descubrió que había tres tipos de sangre, A, B y 0 (cero u "o"), a los que se añadió un cuarto, el tipo AB, en 1902 y que marcaban ciertas incompatibilidades. La sangre tipo 0 puede transfundirse a gente con cualquier tipo; la A sólo a quienes tienen tipo A o AB, la B a quienes tienen B o AB y la sangre AB sólo a quienes tienen sangre AB.

40 años después, Landsteiner también realizó la clasificación de otro rasgo de compatibilidad sanguínea, el "factor Rh", que puede ser positivo o negativo. Y hay al menos otros 30 factores (menos conocidos) de tipología sanguínea que pueden ser importantes para determinar la compatibilidad para transfusiones.

Las transfusiones de sangre entera son poco frecuentes ahora. La práctica común es fraccionar la sangre mediante centrifugación para obtener plasma, eritrocitos, leucocitos y plaquetas y utilizarlos según sean necesarios para distintos casos,.

En la actualidad, una de las grandes búsquedas de la tecnología médica es la producción artificial de sangre, ya sea a partir de células madre o por clonación, para obtener sangre en cantidades suficientes y totalmente libre del riesgo de infecciones (por ejemplo, de hepatitis B o VIH).

Donar sangre

Mientras no haya sangre artificial abundante, barata y segura, la única esperanza de vida y salud de muchísimas personas es que otras donen sangre. Donar no representa ningún riesgo de enfermedad y siempre es necesario, aún si tenemos un tipo de sangre común como 0+ o A+. Nunca, en ningún país del mundo, ha sido suficiente la sangre donada para satisfacer todas las necesidades de atención sanitaria, de modo que es una de las acciones solidarias y altruistas más sencillas y relevantes que podemos realizar.

El arcoiris revelador de la espectroscopía

El comportamiento del espectro electromagnético nos da la clave para conocer la composición química de cuanto nos rodea, desde las estrellas hasta las pistas de un crimen.

Espectrómetro infrarrojo utilizado en laboratorios químicos.
(Foto GFDL de Ishikawa (photothèque CNEP,
vía Wikimedia Commons)
El espectáculo de un arco de colores en el cielo sigue siendo sobrecogedor incluso hoy, cuando sabemos cómo y por qué se produce. No es extraño que lo fuera aún más cuando era un misterio cuya primera explicación, hasta donde sabemos, propuso Aristóteles, para quien era el reflejo de la luz del sol en las nubes en un ángulo determinado, con lo que explicaba también por qué el arcoiris no se halla en un lugar concreto, sino que se ve en una dirección determinada. Cada observador ve su propio arcoiris.

Fue Isaac Newton quien, alrededor de 1670, determinó que el continuo de colores, que llamó "espectro", se debía a que la luz blanca del sol se descomponía mediante refracción, haciendo que sus distintas longitudes de onda se desviaran en ángulos distintos. Por tanto, los colores son luz de determinadas longitudes de onda en un continuo desde el violeta hasta el rojo.

En 1802, utilizando prismas de mucho mejor calidad que los que tenía Newton, gracias a los avances en la producción de vidrio, el químico británico William Hyde Wollaston descubrió que el espectro newtoniano del sol no era realmente continuo, sino que estaba interrumpido por una serie de líneas negras. Estas líneas fueron descubiertas independientemente, estudiadas por el fabricante de vidrio Josef Von Fraunhofer, que les dió el nombre con el que las conocemos actualmente y contó hasta 574.

Por supuesto, no sólo puede descomponerse la luz solar con un prisma, sino que cualquier fuente luminosa es susceptible de ser así tratada. En 1853, el físico sueco Anders Johan Angstrom descubrió que cuando se producía una chispa eléctrica, se encontraban presentes dos espectros sobreimpuestos, uno de ellos del metal del que estaba compuesto el electrodo y el otro del gas a través del cual pasaba la luz. A partir de sus experiencias, dedujo que un gas incandescente emite las mismas longitudes de onda que absorbe cuando está frío y se hace pasar luz a través de él.

Así, al calentar vapor de sodio, éste emite una determinada serie de longitudes de onda. Cuando la luz solar pasa por el vapor de sodio, su espectro exhibe líneas de Fraunhofer precisamente en esas longitudes de onda. Con estas observación, el físico alemán Gustav Kirchoff y Robert Bunsen demostraron la existencia de sodio en el sol mediante el espectroscopio que inventaron.

Kirchoff estableció las principales leyes de la espectroscopía: que un objeto sólido caliente produce luz con un espectro continuo, que un gas tenue caliente produce líneas espectrales en determinadas longitudes de onda según los niveles de energía de sus átomos y que un objeto sólido caliente rodeado de un gas tenue frío produce luz en un espectro casi continuo, con brechas en determinadas longitudes de onda.

Nacía así la disciplina dedicada a estudiar los materiales por medio de la observación del espectro luminoso, la espectroscopía. O espectrografía, cuando se utiliza una una placa fotográfica o un elemento similar.

Así, del mismo modo en que Kirchoff y Bunsen pudieron determinar que el Sol contiene sodio (por absorber las mismas longitudes de onda que una lámpara de sodio), podemos determinar previamente qué longitudes absorben distintos materiales. Cuando tenemos una muestra de composición desconocida, podemos analizar la luz que refleja o deja pasar para saber qué elementos contiene.

Hoy hay varios tipos de espectroscopía basados en el estudio ya sea de la absorción, emisión o dispersión de distintos tipos de energía por distintos materiales. La moderna espectroscopía no utiliza únicamente la luz visible, sino que puede emplear todo el espectro electromagnético, analizando la descomposición, por ejemplo, de la luz ultravioleta o infrarroja, los rayos X, e incluso el sonido o incluso la absorción y emisión de partículas. Hay alrededor de medio centenar de tipos de espectroscopía, todos derivados de los mismos principios.

Gracias a esta potente herramienta, podemos estudiar las estrellas del universo a nuestro alrededor para conocer su composición química, y ésta nos da la clave para saber su edad aproximada, pues tenemos un modelo bastante claro de cómo se desarrolla la vida de una estrella. Pero la espectroscopía nos puede decir mucho más. La temperatura de una estrella, su velocidad de rotación y la velocidad a la que se mueve con respecto a nosotros son factores que también afectan el espectro de su luz, y que la ciencia ha ido aprendiendo a interpretar.

Quizá las ciencias forenses sean uno de los mejores ejemplos de las muchas utilidades que tiene la espectroscopía. ¿Una firma es original o falsa? La tinta que la compone puede ser sometida a análisis espectroscópico para determinar su composición química. Lo mismo pasa con los pigmentos y lienzos de cuadros sospechosos de ser falsificaciones, que se somenten a estudio para determinar si contienen sustancias más modernas que la época a la que se atribuyen. Una moderna tinta de gel en un documento del siglo XII que debería tener una tinta de sales de hierro denuncia su falsedad casi a gritos.

Más allá de su uso obvio para determinar la composición de todo tipo de muestras, la espectroscopía está siendo investigada para su uso en áreas novedosas como la determinación del momento de la muerte en casos de asesinato, estudiando cómo se van alterando los huesos al paso del tiempo. Esto podría también ser una forma adicional de datación para muestras más antiguas, sirviendo a la paleontología, la paleoantropología y la historia.

Y si usted se ha sometido alguna vez a una resonancia magnética, quizá no sepa que su cuerpo ha sido sometido a uno de los más modernos tipos de espectroscopía en el que potentes electroimanes estimulan los núcleos de los átomos del cuerpo para producir un campo que puede ser detectado por sensores para formar una representación gráfica muy detallada de las zonas estudiadas. Un logro que nos muestra el largo camino que hemos andado desde que por primera vez intentamos explicar el asombroso arcoiris.

Los mitos del arcoiris


Para los sumerios, un arcoiris indicaba que los dioses aprobaban una guerra en preparación, mientras que para los nórdicos era el puente que unía al mundo humano con Asgard, el mundo de los dioses. Para los hebreos era el símbolo de la promesa de Dios de no volver a aniquilar a la humanidad con una inundación, para los griegos era el modo de transporte de Iris, la mensajera de los dioses, y para los mayas Ixchel, la mujer-arcoiris era la diosa del amor. Pero quizá el más curioso arcoiris es el chino, al que sólo le atribuyen cinco colores y que era anuncio de la presencia de un dragón, y por tanto una gran bendición.

La vida emplumada

Las plumas no son privativas de las aves, son un antiguo invento de la evolución cuya relevancia histórica apenas estamos empezando a desentrañar.

Las impresionantes plumas del pavorreal
son  un reclamo de apareamiento.
(Fotografía ©Mauricio-José Schwarz 2012)  
Hasta hace no mucho, las plumas de ave eran insumos esenciales para diversos aspectos de la vida humana, desde el humilde plumero hasta las almohadas más cómodas, como alerones de flechas y, por supuesto, como instrumentos de escritura tan importantes que los instrumentos que los sustituyeron siguen llamándose "plumas" y cuyos usuarios son, también, las grandes plumas de la literatura. Vamos, como si fueran las remeras de un ganso.

La caída en la popularidad e importancia económica de las plumas en las sociedades humanas se ha visto compensada, podríamos decir, por la enorme relevancia evolutiva que han mostrado tener estos peculiares apéndices formados por la dura proteína llamada queratina y, por tanto, parientes del cabello, los cuernos y las escamas.

De todos esos apéndices tegumentarios (es decir, surgidos de un tejido de cobertura, en este caso la piel) las plumas son con mucho los más complejos, lo que sugiere que son resultado de un largo proceso evolutivo..

La estructura de las plumas típicas que usan las aves para el vuelo es, simplificando, la de un elemento rígido central o raquis que sostiene a los lados dos láminas llamadas "vexilos" formadas por filamentos o "barbas" que a su vez están ramificados y articulados utilizando un sistema similar al del velcro: los ganchillos de una barba se aferran a las bárbulas de su vecino a lo largo de todo el filamento. Casi con seguridad todos hemos sido jugado, asombrados de la eficacia de este sistema, al separar las barbas de una pluma "despeinándola", para ver después cómo, al pasar los dedos planos sobre las caras del vexilo, las barbas vuelven a unirse ofreciendo una superficie tersa y ordenada que, entre otras cosas, es ideal para el vuelo.

Además de las plumas de hay otros tipos, como el plumón, que carece de ganchillos y aparece como un mechón que fue muy apreciado para la fabricación de edredones, colchas y bolsas de dormir por su enorme capacidad de aislamiento térmico. Están también, las semiplumas, a la mitad entre las plumas de vuelo y el plumón, las vibrisas, que son plumas modificadas hasta parecer pelos gruesos con un penacho en la punta, que son útiles, cerca del pico, para actividades como la cacería de insectos.

Estas plumas y otras variedades sugiere la idea de que las plumas más complejas, las de vuelo, son a su vez las más recientes evolutivamente. ¿Es posible que las plumas aparecieran en nuestro planeta antes que el vuelo?

Las plumas de los dinosaurios

Fue Thomas Henry Huxley, el naturalista británico y feroz defensor de la teoría de la evolución mediante la selección natural (tanto que fue llamado "El bulldog de Darwin") quien en 1868 sugirió por primera vez que el camino evolutivo hacia las aves iba de los reptiles a algunos dinosaurios pequeños terrestres que posteriormente desarrollaron el vuelo.

La idea de Huxley no recibió demasiada atención hasta que, en 1973, el paleontólogo estadounidense John Ostrom creyó contar con datos suficientes para confirmar la intuición de Huxley. A contracorriente de toda la paleontología de su época, Ostrom afirmó que las aves procedían de dinosaurios no voladores, que habían desarrollado las plumas como aislantes térmicos. De hecho, su afirmación era que las aves son dinosaurios. Su prestigio profesional se había consolidado casi diez años atrás, en 1964, cuando había descubierto al Deinonychus, cuya estructura demostraba que los dinosaurios no eran animales "de sangre fría" como los reptiles, sino que generaban su propio calor corporal.

El debate que encendió Ostrom está hoy prácticamente resuelto. Su hipótesis se vio confirmada en 2001 con el descubrimiento en China de un fósil de dinosaurio que claramente estaba cubierto de plumas de pies a cabeza. Y, como tantas veces ocurre en ciencia, una vez que se sabe lo que se busca, es más fácil encontrarlo. Desde 2001 se ha multiplicado incesantemente la variedad de fósiles de dinosaurios emplumados, desde pequeños animales del tamaño de un conejo hasta el enorme Yutyrannus huali, de 9 metros de longitud, pariente del tiranosaurio.

Hoy, el consenso paleontológico (con algunos disidentes que se oponen con argumentos aún no resueltos) es que las aves pertenecen al suborden de los terópodos, formado por los bien conocidos dinosaurios bípedos como el tiranosaurio o el velociraptor popularizado por el cine (aunque en la realidad es bastante más pequeño que su representante cinematográfico).

Pero el hecho incontrovertible es que las plumas aparecieron mucho antes que las aves y, por muchos millones de años, antes que el vuelo. Surgieron como escamas modificadas en forma de filamentos huecos, unas cerdas fibrosas de dos o tres centímetros de largo como las que cubrían la espalda y larga cola del Sinosauropteryx, un dinosaurio de unos 70 cm de longitud, formando bandas de un color claro y otro oscuro. El primer paso para llegar a las impresionantes plumas de los pavorreales y los faisanes.

Más adelante aparecerían plumas verdaderas como las que adornaban al Oviraptor, mientras que las plumas adaptadas para volar están ejemplificadas en el Archaeopteryx, el primer fósil descubierto en el que se conservaba la huella de sus plumas, una forma intermedia entre los dinosaurios y las aves modernas y que en 1861, fue una contundente confirmación de la teoría recientemente presentada por Charles Darwin.

Rax erineas, terópodo emplumado representado en el Museo
del Jurásico de Asturias (MUJA)
(Fotografía ©Mauricio-José Schwarz 2004-2012)
Si las plumas no nacieron para volar, se especula que pueden haber surgido como aislante térmico o como forma de comunicación visual para selección sexual o reconocimiento de especie, como despliegue de lucha o, incluso, como camuflaje. Y la forma en que los dinosaurios empezaron a utilizar las plumas para volar es también, todavía, materia de especulación.

Pero nacieron. Y cubrieron a los terópodos y quizás a otras variedades de dinosaurios, no excepcionalmente, no como un hecho aislado.

Los museos poco a poco han ido emplumando a sus dinosaurios, para responder a los avances del conocimiento sobre el pasado de la vida en la Tierra, y seguirán cambiando si pensamos en lo enormes que son aún los huecos que tenemos en la imagen de la evolución.

Plumaje de colores

Apenas en 2010 se consiguió identificar en algunos fósiles unos pequeños órganos responsables de la pigmentación, los melanosomas. Su análisis permitió determinar el color del Sinosauropteryx. Este mismo 2012, se publicó un estudio que demuestra que las plumas del Archaeopteryx eran negras. Y algunas plumas de dinosaurio atrapadas en ámbar, al estilo de "Parque Jurásico", van confirmando que el mundo de los dinosaurios era a todo color. Ahora todo es cosa de acostumbrarse a imaginar a un feroz tiranosaurio recubierto de un colorido plumaje.

Biografía de un joven cuerpo estelar

A los 4.540 millones de años de edad, la Tierra tiene una nutrida biografía pese a ser todavía una chavala cósmica.

La primera visión que tuvimos de nuestro planeta
desde otro mundo. La Tierra sale en el horizonte lunar.
(Foto D.P. del astronauta del Apolo 8 Bill Anders
vía Wikimedia Commons)
No conocemos la edad exacta de la Tierra porque en realidad las circunstancias que dieron origen a su nacimiento están aún envueltas en interrogantes que, aunque se van desvelando poco a poco, siguen siendo numerosas.

Si nos atenemos a lo que se cree con base en los datos conocidos hasta ahora, el planeta se gestó en una enorme nebulosa de polvo cósmico que se condensó por atracción gravitacional. El polvo provenía de otras estrellas, supernovas que habían estallado desde el principio del universo, hace más o menos 13.700 MA (millones de años).

Quizá debido a la influencia de una supernova que estalló en las inmediaciones (en términos cósmicos), esta nebulosa formó primero una agrupación de materia en su centro, principalmente hidrógeno, que cuando llegó a ser suficiente en cantidad y densidad se encendió en una reacción de fusión nuclear creando nuestro sol. A su alrededor, la gravedad fue concentrando la materia de la nebulosa en distintos puntos, formando los planetas.

Inmediatamente después de su nacimiento, la Tierra no se parecía sin embargo en nada a lo que conocemos hoy. Era una aterradora bola giratoria de roca fundida, una colosal gota de magma hirviente flotando en el espacio.

Durante los primeros 100 MA de su existencia, un suspiro en términos cósmicos, la Tierra se ocupó en enfriarse y utilizó sus gases para crearse una atmósfera que pronto fue arrancada de la gravedad terrestre por el viento solar, y soportó el bombardeo de millones de meteoritos, cometas y otros objetos.

Por esas mismas fechas, hace 4.450 MA, un planetoide chocó con la aún caliente Tierra, que giraba tan rápido que el día duraba unas 7 horas y orbitaba alrededor de un sol que era mucho menos brillante que hoy. El resultado fue la formación de un satélite natural del nuevo planeta: la Luna.

Pasaron 550 MA y el planeta adquirió una nueva atmósfera de dióxido de carbono, vapor de agua, metano y amoníaco mientras su giro se ralentizaba hasta tener un día de 14,4 horas. El vapor de agua formó nubes y apareció la lluvia en forma de colosales tormentas que inundaron su superficie formando los mares.

Hace 3.800 MA terminaba la primera infancia del planeta, a la que los geólogos conocen como Eón (que quiere decir era muy larga) Hadeano, o de Hades y comenzaba el Arqueano, con la aparición de una corteza sólida en la superficie del planeta. Sólo 300 MA después quedó establecido el campo magnético de la Tierra, producido por la rotación de su núcleo formado principalmente por hierro fundido. Este campo la defiende desde entonces del viento solar, y apareció un fenómeno totalmente revolucionario: la vida.

Las primeras bacterias verdeazules o cianobacterias, los más antiguos fósiles que podemos estudiar, empezaron a producir oxígeno libre por primera vez y proliferaron hasta el final de este eón, que dio paso al llamado Proterozoico y que duró dos mil millones de años. Aparecieron los primeros continentes y la vida siguió desarrollándose y evolucionando hacia formas más complejas, pese a eventos catastróficos como la primera edad de hielo, llamada Huroniana.

Hace 2.200 MA aparecen los primeros seres vivos capaces de respirar (aeróbicos) dotados de mitocondrias, organelos que actúan como fuentes de energía de las células, entre otras tareas, y unos 400 MA después aparecen las primeras formas celulares complejas. Hace 1.600 MA aparecen las células con núcleos y unos 400 MA después surge la reproducción sexual como revolucionaria forma de adaptación mediante el intercambio de material genético.

La masa terrestre estaba reunida en un supercontinente llamado Rodinia cuando se produjo la siguiente gran revolución de la vida hace 1.000 MA: surgieron los seres pluricelulares. 250 MA después, Rodinia se separó y hace 600 MA los fragmentos formaron otro enorme supercontinente, llamado Pannotia. Y hay indicios que permiten suponer que al menos en una ocasión, la Tierra se congeló completamente, la llamada "hipótesis de la bola de nieve", hace 650 MA.

La tierra por encima de los océanos vivió una historia de separaciones y encuentros, como un puzzle que se deshiciera y volviera a formar de distintas maneras. Pannotia duró apenas unos 60 MA, antes de volver a dividirse en cuatro fragmentos, el mayor de los cuales es el conocido como Gondwana. Los fragmentos volverían a unirse en otro supercontinente, Pangea, hace 300 MA. La separación de ese supercontinente empezó hace 175 MA y dio origen a los continentes que conocemos hoy. Y esto porque la corteza de nuestra biografiada no está formada por una capa uniforme, sino por diversas placas que flotan sobre el núcleo fundido que sigue teniendo.

Pero ya para entonces, hace 542 MA, había comenzado el eón Fanerozoico, en el que aún vivimos y que se divide en tres eras claramente diferenciadas. En la Paleozoica aparecieron las primeras plantas que podríamos considerar modernas, y la vida había evolucionado hasta la aparición de reptiles muy complejos.

Estos reptiles darían lugar a los dinosaurios que reinaron en la era Mesozoica mientras, literalmente, los continentes se movían bajo sus patas hasta ocupar el lugar que tienen hoy (y siguen moviéndose). Finalmente, la era Cenozoica, en la que vivimos nosotros, ha cubierto los últimos 65,5 MA, en la que se extinguieron los dinosaurios no avianos y aparecieron los mamíferos como la forma dominante de vida en el planeta.

Nosotros... somos unos recién llegados... y sin embargo somos los únicos seres vivos hasta donde sabemos que intentan desentrañar los misterios de este nuestro planeta, que hoy es, en palabras de Carl Sagan, "un punto azul pálido", aunque de momento mucho de lo que creemos sea simplemente hipotético, como la historia temprana de los continentesa. Vivimos en un planeta del que, realmente sabemos poco todavía.

El nuestro es un planeta joven comparado con otros como los que orbitan a la estrella HIP 11952 desde hace 12.800 millones de años, nacidos en los albores del universo. Y, más allá de las metáforas que lo comparan con un ser vivo o una nave espacial con la cual recorremos el universo, es simplemente nuestro hogar.

Que no es poco.

El final

El mundo se va a acabar, sin duda. Pero no como lo predican los muchos y variados profetas empeñados en equivocarse varias veces al año, sino según las leyes del universo. El giro de la Tierra seguirá ralentizándose y el brillo de nuestro sol seguirá aumentando, con lo que la vida en el planeta desaparecerá en un plazo de entre 500 y mil MA. Pero el planeta sobrevivirá otros 7 u 8 mil MA, hasta que el sol, convertido en un gigante rojo en expansión, lo empuje hacia el exterior del sistema solar y, finalmente, lo engulla. Un futuro del que no tenemos que preocuparnos por ahora.

El hombre detrás del bosón

Peter Higgs, el físico que quizás nos ha obsequiado con la explicación de por qué el universo se mantiene unido.

Peter W. Higgs
(Foto CC-BY-SA-2.0-de de Andrew A. Ranicki
vía Wikimedia Commons)
Un jubilado de 81 años, de escaso cabello blanco y gafas, solía caminar las calles de Edimburgo sin llamar apenas la atención, ir a conciertos de madrigales y hacer algo de senderismo. Si uno hubiera preguntado, quizá alguien sabía que este ciudadano, que vive en un sencillo piso de la capital escocesa, había sido profesor universitario, y poco más. Algunos acaso sabrían que era un profesional altamente reconocido por sus colegas, pero sería irrelevante. Los mejores contables reciben reconocimiento de otros contables, pero los desconocidos no les invitan a una cerveza.

El 4 de julio, en una reunión en Ginebra, Suiza, todo cambió. Peter Ware Higgs, se convirtió en el centro de la atención mundial y su fama trascendió hacia toda la sociedad desde el abstruso entorno de su trabajo: la física teórica. Como lo relataba Higgs a New Scientist, de pronto su buzón rebosaba peticiones para prestar su imagen a un juego de mesa "Higgs", invitaciones a inaugurar edificios e, incluso, la petición de una pequeña cervecería de Barcelona sobre su cerveza favorita para fabricar una similar con su nombre. Del lado más serio, su universidad, la de Edimburgo, se apresuró a fundar dos días después el Centro Higgs para la Física Teórica y la Cátedra Peter Higgs.

¿Qué hizo el profesor Higgs para que se hablara de él de pronto como fuerte candidato al Premio Nobel, y salir más veces en los medios que en toda su vida anterior? En 1964, estudiando la explicación que la ciencia da al comportamiento del universo, propuso la existencia de una partícula que se encarga de darle masa a las demás.

Algunas partículas elementales del universo tienen masa, como el electrón, y otras no lo tienen, como los fotones que forman la luz. ¿Por qué? Peter Higgs postuló que el responsable era un campo nuevo que producía otra partícula elemental, el "bosón de Higgs".

La idea era excelente, matemáticamente sólida y se ajustaba a la perfección a la visión que tienen los físicos de la interacción entre las partículas elementales, conocida como "modelo estándar". Era la pieza que faltaba en el rompecabezas del universo. Pero mientras no se demostrara su existencia era sólo una hipótesis. El 4 de julio en Ginebra, los científicos a cargo del gigantesco acelerador de partículas LHC del CERN anunciaron que habían descubierto una partícula que coincidía con el bosón de Higgs, y que las probabilidades de que realmente lo fuera eran elevadísimas: 99,9994%

Peter Higgs nació en Newcastle upon Tyne, en el Reino Unido, el 29 de mayo de 1929 y creció en las ciudades de Birmingham y Bristol. En su niñez y adolescencia, su educación no fue fácil. Los bombardeos alemanes de la Segunda Guerra Mundial afectaron a Bristol (el joven Higgs se rompió un brazo al caer en un cráter) y una serie de ataques de asma que se convirtieron en neumonía lo obligaron a hacer parte de sus estudios en casa, animado por su madre, hasta entrar al famoso King's College de Londres en 1947.

La inspiración de Higgs era otro físico teórico que había estudiado en la escuela primaria de Cotham, en Bristol, con más honores que ningún otro alumno: Paul Dirac, Premio Nobel de Física, uno de los padres de la mecánica cuántica y cuya más famosa ecuación predijo la existencia de la antimateria. Higgs recuerda que lo entusiasmaba la idea de entender el universo, y así emprendió una carrera académica estelar en la física teórica, doctorándose con honores (como siempre en sus estudios) a los 25 años de edad.

Todavía como estudiante, en 1949, asistió al festival cultural Fringe de Edimburgo como apasionado de la música clásica y, especialmente, de la música de Monteverdi. La ciudad lo conquistó, de modo que después de su graduación pasó a realizar tareas de investigación y docencia en la Universidad de Edimburgo, ciudad donde aún hoy vive.

Después de volver temporalmente a Londres a tareas universitarias, se instaló definitivamente en su ciudad de ensueño en 1960, como profesor de física matemática e investigador, algo que en física teórica significa básicamente pensar sobre el universo, estudiar las ecuaciones que explican ciertos fenómenos y expresar nuevas ideas en ecuaciones originales o mediante la programación de modelos sobre dichos fenómenos.

Fue en 1964 cuando Higgs propuso una solución a la pregunta de por qué los objetos tienen masa. Una solución que sus colegas llamaron "elegante": la masa se debe a la existencia de un campo que rodea a las partículas. Algunas partículas se unen al campo más que otras y por tanto tienen más masa. Y este campo transmite la masa a través de esa escurridiza partícula que es el bosón de Higgs, y que fue postulado al mismo tiempo, de modo independiente, por los belgas Robert Brout y François Englebert, que publicaron sus resultados algunas semanas después que Higgs y se consideran codescubridores.

Su idea no fue recibida inmediatamente como una revolución y Higgs continuó con su vida académica y sus pasiones musicales y como senderista, con la que después se convertiría en su esposa, la lingüista estadounidense Jody Williamson.

Mientras era ascendido a una cátedra personal en física teórica en 1980, otros físicos empezaron a diseñar el experimento necesario para detectar una partícula de diminuta incluso a nivel subatómico y que existía apenas una milmillonésima de una milmillonésima de segundo antes de destruirse: un acelerador de partículas enorme con detectores con una precisión nunca antes lograda.

El resultado fue el LHC, que desde la década de 1980 pasó por los mecanismos de aprobación y su lenta construcción, aún no iniciada cuando Higgs se jubiló en la universidad en 1996. El acelerador empezó a funcionar en 2009 y consiguió las observaciones que prácticamente confirman el bosón de Higgs (o, quizá, los bosones de Higgs) en 2011.

Ahora, mientras Higgs espera un premio Nobel que quizá no le sea concedido dadas las reglas y tendencias del comité encargado de concederlo, disfruta de la fama. Aunque modestamente. Como relató él mismo, su única celebración por el descubrimiento anunciado el 4 de julio fue una botella de cerveza en el vuelo de vuelta de Ginebra a Londres.

Nada que ver con un dios

Peter Higgs no habla del "bosón de Higgs", sino del "bosón escalar", y explica pacientemente que el nombre "la partícula Dios" es simplemente una broma de Leon Lederman, de su libro de 1993 del mismo título y que él rechaza el nombre. Lederman quería señalar que el bosón de Higgs era la partícula que podía explicar por qué el universo se mantiene unido, pero de modo ligero y sin ninguna connotación teológica, como no hay idea teológica al decir, como ocurre con frecuencia, que Leonel Messi o Bruce Springsteen "son dios".

Metales, mitos y estrellas

El avance del conocimiento y las sociedades humanas está estrechamente relacionado con el dominio de los metales, los hijos de las estrellas.

Todo el oro, como el usado para este anillo de Ramsés
II, se ha creado en explosiones de supernovas como la
SN 1994D.
(anillo: foto CC de Guillaume Blanchard; supernova:
foto CC de NASA/ESA por el telescopio Hubble)
Dice el "Breve diccionario etimológico de la lengua castellana" de Joan Corominas que la palabra "metal" entró en nuestro idioma hacia el año 1250, proveniente del latín "metallum", que probablemente significaba "mina". El Oxford English Dictionary añade que la palabra latina proviene del griego "metallon", que significaba por igual "mina", "cantera" o, sí, "metal".

Los griegos y romanos que les dieron nombre conocían únicamente siete metales: oro, cobre, plata, plomo, estaño, hierro y mercurio, mientras que los indostanos conocían además el zinc y los chinos el cromo, como se descubrió al ver que algunas armas del ejército de terracota de Xian lo usaban como recubrimiento. Pero no fue sino hasta el siglo XVIII cuando se desencadenó el hallazgo de los diversos metales que conocemos hoy.

Los metales son elementos químicos (o sus compuestos o aleaciones) que son buenos conductores del calor y de la electricidad, generalmente con un brillo característico, maleables y dúctiles, y que pierden fácilmente electrones para fomar iones positivos. Forman la mayor parte de los 90 elementos de la tabla periódica que se pueden encontrar en la naturaleza, 66 de ellos, divididos en 6 categorías.

Formación de los metales

El hombre encontró los primeros metales en su forma pura, como hoy aún podemos encontrar pepitas o vetas de oro, pero otros metales sólo se encuentran en forma de compuestos que deben ser beneficiados o procesados para extraerlos. Por supuesto, el origen mismo de esos asombrosos materiales fue asunto de la mitología.

Para algunos pueblos, los metales eran producto del sacrificio o autoinmolación de algún dios o semidiós, partes sagradas derramadas en beneficio de la humanidad. Para los antiguos chinos, la copulación del "chi" (energía vital mágica) de la tierra con el Cielo Polvoriento producía el nacimiento de un metal que, al paso de los milenios, iba generando los demás. Para Aristóteles, los metales y todos los minerales nacían de exhalaciones de la tierra relacionadas con los cuatro elementos. Las proporciones de los cuatro elementos daban como resultado los distintos minerales y metales conocidos.

La idea de que los metales estaban en continua formación, ya fuera por relaciones sexuales, exhalaciones o el crecimiento orgánico incluía el concepto de que si se dejaban reposar las explotaciones mineras agotadas, éstas se reabastecerían y se volverían, decía Plinio, "más productivas" debido al "aire que se infunde por los orificios abiertos".

En el siglo XVI, Jerónimo Cardano, matemático y médico del renacimiento y uno de los fundadores de la teoría de la probabilidad, se hacía eco de esta creencia: "los materiales metálicos son a las montañas lo mismo que los árboles, y tienen sus raíces, troncos, ramas y hojas... ¿Qué es una mina si no es una planta cubierta de tierra?"

La idea del origen orgánico de los metales, su sexualidad y su composición elemental, y la creencia en que todos los metales eran la "semilla" del oro fueron bases de la alquimia, que buscaba en el "matrimonio de los metales" la consecución del sueño de la piedra filosofal, y soportó todavía varios siglos después del renacimiento.

Poco a poco, el avance del conocimiento científico sugirió que los metales, como todos los demás elementos, habían nacido con el universo. Pero, ¿al mismo tiempo o de modo progresivo?

Quien dio la clave del origen de los elementos pesados fue el físico inglés Sir Arthur Eddington, que en 1920 sugirió que las estrellas obtenían su energía fusionando núcleos de hidrógeno para producir helio, es decir, que eran grandes hornos de fusión nuclear. No fue sino hasta 1938 cuando el físico alemán Hans Bethe describió los mecanismos de la fusion de hidrógeno en helio.

Pero no explicaba los elementos más pesados que el helio, que abordó el físico Fred Hoyle después de la segunda guerra mundial, señalando cómo la abundancia de los elementos en una galaxia aumentaba conforme ésta envejecía. Es decir, que las estrellas iban produciendo, mediante fusión nuclear, elementos progresivamente más pesados que el hidrógeno (con un protón en el núcleo) y el helio (con dos protones). Por eso, precisamente, elementos ligeros (desde el punto de vista atómico) como el carbono, el oxígeno o el hierro son muy abundantes y otros más pesados como el oro, el mercurio y el uranio, son muy escasos.

Las enormes fuerzas del interior de las estrellas fusionan los elementos en su interior creando núcleos más pesados, lo que se conoce como "nucleosíntesis estelar". Dos átomos de hidrógeno producen uno de helio. Tres de helio se fusionan creando uno de carbono (que tiene 6 protones). Uno de carbono y uno de helio se conjuntan en un átomo de oxígeno, y así sucesivamente hasta llegar al hierro, el elemento más pesado que puede producirse dentro de una estrella y que en su núcleo tiene 26 protones.

El hierro es el elemento que tiene la energía de unión más fuerte e incluso las fuerzas de las estrellas comunes no pueden provocar que se fusione dando lugar a elementos más pesados, pero aún así, en la naturaleza, hay muchos elementos con núcleos más pesados que el hierro, desde el cobalto (con 27 protones) hasta el uranio (con 92), y sin contar los elementos hechos por el hombre que hasta la fecha llegan al elemento "ununoctio", con 118 protones.

Los elementos que van del cobalto al uranio sólo pueden producirse en las masivas explosiones de estrellas que llamamos "supernovas", lo que conocmos como "nucleosíntesis explosiva". que además, al estallar, distribuyen por el universo los elementos más ligeros creados cuando eran simples estrellas.

El polvo estelar lanzado por las supernovas puede después empezar a reunirse en nubes giratorias que dan origen a nuevas estrellas y sistemas solares. Así ocurrió con el nuestro. Todos los elementos de nuestro planeta más pesados que el hidrógeno y el helio, los dos principales elementos nacidos durante la explosión que dio origen al universo, el Big Bang, están fabricados en el interior de las estrellas. Estamos hechos, como decía Carl Sagan, del material de las estrellas.

Origen

En 2011, un grupo de investigadores publicó en la revista "Experimental Astronomy" una propuesta de misión a la Agencia Espacial Europea. La misión, llamada "Origen: creación y evolución de los metales desde el amanecer cósmico" pondría en órbita un observatorio espectroscópico para analizar la composición de grupos de galaxias y responder a preguntas como ¿cuándo se crearon los primeros metales?, ¿cómo evoluciona el contenido metálico del cosmos? y ¿dónde se encuentra la mayor parte de los metales del universo? La ESA aún no ha dado respuesta.

Philo Farnsworth en nuestro hogar

La televisión puede definir al mundo de hoy, pero su historia es tan poco conocida como su principal inventor.

Philo T. Farnsworth.
(Foto D.P. de Harris & Ewing,
vía Wikimedia Commons)
El 7 de septiembre de 1927, Philo T. Farnsworth, un desconocido que había aprendido electricidad mediante un curso por correspondencia, consiguió realizar la primera emisión de televisión electrónica en el pequeño laboratorio que tenía en el 202 de Green Street, en San Francisco, California. Era una imagen de sólo 60 líneas de resolución (la televisión común tiene 520 líneas de resolución y la televisión de alta definición o HDTV tiene 1.125).

Era el primer paso de un medio de comunicación cuya importancia, presencia y relevancia no han hecho sino aumentar desde entonces, como uno más de los desarrollos tecnológicos que han democratizado el conocimiento, la información y el entretenimiento, como la imprenta, la radio, el cine, la grabación musical y, por supuesto, Internet.

Farnsworth había nacido en 1906 en una familia campesina de Utah y se había aficionado muy pronto al novedoso fenómeno de la electricidad. Con sólo 12 años construyó un motor eléctrico y poco después una lavadora de ropa para la familia. La televisión de Farnsworth, por su parte, comenzó humildemente en 1921, cuando el joven de 15 años estaba arando y se le ocurrió que podría utilizar un haz de electrones dentro de un tubo de rayos catódicos para explorar o escanear una imagen en líneas similares a los surcos que recorrían el campo de cultivo familiar. La imagen así codificada podría transmitirse a un receptor que la reconstruyera y exhibiera.

Durante los seis años siguientes, se ocupó en estudiar y hacer realidad esa idea.

Los precedentes

La televisión, sin embargo, no fue una idea original de Farnsworth. De hecho, la idea rondaba los laboratorios de profesionales y aficionados de la electricidad, la física y la electrónica desde mediados del siglo XIX, y fueron numerosos los descubrimientos que fueron dando forma al invento.

Así, el ingeniero eléctrico británico Willoughby Smith publicó en 1873 el descubrimiento de que el selenio tenía la propiedad de la fotoconductividad, es decir, que su conductividad eléctrica cambiaba en función de su exposición a la luz. Esto significaba que el selenio podía utilizarse para transformar imágenes en señales electrónicas. Estas señales, se pensó después podían transmitirse por medio de la radio, que sin embargo aún no nacía. No fue sino hasta 1895 cuando Guglielmo Marconi consiguió transmisiones de radio fiables.

En 1884, el estudiante de ingeniería alemán Paul Nipkow propuso y patentó el primer sistema de televisión del mundo. Era una forma de televisión "mecánica" porque capturaba las imágenes mediante un disco inventado por él mismo que tenía una serie de 18 orificios dispuestos en espiral y giraba a gran velocidad para permitir explorar la imagen sobre un elemento de selenio. Los 18 orificios producían, por tanto, una imagen de 18 líneas de resolución.

Todo esto ocurría en teoría, porque en realidad nadie sabe si Nipkow consiguió fabricar un prototipo de su sistema de televisión. De hecho su idea no tendría el nombre que conocemos hoy sino hasta 1900, cuando el científico ruso Constantin Perskyi usó por primera vez la palabra "televisión" en un discurso dentro de la Feria Internacional de París, la misma para la cual se había construido la Torre Eiffel.

La televisión mecánica encontró a su gran pionero en la figura de John Logie Baird, un ingeniero escocés que demostró públicamente por primera vez un sistema real de televisión el 26 de enero de 1926 en Londres ante unos 50 científicos. En 1927 consiguió transmitir imágenes a más de 700 kilómetros mediante una línea telefónica y en 1928 la primera transmisión transatlántica.

Pero el sistema mecánico de captura de imágenes, que también fue estudiado y desarrollado por el inventor estadounidense Charles Francis Jenkins no era del todo satisfactorio, entre otras cosas porque sólo podía transmitir imágenes de pequeño tamaño.

La televisión electrónica, por su parte, se desarrollaba paralelamente sin esas limitaciones. El inventor ruso Vladimir Kosma Zworykin desarrolló el primer tubo de rayos catódicos que podría utilizarse en una cámara de televisión electrónica, y años después, trabajando en la poderosa empresa de radio RCA, desarrolló un sistema que permitía que un haz de electrones reprodujera las imágenes de televisión en un tubo de rayos catódicos recubierto de fósforo... la pantalla de televisión que predominó hasta que en el año 2000 empezó a ser sustituida por distintas tecnologías de pantalla plana.

De hecho, la RCA intentó atribuir los conceptos básicos de la televisión a Zworykin, desatando una batalla legal de patentes que fue finalmente ganada por Farnsworth, señalándolo como una de las principales fuerzas intelectuales detrás del desarrollo de la televisión.

Aún no estaba consolidado el sistema de televisión que se hizo mundialmente popular después de la Segunda Guerra Mundial cuando la nueva idea empezó a comercializarse. El primer televisor se vendió en los Estados Unidos en 1928 por un precio equivalente a unos 60 euros, y un año después se lanzó la televisión en Inglaterra y Alemania. El primer anuncio publicitario sería transmitido por la empresa de John Logie Baird en 1930. En 1931 aparecía la televisión en Francia y en lo que por entonces era la Unión Soviética. Para 1934, la televisión mecánica empezó a ser definitivamente sustituida por la televisión electrónica, cuya difusión sólo se vio ralentizada por la Segunda Guerra Mundial

Philo Farnsworth, el genio electrónico que a los 21 años convirtió en realidad una idea surgida de un campo arado, siguió innovando en televisión y amplió sus intereses hacia un campo totalmente distinto: la fusión nuclear. Hacia 1959, Farnsworth desarrolló un pequeño reactor de fusión, conocido como fusor Farnsworth-Hirsch, utilizando como aceleradores de partículas algunos tubos de pantalla de televisión cuyas características había estudiado.

Hoy en día, continúa el trabajo sobre el fusor de Farnsworth, no sólo explorando las posibilidades que tiene dentro de la búsqueda de la fusión nuclear como energía alternativa, sino como fuente de neutrones pequeño, barato y útil.

El fusor, pese a su gran promesa de cambiar el mundo incluso más profundamente que la televisión, fue sólo una de las más de 300 patentes que existen a nombre del campesino de Utah convertido en uno de los inventores clave del siglo XX.

Philo T. Farnsworth murió el 11 de marzo de 1971 en Salt Lake City, en su Utah natal.

La televisión en España

Las emisiones de prueba de Televisión Española empezaron a realizarse en 1951-52 y las transmisiones regulares comenzaron oficialmente el 28 de octubre de 1956, con contenido fuertemente influido por la dictadura. El primer partido de fútbol se transmitió en febreo de 1959... como era de esperarse, un Real Madrid-Barça.

De la anatomía de los monarcas al recorrido de la luz

Si algo mide un metro, ¿cuánto mide un metro y cómo lo sabemos?

Uno de los patrones de metro, de aleacion de iridio
platino, creados después del Tratado del Metro
de París en 1875.
Fue el patrón vigente hasta 1959.
(Foto D.P. del Departamento de Comercio
de los EE.UU., vía Wikimedia Commons)
Medir las cosas, su tamaño, su peso, su duración, fue una de las primeras cosas que las civilizaciones humanas tuvieron que hacer para poder realizar tareas como el trueque o intercambio de bienes.

Muchas medidas eran tan vagas como las que usan las abuelas para la preparación de sus mágicas recetas: pizcas, puñados, chorros, buenos pellizcos y otras medidas que en las manos correctas crean alquimia gastronómica.

Pero para otras cosas había que echar mano de algún patrón de medida. Los primeros fueron las partes del cuerpo humano: pies, codos (o cúbitos), manos antebrazos y dedos. Pero dada la variabilidad del cuerpo humano, se optó por un modelo de ser humano: sus monarcas-dioses, que se usaban como base de patrones de medida en forma de barras metálicas que se conservaban en los templos.

Por supuesto, la medida de un miembro del monarca podía estandarizarse en una sociedad cerrada, pero no en el "comercio exterior". En la antigua Grecia había al menos tres estándares para el pie: el dórico, de unos 32,6 cm, el pie ático de 29,4 cm y el pie jónico de 34,8 cm. De modo que "cuántos pies" tenía un significado bastante distinto.

En España misma llegaron a convivir el codo común de unos 41,8 cm, el codo real de 57,4 cm y, en la zona morisca, el codo mayor de 83,87 cm y el codo mediano de 61 cm.

Por su parte, el peso o la capacidad de vasijas y otros recipientes se medía llenándolos de determinadas semillas y luego contándolas. En el antiguo sistema de medidas español, por ejemplo, un "grano" era aproximadamente el peso de una semilla de trigo, aproximadamente 49 miligramos. Y el "quilate" de peso de las joyas no es sino el peso de una pequeña semilla de algarrobo.

Y las medidas se podían confundir entre sí. Por ejemplo, la fanega tenía un valor variable de alrededor de 55 litros y se usaba para medir el grano. Pero se hablaba también de una fanega de tierra como medida de superficie, considerada como el terreno necesaria para cultivar una fanega de trigo, algo menos de unos 7 mil metros cuadrados.

Algo de orden

Cada país, cada región, a veces cada pueblo tenían su propio sistema de pesos y medidas incompatibles con los de sus vecinos. Grandes imperios, como el romano, intentaron imponer sus estándares en sus dominios. Tal es el caso del patrón del pie romano, de 29,6 cm, que se guardaba en el tempo de Juno Moneta, en Roma, y era reproducido para que fuera igual en todo el imperio.

Diversos personajes a partir de Simon Stevin en el siglo XVI, sugirieron la conveniencia de una norma general, basada en un sistema decimal que facilitara las cuentas, sumas y fracciones de los diversos sistemas de medida, simplificando confusiones. En el antiguo sistema español, por ejemplo, una legua eran 20.000 pies y una vara eran 3 pies, el palmo era 1/4 de vara, la pulgada 1/12 de pie (o 1/36 de vara), etc. Una distancia podía así medir tantas leguas más tantas varas más tantos pies más tantos palmos, etc.

El sistema que hoy es el patrón mundial nació a instancias de Luis XIV, que nombró para crearlo a un grupo de científicos entre los que destacaba Antoine Lavoisier, se introdujo en una ley revolucionaria de abril de 1795 que basaba todas las medidas en un metro provisional, y se implantó oficialmente el 10 de diciembre de 1799, bajo Napoleón, una vez terminado el estudio geográfico que dio al metro su primera definición: la diezmillonésima parte de un cuadrante de la circunferencia de la Tierra desde el Polo Norte hasta el Ecuador pasando, por supuesto, por París.

Las demás medidas se desprendían del metro y de sus fracciones o múltiplos: el área se mediría en metros cuadrados, el volumen en litros (decímetros cúbicos) y la masa basada en el gramo, definido como el peso de un volumen de agua pura igual a un centímetro cúbico a la temperatura del hielo al fundirse.

Así terminaba la complejidad de celemines, azumbres y arrobas, pies, pulgadas y varas. Bastaban prefijos como "kilo" (mil) para multiplicar, o "mili" (milésima parte) para dividir las unidades básicas en un sistema elegante, que simplificaba la vida y resultaba fácil de entender.

A partir de entonces, durante todo el siglo XIX y XX se desarrollaron dos procesos simultáneos. De una parte, un esfuerzo creciente por definir con mayor precisión y de modo más universal y repetible las unidades básicas de peso y medida. De otra parte, la aceptación e implementación a nivel mundial del sistema métrico decimal. Los países pioneros en su adopción fueron Brasil en 1811, Portugal en 1814, Bélgica y Holanda en 1820, Chile en 1848, y España y México en 1852. En 1875 se estableció la Convención Mundial del Metro a la que seguirían los organismos internacionales que hoy definen, estudian y promueven la adopción del sistema, que en 1960 pasó a llamarse Sistema Internacional de Unidades sobre la base de las unidades metro-kilogramo-segundo.

Durante el siglo XX, prácticamente todos los países adoptaron el sistema internacional, siendo los más reacios a hacerlo tanto los asiáticos como los relacionados culturalmente con el imperio británico del siglo XIX, muchos de los cuales, pese a ser oficialmente métricos, mantienen algunas medidas imperiales.

En la actualidad, los únicos países donde no es oficial son Myanmar, Liberia y los Estados Unidos, lo que resulta curioso porque Thomas Jefferson, uno de los primeros presidentes estadounidenses y pensador de gran influencia, fue entusiasta del sistema decimal y llegó a proponer uno al congreso estadounidense en 1790.

Hoy, eso sí, sabemos con precisión a qué nos referimos con nuestras medidas, lo que permite una enorme precisión para el trabajo científico y para el intercambio comercial. Un metro es, desde 1983, la longitud del recorrido de la luz en el vacío durante un intervalo de tiempo de 1/299.792.458 de segundo.

Y el segundo se define como la duración de 9.192.631.770 oscilaciones de la radiación emitida entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del Cesio a una temperatura de 0 grados Kelvin.

Y no necesitamos aprendérnoslo. Basta saber que esos patrones se utilizan para producir todos los instrumentos y herramientas con los que medimos el cosmos, el microcosmos, y los tablones de la estantería.

Costosos desacuerdos

La sonda Mars Climate Orbiter lanzada por la NASA orbitó detrás de Marte el 23 de septiembre de 1999 y desapareció. La misión, con un coste de 125 millones de dólares, tenía un control de altitud que utilizaba las anticuadas medidas imperiales (millas, pies y pulgadas) mientras que su software de navegación empleaba unidades métricas. Cuando disparó sus cohetes para intentar ponerse en órbita, estaba 100 kilómetros demasiado cerca del planeta rojo, y cayó destruyéndose.

Nuestros inquilinos los ácaros

Vivieron en el hábitat y en la piel de los dinosaurios. Hoy viven en nuestras casas y en nuestros rostros.

Ácaro del polvo (Dermatophagoides pteronyssinus)
(Foto CC de Gilles San Martin de Namur, Bélgica,
vía Wikimedia Commons)
No es exactamente una historia de terror, pero muchas veces se ha presentado así. Empieza en el gran punto de contacto que tenemos con el mundo, el órgano más extenso: nuestra piel.

La capa exterior de nuestra piel está formada por células muertas. Aunque la idea puede ser inquietante, es una gran ventaja, ya que esa capa, el "estrato córneo", protege al resto de las capas de la piel, y a todo nuestro organismo, del peligro de las infecciones y la deshidratación. Pero el estrato córneo, precisamente por su composición de células muertas formadas principalmente por queratina (la proteína que también forma nuestro cabello y uñas), se renueva constantemente de abajo hacia arriba, y las células muertas más antiguas se descaman para ser sustituidas por otras, procedentes de los estratos inferiores de la epidermis.

Diariamente desechamos entre 10 y 20 gramos de células de piel muerta, que se depositan por todos los lugares donde habitamos, principalmente donde pasamos mucho tiempo, como las camas y asientos.

Un hecho destacado del ciclo de la vida en nuestro planeta es que toda la materia orgánica es reciclable. Toda. Donde quiera que haya algo de materia orgánica que pueda servir de alimento, surgirá, como resultado del proceso evolutivo, un ser vivo que se alimente de ella. Pueden ser seres vivos cazados por sus depredadores, o seres muertos que son utilizados como alimento por una enorme variedad de animales, hongos y plantas.

Y las células de nuestra piel son el alimento de unos pequeños, pequeñísimos artrópodos, llamados "ácaros del polvo", que se alimentan además de otros fragmentos de materia orgánica, como la grasa o sebo que todos los mamíferos secretan para mantener lubricada la piel, y en general todas las sustancias animales o vegetales que ya estén en proceso de descomposición por parte de hongos, ya que el aparato digestivo de los ácaros del polvo es tan simple y primitivo que necesita ayuda para el proceso digestivo.

Lo aparentemente terrorífico viene cuando nos enteramos de que estos ácaros del polvo viven en nuestros hogares, y por millones y millones. Nuestro colchón, nuestras almohadas, nuestros sillones, nuestras alfombras y nuestra ropa son hogar de estas legiones de minúsculos bichos que no podemos ver.

Las cosas no mejoran cuando nos enteramos de que los ácaros del polvo producen, incluso como parte de su digestión o al morir, una serie de proteínas que desencadenan ataques de alergias y asma en personas que tienen problemas respiratorios y obligan a que estas personas practiquen formas de higiene doméstica especiales destinadas a reducir la presencia de los alérgenos de los ácaros del polvo.

El ácaro del polvo mide unos 0,025 o 0,03 milímetros, mientras que el objeto más pequeño que puede ver el ojo humano es de aproximadamente 0,1 milímetro. De hecho, hay algunos seres unicelulares como amoeba proteus, los paramecios e incluso células independientes como el óvulo humano, que ciertas personas pueden ver sin ayuda de instrumentos. Adicionalmente, el cuerpo de los ácaros del polvo es traslúcido, lo que hace más difícil verlos.

Sin embargo, descubrir que tenemos estos millones de inquilinos que no pagan el alquiler no debería ser tan aterrador. Han estado con nosotros desde siempre, aunque no lo supiéramos. De hecho, han estado en este planeta desde mucho antes que nosotros.

Los ácaros del polvo son sólo unas pocas especies de la gran subclase de los acaris o acarinos, pertenecientes a la clase de los arachnida (a la que pertenecen las arañas y los escorpiones). Son una familia realmente numerosa y con integrantes de lo más diversos. Se han descrito alrededor de 50.000 especies de ácaros, y los científicos que los estudian calculan que podría haber en total 500.000 especies distintas de estos versátiles seres, que más allá de la inquietud que nos puedan causar resultan sumamente intrigantes.

Podemos encontrar ácaros viviendo en prácticamente todos los hábitats de nuestro planeta, en tierra, agua dulce y agua de mar, en las zonas polares más frías, en los húmedos trópicos y en los extremistas desiertos, en la superficie del suelo o viviendo hasta 10 metros de profundidad, en aguas termales con temperaturas de hasta 50 grados centígrados, y hasta a 5.000 metros de profundidad en las fosas marinas.

La única variedad de ácaros que tiene un tamaño que nos permite verlos son las garrapatas, que se alimentan de la sangre de los mamíferos, aves, reptiles y anfibios, y que son además transmisores, o vectores, de diversas enfermedades. Y hay otras especies que también son perjudiciales porque tienen una forma de vida parasitaria, como los tetraníquidos, que parasitan diversas plantas, entre ellas el algodón y los árboles frutales, con un importante impacto económico negativo.

Hay también ácaros parásitos de diversas especies animales, incluido el ser humano. La especie Demodex folliculorum vive en los poros de nuestro rostro, la mayor parte del tiempo sin causar daños. De hecho, al estimular la secreción de sebo, este ácaro retrasa la aparición de arrugas, por lo que no es del todo malo. Salvo cuando coloniza los folículos en los que nacen nuestras pestañas, causando irritación y un serio problema pues su erradicación es sumamente difícil. Otros provocan la sarna en el ser humano y en los perros.

Y estos acarinos han vivido en el planeta durante largo tiempo. Se han encontrado fósiles del suborden de los acarinos en estratos geológicos pertenecientes al período devónico, hace 400 millones de años, e incluso algunas garrapatas primitivas (y enormes) fueron parásitas de los dinosaurios.

Pero en un universo de decenas de miles de especies no todas pueden ser dañinas. De hecho, toda una familia de ácaros, los Phytoselidae, se utilizan en la agricultura como agentes de control biológico de otros ácaros que destruyen las cosechas y a los que depredan los Phytoselidae.

Pero la principal importancia en general de los acarinos es que son un engranaje fundamental que cumple un relevante papel en el gran mecanismo de reciclaje de la vida. Son así, pese a sus características poco agradables, esenciales para que la vida genere más vida.

El polvo doméstico y la piel

Se suele decir que la mayor parte del polvo doméstico está formado por células muertas de piel, quizá para hacer más aterradores a los ácaros. Sin embargo, la experta en calidad del aire Kathleen Hess-Kosa ha muestreado el aire de numerosas casas de los Estados Unidos y, además de demostrar que la composición del polvo es muy variable, ha determinado que las células muertas de piel no son el componente principal del polvo, ciertamente no el 70 y 90% del que suele hablar la leyenda urbana.

El láser, solución en busca de un problema

El láser es uno de los desarrollos más versátiles del siglo XX, con una cantidad de usos que crece día a día, pero que nadie pudo prever cuando se emitió el primer rayo.

El primer láser de rubí de 1960 y su inventor,
Theodore Maiman
(Foto D.P. de Daderot, vía Wikimedia Commons)
La luz que vemos habitualmente, la que emite el sol, la del fuego, la de nuestras bombillas y la que nos llega del universo es un caos que contiene ondas de distintas longitudes, amplitudes y fases, la luz “incoherente”.

Si en un estanque tranquilo arrojáramos una serie de guijarros de distinto tamaño y peso, desde distinta altura y con ciertas diferencias de tiempo. Las ondas que se producirían serían caóticas: las características cada guijarro producirían una onda de distinta frecuencia y amplitud que las de los otros guijarros, y donde sus crestas (la parte más alta de la onda) y valles (la parte más baja) tampoco coincidirían.

Así es la luz del sol que vemos como blanca y que contiene todos los colores del espectro visible. Si hacemos pasar la luz blanca por un prisma, como hizo Newton en su clásico experimento, la longitud de onda de cada color se difracta en un ángulo distinto al salir del prisma permitiéndonos ver la composición que tiene el rayo de luz original.

Por contraposición, la luz coherente sería aquélla en la que todos sus componentes van ordenados, con la misma longitud y amplitud de onda, y con crestas y valles coincidentes (en fase).

Para verla, hubo que esperar el genio de Albert Einstein.

En 1917, Einstein propuso una forma de estimular la emisión de la radiación electromagnética. Cuando se aplica energía a cualquier colección de átomos, éstos emiten fotones al azar. Es lo que pasa cuando aplicamos electricidad al gas de una bombilla fluorescente o de neón, al filamiento de una bombilla tradicional o al diodo de una bombilla LED).

Einstein propuso que se podía estimular a los átomos para que emitieran luz coherente. Según su teoría, si se dispara al átomo un fotón de cierta longitud de onda, provocará que el átomo emita un fotón en la misma dirección, con la misma frecuencia y en fase con el primero. Este efecto se multiplica al viajar los fotones coherentes por los átomos cercanos, provocando que se emitan más fotones coherentes que se pueden emitir como un haz de radiación electromagnética.

Si la luz incoherente es como una multitud caminando cada quién a su ritmo y paso, en la luz coherente todos los miembros de la multitud caminarían al mismo ritmo y con pasos iguales, como en un desfile.

Pasaron 37 años antes de que lo que Einstein había propuesto teóricamente se llevara a la práctica. En 1954, Charles Townes y Arthur Schawlow crearon en la Universidad de Columbia un aparato que estimulaba la emisión de microondas, con objeto de tener una fuente de microondas coherentes que se utilizaban en el estudio de la estructura de moléculas, átomos y núcleos atómicos. Llamaron a su procedimiento “amplificación de microondas mediante la emisión estimulada de radiación”, o MASER según sus siglas en inglés.

Estros mismos científicos plantearon hacer lo mismo con luz visible y publicaron artículos científicos al respecto, pero nunca lo hicieron en la práctica. El desafío no tuvo que esperar mucho para hacerse realidad y para desatar la polémica.

En 1958, Gordon Gould, también en la Universidad de Columbia, construyó el primer aparato capaz de emitir luz mediante la emisión estimulada de radiación. Siguiendo la pauta del “MASER”, cambió la primera letra, referente a las microondas, y la sustituyó por la L de luz (light), para crear la palabra “LASER”. El problema es que no presentó la solicitud de patente hasta 1959, se le denegó y tuvo que luchar hasta 1977 para que se le reconociera su calidad de pionero.

Mientras tanto, Theodore Maiman consiguió reconocimiento con la invención del láser de rubí, que nos presentó al “rayo láser” con un característico color rojo, simplemente porque el material empleado emitía los fotones de su haz de luz coherente en la longitud de onda del rojo, aunque el rayo puede ser de cualquier color dependiendo de los materiales y procedimientos usados para generarlo.

El láser era impresionante, se parecía al “rayo de la muerte” que dibujaban los ilustradores de las revistas “pulp” de ciencia ficción, tenía propiedades físicas asombrosas… pero no parecía tener aplicaciones prácticas. De hecho se le llamó “una solución en busca de un problema”.

Pero mientras multitud de científicos desarrollaban otros tipos de láser que necesitaban menos energía, más eficientes y de diversas longitudes de onda, las aplicaciones prácticas empezaron a desarrollarse. En 1969, la misión a la Luna del Apolo 11 dejó sobre la superficie de nuestro satélite, entre otros instrumentos, un reflector láser. Lanzando un rayo láser desde un observatorio y midiendo el tiempo que tarda en volver, se puede medir la distancia que nos separa con una tolerancia de 3 centímetros.

Esto ilustra una de las principales características de la luz coherente: al no dispersarse en ángulo como la luz de una linterna doméstica, sino mantenerse como un rayo recto, es posible proyectar un láser a gran distancia, como lo ilustran por desgracia los punteros láser, creados para auxiliar en presentaciones y en el aula, pero utilizados para molestar a deportistas y otras personas a distancia.

Hoy la lista de aplicaciones de las numerosas formas del láser es no sólo extensa, sino que crece día con día. Se usa por igual para leer códigos de barras en el supermercado o los CD y DVD de nuestros ordenadores y equipos de vídeo que para alinear puentes, como cinta de medir o como nivel para los profesionales de la construcción y hasta para los aficionados al bricolaje, para estudiar la atmósfera, como auxiliares en telescopios de última generación; para cortar, soldar doblar, grabar, marcar o limpiar metales; en diversas aplicaciones quirúrgicas y estéticas, desde la cirugía ocular hasta la eliminación de tatuajes y cicatrices y en la cirugía general, creando toda la especialidad de la medicina láser; como mira para distintas armas, en las impresoras de nuestros documentos y, por supuesto, en espectáculos como los que acompañan los macroconciertos de rock. Es importante señalar que la luz que viaja por la fibra óptica que ha revolucionado las telecomunicaciones y nos permite tener Internet de alta velocidad es luz láser.

Al final, el láser, la luz coherente que imaginó Einstein, ha resultado ser una solución para una multitud de problemas en las áreas más diversas de la experiencia humana.

Estrellas láser

Los cuásares o fuentes cuasi estelares de ondas de radio descubiertos en 1950 se han revelado como objetos que emiten naturalmente rayos láser. El telescopio Hubble ha descubierto además una estrella inestable en nuestra propia galaxia, Eta Carinae, millones de veces mayor que nuestro sol y que emite luz láser ultravioleta.

Claude Bernard y los comienzos de la medicina científica

El arte lo llevó a la medicina y su aproximación a la fisiología ayudó a dar a luz a la medicina con bases científicas en el siglo XIX.

Claude Bernard
(Foto D.P. vía Wikimedia Commons)
“El arte es ‘yo’, la ciencia es ‘nosotros’” comentaba Claude Bernard, que vivió entre ambas pasiones.

En el siglo XIX, la anatomía había avanzado mucho. Se tenía una razonable descripción de los componentes principales del cuerpo humano, pero nadie sabía con precisión que cómo funcionaba cada uno, ni cómo actuaban en conjunto para hacer funcionar el cuerpo humano.

Claude Bernard, el hombre que enfrentó ese problema desde la ciencia, nació el 12 de julio de 1813 en el pueblo de St. Julien, cerca de la ciudad de Lyon, en una familia dedicada a la agricultura.

El joven Bernard demostró pronto que no era un buen estudiante. Ni lo sería nunca. A los 18 años se interesó por el movimiento romántico, por la literatura, tomando como maestro a Víctor Hugo, por la teoría de la luz y el color, y, de modo intenso, por la filosofía cartesiana y la idea de Descartes de que era necesaria la duda metódica para alcanzar la verdad.

A los 18 años entró como aprendiz en una farmacia en Lyon. Pero su convicción filosófica se vio sacudida al ver que muchísimos preparados farmacéuticos se ofrecían a los pacientes sin haber nunca demostrado su eficacia experimentalmente, como sigue ocurriendo hoy con numerosas terapias y pseudomedicinas alternativas.

Algunos remedios eran fórmulas de miles de años de antigüedad, como el mitridato, supuesta panacea (medicamento para curarlo todo) que se hacía con más de cincuenta sustancias, entre ellas víbora, opio y secreciones de castor, más una pócima mágica que un medicamento. Y no había pruebas de que funcionara, algo que le parecía a Bernard especialmente chocante en un tema tan delicado como la salud.

Optó por dedicarse a componer una obra teatral que llevaba tiempo soñando, estrenada con el nombre “Rosa del Ródano” con un breve éxito. Animado, dejó su puesto, volvió a casa a trabajar como agricultor pequeñoburgués y a escribir su nueva obra teatral basada en el personaje histórico de Arturo de Bretaña, quien había apoyado a Juana de Arco.

La obra, sin embargo, fue criticada por un reconocido actor romántico y por el ilustre crítico de la Sorbona Saint-Marc Girardin, que se oponía al movimiento romántico. El crítico sugirió que ya que Bernard había hecho algo de farmacia, estudiara medicina y quizá podría escribir sobre ciencia.

A la tardía edad de 23 años, Bernard terminó su bachillerato y empezó a estudiar medicina, aunque de nuevo sintió que lo que le enseñaban era anticientífico, basado en especulaciones y no en experimentos. Pronto empezó a asistir a conferencias en el Colegio de Francia, donde se estaba llevando a cabo una revolución en la medicina, cuyas bases eran precisamente la observación y la experimentación. En 1841 consiguió un puesto como asistente de investigación del reconocido François Magendie, con quien trabajaría en neurofisiología, cateterización cardiaca y la fisiología de la digestión. Al mismo tiempo, Bernard instaló un modesto laboratorio privado para realizar sus propias investigaciones, a veces sin la anuencia de su jefe.

En 1843, Claude Bernard se graduó como médico con una tesis que marcó un cambio en la profesión, titulada “Sobre el jugo gástrico y su papel en la nutrición”, con sus descubrimientos sobre las transformaciones de los carbohidratos en los organismos animales. Pero no se planteó nunca practicar la medicina y fue nombrado suplente de Magendie para los cursos de verano.

La primera cátedra que dictó Claude Bernard a sus alumnos comenzó diciendo “La medicina científica que es mi deber enseñaros no existe…” La búsqueda de la verdad que le inspiraba la visión cartesiana aún no era el principio rector de la medicina. Su compatriota, Louis Pasteur, aún no emprendía el camino para demostrar el verdadero origen de las enfermedades.

Para entonces, ya había realizado algunos avances importantes: había conseguido determinar que el curare, legendario veneno del Amazonas, actuaba atacando a los necios motores, paralizando la respiración y causando la muerte por asfixia; descubrió que el páncreas tenía una importante función digestiva,

Bernard consiguió un puesto como profesor e investigador. Sin embargo, sus trabajos sobre la función de los órganos exigía numerosos experimentos en animales en vivo, la llamada “vivisección”, y se encontró con un creciente rechazo popular a esta práctica, incluso de su esposa, que pasó al activismo público contra su marido.

Bernard también descubrió que el hígado sintetiza la glucosa, cuando la creencia hasta ese momento era que sólo las plantas sintetizaban nutrientes, y demolió la creencia de que cada órgano del cuerpo tenía una sola función. De hecho, el hígado es uno de los órganos con más funciones diversas que tenemos.

Cuatro veces premiado por la Academia de Ciencias, pero también cansado de la resistencia que sus más tradicionales colegas ponían a sus trabajos, que estaban reinventando toda la medicina y enfermo, en 1860 se retiró a su heredad en Saint Julien, donde se dedicó al desarrollo de su visión filosófica del determinismo científico. Seguiría trabajando ocasionalmente, por ejemplo, ayudando a su amigo Louis Pasteur a demostrar la falsedad de la antigua concepción aristotélica de la generación espontánea.

En los años tardíos de su vida, Bernard se dedicó a desarrollar su filosofía de la medicina experimental y el método científico, ocasionalmente volviendo a la experimentación y disfrutando el reconocimiento de su sociedad, que lo llevaría a la Academia Francesa y al Senado del imperio de Luis Napoleón. Su último puesto público sería como Presidente de la Asdociación Francesa para el Avance de la Ciencia, mientras seguía trabajando sobre aspectos fisiológicos como los venenos, su eterno interés.
Claude Bernard murió el 10 de febrero de 1878, considerado uno de los principales científicos franceses de la época. Sin embargo, su última voluntad fue la publicación de su obra histórica “Arturo de Bretaña”. El ‘yo’ del arte convivió siempre con el ‘nosotros’ de la ciencia en el padre de la fisiología moderna.

Fragmentos de la verdad universal

“El deseo ardiente del conocimiento es, de hecho, el motivo que atrae y sostiene a los investigadores en sus efuerzos; y sólo este conocimiento, realmente aprehebdido y sin embargo siempre volando ante ellos, se convierte a la vez en su único tormento y su única alegría… Un hombre de ciencia se eleva siempre, en la búsqueda de la verdad; y si nunca la encuentra en su totalidad, descubre sin embargo fragmentos muy significativos, y estos fragmentos de la verdad universal son precisamente lo que constituye la ciencia.” Claude Bernard en Introducción al estudio de la medicina experimental.

Cada vez más complejo

“Mi suposición personal es que el universo no es sólo más extraño de lo que suponemos, sino que es más extraño de lo que podemos suponer.”

Gran parte de la extrañeza del universo que destaca en esta frase del biólogo evolutivo y genetista J.B.S. Haldane se debe a su complejidad.

Parecería que cada vez que posamos la vista sobre el universo es cada vez más complejo.

La sencilla idea de los cuatro elementos
de la Grecia Clásica...


La complejidad real de la tabla periódica
y sus 118 elementos... 2.500 años después
La historia de la ciencia ha sido la historia de cómo los seres humanos vamos asumiendo la complejidad, la a veces incómoda y poco amable, del universo en el que vivimos.

Después de todo, nuestros sentidos evolucionaron para permitirle a un primate sobrevivir en un entorno o ecosistema determinado. Y lo mismo pasa con nuestro aparato cognitivo, es decir, los procesos cerebrales que interpretan la información de nuestros sentidos y sacan conclusiones para mover a la acción (o a la inacción).

Por eso mismo, nuestros sentidos y nuestro aparato cognitivo son terriblemente limitados. Y el primer paso para concer el universo ha sido reconocer esas limitaciones.

No se trata sólo de que nuestra vista, pese a estar muy desarrollada cuando la mayoría de los mamíferos ve sólo dos colores, esté limitada a sólo una pequeña sección del vasto espectro electromagnético, sino que nuestro cerebro puede interpretar mal lo que vemos.

Llamamos a estos errores “ilusiones ópticas” aunque, como dice el astrofísico y divulgador Neil DeGrasse Tyson, deberíamos llamarlos “errores del cerebro”, porque no son nuestros ojos los que nos hacen ver lo que no hay o cambiar su sentido en las ilusiones ópticas, es nuestro cerebro el que se hace un lío y trata de encontrar sentido a una imagen que, en general, no se puede encontrar en la naturaleza.

Además de las ilusiones ópticas, está el hecho de que con una gran frecuencia saltamos a conclusiones incorrectas debido a ciertas características de nuestro cerebro llamadas “sesgos cognitivos” y que en gran medida parecen “razonables” o “de sentido común”. Cuando comenzó la indagación del universo, lo que “sonaba razonable” se tomaba por verdad y a quien disentía se le miraba como a un ser antisocial.

Los griegos, a partir de Empédocles, creían que el universo estaba formado por cuatro elementos: aire, fuego, tierra y agua, y durante dos mil años el esfuerzo intelectual se dedicó a determinar cómo se unían esos cuatro elementos para formar todo cuanto existe en el universo. Hubo de llegar la revolución científica para mostrar que el universo estaba formado por otros elementos como el hidrógeno, el hierro, el cromo, el lantano y así hasta 90 elementos naturales, además de otros que el ser humano podía producir por medios tecnológicos, para un total, a la fecha, de 118 elementos.

Leucipo y Demócrito habían propuesto que al dividir a la materia debería llegar un momento en que se obtuviera una partícula esencial e indivisible a la que llamaron “átomo”, que significa “lo que no se puede dividir”. Y ya en tiempos de la revolución científica se supuso que la unidad mínima de un elemento era precisamente un átomo, pues no podía dividirse más.

Pero los elementos estaban formados por otros componentes que aumentaban su complejidad: el neutrón, el protón y el electrón, de modo que sí se podía dividir el mal llamado átomo. El concepto tuvo que redefinirse como la mínima unidad de existencia de un elemento.

Los elementos lo son por su número atómico, es decir, cuántos protones tiene su núcleo: el de hidrógeno uno, , el del aluminio 13 y el de mercurio 80. Sin embargo pueden tener un número variable de neutrones, formando los llamados isótopos, algunos naturales, otros artificiales, algunos estables y otros radiactivos.

Por si eso fuera poco, se hallaron otras partículas elementales como los quarks, de los que hay 6 variedades y que forman los protones y neutrones, más otras 6 partículas llamadas leptones, como el electrón y el neutrino, y cuatro más llamadas bosones. Incluso creemos que hay un quinto bosón y para detectarlo se ha construido el mayor aparato de la historia: el acelerador de partículas LHC.

Y así como se creía en los cuatro elementos se creía que el cuerpo humano tenía cuatro fluídos o “humores”: sangre, flema, bilis amarilla y bilis negra, y que la enfermedad era producto de un desequilibrio en las cantidades de los humores, por lo que curar era promover la producción de algunos humores mediante medicinas o alimentos y la reducción de otros lo cual se hacía mediante sangrías.

Tuvieron que llegar Louis Pasteur y Robert Koch para demostrar que muchas enfermedades eran provocadas por seres invisibles al ojo desnudo, los “gérmenes patógenos”, también responsables de la fermentación y otros procesos. Pero esta explicación aún era demasiado simplista. Distintos microorganismos atacan distintos sistemas y órganos del ser humano, algunos, como las bacterias, pueden ser combatidos con antibióticos (como las sulfas y la penicilina, los primeros de la historia), mientras que otros, como los virus, presentan desafíos mucho más difíciles.

La complejidad del cuerpo humano y sus desarreglos sin embargo era mucho mayor. El conocimiento de la anatomía, la fisiología y la genética humana fueron desvelando la complejidad de las causas de los muchos y distintos trastornos que puede padecer nuestra salud. De diagnósticos simples la medicina ha ido evolucionando a diagnósticos mucho más complejos, donde los mismos síntomas pueden ser indicios de enfermedades muy distintas, genéticas, infecciosas, fisiológicas, producidas por distintos venenos o tóxicos, parásitos, etc., algo que fue aprovechado durante ocho años en la exitosa serie de televisión “House”, dedicada al llamado “diagnóstico diferencial”, que utiliza todos los datos disponibles sobre los pacientes y todo tipo de estudios e imágenes obtenidas por escáneres para determinar la enfermedad precisa que padece un paciente.

La complejidad que hoy deben manejar los científicos habría sorprendido a los antiguos griegos, sin duda.

Porque hoy, a diferencia de ellos, sabemos que el cuerpo humano, la mente, la personalidad, las sociedades y el universo todo son mucho más complejos de lo que sabemos. Esto nos puede preparar intelectualmente para enfrentar las sorpresas de la indagación científica pero, afortunadamente, no puede anular nuestra capacidad de asombro, desafiada día a día por los avances del conocimiento.

Es más complicado

Ben Goldacre, columnista del diario británico “The Guardian” y crítico feroz de las pseudomedicinas se ha dado a conocer por una frase con la que suele comenzar sus explicaciones sobre los errores conceptuales que suelen rodear a la creencia en medicinas mágicas como la acupuntura, la homeopatía y otras que simplifican terriblemente los procesos de la enfermedad: “Creo que descubrirá que es un poco más complicado…”