Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Biografía de un joven cuerpo estelar

A los 4.540 millones de años de edad, la Tierra tiene una nutrida biografía pese a ser todavía una chavala cósmica.

La primera visión que tuvimos de nuestro planeta
desde otro mundo. La Tierra sale en el horizonte lunar.
(Foto D.P. del astronauta del Apolo 8 Bill Anders
vía Wikimedia Commons)
No conocemos la edad exacta de la Tierra porque en realidad las circunstancias que dieron origen a su nacimiento están aún envueltas en interrogantes que, aunque se van desvelando poco a poco, siguen siendo numerosas.

Si nos atenemos a lo que se cree con base en los datos conocidos hasta ahora, el planeta se gestó en una enorme nebulosa de polvo cósmico que se condensó por atracción gravitacional. El polvo provenía de otras estrellas, supernovas que habían estallado desde el principio del universo, hace más o menos 13.700 MA (millones de años).

Quizá debido a la influencia de una supernova que estalló en las inmediaciones (en términos cósmicos), esta nebulosa formó primero una agrupación de materia en su centro, principalmente hidrógeno, que cuando llegó a ser suficiente en cantidad y densidad se encendió en una reacción de fusión nuclear creando nuestro sol. A su alrededor, la gravedad fue concentrando la materia de la nebulosa en distintos puntos, formando los planetas.

Inmediatamente después de su nacimiento, la Tierra no se parecía sin embargo en nada a lo que conocemos hoy. Era una aterradora bola giratoria de roca fundida, una colosal gota de magma hirviente flotando en el espacio.

Durante los primeros 100 MA de su existencia, un suspiro en términos cósmicos, la Tierra se ocupó en enfriarse y utilizó sus gases para crearse una atmósfera que pronto fue arrancada de la gravedad terrestre por el viento solar, y soportó el bombardeo de millones de meteoritos, cometas y otros objetos.

Por esas mismas fechas, hace 4.450 MA, un planetoide chocó con la aún caliente Tierra, que giraba tan rápido que el día duraba unas 7 horas y orbitaba alrededor de un sol que era mucho menos brillante que hoy. El resultado fue la formación de un satélite natural del nuevo planeta: la Luna.

Pasaron 550 MA y el planeta adquirió una nueva atmósfera de dióxido de carbono, vapor de agua, metano y amoníaco mientras su giro se ralentizaba hasta tener un día de 14,4 horas. El vapor de agua formó nubes y apareció la lluvia en forma de colosales tormentas que inundaron su superficie formando los mares.

Hace 3.800 MA terminaba la primera infancia del planeta, a la que los geólogos conocen como Eón (que quiere decir era muy larga) Hadeano, o de Hades y comenzaba el Arqueano, con la aparición de una corteza sólida en la superficie del planeta. Sólo 300 MA después quedó establecido el campo magnético de la Tierra, producido por la rotación de su núcleo formado principalmente por hierro fundido. Este campo la defiende desde entonces del viento solar, y apareció un fenómeno totalmente revolucionario: la vida.

Las primeras bacterias verdeazules o cianobacterias, los más antiguos fósiles que podemos estudiar, empezaron a producir oxígeno libre por primera vez y proliferaron hasta el final de este eón, que dio paso al llamado Proterozoico y que duró dos mil millones de años. Aparecieron los primeros continentes y la vida siguió desarrollándose y evolucionando hacia formas más complejas, pese a eventos catastróficos como la primera edad de hielo, llamada Huroniana.

Hace 2.200 MA aparecen los primeros seres vivos capaces de respirar (aeróbicos) dotados de mitocondrias, organelos que actúan como fuentes de energía de las células, entre otras tareas, y unos 400 MA después aparecen las primeras formas celulares complejas. Hace 1.600 MA aparecen las células con núcleos y unos 400 MA después surge la reproducción sexual como revolucionaria forma de adaptación mediante el intercambio de material genético.

La masa terrestre estaba reunida en un supercontinente llamado Rodinia cuando se produjo la siguiente gran revolución de la vida hace 1.000 MA: surgieron los seres pluricelulares. 250 MA después, Rodinia se separó y hace 600 MA los fragmentos formaron otro enorme supercontinente, llamado Pannotia. Y hay indicios que permiten suponer que al menos en una ocasión, la Tierra se congeló completamente, la llamada "hipótesis de la bola de nieve", hace 650 MA.

La tierra por encima de los océanos vivió una historia de separaciones y encuentros, como un puzzle que se deshiciera y volviera a formar de distintas maneras. Pannotia duró apenas unos 60 MA, antes de volver a dividirse en cuatro fragmentos, el mayor de los cuales es el conocido como Gondwana. Los fragmentos volverían a unirse en otro supercontinente, Pangea, hace 300 MA. La separación de ese supercontinente empezó hace 175 MA y dio origen a los continentes que conocemos hoy. Y esto porque la corteza de nuestra biografiada no está formada por una capa uniforme, sino por diversas placas que flotan sobre el núcleo fundido que sigue teniendo.

Pero ya para entonces, hace 542 MA, había comenzado el eón Fanerozoico, en el que aún vivimos y que se divide en tres eras claramente diferenciadas. En la Paleozoica aparecieron las primeras plantas que podríamos considerar modernas, y la vida había evolucionado hasta la aparición de reptiles muy complejos.

Estos reptiles darían lugar a los dinosaurios que reinaron en la era Mesozoica mientras, literalmente, los continentes se movían bajo sus patas hasta ocupar el lugar que tienen hoy (y siguen moviéndose). Finalmente, la era Cenozoica, en la que vivimos nosotros, ha cubierto los últimos 65,5 MA, en la que se extinguieron los dinosaurios no avianos y aparecieron los mamíferos como la forma dominante de vida en el planeta.

Nosotros... somos unos recién llegados... y sin embargo somos los únicos seres vivos hasta donde sabemos que intentan desentrañar los misterios de este nuestro planeta, que hoy es, en palabras de Carl Sagan, "un punto azul pálido", aunque de momento mucho de lo que creemos sea simplemente hipotético, como la historia temprana de los continentesa. Vivimos en un planeta del que, realmente sabemos poco todavía.

El nuestro es un planeta joven comparado con otros como los que orbitan a la estrella HIP 11952 desde hace 12.800 millones de años, nacidos en los albores del universo. Y, más allá de las metáforas que lo comparan con un ser vivo o una nave espacial con la cual recorremos el universo, es simplemente nuestro hogar.

Que no es poco.

El final

El mundo se va a acabar, sin duda. Pero no como lo predican los muchos y variados profetas empeñados en equivocarse varias veces al año, sino según las leyes del universo. El giro de la Tierra seguirá ralentizándose y el brillo de nuestro sol seguirá aumentando, con lo que la vida en el planeta desaparecerá en un plazo de entre 500 y mil MA. Pero el planeta sobrevivirá otros 7 u 8 mil MA, hasta que el sol, convertido en un gigante rojo en expansión, lo empuje hacia el exterior del sistema solar y, finalmente, lo engulla. Un futuro del que no tenemos que preocuparnos por ahora.

El hombre detrás del bosón

Peter Higgs, el físico que quizás nos ha obsequiado con la explicación de por qué el universo se mantiene unido.

Peter W. Higgs
(Foto CC-BY-SA-2.0-de de Andrew A. Ranicki
vía Wikimedia Commons)
Un jubilado de 81 años, de escaso cabello blanco y gafas, solía caminar las calles de Edimburgo sin llamar apenas la atención, ir a conciertos de madrigales y hacer algo de senderismo. Si uno hubiera preguntado, quizá alguien sabía que este ciudadano, que vive en un sencillo piso de la capital escocesa, había sido profesor universitario, y poco más. Algunos acaso sabrían que era un profesional altamente reconocido por sus colegas, pero sería irrelevante. Los mejores contables reciben reconocimiento de otros contables, pero los desconocidos no les invitan a una cerveza.

El 4 de julio, en una reunión en Ginebra, Suiza, todo cambió. Peter Ware Higgs, se convirtió en el centro de la atención mundial y su fama trascendió hacia toda la sociedad desde el abstruso entorno de su trabajo: la física teórica. Como lo relataba Higgs a New Scientist, de pronto su buzón rebosaba peticiones para prestar su imagen a un juego de mesa "Higgs", invitaciones a inaugurar edificios e, incluso, la petición de una pequeña cervecería de Barcelona sobre su cerveza favorita para fabricar una similar con su nombre. Del lado más serio, su universidad, la de Edimburgo, se apresuró a fundar dos días después el Centro Higgs para la Física Teórica y la Cátedra Peter Higgs.

¿Qué hizo el profesor Higgs para que se hablara de él de pronto como fuerte candidato al Premio Nobel, y salir más veces en los medios que en toda su vida anterior? En 1964, estudiando la explicación que la ciencia da al comportamiento del universo, propuso la existencia de una partícula que se encarga de darle masa a las demás.

Algunas partículas elementales del universo tienen masa, como el electrón, y otras no lo tienen, como los fotones que forman la luz. ¿Por qué? Peter Higgs postuló que el responsable era un campo nuevo que producía otra partícula elemental, el "bosón de Higgs".

La idea era excelente, matemáticamente sólida y se ajustaba a la perfección a la visión que tienen los físicos de la interacción entre las partículas elementales, conocida como "modelo estándar". Era la pieza que faltaba en el rompecabezas del universo. Pero mientras no se demostrara su existencia era sólo una hipótesis. El 4 de julio en Ginebra, los científicos a cargo del gigantesco acelerador de partículas LHC del CERN anunciaron que habían descubierto una partícula que coincidía con el bosón de Higgs, y que las probabilidades de que realmente lo fuera eran elevadísimas: 99,9994%

Peter Higgs nació en Newcastle upon Tyne, en el Reino Unido, el 29 de mayo de 1929 y creció en las ciudades de Birmingham y Bristol. En su niñez y adolescencia, su educación no fue fácil. Los bombardeos alemanes de la Segunda Guerra Mundial afectaron a Bristol (el joven Higgs se rompió un brazo al caer en un cráter) y una serie de ataques de asma que se convirtieron en neumonía lo obligaron a hacer parte de sus estudios en casa, animado por su madre, hasta entrar al famoso King's College de Londres en 1947.

La inspiración de Higgs era otro físico teórico que había estudiado en la escuela primaria de Cotham, en Bristol, con más honores que ningún otro alumno: Paul Dirac, Premio Nobel de Física, uno de los padres de la mecánica cuántica y cuya más famosa ecuación predijo la existencia de la antimateria. Higgs recuerda que lo entusiasmaba la idea de entender el universo, y así emprendió una carrera académica estelar en la física teórica, doctorándose con honores (como siempre en sus estudios) a los 25 años de edad.

Todavía como estudiante, en 1949, asistió al festival cultural Fringe de Edimburgo como apasionado de la música clásica y, especialmente, de la música de Monteverdi. La ciudad lo conquistó, de modo que después de su graduación pasó a realizar tareas de investigación y docencia en la Universidad de Edimburgo, ciudad donde aún hoy vive.

Después de volver temporalmente a Londres a tareas universitarias, se instaló definitivamente en su ciudad de ensueño en 1960, como profesor de física matemática e investigador, algo que en física teórica significa básicamente pensar sobre el universo, estudiar las ecuaciones que explican ciertos fenómenos y expresar nuevas ideas en ecuaciones originales o mediante la programación de modelos sobre dichos fenómenos.

Fue en 1964 cuando Higgs propuso una solución a la pregunta de por qué los objetos tienen masa. Una solución que sus colegas llamaron "elegante": la masa se debe a la existencia de un campo que rodea a las partículas. Algunas partículas se unen al campo más que otras y por tanto tienen más masa. Y este campo transmite la masa a través de esa escurridiza partícula que es el bosón de Higgs, y que fue postulado al mismo tiempo, de modo independiente, por los belgas Robert Brout y François Englebert, que publicaron sus resultados algunas semanas después que Higgs y se consideran codescubridores.

Su idea no fue recibida inmediatamente como una revolución y Higgs continuó con su vida académica y sus pasiones musicales y como senderista, con la que después se convertiría en su esposa, la lingüista estadounidense Jody Williamson.

Mientras era ascendido a una cátedra personal en física teórica en 1980, otros físicos empezaron a diseñar el experimento necesario para detectar una partícula de diminuta incluso a nivel subatómico y que existía apenas una milmillonésima de una milmillonésima de segundo antes de destruirse: un acelerador de partículas enorme con detectores con una precisión nunca antes lograda.

El resultado fue el LHC, que desde la década de 1980 pasó por los mecanismos de aprobación y su lenta construcción, aún no iniciada cuando Higgs se jubiló en la universidad en 1996. El acelerador empezó a funcionar en 2009 y consiguió las observaciones que prácticamente confirman el bosón de Higgs (o, quizá, los bosones de Higgs) en 2011.

Ahora, mientras Higgs espera un premio Nobel que quizá no le sea concedido dadas las reglas y tendencias del comité encargado de concederlo, disfruta de la fama. Aunque modestamente. Como relató él mismo, su única celebración por el descubrimiento anunciado el 4 de julio fue una botella de cerveza en el vuelo de vuelta de Ginebra a Londres.

Nada que ver con un dios

Peter Higgs no habla del "bosón de Higgs", sino del "bosón escalar", y explica pacientemente que el nombre "la partícula Dios" es simplemente una broma de Leon Lederman, de su libro de 1993 del mismo título y que él rechaza el nombre. Lederman quería señalar que el bosón de Higgs era la partícula que podía explicar por qué el universo se mantiene unido, pero de modo ligero y sin ninguna connotación teológica, como no hay idea teológica al decir, como ocurre con frecuencia, que Leonel Messi o Bruce Springsteen "son dios".

Metales, mitos y estrellas

El avance del conocimiento y las sociedades humanas está estrechamente relacionado con el dominio de los metales, los hijos de las estrellas.

Todo el oro, como el usado para este anillo de Ramsés
II, se ha creado en explosiones de supernovas como la
SN 1994D.
(anillo: foto CC de Guillaume Blanchard; supernova:
foto CC de NASA/ESA por el telescopio Hubble)
Dice el "Breve diccionario etimológico de la lengua castellana" de Joan Corominas que la palabra "metal" entró en nuestro idioma hacia el año 1250, proveniente del latín "metallum", que probablemente significaba "mina". El Oxford English Dictionary añade que la palabra latina proviene del griego "metallon", que significaba por igual "mina", "cantera" o, sí, "metal".

Los griegos y romanos que les dieron nombre conocían únicamente siete metales: oro, cobre, plata, plomo, estaño, hierro y mercurio, mientras que los indostanos conocían además el zinc y los chinos el cromo, como se descubrió al ver que algunas armas del ejército de terracota de Xian lo usaban como recubrimiento. Pero no fue sino hasta el siglo XVIII cuando se desencadenó el hallazgo de los diversos metales que conocemos hoy.

Los metales son elementos químicos (o sus compuestos o aleaciones) que son buenos conductores del calor y de la electricidad, generalmente con un brillo característico, maleables y dúctiles, y que pierden fácilmente electrones para fomar iones positivos. Forman la mayor parte de los 90 elementos de la tabla periódica que se pueden encontrar en la naturaleza, 66 de ellos, divididos en 6 categorías.

Formación de los metales

El hombre encontró los primeros metales en su forma pura, como hoy aún podemos encontrar pepitas o vetas de oro, pero otros metales sólo se encuentran en forma de compuestos que deben ser beneficiados o procesados para extraerlos. Por supuesto, el origen mismo de esos asombrosos materiales fue asunto de la mitología.

Para algunos pueblos, los metales eran producto del sacrificio o autoinmolación de algún dios o semidiós, partes sagradas derramadas en beneficio de la humanidad. Para los antiguos chinos, la copulación del "chi" (energía vital mágica) de la tierra con el Cielo Polvoriento producía el nacimiento de un metal que, al paso de los milenios, iba generando los demás. Para Aristóteles, los metales y todos los minerales nacían de exhalaciones de la tierra relacionadas con los cuatro elementos. Las proporciones de los cuatro elementos daban como resultado los distintos minerales y metales conocidos.

La idea de que los metales estaban en continua formación, ya fuera por relaciones sexuales, exhalaciones o el crecimiento orgánico incluía el concepto de que si se dejaban reposar las explotaciones mineras agotadas, éstas se reabastecerían y se volverían, decía Plinio, "más productivas" debido al "aire que se infunde por los orificios abiertos".

En el siglo XVI, Jerónimo Cardano, matemático y médico del renacimiento y uno de los fundadores de la teoría de la probabilidad, se hacía eco de esta creencia: "los materiales metálicos son a las montañas lo mismo que los árboles, y tienen sus raíces, troncos, ramas y hojas... ¿Qué es una mina si no es una planta cubierta de tierra?"

La idea del origen orgánico de los metales, su sexualidad y su composición elemental, y la creencia en que todos los metales eran la "semilla" del oro fueron bases de la alquimia, que buscaba en el "matrimonio de los metales" la consecución del sueño de la piedra filosofal, y soportó todavía varios siglos después del renacimiento.

Poco a poco, el avance del conocimiento científico sugirió que los metales, como todos los demás elementos, habían nacido con el universo. Pero, ¿al mismo tiempo o de modo progresivo?

Quien dio la clave del origen de los elementos pesados fue el físico inglés Sir Arthur Eddington, que en 1920 sugirió que las estrellas obtenían su energía fusionando núcleos de hidrógeno para producir helio, es decir, que eran grandes hornos de fusión nuclear. No fue sino hasta 1938 cuando el físico alemán Hans Bethe describió los mecanismos de la fusion de hidrógeno en helio.

Pero no explicaba los elementos más pesados que el helio, que abordó el físico Fred Hoyle después de la segunda guerra mundial, señalando cómo la abundancia de los elementos en una galaxia aumentaba conforme ésta envejecía. Es decir, que las estrellas iban produciendo, mediante fusión nuclear, elementos progresivamente más pesados que el hidrógeno (con un protón en el núcleo) y el helio (con dos protones). Por eso, precisamente, elementos ligeros (desde el punto de vista atómico) como el carbono, el oxígeno o el hierro son muy abundantes y otros más pesados como el oro, el mercurio y el uranio, son muy escasos.

Las enormes fuerzas del interior de las estrellas fusionan los elementos en su interior creando núcleos más pesados, lo que se conoce como "nucleosíntesis estelar". Dos átomos de hidrógeno producen uno de helio. Tres de helio se fusionan creando uno de carbono (que tiene 6 protones). Uno de carbono y uno de helio se conjuntan en un átomo de oxígeno, y así sucesivamente hasta llegar al hierro, el elemento más pesado que puede producirse dentro de una estrella y que en su núcleo tiene 26 protones.

El hierro es el elemento que tiene la energía de unión más fuerte e incluso las fuerzas de las estrellas comunes no pueden provocar que se fusione dando lugar a elementos más pesados, pero aún así, en la naturaleza, hay muchos elementos con núcleos más pesados que el hierro, desde el cobalto (con 27 protones) hasta el uranio (con 92), y sin contar los elementos hechos por el hombre que hasta la fecha llegan al elemento "ununoctio", con 118 protones.

Los elementos que van del cobalto al uranio sólo pueden producirse en las masivas explosiones de estrellas que llamamos "supernovas", lo que conocmos como "nucleosíntesis explosiva". que además, al estallar, distribuyen por el universo los elementos más ligeros creados cuando eran simples estrellas.

El polvo estelar lanzado por las supernovas puede después empezar a reunirse en nubes giratorias que dan origen a nuevas estrellas y sistemas solares. Así ocurrió con el nuestro. Todos los elementos de nuestro planeta más pesados que el hidrógeno y el helio, los dos principales elementos nacidos durante la explosión que dio origen al universo, el Big Bang, están fabricados en el interior de las estrellas. Estamos hechos, como decía Carl Sagan, del material de las estrellas.

Origen

En 2011, un grupo de investigadores publicó en la revista "Experimental Astronomy" una propuesta de misión a la Agencia Espacial Europea. La misión, llamada "Origen: creación y evolución de los metales desde el amanecer cósmico" pondría en órbita un observatorio espectroscópico para analizar la composición de grupos de galaxias y responder a preguntas como ¿cuándo se crearon los primeros metales?, ¿cómo evoluciona el contenido metálico del cosmos? y ¿dónde se encuentra la mayor parte de los metales del universo? La ESA aún no ha dado respuesta.

Philo Farnsworth en nuestro hogar

La televisión puede definir al mundo de hoy, pero su historia es tan poco conocida como su principal inventor.

Philo T. Farnsworth.
(Foto D.P. de Harris & Ewing,
vía Wikimedia Commons)
El 7 de septiembre de 1927, Philo T. Farnsworth, un desconocido que había aprendido electricidad mediante un curso por correspondencia, consiguió realizar la primera emisión de televisión electrónica en el pequeño laboratorio que tenía en el 202 de Green Street, en San Francisco, California. Era una imagen de sólo 60 líneas de resolución (la televisión común tiene 520 líneas de resolución y la televisión de alta definición o HDTV tiene 1.125).

Era el primer paso de un medio de comunicación cuya importancia, presencia y relevancia no han hecho sino aumentar desde entonces, como uno más de los desarrollos tecnológicos que han democratizado el conocimiento, la información y el entretenimiento, como la imprenta, la radio, el cine, la grabación musical y, por supuesto, Internet.

Farnsworth había nacido en 1906 en una familia campesina de Utah y se había aficionado muy pronto al novedoso fenómeno de la electricidad. Con sólo 12 años construyó un motor eléctrico y poco después una lavadora de ropa para la familia. La televisión de Farnsworth, por su parte, comenzó humildemente en 1921, cuando el joven de 15 años estaba arando y se le ocurrió que podría utilizar un haz de electrones dentro de un tubo de rayos catódicos para explorar o escanear una imagen en líneas similares a los surcos que recorrían el campo de cultivo familiar. La imagen así codificada podría transmitirse a un receptor que la reconstruyera y exhibiera.

Durante los seis años siguientes, se ocupó en estudiar y hacer realidad esa idea.

Los precedentes

La televisión, sin embargo, no fue una idea original de Farnsworth. De hecho, la idea rondaba los laboratorios de profesionales y aficionados de la electricidad, la física y la electrónica desde mediados del siglo XIX, y fueron numerosos los descubrimientos que fueron dando forma al invento.

Así, el ingeniero eléctrico británico Willoughby Smith publicó en 1873 el descubrimiento de que el selenio tenía la propiedad de la fotoconductividad, es decir, que su conductividad eléctrica cambiaba en función de su exposición a la luz. Esto significaba que el selenio podía utilizarse para transformar imágenes en señales electrónicas. Estas señales, se pensó después podían transmitirse por medio de la radio, que sin embargo aún no nacía. No fue sino hasta 1895 cuando Guglielmo Marconi consiguió transmisiones de radio fiables.

En 1884, el estudiante de ingeniería alemán Paul Nipkow propuso y patentó el primer sistema de televisión del mundo. Era una forma de televisión "mecánica" porque capturaba las imágenes mediante un disco inventado por él mismo que tenía una serie de 18 orificios dispuestos en espiral y giraba a gran velocidad para permitir explorar la imagen sobre un elemento de selenio. Los 18 orificios producían, por tanto, una imagen de 18 líneas de resolución.

Todo esto ocurría en teoría, porque en realidad nadie sabe si Nipkow consiguió fabricar un prototipo de su sistema de televisión. De hecho su idea no tendría el nombre que conocemos hoy sino hasta 1900, cuando el científico ruso Constantin Perskyi usó por primera vez la palabra "televisión" en un discurso dentro de la Feria Internacional de París, la misma para la cual se había construido la Torre Eiffel.

La televisión mecánica encontró a su gran pionero en la figura de John Logie Baird, un ingeniero escocés que demostró públicamente por primera vez un sistema real de televisión el 26 de enero de 1926 en Londres ante unos 50 científicos. En 1927 consiguió transmitir imágenes a más de 700 kilómetros mediante una línea telefónica y en 1928 la primera transmisión transatlántica.

Pero el sistema mecánico de captura de imágenes, que también fue estudiado y desarrollado por el inventor estadounidense Charles Francis Jenkins no era del todo satisfactorio, entre otras cosas porque sólo podía transmitir imágenes de pequeño tamaño.

La televisión electrónica, por su parte, se desarrollaba paralelamente sin esas limitaciones. El inventor ruso Vladimir Kosma Zworykin desarrolló el primer tubo de rayos catódicos que podría utilizarse en una cámara de televisión electrónica, y años después, trabajando en la poderosa empresa de radio RCA, desarrolló un sistema que permitía que un haz de electrones reprodujera las imágenes de televisión en un tubo de rayos catódicos recubierto de fósforo... la pantalla de televisión que predominó hasta que en el año 2000 empezó a ser sustituida por distintas tecnologías de pantalla plana.

De hecho, la RCA intentó atribuir los conceptos básicos de la televisión a Zworykin, desatando una batalla legal de patentes que fue finalmente ganada por Farnsworth, señalándolo como una de las principales fuerzas intelectuales detrás del desarrollo de la televisión.

Aún no estaba consolidado el sistema de televisión que se hizo mundialmente popular después de la Segunda Guerra Mundial cuando la nueva idea empezó a comercializarse. El primer televisor se vendió en los Estados Unidos en 1928 por un precio equivalente a unos 60 euros, y un año después se lanzó la televisión en Inglaterra y Alemania. El primer anuncio publicitario sería transmitido por la empresa de John Logie Baird en 1930. En 1931 aparecía la televisión en Francia y en lo que por entonces era la Unión Soviética. Para 1934, la televisión mecánica empezó a ser definitivamente sustituida por la televisión electrónica, cuya difusión sólo se vio ralentizada por la Segunda Guerra Mundial

Philo Farnsworth, el genio electrónico que a los 21 años convirtió en realidad una idea surgida de un campo arado, siguió innovando en televisión y amplió sus intereses hacia un campo totalmente distinto: la fusión nuclear. Hacia 1959, Farnsworth desarrolló un pequeño reactor de fusión, conocido como fusor Farnsworth-Hirsch, utilizando como aceleradores de partículas algunos tubos de pantalla de televisión cuyas características había estudiado.

Hoy en día, continúa el trabajo sobre el fusor de Farnsworth, no sólo explorando las posibilidades que tiene dentro de la búsqueda de la fusión nuclear como energía alternativa, sino como fuente de neutrones pequeño, barato y útil.

El fusor, pese a su gran promesa de cambiar el mundo incluso más profundamente que la televisión, fue sólo una de las más de 300 patentes que existen a nombre del campesino de Utah convertido en uno de los inventores clave del siglo XX.

Philo T. Farnsworth murió el 11 de marzo de 1971 en Salt Lake City, en su Utah natal.

La televisión en España

Las emisiones de prueba de Televisión Española empezaron a realizarse en 1951-52 y las transmisiones regulares comenzaron oficialmente el 28 de octubre de 1956, con contenido fuertemente influido por la dictadura. El primer partido de fútbol se transmitió en febreo de 1959... como era de esperarse, un Real Madrid-Barça.

De la anatomía de los monarcas al recorrido de la luz

Si algo mide un metro, ¿cuánto mide un metro y cómo lo sabemos?

Uno de los patrones de metro, de aleacion de iridio
platino, creados después del Tratado del Metro
de París en 1875.
Fue el patrón vigente hasta 1959.
(Foto D.P. del Departamento de Comercio
de los EE.UU., vía Wikimedia Commons)
Medir las cosas, su tamaño, su peso, su duración, fue una de las primeras cosas que las civilizaciones humanas tuvieron que hacer para poder realizar tareas como el trueque o intercambio de bienes.

Muchas medidas eran tan vagas como las que usan las abuelas para la preparación de sus mágicas recetas: pizcas, puñados, chorros, buenos pellizcos y otras medidas que en las manos correctas crean alquimia gastronómica.

Pero para otras cosas había que echar mano de algún patrón de medida. Los primeros fueron las partes del cuerpo humano: pies, codos (o cúbitos), manos antebrazos y dedos. Pero dada la variabilidad del cuerpo humano, se optó por un modelo de ser humano: sus monarcas-dioses, que se usaban como base de patrones de medida en forma de barras metálicas que se conservaban en los templos.

Por supuesto, la medida de un miembro del monarca podía estandarizarse en una sociedad cerrada, pero no en el "comercio exterior". En la antigua Grecia había al menos tres estándares para el pie: el dórico, de unos 32,6 cm, el pie ático de 29,4 cm y el pie jónico de 34,8 cm. De modo que "cuántos pies" tenía un significado bastante distinto.

En España misma llegaron a convivir el codo común de unos 41,8 cm, el codo real de 57,4 cm y, en la zona morisca, el codo mayor de 83,87 cm y el codo mediano de 61 cm.

Por su parte, el peso o la capacidad de vasijas y otros recipientes se medía llenándolos de determinadas semillas y luego contándolas. En el antiguo sistema de medidas español, por ejemplo, un "grano" era aproximadamente el peso de una semilla de trigo, aproximadamente 49 miligramos. Y el "quilate" de peso de las joyas no es sino el peso de una pequeña semilla de algarrobo.

Y las medidas se podían confundir entre sí. Por ejemplo, la fanega tenía un valor variable de alrededor de 55 litros y se usaba para medir el grano. Pero se hablaba también de una fanega de tierra como medida de superficie, considerada como el terreno necesaria para cultivar una fanega de trigo, algo menos de unos 7 mil metros cuadrados.

Algo de orden

Cada país, cada región, a veces cada pueblo tenían su propio sistema de pesos y medidas incompatibles con los de sus vecinos. Grandes imperios, como el romano, intentaron imponer sus estándares en sus dominios. Tal es el caso del patrón del pie romano, de 29,6 cm, que se guardaba en el tempo de Juno Moneta, en Roma, y era reproducido para que fuera igual en todo el imperio.

Diversos personajes a partir de Simon Stevin en el siglo XVI, sugirieron la conveniencia de una norma general, basada en un sistema decimal que facilitara las cuentas, sumas y fracciones de los diversos sistemas de medida, simplificando confusiones. En el antiguo sistema español, por ejemplo, una legua eran 20.000 pies y una vara eran 3 pies, el palmo era 1/4 de vara, la pulgada 1/12 de pie (o 1/36 de vara), etc. Una distancia podía así medir tantas leguas más tantas varas más tantos pies más tantos palmos, etc.

El sistema que hoy es el patrón mundial nació a instancias de Luis XIV, que nombró para crearlo a un grupo de científicos entre los que destacaba Antoine Lavoisier, se introdujo en una ley revolucionaria de abril de 1795 que basaba todas las medidas en un metro provisional, y se implantó oficialmente el 10 de diciembre de 1799, bajo Napoleón, una vez terminado el estudio geográfico que dio al metro su primera definición: la diezmillonésima parte de un cuadrante de la circunferencia de la Tierra desde el Polo Norte hasta el Ecuador pasando, por supuesto, por París.

Las demás medidas se desprendían del metro y de sus fracciones o múltiplos: el área se mediría en metros cuadrados, el volumen en litros (decímetros cúbicos) y la masa basada en el gramo, definido como el peso de un volumen de agua pura igual a un centímetro cúbico a la temperatura del hielo al fundirse.

Así terminaba la complejidad de celemines, azumbres y arrobas, pies, pulgadas y varas. Bastaban prefijos como "kilo" (mil) para multiplicar, o "mili" (milésima parte) para dividir las unidades básicas en un sistema elegante, que simplificaba la vida y resultaba fácil de entender.

A partir de entonces, durante todo el siglo XIX y XX se desarrollaron dos procesos simultáneos. De una parte, un esfuerzo creciente por definir con mayor precisión y de modo más universal y repetible las unidades básicas de peso y medida. De otra parte, la aceptación e implementación a nivel mundial del sistema métrico decimal. Los países pioneros en su adopción fueron Brasil en 1811, Portugal en 1814, Bélgica y Holanda en 1820, Chile en 1848, y España y México en 1852. En 1875 se estableció la Convención Mundial del Metro a la que seguirían los organismos internacionales que hoy definen, estudian y promueven la adopción del sistema, que en 1960 pasó a llamarse Sistema Internacional de Unidades sobre la base de las unidades metro-kilogramo-segundo.

Durante el siglo XX, prácticamente todos los países adoptaron el sistema internacional, siendo los más reacios a hacerlo tanto los asiáticos como los relacionados culturalmente con el imperio británico del siglo XIX, muchos de los cuales, pese a ser oficialmente métricos, mantienen algunas medidas imperiales.

En la actualidad, los únicos países donde no es oficial son Myanmar, Liberia y los Estados Unidos, lo que resulta curioso porque Thomas Jefferson, uno de los primeros presidentes estadounidenses y pensador de gran influencia, fue entusiasta del sistema decimal y llegó a proponer uno al congreso estadounidense en 1790.

Hoy, eso sí, sabemos con precisión a qué nos referimos con nuestras medidas, lo que permite una enorme precisión para el trabajo científico y para el intercambio comercial. Un metro es, desde 1983, la longitud del recorrido de la luz en el vacío durante un intervalo de tiempo de 1/299.792.458 de segundo.

Y el segundo se define como la duración de 9.192.631.770 oscilaciones de la radiación emitida entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del Cesio a una temperatura de 0 grados Kelvin.

Y no necesitamos aprendérnoslo. Basta saber que esos patrones se utilizan para producir todos los instrumentos y herramientas con los que medimos el cosmos, el microcosmos, y los tablones de la estantería.

Costosos desacuerdos

La sonda Mars Climate Orbiter lanzada por la NASA orbitó detrás de Marte el 23 de septiembre de 1999 y desapareció. La misión, con un coste de 125 millones de dólares, tenía un control de altitud que utilizaba las anticuadas medidas imperiales (millas, pies y pulgadas) mientras que su software de navegación empleaba unidades métricas. Cuando disparó sus cohetes para intentar ponerse en órbita, estaba 100 kilómetros demasiado cerca del planeta rojo, y cayó destruyéndose.

Nuestros inquilinos los ácaros

Vivieron en el hábitat y en la piel de los dinosaurios. Hoy viven en nuestras casas y en nuestros rostros.

Ácaro del polvo (Dermatophagoides pteronyssinus)
(Foto CC de Gilles San Martin de Namur, Bélgica,
vía Wikimedia Commons)
No es exactamente una historia de terror, pero muchas veces se ha presentado así. Empieza en el gran punto de contacto que tenemos con el mundo, el órgano más extenso: nuestra piel.

La capa exterior de nuestra piel está formada por células muertas. Aunque la idea puede ser inquietante, es una gran ventaja, ya que esa capa, el "estrato córneo", protege al resto de las capas de la piel, y a todo nuestro organismo, del peligro de las infecciones y la deshidratación. Pero el estrato córneo, precisamente por su composición de células muertas formadas principalmente por queratina (la proteína que también forma nuestro cabello y uñas), se renueva constantemente de abajo hacia arriba, y las células muertas más antiguas se descaman para ser sustituidas por otras, procedentes de los estratos inferiores de la epidermis.

Diariamente desechamos entre 10 y 20 gramos de células de piel muerta, que se depositan por todos los lugares donde habitamos, principalmente donde pasamos mucho tiempo, como las camas y asientos.

Un hecho destacado del ciclo de la vida en nuestro planeta es que toda la materia orgánica es reciclable. Toda. Donde quiera que haya algo de materia orgánica que pueda servir de alimento, surgirá, como resultado del proceso evolutivo, un ser vivo que se alimente de ella. Pueden ser seres vivos cazados por sus depredadores, o seres muertos que son utilizados como alimento por una enorme variedad de animales, hongos y plantas.

Y las células de nuestra piel son el alimento de unos pequeños, pequeñísimos artrópodos, llamados "ácaros del polvo", que se alimentan además de otros fragmentos de materia orgánica, como la grasa o sebo que todos los mamíferos secretan para mantener lubricada la piel, y en general todas las sustancias animales o vegetales que ya estén en proceso de descomposición por parte de hongos, ya que el aparato digestivo de los ácaros del polvo es tan simple y primitivo que necesita ayuda para el proceso digestivo.

Lo aparentemente terrorífico viene cuando nos enteramos de que estos ácaros del polvo viven en nuestros hogares, y por millones y millones. Nuestro colchón, nuestras almohadas, nuestros sillones, nuestras alfombras y nuestra ropa son hogar de estas legiones de minúsculos bichos que no podemos ver.

Las cosas no mejoran cuando nos enteramos de que los ácaros del polvo producen, incluso como parte de su digestión o al morir, una serie de proteínas que desencadenan ataques de alergias y asma en personas que tienen problemas respiratorios y obligan a que estas personas practiquen formas de higiene doméstica especiales destinadas a reducir la presencia de los alérgenos de los ácaros del polvo.

El ácaro del polvo mide unos 0,025 o 0,03 milímetros, mientras que el objeto más pequeño que puede ver el ojo humano es de aproximadamente 0,1 milímetro. De hecho, hay algunos seres unicelulares como amoeba proteus, los paramecios e incluso células independientes como el óvulo humano, que ciertas personas pueden ver sin ayuda de instrumentos. Adicionalmente, el cuerpo de los ácaros del polvo es traslúcido, lo que hace más difícil verlos.

Sin embargo, descubrir que tenemos estos millones de inquilinos que no pagan el alquiler no debería ser tan aterrador. Han estado con nosotros desde siempre, aunque no lo supiéramos. De hecho, han estado en este planeta desde mucho antes que nosotros.

Los ácaros del polvo son sólo unas pocas especies de la gran subclase de los acaris o acarinos, pertenecientes a la clase de los arachnida (a la que pertenecen las arañas y los escorpiones). Son una familia realmente numerosa y con integrantes de lo más diversos. Se han descrito alrededor de 50.000 especies de ácaros, y los científicos que los estudian calculan que podría haber en total 500.000 especies distintas de estos versátiles seres, que más allá de la inquietud que nos puedan causar resultan sumamente intrigantes.

Podemos encontrar ácaros viviendo en prácticamente todos los hábitats de nuestro planeta, en tierra, agua dulce y agua de mar, en las zonas polares más frías, en los húmedos trópicos y en los extremistas desiertos, en la superficie del suelo o viviendo hasta 10 metros de profundidad, en aguas termales con temperaturas de hasta 50 grados centígrados, y hasta a 5.000 metros de profundidad en las fosas marinas.

La única variedad de ácaros que tiene un tamaño que nos permite verlos son las garrapatas, que se alimentan de la sangre de los mamíferos, aves, reptiles y anfibios, y que son además transmisores, o vectores, de diversas enfermedades. Y hay otras especies que también son perjudiciales porque tienen una forma de vida parasitaria, como los tetraníquidos, que parasitan diversas plantas, entre ellas el algodón y los árboles frutales, con un importante impacto económico negativo.

Hay también ácaros parásitos de diversas especies animales, incluido el ser humano. La especie Demodex folliculorum vive en los poros de nuestro rostro, la mayor parte del tiempo sin causar daños. De hecho, al estimular la secreción de sebo, este ácaro retrasa la aparición de arrugas, por lo que no es del todo malo. Salvo cuando coloniza los folículos en los que nacen nuestras pestañas, causando irritación y un serio problema pues su erradicación es sumamente difícil. Otros provocan la sarna en el ser humano y en los perros.

Y estos acarinos han vivido en el planeta durante largo tiempo. Se han encontrado fósiles del suborden de los acarinos en estratos geológicos pertenecientes al período devónico, hace 400 millones de años, e incluso algunas garrapatas primitivas (y enormes) fueron parásitas de los dinosaurios.

Pero en un universo de decenas de miles de especies no todas pueden ser dañinas. De hecho, toda una familia de ácaros, los Phytoselidae, se utilizan en la agricultura como agentes de control biológico de otros ácaros que destruyen las cosechas y a los que depredan los Phytoselidae.

Pero la principal importancia en general de los acarinos es que son un engranaje fundamental que cumple un relevante papel en el gran mecanismo de reciclaje de la vida. Son así, pese a sus características poco agradables, esenciales para que la vida genere más vida.

El polvo doméstico y la piel

Se suele decir que la mayor parte del polvo doméstico está formado por células muertas de piel, quizá para hacer más aterradores a los ácaros. Sin embargo, la experta en calidad del aire Kathleen Hess-Kosa ha muestreado el aire de numerosas casas de los Estados Unidos y, además de demostrar que la composición del polvo es muy variable, ha determinado que las células muertas de piel no son el componente principal del polvo, ciertamente no el 70 y 90% del que suele hablar la leyenda urbana.

El láser, solución en busca de un problema

El láser es uno de los desarrollos más versátiles del siglo XX, con una cantidad de usos que crece día a día, pero que nadie pudo prever cuando se emitió el primer rayo.

El primer láser de rubí de 1960 y su inventor,
Theodore Maiman
(Foto D.P. de Daderot, vía Wikimedia Commons)
La luz que vemos habitualmente, la que emite el sol, la del fuego, la de nuestras bombillas y la que nos llega del universo es un caos que contiene ondas de distintas longitudes, amplitudes y fases, la luz “incoherente”.

Si en un estanque tranquilo arrojáramos una serie de guijarros de distinto tamaño y peso, desde distinta altura y con ciertas diferencias de tiempo. Las ondas que se producirían serían caóticas: las características cada guijarro producirían una onda de distinta frecuencia y amplitud que las de los otros guijarros, y donde sus crestas (la parte más alta de la onda) y valles (la parte más baja) tampoco coincidirían.

Así es la luz del sol que vemos como blanca y que contiene todos los colores del espectro visible. Si hacemos pasar la luz blanca por un prisma, como hizo Newton en su clásico experimento, la longitud de onda de cada color se difracta en un ángulo distinto al salir del prisma permitiéndonos ver la composición que tiene el rayo de luz original.

Por contraposición, la luz coherente sería aquélla en la que todos sus componentes van ordenados, con la misma longitud y amplitud de onda, y con crestas y valles coincidentes (en fase).

Para verla, hubo que esperar el genio de Albert Einstein.

En 1917, Einstein propuso una forma de estimular la emisión de la radiación electromagnética. Cuando se aplica energía a cualquier colección de átomos, éstos emiten fotones al azar. Es lo que pasa cuando aplicamos electricidad al gas de una bombilla fluorescente o de neón, al filamiento de una bombilla tradicional o al diodo de una bombilla LED).

Einstein propuso que se podía estimular a los átomos para que emitieran luz coherente. Según su teoría, si se dispara al átomo un fotón de cierta longitud de onda, provocará que el átomo emita un fotón en la misma dirección, con la misma frecuencia y en fase con el primero. Este efecto se multiplica al viajar los fotones coherentes por los átomos cercanos, provocando que se emitan más fotones coherentes que se pueden emitir como un haz de radiación electromagnética.

Si la luz incoherente es como una multitud caminando cada quién a su ritmo y paso, en la luz coherente todos los miembros de la multitud caminarían al mismo ritmo y con pasos iguales, como en un desfile.

Pasaron 37 años antes de que lo que Einstein había propuesto teóricamente se llevara a la práctica. En 1954, Charles Townes y Arthur Schawlow crearon en la Universidad de Columbia un aparato que estimulaba la emisión de microondas, con objeto de tener una fuente de microondas coherentes que se utilizaban en el estudio de la estructura de moléculas, átomos y núcleos atómicos. Llamaron a su procedimiento “amplificación de microondas mediante la emisión estimulada de radiación”, o MASER según sus siglas en inglés.

Estros mismos científicos plantearon hacer lo mismo con luz visible y publicaron artículos científicos al respecto, pero nunca lo hicieron en la práctica. El desafío no tuvo que esperar mucho para hacerse realidad y para desatar la polémica.

En 1958, Gordon Gould, también en la Universidad de Columbia, construyó el primer aparato capaz de emitir luz mediante la emisión estimulada de radiación. Siguiendo la pauta del “MASER”, cambió la primera letra, referente a las microondas, y la sustituyó por la L de luz (light), para crear la palabra “LASER”. El problema es que no presentó la solicitud de patente hasta 1959, se le denegó y tuvo que luchar hasta 1977 para que se le reconociera su calidad de pionero.

Mientras tanto, Theodore Maiman consiguió reconocimiento con la invención del láser de rubí, que nos presentó al “rayo láser” con un característico color rojo, simplemente porque el material empleado emitía los fotones de su haz de luz coherente en la longitud de onda del rojo, aunque el rayo puede ser de cualquier color dependiendo de los materiales y procedimientos usados para generarlo.

El láser era impresionante, se parecía al “rayo de la muerte” que dibujaban los ilustradores de las revistas “pulp” de ciencia ficción, tenía propiedades físicas asombrosas… pero no parecía tener aplicaciones prácticas. De hecho se le llamó “una solución en busca de un problema”.

Pero mientras multitud de científicos desarrollaban otros tipos de láser que necesitaban menos energía, más eficientes y de diversas longitudes de onda, las aplicaciones prácticas empezaron a desarrollarse. En 1969, la misión a la Luna del Apolo 11 dejó sobre la superficie de nuestro satélite, entre otros instrumentos, un reflector láser. Lanzando un rayo láser desde un observatorio y midiendo el tiempo que tarda en volver, se puede medir la distancia que nos separa con una tolerancia de 3 centímetros.

Esto ilustra una de las principales características de la luz coherente: al no dispersarse en ángulo como la luz de una linterna doméstica, sino mantenerse como un rayo recto, es posible proyectar un láser a gran distancia, como lo ilustran por desgracia los punteros láser, creados para auxiliar en presentaciones y en el aula, pero utilizados para molestar a deportistas y otras personas a distancia.

Hoy la lista de aplicaciones de las numerosas formas del láser es no sólo extensa, sino que crece día con día. Se usa por igual para leer códigos de barras en el supermercado o los CD y DVD de nuestros ordenadores y equipos de vídeo que para alinear puentes, como cinta de medir o como nivel para los profesionales de la construcción y hasta para los aficionados al bricolaje, para estudiar la atmósfera, como auxiliares en telescopios de última generación; para cortar, soldar doblar, grabar, marcar o limpiar metales; en diversas aplicaciones quirúrgicas y estéticas, desde la cirugía ocular hasta la eliminación de tatuajes y cicatrices y en la cirugía general, creando toda la especialidad de la medicina láser; como mira para distintas armas, en las impresoras de nuestros documentos y, por supuesto, en espectáculos como los que acompañan los macroconciertos de rock. Es importante señalar que la luz que viaja por la fibra óptica que ha revolucionado las telecomunicaciones y nos permite tener Internet de alta velocidad es luz láser.

Al final, el láser, la luz coherente que imaginó Einstein, ha resultado ser una solución para una multitud de problemas en las áreas más diversas de la experiencia humana.

Estrellas láser

Los cuásares o fuentes cuasi estelares de ondas de radio descubiertos en 1950 se han revelado como objetos que emiten naturalmente rayos láser. El telescopio Hubble ha descubierto además una estrella inestable en nuestra propia galaxia, Eta Carinae, millones de veces mayor que nuestro sol y que emite luz láser ultravioleta.

Claude Bernard y los comienzos de la medicina científica

El arte lo llevó a la medicina y su aproximación a la fisiología ayudó a dar a luz a la medicina con bases científicas en el siglo XIX.

Claude Bernard
(Foto D.P. vía Wikimedia Commons)
“El arte es ‘yo’, la ciencia es ‘nosotros’” comentaba Claude Bernard, que vivió entre ambas pasiones.

En el siglo XIX, la anatomía había avanzado mucho. Se tenía una razonable descripción de los componentes principales del cuerpo humano, pero nadie sabía con precisión que cómo funcionaba cada uno, ni cómo actuaban en conjunto para hacer funcionar el cuerpo humano.

Claude Bernard, el hombre que enfrentó ese problema desde la ciencia, nació el 12 de julio de 1813 en el pueblo de St. Julien, cerca de la ciudad de Lyon, en una familia dedicada a la agricultura.

El joven Bernard demostró pronto que no era un buen estudiante. Ni lo sería nunca. A los 18 años se interesó por el movimiento romántico, por la literatura, tomando como maestro a Víctor Hugo, por la teoría de la luz y el color, y, de modo intenso, por la filosofía cartesiana y la idea de Descartes de que era necesaria la duda metódica para alcanzar la verdad.

A los 18 años entró como aprendiz en una farmacia en Lyon. Pero su convicción filosófica se vio sacudida al ver que muchísimos preparados farmacéuticos se ofrecían a los pacientes sin haber nunca demostrado su eficacia experimentalmente, como sigue ocurriendo hoy con numerosas terapias y pseudomedicinas alternativas.

Algunos remedios eran fórmulas de miles de años de antigüedad, como el mitridato, supuesta panacea (medicamento para curarlo todo) que se hacía con más de cincuenta sustancias, entre ellas víbora, opio y secreciones de castor, más una pócima mágica que un medicamento. Y no había pruebas de que funcionara, algo que le parecía a Bernard especialmente chocante en un tema tan delicado como la salud.

Optó por dedicarse a componer una obra teatral que llevaba tiempo soñando, estrenada con el nombre “Rosa del Ródano” con un breve éxito. Animado, dejó su puesto, volvió a casa a trabajar como agricultor pequeñoburgués y a escribir su nueva obra teatral basada en el personaje histórico de Arturo de Bretaña, quien había apoyado a Juana de Arco.

La obra, sin embargo, fue criticada por un reconocido actor romántico y por el ilustre crítico de la Sorbona Saint-Marc Girardin, que se oponía al movimiento romántico. El crítico sugirió que ya que Bernard había hecho algo de farmacia, estudiara medicina y quizá podría escribir sobre ciencia.

A la tardía edad de 23 años, Bernard terminó su bachillerato y empezó a estudiar medicina, aunque de nuevo sintió que lo que le enseñaban era anticientífico, basado en especulaciones y no en experimentos. Pronto empezó a asistir a conferencias en el Colegio de Francia, donde se estaba llevando a cabo una revolución en la medicina, cuyas bases eran precisamente la observación y la experimentación. En 1841 consiguió un puesto como asistente de investigación del reconocido François Magendie, con quien trabajaría en neurofisiología, cateterización cardiaca y la fisiología de la digestión. Al mismo tiempo, Bernard instaló un modesto laboratorio privado para realizar sus propias investigaciones, a veces sin la anuencia de su jefe.

En 1843, Claude Bernard se graduó como médico con una tesis que marcó un cambio en la profesión, titulada “Sobre el jugo gástrico y su papel en la nutrición”, con sus descubrimientos sobre las transformaciones de los carbohidratos en los organismos animales. Pero no se planteó nunca practicar la medicina y fue nombrado suplente de Magendie para los cursos de verano.

La primera cátedra que dictó Claude Bernard a sus alumnos comenzó diciendo “La medicina científica que es mi deber enseñaros no existe…” La búsqueda de la verdad que le inspiraba la visión cartesiana aún no era el principio rector de la medicina. Su compatriota, Louis Pasteur, aún no emprendía el camino para demostrar el verdadero origen de las enfermedades.

Para entonces, ya había realizado algunos avances importantes: había conseguido determinar que el curare, legendario veneno del Amazonas, actuaba atacando a los necios motores, paralizando la respiración y causando la muerte por asfixia; descubrió que el páncreas tenía una importante función digestiva,

Bernard consiguió un puesto como profesor e investigador. Sin embargo, sus trabajos sobre la función de los órganos exigía numerosos experimentos en animales en vivo, la llamada “vivisección”, y se encontró con un creciente rechazo popular a esta práctica, incluso de su esposa, que pasó al activismo público contra su marido.

Bernard también descubrió que el hígado sintetiza la glucosa, cuando la creencia hasta ese momento era que sólo las plantas sintetizaban nutrientes, y demolió la creencia de que cada órgano del cuerpo tenía una sola función. De hecho, el hígado es uno de los órganos con más funciones diversas que tenemos.

Cuatro veces premiado por la Academia de Ciencias, pero también cansado de la resistencia que sus más tradicionales colegas ponían a sus trabajos, que estaban reinventando toda la medicina y enfermo, en 1860 se retiró a su heredad en Saint Julien, donde se dedicó al desarrollo de su visión filosófica del determinismo científico. Seguiría trabajando ocasionalmente, por ejemplo, ayudando a su amigo Louis Pasteur a demostrar la falsedad de la antigua concepción aristotélica de la generación espontánea.

En los años tardíos de su vida, Bernard se dedicó a desarrollar su filosofía de la medicina experimental y el método científico, ocasionalmente volviendo a la experimentación y disfrutando el reconocimiento de su sociedad, que lo llevaría a la Academia Francesa y al Senado del imperio de Luis Napoleón. Su último puesto público sería como Presidente de la Asdociación Francesa para el Avance de la Ciencia, mientras seguía trabajando sobre aspectos fisiológicos como los venenos, su eterno interés.
Claude Bernard murió el 10 de febrero de 1878, considerado uno de los principales científicos franceses de la época. Sin embargo, su última voluntad fue la publicación de su obra histórica “Arturo de Bretaña”. El ‘yo’ del arte convivió siempre con el ‘nosotros’ de la ciencia en el padre de la fisiología moderna.

Fragmentos de la verdad universal

“El deseo ardiente del conocimiento es, de hecho, el motivo que atrae y sostiene a los investigadores en sus efuerzos; y sólo este conocimiento, realmente aprehebdido y sin embargo siempre volando ante ellos, se convierte a la vez en su único tormento y su única alegría… Un hombre de ciencia se eleva siempre, en la búsqueda de la verdad; y si nunca la encuentra en su totalidad, descubre sin embargo fragmentos muy significativos, y estos fragmentos de la verdad universal son precisamente lo que constituye la ciencia.” Claude Bernard en Introducción al estudio de la medicina experimental.

Cada vez más complejo

“Mi suposición personal es que el universo no es sólo más extraño de lo que suponemos, sino que es más extraño de lo que podemos suponer.”

Gran parte de la extrañeza del universo que destaca en esta frase del biólogo evolutivo y genetista J.B.S. Haldane se debe a su complejidad.

Parecería que cada vez que posamos la vista sobre el universo es cada vez más complejo.

La sencilla idea de los cuatro elementos
de la Grecia Clásica...


La complejidad real de la tabla periódica
y sus 118 elementos... 2.500 años después
La historia de la ciencia ha sido la historia de cómo los seres humanos vamos asumiendo la complejidad, la a veces incómoda y poco amable, del universo en el que vivimos.

Después de todo, nuestros sentidos evolucionaron para permitirle a un primate sobrevivir en un entorno o ecosistema determinado. Y lo mismo pasa con nuestro aparato cognitivo, es decir, los procesos cerebrales que interpretan la información de nuestros sentidos y sacan conclusiones para mover a la acción (o a la inacción).

Por eso mismo, nuestros sentidos y nuestro aparato cognitivo son terriblemente limitados. Y el primer paso para concer el universo ha sido reconocer esas limitaciones.

No se trata sólo de que nuestra vista, pese a estar muy desarrollada cuando la mayoría de los mamíferos ve sólo dos colores, esté limitada a sólo una pequeña sección del vasto espectro electromagnético, sino que nuestro cerebro puede interpretar mal lo que vemos.

Llamamos a estos errores “ilusiones ópticas” aunque, como dice el astrofísico y divulgador Neil DeGrasse Tyson, deberíamos llamarlos “errores del cerebro”, porque no son nuestros ojos los que nos hacen ver lo que no hay o cambiar su sentido en las ilusiones ópticas, es nuestro cerebro el que se hace un lío y trata de encontrar sentido a una imagen que, en general, no se puede encontrar en la naturaleza.

Además de las ilusiones ópticas, está el hecho de que con una gran frecuencia saltamos a conclusiones incorrectas debido a ciertas características de nuestro cerebro llamadas “sesgos cognitivos” y que en gran medida parecen “razonables” o “de sentido común”. Cuando comenzó la indagación del universo, lo que “sonaba razonable” se tomaba por verdad y a quien disentía se le miraba como a un ser antisocial.

Los griegos, a partir de Empédocles, creían que el universo estaba formado por cuatro elementos: aire, fuego, tierra y agua, y durante dos mil años el esfuerzo intelectual se dedicó a determinar cómo se unían esos cuatro elementos para formar todo cuanto existe en el universo. Hubo de llegar la revolución científica para mostrar que el universo estaba formado por otros elementos como el hidrógeno, el hierro, el cromo, el lantano y así hasta 90 elementos naturales, además de otros que el ser humano podía producir por medios tecnológicos, para un total, a la fecha, de 118 elementos.

Leucipo y Demócrito habían propuesto que al dividir a la materia debería llegar un momento en que se obtuviera una partícula esencial e indivisible a la que llamaron “átomo”, que significa “lo que no se puede dividir”. Y ya en tiempos de la revolución científica se supuso que la unidad mínima de un elemento era precisamente un átomo, pues no podía dividirse más.

Pero los elementos estaban formados por otros componentes que aumentaban su complejidad: el neutrón, el protón y el electrón, de modo que sí se podía dividir el mal llamado átomo. El concepto tuvo que redefinirse como la mínima unidad de existencia de un elemento.

Los elementos lo son por su número atómico, es decir, cuántos protones tiene su núcleo: el de hidrógeno uno, , el del aluminio 13 y el de mercurio 80. Sin embargo pueden tener un número variable de neutrones, formando los llamados isótopos, algunos naturales, otros artificiales, algunos estables y otros radiactivos.

Por si eso fuera poco, se hallaron otras partículas elementales como los quarks, de los que hay 6 variedades y que forman los protones y neutrones, más otras 6 partículas llamadas leptones, como el electrón y el neutrino, y cuatro más llamadas bosones. Incluso creemos que hay un quinto bosón y para detectarlo se ha construido el mayor aparato de la historia: el acelerador de partículas LHC.

Y así como se creía en los cuatro elementos se creía que el cuerpo humano tenía cuatro fluídos o “humores”: sangre, flema, bilis amarilla y bilis negra, y que la enfermedad era producto de un desequilibrio en las cantidades de los humores, por lo que curar era promover la producción de algunos humores mediante medicinas o alimentos y la reducción de otros lo cual se hacía mediante sangrías.

Tuvieron que llegar Louis Pasteur y Robert Koch para demostrar que muchas enfermedades eran provocadas por seres invisibles al ojo desnudo, los “gérmenes patógenos”, también responsables de la fermentación y otros procesos. Pero esta explicación aún era demasiado simplista. Distintos microorganismos atacan distintos sistemas y órganos del ser humano, algunos, como las bacterias, pueden ser combatidos con antibióticos (como las sulfas y la penicilina, los primeros de la historia), mientras que otros, como los virus, presentan desafíos mucho más difíciles.

La complejidad del cuerpo humano y sus desarreglos sin embargo era mucho mayor. El conocimiento de la anatomía, la fisiología y la genética humana fueron desvelando la complejidad de las causas de los muchos y distintos trastornos que puede padecer nuestra salud. De diagnósticos simples la medicina ha ido evolucionando a diagnósticos mucho más complejos, donde los mismos síntomas pueden ser indicios de enfermedades muy distintas, genéticas, infecciosas, fisiológicas, producidas por distintos venenos o tóxicos, parásitos, etc., algo que fue aprovechado durante ocho años en la exitosa serie de televisión “House”, dedicada al llamado “diagnóstico diferencial”, que utiliza todos los datos disponibles sobre los pacientes y todo tipo de estudios e imágenes obtenidas por escáneres para determinar la enfermedad precisa que padece un paciente.

La complejidad que hoy deben manejar los científicos habría sorprendido a los antiguos griegos, sin duda.

Porque hoy, a diferencia de ellos, sabemos que el cuerpo humano, la mente, la personalidad, las sociedades y el universo todo son mucho más complejos de lo que sabemos. Esto nos puede preparar intelectualmente para enfrentar las sorpresas de la indagación científica pero, afortunadamente, no puede anular nuestra capacidad de asombro, desafiada día a día por los avances del conocimiento.

Es más complicado

Ben Goldacre, columnista del diario británico “The Guardian” y crítico feroz de las pseudomedicinas se ha dado a conocer por una frase con la que suele comenzar sus explicaciones sobre los errores conceptuales que suelen rodear a la creencia en medicinas mágicas como la acupuntura, la homeopatía y otras que simplifican terriblemente los procesos de la enfermedad: “Creo que descubrirá que es un poco más complicado…”

El acertijo de la luz

El intento por comprender la luz fue la clave, al paso de 2500 años, para permitir al ser humano comprender el universo en el que vive.

Fuegos artificiales, una de las formas en que
los seres humanos nos divertimos con la luz.
(Fotografía ©Mauricio-José Schwarz)
Pensándolo atentamente, la luz es en sí un fenómeno misterioso. Para nosotros, seres eminentemente visuales, es el principal medio por el cual conocemos el universo a nuestro alrededor, y sin embargo no es tan evidente por sí misma como lo pueden ser otros elementos de nuestra realidad.

Seguramente los seres humanos se hicieron preguntas sobre la luz mucho antes, pero la primera teoría que conocemos acerca de la luz fue la que propuso Empédocles de Acragas (actual Agrigento) en el siglo V antes de la Era Común. Después de proponer la teoría de que todo el universo está formado por cuatro elementos (que dominó el pensamiento hasta el Renacimiento), sugirió que la luz era un fuego que no quemaba y que que fluía del ojo hacia los objetos, chocaba con ellos y provocaba que se formara su imagen en nuestra mente. Filósofos como Platón o Ptolomeo, se adhirieron a la teoría de Empédocles, mientras que otros como Pitágoras pensaban que la luz era emanada de los objetos luminosos y caía en el ojo produciendo la visión.

Pero éstas eran sólo especulaciones sin bases experimentales.

Los primeros experimentos con la luz que conocemos fueron los de Euclides en el siglo III aEC, con espejos planos y cóncavos, y cuyos resultados están en su libro “Catóptrica”. Cuatrocientos años después, en Alejandría, Claudio Ptolomeo desarrollaría el trabajo de Euclides con datos experimentales adicionales para escribir su libro “Óptica”. Este trabajo fue desarrollado en el siglo XI por el sabio Alhazén, originario de Basora, en lo que hoy es Iraq. También llamado al-Haytam, uno de los padres del método científico, realizó experimentos demostrando que la visión se producía cuando el ojo recibía la luz, ya fuera reflejada por los objetos o emitida por ellos, y que la luz viaja en línea recta. Su “Libro de la óptica” fue la base teórica de la invención de las lentes para ver, gafas o anteojos, doscientos años después en Europa.

Parece, pero no es

Los avances en la óptica nos permitieron comprender el comportamiento de la luz, pero no nos dieron información sobre qué era ese fenómeno, cómo era esa fuerza que se comportaba de modo tan predecible. Se entendía cómo se reflejaba o difractaba la luz y ese conocimiento permitió la creación de lentes cada vez más perfectos, a su vez indispensables para la invención del microscopio y del telescopio, pero su composición seguía siendo motivo de debate.

Las observaciones de Isaac Newton, el genio que revolucionó la física y las matemáticas en el siglo XVII, lo llevaron a pensar que la luz estaba formada por partículas físicas que se reflejaban al golpear una superficie del mismo modo en que una pelota rebota al chocar con una superficie dura. En parte concluyó esto al observar que los rayos de luz no interferían unos con otros, el fenómeno llamado difracción, que sí ocurre cuando las ondas que se propagan en un medio interfieren entre sí.

Sin embarto, el físico holandés Christian Huygens, contemporáneo de Newton, con buenos argumentos y otros datos, sostenía que la luz se emitía en una serie de ondas que se extendían en todas direcciones como pasa con las ondas de un estanque cuando cae una piedra en él, y que no eran afectadas por la gravedad.

Sin embargo, el enorme prestigio de Newton ayudó a que su hipótesis fuera generalmente aceptada hasta que un experimento en el siglo XIX revivió la hipótesis de las ondas demostrando que la luz sí podía difractarse. La luz que Newton había observado era la luz del sol, que incluye una amplia gama de frecuencias y su amplitud varía rápidamente, por lo que no se puede observar la difracción. Al usar una luz con frecuencias coherentes, Thomas Young demostró que sí se difractaba. El conocimiento volvía al principio.

A fines del siglo XIX, James Clerk Maxwell desarrolló cuatro ecuaciones que describían las ondas magnéticas y eléctricas, y siguiendo esas ecuaciones no sólo se obtenía la velocidad de la luz, sino que tanto la luz visible como las demás ondas electromagnéticas no eran hechos distintos, sino el mismo fenómeno pero con diferentes frecuencias. La luz era una forma de energía electromagnética cuya única característica especial es que, debido a la historia evolutiva de nuestra especie, podemos verla. Algunos otros animales, como ciertos reptiles, pueden detectar la radiación infrarroja, mientras que otros como las abejas y algunas aves, pueden ver la luz ultravioleta, de frecuencia un poco más alta que la luz visible.

Fue necesario que se desarrollara una aproximación completamente nueva de la física para resolver el dilema. En 1901, el físico alemán Max Planck determinó que la radiación electromagnética sólo se podía emitir en paquetes de energía con un valor determinado que llamó “cuantos”, y al estudiar el efecto fotoeléctrico, Einstein determinó que la luz se emitía en cuantos. Al fin sabíamos lo que era.

La luz, y toda la radiación electromagnética, tienen propiedades que nos pueden parecer contradictorias, pero que en realidad no lo son. Decimos que toda la realidad exhibe una “dualidad onda-partícula” que se descubrió primero en la luz y hoy sabemos que es una propiedad de toda la materia. Pero esto se debe a que se habían usado ejemplos (como pelotas chocando u ondas en un estanque) que no se aplicaban a la realidad de la materia pero parecían de sentido común. También era de sentido común la creencia de Aristóteles de que un objeto diez veces más pesado que otro cae diez veces más rápido. La demostración de Galileo de que la velocidad de caída no dependía del peso fue, en su momento, también opuesta al sentido común.

Con su teoría de la relatividad, Albert Einstein determinó que la velocidad de la luz en el vacío es el único hecho independiente del marco de observación en un universo donde todos los fenómenos son relativos. La velocidad de la luz nos permite comprender el sorprendente hecho de que la materia y la energía son intercambiables.

Al conseguir finalmente entender la luz y su comportamiento a nivel cuántico, encontramos la clave para comprender el universo en toda su grandeza, la llave que abrió espacios de conocimiento y preguntas que seguramente habrían entusiasmado a Empédocles, Pitágoras y Euclides.

La radiación electromagnética

La radiación electromagnética es una forma de energía que emiten y absorben las partículas cargadas, y puede tener desde frecuencias muy bajas hasta muy altas formando un espectro o continuo. De menor a mayor frecuencia, el espectro electromagnético tiene las ondas largas, las que utilizamos para transmitir radio y televisión, las microondas, la luz infrarroja, la luz visible, la luz ultravioleta, los rayos X y los rayos gamma.

El estudio del sexo

Quizá el tema más apasionante para el ser humano no fue objeto de estudio científico sino hasta el siglo pasado, y siempre provocando una gran inquietud.

Fresco romano en la Casa
de los Epigramas de Pompeya
(Foto D.P. de By WolfgangRieger,
vía Wikimedia Commons)
En 1929, uno de los fundadores de la psicología científica, John Watson, escribía “El estudio del sexo sigue plagado de peligros… Es, ciertamente, el tema más importante de la vida. Es, ciertamente, lo que causa más naufragios en la felicidad de los hombres y las mujeres. Y, sin embargo, nuestra información científica sobre él es tan escasa. Incluso los pocos hechos que tenemos deben ser contemplados más o menos como material de contrabando”.

Cuando Watson escribió esto, sólo existía una institución en el mundo dedicada a la comprensión de la sexualidad humana, el Instituto de Sexología fundado en Berlín en 1919 por el doctor Magnus Hirschfeld, pionero de la sexología, del feminismo y de la defensa de los derechos de las minorías sexuales. En los siguientes años, el instituto reunió gran cantidad de datos y desarrolló algunos procedimientos terapéuticos.

Sin embargo, los “peligros” a los que hacía referencia Watson se hicieron evidentes. En mayo de 1933, los camisas pardas nazis atacaron el instituto y se llevaron toda su documentación, estudios y libros, que fueron pasto de las llamas en la infame quema de libros del 10 de mayo de 1933 en la Plaza de la Ópera de Berlín. Hirschfeld, que estaba en una gira de conferencias, nunca volvería a Alemania.

Los más antecedentes del estudio científico de la sexología no estaban demasiado lejos en el pasado. Se hallaban en un libro sobre psicopatías sexuales del alemán Richard Freiherr von Krafft-Ebing de 1886, que narraba los casos de más de 230 pacientes psiquiátricos, y en un estudio médico del sexólogo británico Havelock Ellis sobre la homosexualidad. Ambos, sin embargo, se basaban en especulaciones no sustentadas con datos objetivos, y por tanto, como Freud, no son considerados aún sexólogos científicos, aunque su curiosidad y audacia fueron esenciales para llegar a una aproximación más rigurosa.

En 1947, apenas terminada la Segunda Guerra Mundial, el biólogo estadounidense Alfred Kinsey fundó el Instituto para la Investigación Sexual en la Universidad de Indiana, inspirado claramente en el instituto de Hirschfeld. Un año después, Kinsey denunciaba que, en ese momento, teníamos un conocimiento científico más amplio sobre la sexualidad de los animales de granja que sobre la humana. Como resultado del trabajo de su instituto, en 1948 y 1953, Kinsey publicó dos informes sobre la sexualidad humana, el primero sobre el macho humano y el segundo sobre la hembra humana.

Los reportes Kinsey servirían para comenzar la demolición de una enorme cantidad de mitos sobre la sexualidad, gracias a su visión objetiva y rigurosa, producto de la formación biológica del investigador, de la diversidad de prácticas sexuales humanas. Kinsey y su equipo de investigadores recorrieron los Estados Unidos entrevistando a todo tipo de personas en todo tipo de circunstancias. Aunque además de las entrevistas Kinsey realizó experimentos y observaciones de la actividad sexual, no los referenció directamente por mantener la confidencialidad de sus sujetos.

Repitiendo la persecución de Hirschfeld, el Comité de Actividades Antiestadounidenses del Congreso investigó a Kinsey a partir de 1953, suponiendo que su interés en el sexo podría tener alguna relación con el comunismo, lo que llevó a la suspensión del financiamiento público de su instituto.

No fue extraño, entonces, que unos años después, en 1966, la publicación de La respuesta sexual humana de William Masters y Virginia Johnson fuera al mismo tiempo objeto de una atención apasionada que convirtió a este libro en un bestseller y de un abierto escándalo público. Más allá de entrevistas y encuestas, de 1957 a 1965 se habían dedicado a observar la sexualidad en el laboratorio. Esto implicaba analizar la respuesta fisiológica, ritmo cardiaco, anatomía y otros aspectos del cuerpo humano durante la actividad sexual, en solitario y en pareja, con atención especial a la estimulación y al orgasmo.

Donde Alfred Kinsey había estudiado qué prácticas sexuales realizaba la gente, Masters y Johnson buscaron averiguar cómo funcionaban esas prácticas desde el punto de vista fisiológico, anatómico y psicológico. Por ello, algunos de los aspectos del diseño experimental de Masters y Johnson eran verdaderamente escandalosos para la sociedad estadounidense de los años 60. Por ejemplo, en lugar de utilizar parejas ya existentes, pidieron voluntarios dispuestos a ser “asignados” a una pareja sexual arbitrariamente.

En total, la pareja de investigadores estudió a 382 mujeres y 312 hombres, abriendo brecha en áreas de investigación tales como la satisfacción sexual de la mujer, la sexualidad de los humanos ancianos, la homosexualidad y el tratamiento eficaz de disfunciones sexuales como la impotencia, la frigidez y otras que habían sido tratadas, en todo caso, con psicoterapias que se podían prolongar durante años.

La labor de Masters y Johnson abrió las puertas a la sexología moderna, al estudio del fenómeno de la sexualidad como cualquier otro asunto del universo que merece la atención de la ciencia, aunque a ojos de muchos, por motivos de convicciones morales, religiosas o políticas, el sexo debería estar protegido de los ojos cuestionadores y la visión crítica de los científicos, una visión que actualmente no comparte la mayoría de la gente, independientemente de su visión política o social, aceptando lo que establecía Kinsey como compromiso de su trabajo: “Somos los registradores e informantes de los hechos, no los jueces de los comportamientos que describimos”.

El estudio de la sexualidad tiene implicaciones que van mucho más allá del placer que suelen despertar la suspicacia de ciertos sectores, incide en la felicidad y bienestar humanos, en la salud física y emocional, en la reproducción exitosa (y la anticoncepción), en la comprensión de diversas patologías y en el desarrollo de terapias para resolver los conflictos que esta poderosa fuerza de la naturaleza nos provoca. Y aunque la sexología ha avanzado en muchos aspectos, podría decirse que sigue siendo una ciencia apenas en la pubertad.

El arte de amar

Antes de que existiera una aproximación científica a la sexualidad humana hubo libros dedicados a la obtención e intensificación del placer sexual como el Kama Sutra o El arte de amar del poeta romano Ovidio, cuyas descripciones revelan su conocimiento empírico: “Si das en aquel sitio más sensible de la mujer, que un necio pudor no te detenga la mano; entonces observarás cómo sus ojos despiden una luz temblorosa, semejante al rayo del sol que se refleja en las aguas cristalinas”, poética descripción de lo que un moderno sexólogo llamaría “el punto G”.

El mundo de von Humboldt

Uno de los pocos genios universales verdaderos, Von Humboldt fue también quizá el último.

Alexander von Humbold, autorretrato
en París, de 1814.
(D.P. vía Wikimedia Commons)
Cuando en 1839 Charles Darwin publicó el El viaje del Beagle sobre el recorrido del que se desprendería su teoría de la evolución mediante la selección natural, uno de los primeros ejemplares lo dedicó y envió al naturalista prusiano Friedrich W.K.H. Alexander von Humboldt, que había sido la inspiración para que el joven Charles se lanzara a la aventura del Beagle.

Humboldt con su característica acuciosidad, no sólo analizó cuidadosamente el libro en una larga carta de respuesta, sino que animó a Darwin a seguir su trabajo, señalando agudamente dónde Darwin lo había superado y concluyendo que, puesto que que el inglés le atribuía parte de sus deseo de viajar a tierras distantes como naturalista, “Considerando la importancia de su trabajo, Señor, éste puede ser el mayor éxito que pudo traer mi humilde trabajo”.

Quizá, nuevamente, Humboldt había animado a Darwin a que persistiera en el camino que lo llevaría a publicar El origen de las especies en 1859, el mismo año de la muerte de su inspirador y modelo.

La humildad de Humboldt era un rasgo de cortesía que, sin embargo, la realidad no sustentaba. Desde su infancia como hijo de una familia de nobles y militares prusianos, en la que nació en 1769, se había caracterizado por su interés en recolectar y etiquetar diversos especímenes vegetales y animales. Más adelante, los intentos de su familia por convertirlo en un profesional de las finanzas, quizá un político relevante como lo sería su hermano mayor Wilhelm se vieron saboteados una y otra vez por la pasión de Alexander por la naturaleza.

La visión de los naturalistas del siglo XIX, antes de que la abundancia de información llevara a la división en especialidades como la biología o la geología, era integral y universal. A Humboldt le interesaban por igual los insectos que los fósiles, la geografía y la botánica, basado en su filosofía de que ningún organismo ni hecho de la naturaleza podía entenderse aislado de los demás. Así, de las finanzas pasó pronto a la filosofía y después estudió ciencias naturales y minería en Friburgo, además de idiomas.

En los años siguientes, además de estudiar la geología de su zona, Humboldt se apasionó por los trabajos de Galvani con la electricidad y en 1797 publicó “Experimentos con la fibra muscular y nerviosa estimulada”, donde además especulaba sobre los procesos químicos de la vida, algo que era casi una herejía en ese momento.

A los 30 años de edad, el joven naturalista ya era uno de los más respetados geógrafos de Europa, habiendo producido trabajos importantes en las áreas de la geografía y la física de la tierra. Pero para ser universal no bastaba hacer viajes en Alemania o Europa, así que ese año de 1799 emprendió el viaje a la misteriosa América con el botánico Aimé Bonpland.

En este viaje que duraría cinco largos años, los amigos reunieron una cantidad colosal de información absolutamente nueva. Cierto, Suramérica y Centroamérica habían sido colonizadas más de 250 años atrás, pero no habían sido estudiadas con el ojo de un naturalista, sino con una visión más bien comercial.

Humboldt y Bonpland entraron a selvas donde ningún europeo había estado, escalaron los Andes, describieron especies, hicieron descubrimientos geológicos y, adicionalmente, realizaron un primer trabajo antropológico y sociológico estudiando y describiendo las costumbres, política, idiomas y economía de las zonas que visitaron, y que pocos años después se convertirían en los países que hoy son Venezuela, Cuba, Colombia, Ecuador, Perú y México.

El viaje llegó a su fin con una visita al entonces joven país que era Estados Unidos de América, donde Von Humboldt estableció una firme amistad con Thomas Jefferson, el principal autor de la declaración de independencia estadounidense en 1776 y por entonces presidente de la nación.

No era una amistad extraña. Además de la capacidad intelectual y el inagotable interés científico por la realidad que le animaban, Humboldt fue además un progresista defensor del pensamiento ilustrado que Jefferson también animaba, y tuvo la osadía necesaria para oponerse al racismo, al antisemitismo y a toda forma de colonialismo, cuando su sociedad (y su clase social, además de su posición nobiliaria) dependían precisamente del sistema colonial.

Los datos reunidos en el largo viaje hicieron que Simón Bolívar, a quien Humboldt conoció en París a su regreso, considerara que el naturalista alemán era “el verdadero descubridor de América”. Los resultados del viaje dieron origen a Viaje a las regiones equinocciales del nuevo continente, que los dos aventureros empezaron a publicar en 1807.

Pero ese primer tomo era apenas el principio. Radicado en París, durante los siguientes 20 años Humboldt publicó 33 tomos más de esta impresionante obra que no sólo incluía la narrativa del viaje, sino que echó mano de famosos pintores y grabadores para representar gráficamente los paisajes, los animales y las plantas de América en 400 láminas.

A los 59 años de edad, Humboldt decidió conocer el otro lado del mundo y emprendió un recorrido de más de 13.000 kilómetros cruzando Rusia, pasando los montes Urales y llegando a la frontera con China, todo financiado por el zar Nicolás I que deseaba conocer mejor ciertas zonas de su vasto imperio. Este  viaje dio como resultado, entre otros escritos, el libro en dos volúmenes llamado Fragmentos de geología y climatología asiáticas.

La totalidad de la obra de Humboldt es difícil de reunir pues además de sus ambiciosos libros (cuya edición muchas veces financió él mismo gracias a la fortuna familiar hasta agotarla) publicó numerosísimas monografías y estudios.

Al momento de su muerte, en 1859, Alexander von Humboldt era el más famoso científico de Europa, fundador de la ciencia que hoy llamamos geografía física y uno de los más grandes impulsores de la investigación y la visión científicas como resultado de un pensamiento libre y progresista según el cual el conocimiento científico es riqueza y fuerza para el bien.

Esa superioridad del conocimiento y el pensamiento hicieron a Humboldt señalar que “la visión del mundo más peligrosa es la de quienes no han visto el mundo”.

“Cosmos”, Humboldt antes de Carl Sagan


La visión universalista de Alexander von Humboldt incluía el interés por llevar el conocimiento científico a la gente no especializada, la divulgación o popularización de la ciencia. Entre 1827 y 1828 dictó un ciclo de conferencias sobre geografía y ciencias naturales al que dio por título “Cosmos”, en su acepción de “el todo”. Entre 1845 y 1858 las usó como base para su monumental serie de 5 libros del mismo nombre, que además de divulgar con gran éxito se propuso la unificación de todas las ciencias naturales.