Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Philo Farnsworth en nuestro hogar

La televisión puede definir al mundo de hoy, pero su historia es tan poco conocida como su principal inventor.

Philo T. Farnsworth.
(Foto D.P. de Harris & Ewing,
vía Wikimedia Commons)
El 7 de septiembre de 1927, Philo T. Farnsworth, un desconocido que había aprendido electricidad mediante un curso por correspondencia, consiguió realizar la primera emisión de televisión electrónica en el pequeño laboratorio que tenía en el 202 de Green Street, en San Francisco, California. Era una imagen de sólo 60 líneas de resolución (la televisión común tiene 520 líneas de resolución y la televisión de alta definición o HDTV tiene 1.125).

Era el primer paso de un medio de comunicación cuya importancia, presencia y relevancia no han hecho sino aumentar desde entonces, como uno más de los desarrollos tecnológicos que han democratizado el conocimiento, la información y el entretenimiento, como la imprenta, la radio, el cine, la grabación musical y, por supuesto, Internet.

Farnsworth había nacido en 1906 en una familia campesina de Utah y se había aficionado muy pronto al novedoso fenómeno de la electricidad. Con sólo 12 años construyó un motor eléctrico y poco después una lavadora de ropa para la familia. La televisión de Farnsworth, por su parte, comenzó humildemente en 1921, cuando el joven de 15 años estaba arando y se le ocurrió que podría utilizar un haz de electrones dentro de un tubo de rayos catódicos para explorar o escanear una imagen en líneas similares a los surcos que recorrían el campo de cultivo familiar. La imagen así codificada podría transmitirse a un receptor que la reconstruyera y exhibiera.

Durante los seis años siguientes, se ocupó en estudiar y hacer realidad esa idea.

Los precedentes

La televisión, sin embargo, no fue una idea original de Farnsworth. De hecho, la idea rondaba los laboratorios de profesionales y aficionados de la electricidad, la física y la electrónica desde mediados del siglo XIX, y fueron numerosos los descubrimientos que fueron dando forma al invento.

Así, el ingeniero eléctrico británico Willoughby Smith publicó en 1873 el descubrimiento de que el selenio tenía la propiedad de la fotoconductividad, es decir, que su conductividad eléctrica cambiaba en función de su exposición a la luz. Esto significaba que el selenio podía utilizarse para transformar imágenes en señales electrónicas. Estas señales, se pensó después podían transmitirse por medio de la radio, que sin embargo aún no nacía. No fue sino hasta 1895 cuando Guglielmo Marconi consiguió transmisiones de radio fiables.

En 1884, el estudiante de ingeniería alemán Paul Nipkow propuso y patentó el primer sistema de televisión del mundo. Era una forma de televisión "mecánica" porque capturaba las imágenes mediante un disco inventado por él mismo que tenía una serie de 18 orificios dispuestos en espiral y giraba a gran velocidad para permitir explorar la imagen sobre un elemento de selenio. Los 18 orificios producían, por tanto, una imagen de 18 líneas de resolución.

Todo esto ocurría en teoría, porque en realidad nadie sabe si Nipkow consiguió fabricar un prototipo de su sistema de televisión. De hecho su idea no tendría el nombre que conocemos hoy sino hasta 1900, cuando el científico ruso Constantin Perskyi usó por primera vez la palabra "televisión" en un discurso dentro de la Feria Internacional de París, la misma para la cual se había construido la Torre Eiffel.

La televisión mecánica encontró a su gran pionero en la figura de John Logie Baird, un ingeniero escocés que demostró públicamente por primera vez un sistema real de televisión el 26 de enero de 1926 en Londres ante unos 50 científicos. En 1927 consiguió transmitir imágenes a más de 700 kilómetros mediante una línea telefónica y en 1928 la primera transmisión transatlántica.

Pero el sistema mecánico de captura de imágenes, que también fue estudiado y desarrollado por el inventor estadounidense Charles Francis Jenkins no era del todo satisfactorio, entre otras cosas porque sólo podía transmitir imágenes de pequeño tamaño.

La televisión electrónica, por su parte, se desarrollaba paralelamente sin esas limitaciones. El inventor ruso Vladimir Kosma Zworykin desarrolló el primer tubo de rayos catódicos que podría utilizarse en una cámara de televisión electrónica, y años después, trabajando en la poderosa empresa de radio RCA, desarrolló un sistema que permitía que un haz de electrones reprodujera las imágenes de televisión en un tubo de rayos catódicos recubierto de fósforo... la pantalla de televisión que predominó hasta que en el año 2000 empezó a ser sustituida por distintas tecnologías de pantalla plana.

De hecho, la RCA intentó atribuir los conceptos básicos de la televisión a Zworykin, desatando una batalla legal de patentes que fue finalmente ganada por Farnsworth, señalándolo como una de las principales fuerzas intelectuales detrás del desarrollo de la televisión.

Aún no estaba consolidado el sistema de televisión que se hizo mundialmente popular después de la Segunda Guerra Mundial cuando la nueva idea empezó a comercializarse. El primer televisor se vendió en los Estados Unidos en 1928 por un precio equivalente a unos 60 euros, y un año después se lanzó la televisión en Inglaterra y Alemania. El primer anuncio publicitario sería transmitido por la empresa de John Logie Baird en 1930. En 1931 aparecía la televisión en Francia y en lo que por entonces era la Unión Soviética. Para 1934, la televisión mecánica empezó a ser definitivamente sustituida por la televisión electrónica, cuya difusión sólo se vio ralentizada por la Segunda Guerra Mundial

Philo Farnsworth, el genio electrónico que a los 21 años convirtió en realidad una idea surgida de un campo arado, siguió innovando en televisión y amplió sus intereses hacia un campo totalmente distinto: la fusión nuclear. Hacia 1959, Farnsworth desarrolló un pequeño reactor de fusión, conocido como fusor Farnsworth-Hirsch, utilizando como aceleradores de partículas algunos tubos de pantalla de televisión cuyas características había estudiado.

Hoy en día, continúa el trabajo sobre el fusor de Farnsworth, no sólo explorando las posibilidades que tiene dentro de la búsqueda de la fusión nuclear como energía alternativa, sino como fuente de neutrones pequeño, barato y útil.

El fusor, pese a su gran promesa de cambiar el mundo incluso más profundamente que la televisión, fue sólo una de las más de 300 patentes que existen a nombre del campesino de Utah convertido en uno de los inventores clave del siglo XX.

Philo T. Farnsworth murió el 11 de marzo de 1971 en Salt Lake City, en su Utah natal.

La televisión en España

Las emisiones de prueba de Televisión Española empezaron a realizarse en 1951-52 y las transmisiones regulares comenzaron oficialmente el 28 de octubre de 1956, con contenido fuertemente influido por la dictadura. El primer partido de fútbol se transmitió en febreo de 1959... como era de esperarse, un Real Madrid-Barça.

De la anatomía de los monarcas al recorrido de la luz

Si algo mide un metro, ¿cuánto mide un metro y cómo lo sabemos?

Uno de los patrones de metro, de aleacion de iridio
platino, creados después del Tratado del Metro
de París en 1875.
Fue el patrón vigente hasta 1959.
(Foto D.P. del Departamento de Comercio
de los EE.UU., vía Wikimedia Commons)
Medir las cosas, su tamaño, su peso, su duración, fue una de las primeras cosas que las civilizaciones humanas tuvieron que hacer para poder realizar tareas como el trueque o intercambio de bienes.

Muchas medidas eran tan vagas como las que usan las abuelas para la preparación de sus mágicas recetas: pizcas, puñados, chorros, buenos pellizcos y otras medidas que en las manos correctas crean alquimia gastronómica.

Pero para otras cosas había que echar mano de algún patrón de medida. Los primeros fueron las partes del cuerpo humano: pies, codos (o cúbitos), manos antebrazos y dedos. Pero dada la variabilidad del cuerpo humano, se optó por un modelo de ser humano: sus monarcas-dioses, que se usaban como base de patrones de medida en forma de barras metálicas que se conservaban en los templos.

Por supuesto, la medida de un miembro del monarca podía estandarizarse en una sociedad cerrada, pero no en el "comercio exterior". En la antigua Grecia había al menos tres estándares para el pie: el dórico, de unos 32,6 cm, el pie ático de 29,4 cm y el pie jónico de 34,8 cm. De modo que "cuántos pies" tenía un significado bastante distinto.

En España misma llegaron a convivir el codo común de unos 41,8 cm, el codo real de 57,4 cm y, en la zona morisca, el codo mayor de 83,87 cm y el codo mediano de 61 cm.

Por su parte, el peso o la capacidad de vasijas y otros recipientes se medía llenándolos de determinadas semillas y luego contándolas. En el antiguo sistema de medidas español, por ejemplo, un "grano" era aproximadamente el peso de una semilla de trigo, aproximadamente 49 miligramos. Y el "quilate" de peso de las joyas no es sino el peso de una pequeña semilla de algarrobo.

Y las medidas se podían confundir entre sí. Por ejemplo, la fanega tenía un valor variable de alrededor de 55 litros y se usaba para medir el grano. Pero se hablaba también de una fanega de tierra como medida de superficie, considerada como el terreno necesaria para cultivar una fanega de trigo, algo menos de unos 7 mil metros cuadrados.

Algo de orden

Cada país, cada región, a veces cada pueblo tenían su propio sistema de pesos y medidas incompatibles con los de sus vecinos. Grandes imperios, como el romano, intentaron imponer sus estándares en sus dominios. Tal es el caso del patrón del pie romano, de 29,6 cm, que se guardaba en el tempo de Juno Moneta, en Roma, y era reproducido para que fuera igual en todo el imperio.

Diversos personajes a partir de Simon Stevin en el siglo XVI, sugirieron la conveniencia de una norma general, basada en un sistema decimal que facilitara las cuentas, sumas y fracciones de los diversos sistemas de medida, simplificando confusiones. En el antiguo sistema español, por ejemplo, una legua eran 20.000 pies y una vara eran 3 pies, el palmo era 1/4 de vara, la pulgada 1/12 de pie (o 1/36 de vara), etc. Una distancia podía así medir tantas leguas más tantas varas más tantos pies más tantos palmos, etc.

El sistema que hoy es el patrón mundial nació a instancias de Luis XIV, que nombró para crearlo a un grupo de científicos entre los que destacaba Antoine Lavoisier, se introdujo en una ley revolucionaria de abril de 1795 que basaba todas las medidas en un metro provisional, y se implantó oficialmente el 10 de diciembre de 1799, bajo Napoleón, una vez terminado el estudio geográfico que dio al metro su primera definición: la diezmillonésima parte de un cuadrante de la circunferencia de la Tierra desde el Polo Norte hasta el Ecuador pasando, por supuesto, por París.

Las demás medidas se desprendían del metro y de sus fracciones o múltiplos: el área se mediría en metros cuadrados, el volumen en litros (decímetros cúbicos) y la masa basada en el gramo, definido como el peso de un volumen de agua pura igual a un centímetro cúbico a la temperatura del hielo al fundirse.

Así terminaba la complejidad de celemines, azumbres y arrobas, pies, pulgadas y varas. Bastaban prefijos como "kilo" (mil) para multiplicar, o "mili" (milésima parte) para dividir las unidades básicas en un sistema elegante, que simplificaba la vida y resultaba fácil de entender.

A partir de entonces, durante todo el siglo XIX y XX se desarrollaron dos procesos simultáneos. De una parte, un esfuerzo creciente por definir con mayor precisión y de modo más universal y repetible las unidades básicas de peso y medida. De otra parte, la aceptación e implementación a nivel mundial del sistema métrico decimal. Los países pioneros en su adopción fueron Brasil en 1811, Portugal en 1814, Bélgica y Holanda en 1820, Chile en 1848, y España y México en 1852. En 1875 se estableció la Convención Mundial del Metro a la que seguirían los organismos internacionales que hoy definen, estudian y promueven la adopción del sistema, que en 1960 pasó a llamarse Sistema Internacional de Unidades sobre la base de las unidades metro-kilogramo-segundo.

Durante el siglo XX, prácticamente todos los países adoptaron el sistema internacional, siendo los más reacios a hacerlo tanto los asiáticos como los relacionados culturalmente con el imperio británico del siglo XIX, muchos de los cuales, pese a ser oficialmente métricos, mantienen algunas medidas imperiales.

En la actualidad, los únicos países donde no es oficial son Myanmar, Liberia y los Estados Unidos, lo que resulta curioso porque Thomas Jefferson, uno de los primeros presidentes estadounidenses y pensador de gran influencia, fue entusiasta del sistema decimal y llegó a proponer uno al congreso estadounidense en 1790.

Hoy, eso sí, sabemos con precisión a qué nos referimos con nuestras medidas, lo que permite una enorme precisión para el trabajo científico y para el intercambio comercial. Un metro es, desde 1983, la longitud del recorrido de la luz en el vacío durante un intervalo de tiempo de 1/299.792.458 de segundo.

Y el segundo se define como la duración de 9.192.631.770 oscilaciones de la radiación emitida entre los dos niveles hiperfinos del estado fundamental del isótopo 133 del Cesio a una temperatura de 0 grados Kelvin.

Y no necesitamos aprendérnoslo. Basta saber que esos patrones se utilizan para producir todos los instrumentos y herramientas con los que medimos el cosmos, el microcosmos, y los tablones de la estantería.

Costosos desacuerdos

La sonda Mars Climate Orbiter lanzada por la NASA orbitó detrás de Marte el 23 de septiembre de 1999 y desapareció. La misión, con un coste de 125 millones de dólares, tenía un control de altitud que utilizaba las anticuadas medidas imperiales (millas, pies y pulgadas) mientras que su software de navegación empleaba unidades métricas. Cuando disparó sus cohetes para intentar ponerse en órbita, estaba 100 kilómetros demasiado cerca del planeta rojo, y cayó destruyéndose.

Nuestros inquilinos los ácaros

Vivieron en el hábitat y en la piel de los dinosaurios. Hoy viven en nuestras casas y en nuestros rostros.

Ácaro del polvo (Dermatophagoides pteronyssinus)
(Foto CC de Gilles San Martin de Namur, Bélgica,
vía Wikimedia Commons)
No es exactamente una historia de terror, pero muchas veces se ha presentado así. Empieza en el gran punto de contacto que tenemos con el mundo, el órgano más extenso: nuestra piel.

La capa exterior de nuestra piel está formada por células muertas. Aunque la idea puede ser inquietante, es una gran ventaja, ya que esa capa, el "estrato córneo", protege al resto de las capas de la piel, y a todo nuestro organismo, del peligro de las infecciones y la deshidratación. Pero el estrato córneo, precisamente por su composición de células muertas formadas principalmente por queratina (la proteína que también forma nuestro cabello y uñas), se renueva constantemente de abajo hacia arriba, y las células muertas más antiguas se descaman para ser sustituidas por otras, procedentes de los estratos inferiores de la epidermis.

Diariamente desechamos entre 10 y 20 gramos de células de piel muerta, que se depositan por todos los lugares donde habitamos, principalmente donde pasamos mucho tiempo, como las camas y asientos.

Un hecho destacado del ciclo de la vida en nuestro planeta es que toda la materia orgánica es reciclable. Toda. Donde quiera que haya algo de materia orgánica que pueda servir de alimento, surgirá, como resultado del proceso evolutivo, un ser vivo que se alimente de ella. Pueden ser seres vivos cazados por sus depredadores, o seres muertos que son utilizados como alimento por una enorme variedad de animales, hongos y plantas.

Y las células de nuestra piel son el alimento de unos pequeños, pequeñísimos artrópodos, llamados "ácaros del polvo", que se alimentan además de otros fragmentos de materia orgánica, como la grasa o sebo que todos los mamíferos secretan para mantener lubricada la piel, y en general todas las sustancias animales o vegetales que ya estén en proceso de descomposición por parte de hongos, ya que el aparato digestivo de los ácaros del polvo es tan simple y primitivo que necesita ayuda para el proceso digestivo.

Lo aparentemente terrorífico viene cuando nos enteramos de que estos ácaros del polvo viven en nuestros hogares, y por millones y millones. Nuestro colchón, nuestras almohadas, nuestros sillones, nuestras alfombras y nuestra ropa son hogar de estas legiones de minúsculos bichos que no podemos ver.

Las cosas no mejoran cuando nos enteramos de que los ácaros del polvo producen, incluso como parte de su digestión o al morir, una serie de proteínas que desencadenan ataques de alergias y asma en personas que tienen problemas respiratorios y obligan a que estas personas practiquen formas de higiene doméstica especiales destinadas a reducir la presencia de los alérgenos de los ácaros del polvo.

El ácaro del polvo mide unos 0,025 o 0,03 milímetros, mientras que el objeto más pequeño que puede ver el ojo humano es de aproximadamente 0,1 milímetro. De hecho, hay algunos seres unicelulares como amoeba proteus, los paramecios e incluso células independientes como el óvulo humano, que ciertas personas pueden ver sin ayuda de instrumentos. Adicionalmente, el cuerpo de los ácaros del polvo es traslúcido, lo que hace más difícil verlos.

Sin embargo, descubrir que tenemos estos millones de inquilinos que no pagan el alquiler no debería ser tan aterrador. Han estado con nosotros desde siempre, aunque no lo supiéramos. De hecho, han estado en este planeta desde mucho antes que nosotros.

Los ácaros del polvo son sólo unas pocas especies de la gran subclase de los acaris o acarinos, pertenecientes a la clase de los arachnida (a la que pertenecen las arañas y los escorpiones). Son una familia realmente numerosa y con integrantes de lo más diversos. Se han descrito alrededor de 50.000 especies de ácaros, y los científicos que los estudian calculan que podría haber en total 500.000 especies distintas de estos versátiles seres, que más allá de la inquietud que nos puedan causar resultan sumamente intrigantes.

Podemos encontrar ácaros viviendo en prácticamente todos los hábitats de nuestro planeta, en tierra, agua dulce y agua de mar, en las zonas polares más frías, en los húmedos trópicos y en los extremistas desiertos, en la superficie del suelo o viviendo hasta 10 metros de profundidad, en aguas termales con temperaturas de hasta 50 grados centígrados, y hasta a 5.000 metros de profundidad en las fosas marinas.

La única variedad de ácaros que tiene un tamaño que nos permite verlos son las garrapatas, que se alimentan de la sangre de los mamíferos, aves, reptiles y anfibios, y que son además transmisores, o vectores, de diversas enfermedades. Y hay otras especies que también son perjudiciales porque tienen una forma de vida parasitaria, como los tetraníquidos, que parasitan diversas plantas, entre ellas el algodón y los árboles frutales, con un importante impacto económico negativo.

Hay también ácaros parásitos de diversas especies animales, incluido el ser humano. La especie Demodex folliculorum vive en los poros de nuestro rostro, la mayor parte del tiempo sin causar daños. De hecho, al estimular la secreción de sebo, este ácaro retrasa la aparición de arrugas, por lo que no es del todo malo. Salvo cuando coloniza los folículos en los que nacen nuestras pestañas, causando irritación y un serio problema pues su erradicación es sumamente difícil. Otros provocan la sarna en el ser humano y en los perros.

Y estos acarinos han vivido en el planeta durante largo tiempo. Se han encontrado fósiles del suborden de los acarinos en estratos geológicos pertenecientes al período devónico, hace 400 millones de años, e incluso algunas garrapatas primitivas (y enormes) fueron parásitas de los dinosaurios.

Pero en un universo de decenas de miles de especies no todas pueden ser dañinas. De hecho, toda una familia de ácaros, los Phytoselidae, se utilizan en la agricultura como agentes de control biológico de otros ácaros que destruyen las cosechas y a los que depredan los Phytoselidae.

Pero la principal importancia en general de los acarinos es que son un engranaje fundamental que cumple un relevante papel en el gran mecanismo de reciclaje de la vida. Son así, pese a sus características poco agradables, esenciales para que la vida genere más vida.

El polvo doméstico y la piel

Se suele decir que la mayor parte del polvo doméstico está formado por células muertas de piel, quizá para hacer más aterradores a los ácaros. Sin embargo, la experta en calidad del aire Kathleen Hess-Kosa ha muestreado el aire de numerosas casas de los Estados Unidos y, además de demostrar que la composición del polvo es muy variable, ha determinado que las células muertas de piel no son el componente principal del polvo, ciertamente no el 70 y 90% del que suele hablar la leyenda urbana.

El láser, solución en busca de un problema

El láser es uno de los desarrollos más versátiles del siglo XX, con una cantidad de usos que crece día a día, pero que nadie pudo prever cuando se emitió el primer rayo.

El primer láser de rubí de 1960 y su inventor,
Theodore Maiman
(Foto D.P. de Daderot, vía Wikimedia Commons)
La luz que vemos habitualmente, la que emite el sol, la del fuego, la de nuestras bombillas y la que nos llega del universo es un caos que contiene ondas de distintas longitudes, amplitudes y fases, la luz “incoherente”.

Si en un estanque tranquilo arrojáramos una serie de guijarros de distinto tamaño y peso, desde distinta altura y con ciertas diferencias de tiempo. Las ondas que se producirían serían caóticas: las características cada guijarro producirían una onda de distinta frecuencia y amplitud que las de los otros guijarros, y donde sus crestas (la parte más alta de la onda) y valles (la parte más baja) tampoco coincidirían.

Así es la luz del sol que vemos como blanca y que contiene todos los colores del espectro visible. Si hacemos pasar la luz blanca por un prisma, como hizo Newton en su clásico experimento, la longitud de onda de cada color se difracta en un ángulo distinto al salir del prisma permitiéndonos ver la composición que tiene el rayo de luz original.

Por contraposición, la luz coherente sería aquélla en la que todos sus componentes van ordenados, con la misma longitud y amplitud de onda, y con crestas y valles coincidentes (en fase).

Para verla, hubo que esperar el genio de Albert Einstein.

En 1917, Einstein propuso una forma de estimular la emisión de la radiación electromagnética. Cuando se aplica energía a cualquier colección de átomos, éstos emiten fotones al azar. Es lo que pasa cuando aplicamos electricidad al gas de una bombilla fluorescente o de neón, al filamiento de una bombilla tradicional o al diodo de una bombilla LED).

Einstein propuso que se podía estimular a los átomos para que emitieran luz coherente. Según su teoría, si se dispara al átomo un fotón de cierta longitud de onda, provocará que el átomo emita un fotón en la misma dirección, con la misma frecuencia y en fase con el primero. Este efecto se multiplica al viajar los fotones coherentes por los átomos cercanos, provocando que se emitan más fotones coherentes que se pueden emitir como un haz de radiación electromagnética.

Si la luz incoherente es como una multitud caminando cada quién a su ritmo y paso, en la luz coherente todos los miembros de la multitud caminarían al mismo ritmo y con pasos iguales, como en un desfile.

Pasaron 37 años antes de que lo que Einstein había propuesto teóricamente se llevara a la práctica. En 1954, Charles Townes y Arthur Schawlow crearon en la Universidad de Columbia un aparato que estimulaba la emisión de microondas, con objeto de tener una fuente de microondas coherentes que se utilizaban en el estudio de la estructura de moléculas, átomos y núcleos atómicos. Llamaron a su procedimiento “amplificación de microondas mediante la emisión estimulada de radiación”, o MASER según sus siglas en inglés.

Estros mismos científicos plantearon hacer lo mismo con luz visible y publicaron artículos científicos al respecto, pero nunca lo hicieron en la práctica. El desafío no tuvo que esperar mucho para hacerse realidad y para desatar la polémica.

En 1958, Gordon Gould, también en la Universidad de Columbia, construyó el primer aparato capaz de emitir luz mediante la emisión estimulada de radiación. Siguiendo la pauta del “MASER”, cambió la primera letra, referente a las microondas, y la sustituyó por la L de luz (light), para crear la palabra “LASER”. El problema es que no presentó la solicitud de patente hasta 1959, se le denegó y tuvo que luchar hasta 1977 para que se le reconociera su calidad de pionero.

Mientras tanto, Theodore Maiman consiguió reconocimiento con la invención del láser de rubí, que nos presentó al “rayo láser” con un característico color rojo, simplemente porque el material empleado emitía los fotones de su haz de luz coherente en la longitud de onda del rojo, aunque el rayo puede ser de cualquier color dependiendo de los materiales y procedimientos usados para generarlo.

El láser era impresionante, se parecía al “rayo de la muerte” que dibujaban los ilustradores de las revistas “pulp” de ciencia ficción, tenía propiedades físicas asombrosas… pero no parecía tener aplicaciones prácticas. De hecho se le llamó “una solución en busca de un problema”.

Pero mientras multitud de científicos desarrollaban otros tipos de láser que necesitaban menos energía, más eficientes y de diversas longitudes de onda, las aplicaciones prácticas empezaron a desarrollarse. En 1969, la misión a la Luna del Apolo 11 dejó sobre la superficie de nuestro satélite, entre otros instrumentos, un reflector láser. Lanzando un rayo láser desde un observatorio y midiendo el tiempo que tarda en volver, se puede medir la distancia que nos separa con una tolerancia de 3 centímetros.

Esto ilustra una de las principales características de la luz coherente: al no dispersarse en ángulo como la luz de una linterna doméstica, sino mantenerse como un rayo recto, es posible proyectar un láser a gran distancia, como lo ilustran por desgracia los punteros láser, creados para auxiliar en presentaciones y en el aula, pero utilizados para molestar a deportistas y otras personas a distancia.

Hoy la lista de aplicaciones de las numerosas formas del láser es no sólo extensa, sino que crece día con día. Se usa por igual para leer códigos de barras en el supermercado o los CD y DVD de nuestros ordenadores y equipos de vídeo que para alinear puentes, como cinta de medir o como nivel para los profesionales de la construcción y hasta para los aficionados al bricolaje, para estudiar la atmósfera, como auxiliares en telescopios de última generación; para cortar, soldar doblar, grabar, marcar o limpiar metales; en diversas aplicaciones quirúrgicas y estéticas, desde la cirugía ocular hasta la eliminación de tatuajes y cicatrices y en la cirugía general, creando toda la especialidad de la medicina láser; como mira para distintas armas, en las impresoras de nuestros documentos y, por supuesto, en espectáculos como los que acompañan los macroconciertos de rock. Es importante señalar que la luz que viaja por la fibra óptica que ha revolucionado las telecomunicaciones y nos permite tener Internet de alta velocidad es luz láser.

Al final, el láser, la luz coherente que imaginó Einstein, ha resultado ser una solución para una multitud de problemas en las áreas más diversas de la experiencia humana.

Estrellas láser

Los cuásares o fuentes cuasi estelares de ondas de radio descubiertos en 1950 se han revelado como objetos que emiten naturalmente rayos láser. El telescopio Hubble ha descubierto además una estrella inestable en nuestra propia galaxia, Eta Carinae, millones de veces mayor que nuestro sol y que emite luz láser ultravioleta.

Claude Bernard y los comienzos de la medicina científica

El arte lo llevó a la medicina y su aproximación a la fisiología ayudó a dar a luz a la medicina con bases científicas en el siglo XIX.

Claude Bernard
(Foto D.P. vía Wikimedia Commons)
“El arte es ‘yo’, la ciencia es ‘nosotros’” comentaba Claude Bernard, que vivió entre ambas pasiones.

En el siglo XIX, la anatomía había avanzado mucho. Se tenía una razonable descripción de los componentes principales del cuerpo humano, pero nadie sabía con precisión que cómo funcionaba cada uno, ni cómo actuaban en conjunto para hacer funcionar el cuerpo humano.

Claude Bernard, el hombre que enfrentó ese problema desde la ciencia, nació el 12 de julio de 1813 en el pueblo de St. Julien, cerca de la ciudad de Lyon, en una familia dedicada a la agricultura.

El joven Bernard demostró pronto que no era un buen estudiante. Ni lo sería nunca. A los 18 años se interesó por el movimiento romántico, por la literatura, tomando como maestro a Víctor Hugo, por la teoría de la luz y el color, y, de modo intenso, por la filosofía cartesiana y la idea de Descartes de que era necesaria la duda metódica para alcanzar la verdad.

A los 18 años entró como aprendiz en una farmacia en Lyon. Pero su convicción filosófica se vio sacudida al ver que muchísimos preparados farmacéuticos se ofrecían a los pacientes sin haber nunca demostrado su eficacia experimentalmente, como sigue ocurriendo hoy con numerosas terapias y pseudomedicinas alternativas.

Algunos remedios eran fórmulas de miles de años de antigüedad, como el mitridato, supuesta panacea (medicamento para curarlo todo) que se hacía con más de cincuenta sustancias, entre ellas víbora, opio y secreciones de castor, más una pócima mágica que un medicamento. Y no había pruebas de que funcionara, algo que le parecía a Bernard especialmente chocante en un tema tan delicado como la salud.

Optó por dedicarse a componer una obra teatral que llevaba tiempo soñando, estrenada con el nombre “Rosa del Ródano” con un breve éxito. Animado, dejó su puesto, volvió a casa a trabajar como agricultor pequeñoburgués y a escribir su nueva obra teatral basada en el personaje histórico de Arturo de Bretaña, quien había apoyado a Juana de Arco.

La obra, sin embargo, fue criticada por un reconocido actor romántico y por el ilustre crítico de la Sorbona Saint-Marc Girardin, que se oponía al movimiento romántico. El crítico sugirió que ya que Bernard había hecho algo de farmacia, estudiara medicina y quizá podría escribir sobre ciencia.

A la tardía edad de 23 años, Bernard terminó su bachillerato y empezó a estudiar medicina, aunque de nuevo sintió que lo que le enseñaban era anticientífico, basado en especulaciones y no en experimentos. Pronto empezó a asistir a conferencias en el Colegio de Francia, donde se estaba llevando a cabo una revolución en la medicina, cuyas bases eran precisamente la observación y la experimentación. En 1841 consiguió un puesto como asistente de investigación del reconocido François Magendie, con quien trabajaría en neurofisiología, cateterización cardiaca y la fisiología de la digestión. Al mismo tiempo, Bernard instaló un modesto laboratorio privado para realizar sus propias investigaciones, a veces sin la anuencia de su jefe.

En 1843, Claude Bernard se graduó como médico con una tesis que marcó un cambio en la profesión, titulada “Sobre el jugo gástrico y su papel en la nutrición”, con sus descubrimientos sobre las transformaciones de los carbohidratos en los organismos animales. Pero no se planteó nunca practicar la medicina y fue nombrado suplente de Magendie para los cursos de verano.

La primera cátedra que dictó Claude Bernard a sus alumnos comenzó diciendo “La medicina científica que es mi deber enseñaros no existe…” La búsqueda de la verdad que le inspiraba la visión cartesiana aún no era el principio rector de la medicina. Su compatriota, Louis Pasteur, aún no emprendía el camino para demostrar el verdadero origen de las enfermedades.

Para entonces, ya había realizado algunos avances importantes: había conseguido determinar que el curare, legendario veneno del Amazonas, actuaba atacando a los necios motores, paralizando la respiración y causando la muerte por asfixia; descubrió que el páncreas tenía una importante función digestiva,

Bernard consiguió un puesto como profesor e investigador. Sin embargo, sus trabajos sobre la función de los órganos exigía numerosos experimentos en animales en vivo, la llamada “vivisección”, y se encontró con un creciente rechazo popular a esta práctica, incluso de su esposa, que pasó al activismo público contra su marido.

Bernard también descubrió que el hígado sintetiza la glucosa, cuando la creencia hasta ese momento era que sólo las plantas sintetizaban nutrientes, y demolió la creencia de que cada órgano del cuerpo tenía una sola función. De hecho, el hígado es uno de los órganos con más funciones diversas que tenemos.

Cuatro veces premiado por la Academia de Ciencias, pero también cansado de la resistencia que sus más tradicionales colegas ponían a sus trabajos, que estaban reinventando toda la medicina y enfermo, en 1860 se retiró a su heredad en Saint Julien, donde se dedicó al desarrollo de su visión filosófica del determinismo científico. Seguiría trabajando ocasionalmente, por ejemplo, ayudando a su amigo Louis Pasteur a demostrar la falsedad de la antigua concepción aristotélica de la generación espontánea.

En los años tardíos de su vida, Bernard se dedicó a desarrollar su filosofía de la medicina experimental y el método científico, ocasionalmente volviendo a la experimentación y disfrutando el reconocimiento de su sociedad, que lo llevaría a la Academia Francesa y al Senado del imperio de Luis Napoleón. Su último puesto público sería como Presidente de la Asdociación Francesa para el Avance de la Ciencia, mientras seguía trabajando sobre aspectos fisiológicos como los venenos, su eterno interés.
Claude Bernard murió el 10 de febrero de 1878, considerado uno de los principales científicos franceses de la época. Sin embargo, su última voluntad fue la publicación de su obra histórica “Arturo de Bretaña”. El ‘yo’ del arte convivió siempre con el ‘nosotros’ de la ciencia en el padre de la fisiología moderna.

Fragmentos de la verdad universal

“El deseo ardiente del conocimiento es, de hecho, el motivo que atrae y sostiene a los investigadores en sus efuerzos; y sólo este conocimiento, realmente aprehebdido y sin embargo siempre volando ante ellos, se convierte a la vez en su único tormento y su única alegría… Un hombre de ciencia se eleva siempre, en la búsqueda de la verdad; y si nunca la encuentra en su totalidad, descubre sin embargo fragmentos muy significativos, y estos fragmentos de la verdad universal son precisamente lo que constituye la ciencia.” Claude Bernard en Introducción al estudio de la medicina experimental.

Cada vez más complejo

“Mi suposición personal es que el universo no es sólo más extraño de lo que suponemos, sino que es más extraño de lo que podemos suponer.”

Gran parte de la extrañeza del universo que destaca en esta frase del biólogo evolutivo y genetista J.B.S. Haldane se debe a su complejidad.

Parecería que cada vez que posamos la vista sobre el universo es cada vez más complejo.

La sencilla idea de los cuatro elementos
de la Grecia Clásica...


La complejidad real de la tabla periódica
y sus 118 elementos... 2.500 años después
La historia de la ciencia ha sido la historia de cómo los seres humanos vamos asumiendo la complejidad, la a veces incómoda y poco amable, del universo en el que vivimos.

Después de todo, nuestros sentidos evolucionaron para permitirle a un primate sobrevivir en un entorno o ecosistema determinado. Y lo mismo pasa con nuestro aparato cognitivo, es decir, los procesos cerebrales que interpretan la información de nuestros sentidos y sacan conclusiones para mover a la acción (o a la inacción).

Por eso mismo, nuestros sentidos y nuestro aparato cognitivo son terriblemente limitados. Y el primer paso para concer el universo ha sido reconocer esas limitaciones.

No se trata sólo de que nuestra vista, pese a estar muy desarrollada cuando la mayoría de los mamíferos ve sólo dos colores, esté limitada a sólo una pequeña sección del vasto espectro electromagnético, sino que nuestro cerebro puede interpretar mal lo que vemos.

Llamamos a estos errores “ilusiones ópticas” aunque, como dice el astrofísico y divulgador Neil DeGrasse Tyson, deberíamos llamarlos “errores del cerebro”, porque no son nuestros ojos los que nos hacen ver lo que no hay o cambiar su sentido en las ilusiones ópticas, es nuestro cerebro el que se hace un lío y trata de encontrar sentido a una imagen que, en general, no se puede encontrar en la naturaleza.

Además de las ilusiones ópticas, está el hecho de que con una gran frecuencia saltamos a conclusiones incorrectas debido a ciertas características de nuestro cerebro llamadas “sesgos cognitivos” y que en gran medida parecen “razonables” o “de sentido común”. Cuando comenzó la indagación del universo, lo que “sonaba razonable” se tomaba por verdad y a quien disentía se le miraba como a un ser antisocial.

Los griegos, a partir de Empédocles, creían que el universo estaba formado por cuatro elementos: aire, fuego, tierra y agua, y durante dos mil años el esfuerzo intelectual se dedicó a determinar cómo se unían esos cuatro elementos para formar todo cuanto existe en el universo. Hubo de llegar la revolución científica para mostrar que el universo estaba formado por otros elementos como el hidrógeno, el hierro, el cromo, el lantano y así hasta 90 elementos naturales, además de otros que el ser humano podía producir por medios tecnológicos, para un total, a la fecha, de 118 elementos.

Leucipo y Demócrito habían propuesto que al dividir a la materia debería llegar un momento en que se obtuviera una partícula esencial e indivisible a la que llamaron “átomo”, que significa “lo que no se puede dividir”. Y ya en tiempos de la revolución científica se supuso que la unidad mínima de un elemento era precisamente un átomo, pues no podía dividirse más.

Pero los elementos estaban formados por otros componentes que aumentaban su complejidad: el neutrón, el protón y el electrón, de modo que sí se podía dividir el mal llamado átomo. El concepto tuvo que redefinirse como la mínima unidad de existencia de un elemento.

Los elementos lo son por su número atómico, es decir, cuántos protones tiene su núcleo: el de hidrógeno uno, , el del aluminio 13 y el de mercurio 80. Sin embargo pueden tener un número variable de neutrones, formando los llamados isótopos, algunos naturales, otros artificiales, algunos estables y otros radiactivos.

Por si eso fuera poco, se hallaron otras partículas elementales como los quarks, de los que hay 6 variedades y que forman los protones y neutrones, más otras 6 partículas llamadas leptones, como el electrón y el neutrino, y cuatro más llamadas bosones. Incluso creemos que hay un quinto bosón y para detectarlo se ha construido el mayor aparato de la historia: el acelerador de partículas LHC.

Y así como se creía en los cuatro elementos se creía que el cuerpo humano tenía cuatro fluídos o “humores”: sangre, flema, bilis amarilla y bilis negra, y que la enfermedad era producto de un desequilibrio en las cantidades de los humores, por lo que curar era promover la producción de algunos humores mediante medicinas o alimentos y la reducción de otros lo cual se hacía mediante sangrías.

Tuvieron que llegar Louis Pasteur y Robert Koch para demostrar que muchas enfermedades eran provocadas por seres invisibles al ojo desnudo, los “gérmenes patógenos”, también responsables de la fermentación y otros procesos. Pero esta explicación aún era demasiado simplista. Distintos microorganismos atacan distintos sistemas y órganos del ser humano, algunos, como las bacterias, pueden ser combatidos con antibióticos (como las sulfas y la penicilina, los primeros de la historia), mientras que otros, como los virus, presentan desafíos mucho más difíciles.

La complejidad del cuerpo humano y sus desarreglos sin embargo era mucho mayor. El conocimiento de la anatomía, la fisiología y la genética humana fueron desvelando la complejidad de las causas de los muchos y distintos trastornos que puede padecer nuestra salud. De diagnósticos simples la medicina ha ido evolucionando a diagnósticos mucho más complejos, donde los mismos síntomas pueden ser indicios de enfermedades muy distintas, genéticas, infecciosas, fisiológicas, producidas por distintos venenos o tóxicos, parásitos, etc., algo que fue aprovechado durante ocho años en la exitosa serie de televisión “House”, dedicada al llamado “diagnóstico diferencial”, que utiliza todos los datos disponibles sobre los pacientes y todo tipo de estudios e imágenes obtenidas por escáneres para determinar la enfermedad precisa que padece un paciente.

La complejidad que hoy deben manejar los científicos habría sorprendido a los antiguos griegos, sin duda.

Porque hoy, a diferencia de ellos, sabemos que el cuerpo humano, la mente, la personalidad, las sociedades y el universo todo son mucho más complejos de lo que sabemos. Esto nos puede preparar intelectualmente para enfrentar las sorpresas de la indagación científica pero, afortunadamente, no puede anular nuestra capacidad de asombro, desafiada día a día por los avances del conocimiento.

Es más complicado

Ben Goldacre, columnista del diario británico “The Guardian” y crítico feroz de las pseudomedicinas se ha dado a conocer por una frase con la que suele comenzar sus explicaciones sobre los errores conceptuales que suelen rodear a la creencia en medicinas mágicas como la acupuntura, la homeopatía y otras que simplifican terriblemente los procesos de la enfermedad: “Creo que descubrirá que es un poco más complicado…”