Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los vencedores de la difteria

Emil von Behring, creador de la antitoxina de la difteria.
(Imagen D.P.  vía Wikimedia Commons)
La reaparición de la difteria en países donde estaba aparentemente ya erradicada ha disparado una profunda reflexión sobre los movimientos antivacunas y sus efectos en la salud individual y colectiva.

Hoy es necesario explicar qué es la difteria para poder hablar de esta enfermedad, que a fines del siglo XIX era temida pues se cobraba miles de vidas de niños todos los años, y en algunos casos provocaba epidemias como las muchas que azotaron a España, especialmente en 1613, “El año del garrotillo”.

“Garrotillo” significa “sofocación” y se daba este nombre a la difteria porque bloqueaba la respiración de sus víctimas debido a la aparición de un recubrimiento o pseudomembrana de color grisáceo en las mucosas del tracto respiratorio como resultado de la infección por parte de una bacteria, la Corynebacterium diphtheriae.

La pseudomembrana de la difteria está formada por subproductos causados por la propia bacteria por medio de una potente toxina que puede entrar al cuerpo y afectar gravemente a diversos órganos, incluidos los músculos, , el hígado, los riñones y el corazón.

Hipócrates describió la enfermedad por primera vez, hasta donde sabemos, en el siglo V aEC. Desde entonces, se intentó sin éxito combatir la enfermedad. Sus pacientes, sobre todo niños, recorrían el curso de la enfermedad y aproximadamente un 20% de los menores de 5 años y el 10% de los demás, niños y adultos, morían, mientras que otros quedaban afectados de por vida ante la impotencia de todos a su alrededor.

El primer paso para vencer a la difteria, que recibió su nombre definitivo apenas en 1826 a manos de Pierre Bretonneau, lo dio el suizo alemán Edwin Klebs en 1883, quien identificó a la bacteria causante de la enfermedad. Sólo un año después, el alemán Friedrich Loeffler aplicó los postulados que había desarrollado con Robert Koch para demostrar que efectivamente esa bacteria era la causante de la difteria.

Mientras se hacían estos estudios, otros médicos buscaban aliviar los síntomas que provocaban la muerte de sus pacientes, principalmente la asfixia provocada por el bloqueo de las vías respiratorias debido a la pseudomembrana. Para combatirla, se hizo primero común la práctica de la traqueotomía (cortar la tráquea para que el aire pase directamente hacia ella y a los pulmones) y en 1885 se empezó a difundir la técnica de la intubación para mantener abiertas las vías respiratorias. Su creador, el estadonidense Joseph P. O’Dwyer moriría, por cierto, de lesiones cardiacas provocadas por la difteria de la que se contagió en el tratamiento de sus jóvenes pacientes.

Los franceses Émile Roux, que durante mucho tiempo había sido la mano derecha de Louis Pasteur, y Alexandre Yersin trabajaron sobre esta base y demostraron que la bacteria no entraba al torrente sanguíneo, pero sí lo hacía la toxina que producía y que, aún sin la presencia de la bacteria, la sustancia bastaba para causar difteria en animales experimentales. Esto abrió el camino para que el japonés Shibasaburo Kitasato y el alemán Emil von Behring diseñaran un sistema para tratar la toxina de modo tal que provocara la inmunidad en animales. El suero sanguíneo de esos animales, que contenía la antitoxina de la difteria, podía entonces utilizarse para curar esa enfermedad en otro animal. Émile Roux, que confirmó los experimentos de los anteriores, fue el primero que aplicó la antitoxina a grandes cantidades de pacientes, tratando a 300 niños franceses en 1894.

La difteria era curable. O al menos controlable. La antitoxina no revierte los daños ya causados, pero sí impide que la toxina siga haciendo estragos, de modo que un tratamiento temprano era mucho mejor que uno tardío. El procedimiento de creación de antitoxinas se utilizaría pronto para tratar otras enfermedades mortales provocadas por bacterias, como la fiebre tifoidea, el cólera y la septicemia.

Liberar a la humanidad del dolor y desesperación causados por la difteria dio a sus vencedores el primer Premio Nobel de Medicina o Fisiología, otorgado en 1901, en la persona de Emil Adolf Von Behring aunque, para muchos, debió haberlo recibido de modo compartido al menos con Yersin y Roux.

Una vacuna que impidiera que se contrajera la enfermedad era el siguiente paso. Pero las vacunas para las afecciones provocadas por bacterias no son iguales que las que se utilizan para las enfermedades virales, donde una proteína del virus, una parte de mismo o todo el virus debilitado o muerto se inoculan para que el sistema inmune “aprenda” a producir defensas que utilizaría en caso de verse sometido a una infección. En el caso de las bacterias, las vacunas se hacen con frecuencia utilizando “toxoides”, que son formas o versiones modificadas de la toxina causante del trastorno.

La vacuna contra la difteria sólo se pudo hacer realidad tiempo después, gracias a que el británico Alexander Thomas Glenny descubrió que podía aumentar la eficacia del toxoide diftérico tratándolo con sales metálicas que aumentaban tanto su efectividad como la duración de la inmunidad que podía impartir. Estas sales se llaman coadyuvantes, y por desgracia hoy son satanizadas por la ignorancia de quienes se oponen a las vacunas afirmando, sin prueba alguna, que causan efectos graves, suficientes como para preferir el riesgo de que un niño muera de alguna enfermedad prevenible.

Desde la introducción de la vacuna contra la difteria, los casos cayeron dramáticamente. Así, entre 2004 y 2008 no hubo casos de difteria en Estados Unidos, y los niños españoles estuvieron libres de ella durante casi 30 años, hasta que en 2015 se produjo un caso desgraciadamente mortal.

La vacuna contra la difteria, se suele aplicar en una vacuna triple con el toxoide tetánico y la vacuna contra la tosferina, dos afecciones tan aterradoras como la difteria. La vacuna se conoce como Tdap o Dtap y se aplica en 4 o 5 dosis a los 2, 4, 6 y 15 meses de edad para garantizar una protección fiable.

Postulados de Koch

Un paso fundamental en el desarrollo de la teoría de los gérmenes patógenos que dio origen a la medicina científica fueron los cuatro pasos identificados por Robert Koch y Friedrich Loeffler para identificar al microbio responsable de una afección:

  1. El microorganismo debe estar presente en todos los casos de la enfermedad.
  2. El microorganismo se puede aislar del anfitrión enfermo y cultivarse de modo puro.
  3. El microorganismo del cultivo puro debe causar la enfermedad al inocularlo en un animal de laboratorio sano y susceptible.
  4. El microorganismo se se debe poder aislar en el nuevo anfitrión infectado y se debe demostrar que es el mismo que el que se inoculó originalmente.

El paso 3 tiene como excepción la de los individuos que pueden estar infectados con un patógeno pero no enfermar, los llamados portadores asintomáticos.

Siempre a tu alcance: el móvil o celular

File:2007Computex e21-MartinCooper.jpg
Martin Cooper posando en 2007 con su creación, el prototipo del primer teléfono móvil o celular. (Fotografía CC de Rico Shen, vía Wikimedia Commons)

El 3 de abril de 1973, Martin Cooper, tomó un estorboso teléfono en la 6ª Avenida de Manhattan, en Nueva York y llamó a Joel Engel, informándole que la carrera por crear el primer teléfono móvil había terminado y que Engel la había perdido. Martin Cooper era científico de Motorola y Joel Engel era su rival en Bell Labs, ambos buscando inventar un teléfono móvil viable.

Menos de cien años antes, el 10 de marzo de 1876, en Boston, Massachusets, Alexander Graham Bell había logrado llamar a su asistente Thomas Watson para pedirle que fuera a donde estaba Bell, en otra habitación de la misma casa. Bell también tenía un rival, Elisha Gray, aunque el resultado de su carrera fue menos claro que en el caso de Cooper y Engel, tanto que aún hoy se debate quién debería ser considerado el verdadero inventor del teléfono. En aquella ocasión pasó apenas un año antes de que se instalara el primer servicio telefónico comercial.

El telégrafo fue el primer intento por utilizar la electricidad para la comunicación con un sencillo principio: se provocaba una variación de corriente en un cable cerrando un circuito y se podía registrar en el otro extremo del mismo. El teléfono usaba la misma base pero más compleja. Si se podía lograr que un sonido hiciera variar una corriente eléctrica, esas variaciones podrían ser registradas al otro lado de un cable y descodificadas reconstruyendo el sonido.

El receptor era un micrófono, y el de Bell fue rápidamente mejorado y desarrollado por otros inventores, incluido Thomas Alva Edison. Su principio sigue usándose hoy en todo tipo de micrófonos: hay dos placas metálicas delgadas, separadas entre sí por gránulos de carbón y a través de las cuales se aplica una corriente eléctrica. Cuando una placa, que actúa como un diafragma, es movida por un sonido, lo convierte en presión variable sobre los fragmentos de carbón, haciendo variar la resistencia eléctrica entre las placas. La corriente registra esa variación y la transmite al otro extremo de un cable, a un altavoz que realiza el mismo procedimiento a la inversa: la variación de corriente se utiliza para mover un diafragma que al vibrar reproduce los sonidos originales.

Sobre ese principio se construyó toda la industria de la telefonía, comenzando en los Estados Unidos y la Gran Bretaña. El sistema exigía que un teléfono instalado en cualquier lugar estuviera conectado a una central telefónica mediante cables. La central era la responsable de conectar físicamente al teléfono que llamaba con aquél con el cual deseaba hablar. Al principio, esto se realizaba mediante tableros de conexiones operados por empleados, generalmente mujeres, que respondían al teléfono que hacía la llamada, el interlocutor les daba el número con el cual deseaba comunicarse. Tomaban una clavija conectada al número que llamaba Y la enchufaban en la toma correspondiente al teléfono al que se deseaba llamar. Como paréntesis, el trabajo de operadora telefónica fue uno de los espacios del nacimiento del movimiento feminista laboral, mediante la organización de los primeros grandes sindicatos de operadoras a mediados del siglo veinte.

El trabajo de las operadoras pronto fue reemplazado, en gran medida, por sistemas automatizados que reconocían el número marcado Y, por medio de relés, conectaban los dos números. Sin embargo, todo el camino de un teléfono a otro, fuera en el mismo edificio o al otro lado del mundo, estaba formado por cables conductores físicos y apenas a principios del siglo XX empezaron los intentos por transmitir la telefonía a través de ondas de radio. Con ellas, en 1915 comenzaron las llamadas intercontinentales.

Pero hacer estas llamadas razonablemente accesibles exigió tender cables sobre el lecho marino para interconectar los sistemas telefónicos a ambos lados del mismo. El primer cable entró en operación en 1921, cubriendo la corta distancia (130 kilómetros) entre Cayo Hueso, Florida, y Cuba. Pero el cable que uniera a Europa con América no sería una realidad sino hasta 1956. El siguiente gran salto sería en 1962, cuando el satélite de comunicaciones Telstar I empezó a dar servicio telefónico mediante microondas que enlazaban estaciones terrestres de modo fiable. El satélite, por cierto, fue construido y desarrollado por Bell Labs.

Pero incluso antes de ese primer cable y antes de ese satélite, los Bell Labs habían desarrollado en 1947 una idea novedosa. Los enlaces de radio tenían un problema grave: la enorme potencia de transmisión que requerían los dispositivos, y que aumentaba conforme aumentaba la distancia entre ellos. Un teléfono móvil por radio, como los que empezaron a comercializarse en 1946, necesitaba una enorme fuente de potencia. La nueva propuesta era construir una serie de estaciones base, cada una de las cuales estaría en el centro de una celdilla hexagonal como la de un panal de abejas. Así, cada una necesitaría sólo la potencia necesaria para comunicarse con las seis que la rodean, mientras que los teléfonos en sí sólo tendrían que comunicarse con la estación base (o antena de telefonía móvil) más cercana. Conforme el móvil se aleja de una antena y entra en el radio de acción de otra, pasa a transmitirle a ésta segunda sin que el usuario note el salto.

Con muy poca potencia, entonces, Martin Cooper y Motorola crearon la primera red de telefonía celular experimental con la que hizo su histórica llamada. Diez años después comenzarían a venderse teléfonos grandes, estorbosos, pesados, carísimos y con batería para sólo unas horas... pero que tenían la enorme ventaja de ser precisamente, móviles. A partir de entonces, ya no llamaríamos a un lugar donde se encontrara conectado un aparato telefónico, sino que empezaríamos a llamar a personas donde quiera que se encontraran.

Lo siguiente fue, simplemente, la miniaturización, la mayor eficiencia en las baterías y el uso de sistemas electrónicos para convertir a nuestros móviles en auténticas navajas suizas informáticas y de comunicaciones... pero que siguen siendo sobre todo la herramienta para hacer lo que hizo Bell: llamar a otra persona.

Las ondas de la telefonía móvil

Durante mucho tiempo ha sobrevivido el mito de que las ondas de radio con las que se comunican los teléfonos móviles podrían tener efectos negativos sobre la salud. La realidad es que hasta hoy no se ha demostrado ninguno de esos efectos. Más aún, es poco plausible que esas ondas pudieran hacernos daño ya que son mucho menos potentes (de menor frecuencia y ancho de banda) que las de la luz visible. Si fueran dañinas, pues, la luz lo sería mucho más. En realidad, las radiaciones electromagnéticas peligrosas son las que están por encima de la luz visible, las que comienzan en el rango ultravioleta, el UV del que sabiamente nos protegemos con pantalla solar.

Huesos: origen y legado

"Mono ante un esqueleto", óleo de Gabriel von Max de alrededor de 1900.
(Imagen D.P., vía Wikimedia Commons)
Los huesos son el testimonio más perdurable que puede dejar un ser vivo. De hecho, sin ellos, mayormente fosilizados, no habríamos podido reconstuir la historia de la vida en nuestro planeta. Pero aún sin fosilizarse, es decir, sin que el calcio del hueso sea sustituido por otros minerales al paso de miles de años, los huesos pueden perdurar durante muchísimo tiempo a la muerte de una persona... se han encontrado huesos de ancestros nuestros de hace 90.000 años en África, donde las condiciones han sido propicias para su conservación.

Curiosamente, tendemos a considerar nuestros propios huesos como estructuras más bien rígidas e inanimadas, como las vigas que sostienen un edificio de hormigón armado, o las columnas y nervaduras que sostienen una catedral gótica. Ciertamente lo son, pero son mucho más que eso: son órganos que cumplen funciones más allá de la simplemente pasiva.

Podemos imaginarnos nuestros huesos como en una red tridimensional formada por colágeno. El colágeno es la proteína más abundante de nuestro cuerpo, ya que es el principal componente del tejido conectivo y está presente de modo importante en tendones, ligamentos, piel, cartílago vasos sanguíneos, el aparato digestivo, los discos intervertebrales, la dentina de los dientes y en nuestros músculos.

En el hueso, el tejido de colágeno está impregnado de minerales de fosfato de calcio y carbonato de calcio, que le dan al hueso su fortaleza y flexibilidad. Si el hueso fuera rígido, sería mucho más fácil que se rompiera, poniendo en peligro la supervivencia del animal. Su flexibilidad le permite precisamente soportar hasta cierto punto distintos tipos de tensión, golpes y retorcimientos.

Esa red de colágeno y minerales de calcio es similar a los modernos materiales compuestos, formados por dos o más materiales de características distintas que juntos ofrecen mayor fuerza, resistencia y adaptabilidad que si estuvieran unidos, es el caso de la fibra de vidrio contenida en una capa de resina o la fibra de carbono incrustada en un plástico. Gracias a esta estructura, el hueso es un tejido tremendamente fuerte pero a la vez muy ligero.

En los huecos de esa matriz ósea encontramos células que producen hueso, que lo reparan y en ocasiones lo destruyen para permitir la reparación o crecimiento: los osteocitos, que son alimentados por una red de vasos sanguíneos dentro del hueso y que también están conectados a células nerviosas que transmiten información como la que se necesita para actuar produciendo hueso en caso de una fractura.

Además, a lo largo del centro de los huesos largos como el fémur hay una cavidad que contiene la médula ósea, un tejido suave que produce las células de la sangre. Esto explica por qué algunos casos de cáncer sanguíneo se tratan mediante trasplantes de médula ósea sana que produce glóbulos sanos.

Pero además de sus características individuales, es importante considerar a los huesos en su conjunto, el esqueleto, formado por 206 de ellos cuando somos adultos. Curiosamente, nacemos con muchos más huesos, unidos entre sí por estructuras resistentes de cartílago. El cráneo del recién nacido cuenta con 45 elementos óseos y la flexibilidad del cartílago permite que pase por el canal del parto. Algnos de estos elementos se fusionan para que, cuando adultos, tengamos sólo 22 huesos craneales. Otros huesos presentes al nacer se fusionan en el sacro, el cóxis o la pelvis.

El proceso de desarrollo y crecimiento es el proceso de osificación de las estructuras que unen a los cartílagos del bebé, que se van alargando y adaptando gracias al trabajo de los osteocitos. No es un proceso rápido, de hecho no termina sino hasta que tenemos más o menos los 25 años de edad, y alcanzamos la estatura que tendremos toda la vida.

Historia de los huesos


La aparición de los huesos fue uno de los disparadores de uno de los fenómenos más asombrosos de la evolución de la vida en la Tierra, la llamada “explosión cámbrica”. Hace 530 millones de años, en un brevísimo período de cinco millones de años (breve en términos geológicos y de la historia de la vida en el planeta) aparecieron súbitamente los animales pluricelulares y dieron origen rápidamente a la mayoría de las grandes variedades del reino animal.

Las causas de esta rápida diversificación después de que durante 3.300 millones de años la vida se hubiera desarrollado lentamente y de modo unicelular están aún por determinarse con claridad, pero entre las más probables está el aumento de la cantidad de oxígeno en la atmósfera terrestre, la formación de la capa de ozono que protege a los seres vivos de la radiación ultravioleta del sol y una serie de erupciones volcánicas bajo los océanos que aumentó la disponibilidad de algunos minerales disueltos en el agua, principalmente el calcio. Los animales empezaron entonces a utilizar este mineral en tejidos de piel modificada en forma de escamas y espinas que los protegieran de los depredadores y, al mismo tiempo, desarrollando mejores armas para ser mejores depredadores, principalmente dientes.

Estos tejidos duros, que en principio eran exteriores o “exoesqueletos” evolucionaron pasando a ser la estructura interna o “endoesqueleto” que nos convierte en una sola familia de animales: los vertebrados. Así, por ejemplo, la piel modificada que formó la protección o cresta neural se convirtió eventualmente en el cráneo y se recubrió de piel. A partir del llamado esqueleto axial (columna vertebral, costillas y cráneo a la aparición de extremidades situadas en cinturones óseos (la pelvis y la escápula) en los peces y que a su vez evolucionaron en las más distintas formas para adaptarse a diversas necesidades.

La historia de los brazos y piernas humanos, así, se encuentra en las aletas y patas de los ancestros que tenemos en común con otros seres vivos actualmente. Y la historia del ser humano pasa necesariamente por los cambios de dos aspectos fundamentales de su esqueleto: el paso a ser un animal que se mueve sobre dos pies y el crecimiento y rediseño de nuestro cráneo para alojar un cerebro de mayor volumen y capaz de cuestionar el universo y entender, incluso, a los huesos que lo sostienen.

El hueso enfermo

La más común afección de los huesos es la osteoporosis o pérdida de densidad ósea, un acontecimiento relativamente normal a una edad avanzada que hace a los huesos frágiles y propensos a romperse, y en ocasiones provoca deformidades e incluso la discapacidad. Hay otros trastornos genéticos o del desarrollo menos comunes. Pero la afección más temida es, por supuesto, el cáncer. Sin embargo, sólo ocurre en un 0,01% de los habitantes, una incidencia muy baja comparada con otras formas de cáncer como el de próstata, que los hombres tienen un 15% de probabilidades de sufrir, o el de mama, que puede afectar al 12,3% de las mujeres.

Cuando se inventaron las flores

"Naturaleza muerta con 12 girasoles", óleo de Vincent Van Gogh
(Imagen D.P. de Bibi Saint-Pol, vía Wikimedia Commons)
Hace unos 125 millones de años, la vida dio un salto asombroso. Ya había plantas y animales, de hecho ya estaba establecido un orden ecológico bastante. Los dinosaurios dominaban la tierra y los mamíferos correteaban por allí esperando su oportunidad cuando apareció la primera flor.

No se trataba, por supuesto, de una flor como las que conocemos hoy, pero era una flor, sus estructuras, su forma, su función eran lo bastante distintos de la planta que le dio origen como para decir que la anterior no tenía una flor pero la descendiente sí contaba con los rudimentos de esta peculiar -y hermosa- estructura.

Esto es un poco como el viejo acertijo huevo y la gallina. Hoy sabemos que un animal que no era todavía una gallina puso un huevo del cual surgió un animal con un pequeño cambio que ya podríamos decir que era una gallina primitiva. Esto, resuelve el acertijo (el huevo fue primero), pero en realidad los rudimentos del cambio van apareciendo tan lentamente a lo largo de la evolución que no es sino una metáfora.

Así, el mundo que dominaban los dinosaurios carecía de flores. Las plantas a su alrededor que se reproducían mediante semillas (y no mediante esporas) eran “gimnospermas”, palabra de raíces griegas que quiere decir “semilla desnuda”. Se llaman así porque sus semillas se desarrollan al aire libre, en la superficie de la planta, que en ocasiones asume formas como las piñas de los pinos, que son algunas de las gimnospermas que aún existen.

Esa flor, o protoflor, es el ancestro común de todas las plantas con flores que conocemos en la actualidad: más de 400.000 especies con una asombrosa variedad en su aspecto y sus órganos: flores con simetría radial como la proverbial margarita, o con simetría bilateral como las orquídeas (que, por cierto, fascinaban a Darwin), o cuyos pétalos crecen siguiendo las exquisitas matemáticas de la secuencia de Fibonacci, como las rosas; con todos los colores que podemos ver y alguno que no podemos ver, como el ultravioleta, que sin embargo loa polinizadores como las abejas sí aprecian claramente, en diversos tamaños y con diversos grados de evolución que han ido separándose de ese misterioso diseño original de la primera planta con flores, que aún no conocemos.

Las plantas con flores se llaman “angiospermas”, es decir, cuyas semillas están contenidas en un espacio cerrado, el ovario de la planta. Esos ovarios son los frutos de la planta, y también tienen gran cantidad de formas según la estrategia que utilizan para esparcirse.

Cuando hablamos de “estrategia” es importante recordar que es una metáfora para resumir cómo el proceso evolutivo ha resuelto desafíos para continuar la vida. Así, el diente de león cuyos frutos desarrollan delicados paracaídas (llamados “vilanos”) tiene una “estrategia” para esparcir sus semillas mediante el viento. Si todas las semillas cayeran alrededor de la planta madre, competirían con ella y entre sí, y acabarían perjudicando sus posibilidades de sobrevivir. Las frutas usan la “estrategia” de ofrecer un alimento deseable a los animales, con semillas que no pueden digerir al comerlas y que se depositan en otro lugar, con las heces del animal, que además pueden ser útiles como abono.

Independientemente de que nos parezcan hermosas, las flores son ante todo estructuras prácticas. La flor es el aparato reproductor de las plantas angiospermas y sus frutos son el ovario maduro de la planta, en ocasiones con otros tejidos. Hay frutos secos, como las nueces, los cacahuetes o el trigo, y frutos carnosos como la manzana, la naranja, o el tomate. El fruto es el destino final, pues, de las flores.

Pero, en el principio, la flor tiene por objeto atraer a los polinizadores y para ello, de nuevo, emplean diversas estrategias. Las que son polinizadas por insectos generalmente tienen pétalos de colores brillantes y un aroma que atrae a abejas, mariposas, moscas y avispas, entre otros insectos. En cambio, las flores que son polinizadas por mamíferos como los murciélagos o algunas polillas tienen pétalos blancos y un olor muy fuerte, y las que son polinizadas por aves tienden a tener pétalos rojos y no suelen tener aromas.

La estructura básica de las flores implica cuatro órganos: los sépalos, hojas verdes alrededor de la base de la flor, los pétalos, los estambres o androceo, que producen los granos de polen, que son las células masculinas de las flores, y el gineceo, que incluye el ovario y el camino que lleva a él, el “estilo”. Los polinizadores atraídos por cualquiera de las estrategias de las flores depositan en el gineceo el polen de otras flores que han visitado y, al mismo tiempo, recogen el polen de la flor en sus patas, plumas, picos y otras partes del cuerpo, que llevarán a otras flores.

¿Por qué hacen esto los animales? A veces usan las flores como refugio o como lugar donde aparearse, pero en la mayoría de las ocasiones visitan las flores porque éstas producen el néctar del que se alimentan. Así, se crea una especie de complicidad a lo largo del tiempo, de cientos de miles y millones de años, entre algunos polinizadores y las flores que visitan.

Fue precisamente una flor la que dio la primera prueba sólida y predictiva de la teoría de la evolución. Debido a su pasión por las orquídeas, Darwin recibió en 1862 el obsequio de unos curiosos ejemplares procedentes de Madagascar: Angraecum sesquipedale, o la orquídea navideña, cuyo nectario tiene un cuello de una longitud enorme, de hasta 35 centímetros. ¿Cómo podría alimentarse un animal de ese nectario para funcionar como su polinizador? Darwin sugirió que, como otros polinizadores que evolucionaban conjuntamente con las flores de las que se beneficiaban, seguramente existía en Madagascar alguna polilla con una trompa excepcionalmente larga.

En 1907 se descubrió en Madagascar una polilla que se ajustaba a la predicción de Darwin, tanto así que en su nombre se incluyó la palabra “predicha” en latín: Xanthopan morgani praedicta. Aun ya teniéndola, no fue sino hasta 1992, 130 años después, que se observó que, efectivamente, esa enorme polilla se alimentaba de la orquídea navideña, confirmando la predicción de Darwin.

El ADN de las plantas

El origen de las plantas no empezó a comprenderse con claridad sino hasta 2013, al concluir el proyecto para la secuenciación del genoma del arbusto Amborella, el más antiguo ancestro común de las plantas actuales. Al comparar su secuencia de ADN con otras 20 se pudo determinar que hace alrededor de 200 millones de años las plantas que producían semillas experimentaron una duplicación genética, empezaron a tener el doble de genes que sus ancestros, lo que permitió que algunas estructuras de la planta se desarrollaran hasta crear las flores, con alrededor de 1180 genes nuevos que no están en otras especies de plantas.

Hablar sin hablar

Comunicarse con otros seres humanos es algo que hacemos continuamente, de formas que la ciencia del comportamiento apenas empieza a comprender, y que van mucho más allá de la palabra.

La mano abierta y levantada, la sonrisa y las cejas levantadas
son gestos de saludo que compartimos todos los humanos, de
todas las culturas, la más básica comunicación no verbal.
(Imagen CC NASA vía Wikimedia Commons) 
La comunicación humana por excelencia es el lenguaje. Hasta donde sabemos, ninguna otra especie animal cuenta con un lenguaje estructurado, capaz de expresar abstracciones y de formular cuestionamientos. Escrito, nuestro lenguaje es capaz de informarnos, educarnos y evocar en nosotros todas nuestras emociones, tanto positivas como negativas, en obras académicas, periodísticas o literarias. Hablado es nuestra forma esencial de interactuar con otros seres humanos.

Hoy, cuando gran cantidad de interacciones se realizan mediante la palabra escrita a través de las redes sociales o la mensajería instantánea de textos, suele decirse que la comunicación es incompleta, hay malentendidos cuando una frase se interpreta con tal o cual entonación, falta una serie de elementos que modifican, incluso invierten, el sentido que se pretende dar a una oración. Nos quejamos de que la ironía en las redes sociales falla con frecuencia e incluso hemos desarrollado emoticonos para darle entonación a nuestras palabras.

Estas quejas nos revelan claramente que, pese a su enorme valor, el lenguaje verbal es apenas una parte de la comunicación que establecemos entre nosotros. Una comunicación que es esencial sobre todo porque somos primero que nada un animal gregario, social, y el funcionamiento de nuestras comunidades depende en gran medida de que nos entendamos unos a otros claramente.

A la comunicación que no depende de las palabras la llamamos “comunicación no verbal”. Fue Charles Darwin, en su libro “La expresión de las emociones en los animales y en el hombre”, quien por primera vez intentó estudiar científicamente aspectos de la comunicación no verbal como las expresiones faciales y la gestualidad. Para Darwin, al menos algunas expresiones eran universales y determinadas genéticamente.

Las tendencias antropológicas de la primera mitad del siglo XX, por su parte, afirmaban que todo el lenguaje no verbal, incluidas las expresiones faciales, dependían de la cultura. Fue necesario que aparecieran científicos como los fundadores de la etología (la ciencia que estudia el comportamiento genéticamente determinado) para confirmar que, efectivamente, hay un repertorio fundamental de expresiones que son comunes a todos los seres humanos, a todas las culturas, y que por tanto es razonable suponer que son parte de nuestra dotación genética. A fines de la década de 1950, el psicólogo Paul Ekman identificó seis emociones básicas que se corresponden a expresiones faciales universales y que comunican, sin decirlo, cuándo estamos enfadados, alegres, tristes, temerosos, sorprendidos o asqueados.

Sabemos que las diversas culturas establecen límites a la expresión de ciertas emociones bajo determinadas condiciones, pero sabemos también que todos los seres humanos entendemos claramente que una sonrisa es una expresión amistosa. En ninguna cultura significa otra cosa.

Las expresiones faciales son parte de una de las cuatro grandes categorías de la comunicación no verbal: el lenguaje corporal. En esta categoría se incluye también la gestualidad que acompaña a nuestro lenguaje, la postura del cuerpo, o el contacto visual. Todos podemos reconocer una “actitud” amenazante o conciliadora, reveladas en la postura que asume una persona, e incluso tenemos expresiones verbales para ellas, como “bajar la cabeza”, “ser muy echado palante” o “mirar a la gente desde arriba”.

Otra categoría, a la que hacíamo alusión en el primer párrafo, son todos los modificadores auditivos de nuestro lenguaje verbal, lo que los psicólogos sociales llaman “paralenguaje”: la entonación, la inflexión, el énfasis, la velocidad del habla, las pausas, el volumen, la risa y otros sonidos cambian, modulan o alteran las palabras a las que acompañan y son precisamente lo que más echamos en falta en la comunicación textual de las redes sociales.

La tercera categoría del lenguaje no verbal es el espacio interpersonal, cuyo estudio se llama “proxémica” y se refiere a cómo nuestra proximidad física con otras personas expresa nuestra relación con ellos. Así, por ejemplo, cuando conversamos con un amigo lo hacemos a una distancia que encontraríamos incómoda si se tratara de un extraño. De hecho, cuando las circunstancias nos obligan a tener una cercanía excesiva con desconocidos, como ocurre en un autobús repleto o en un ascensor, establecemos una “distancia social” al evitar que nuestras miradas se encuentren, con frecuencia fijando la vista en puntos poco conflictivos como los números de piso que se van sucediendo o los anuncios en los medios de transporte, lo que le da material de trabajo abundante a comediantes y publicistas. Este manejo de la cercanía física como expresión de nuestras emociones o actitudes se da no sólo a nivel individual, sino de grupos. Cuando varios amigos se reúnen en un corro lo hacen a distancias mucho menores que cuando se trata de desconocidos.

La cuarta y última categoría de la comunicación no verbal está conformada por nuestros efectos personales: ropa, accesorios, maquillaje, peinado, joyería y otros elementos que también utilizamos continuamente para decir quiénes somos, cómo nos percibimos a nosotros mismos, cómo queremos ser vistos y valorados. Quien utiliza el cabello corto y un traje oscuro está enviando un mensaje muy distinto de quien usa el pelo largo, vaqueros y una cazadora informal, y al menos en una primera instancia nos llevan a hacer juicios sobre ellos basados en la primera impresión.

Por supuesto, los distintos elementos del lenguaje no verbal no funcionan de modo independiente, sino que están bombardeándonos de modo continuo y simultáneo (o, al revés, con ellos bombardeamos nosotros a los demás continuamente). Una entonación displicente, un gesto de asco, una gran distancia física y una ropa atildada dan un mensaje totalmente distinto de una entonación amable, una sonrisa, un intento de cercanía y ropa informal pero cuidada. Todo ello a veces puede ser mucho más poderoso que las palabras que se están diciendo y nos comunica con los demás mucho más ampliamente de lo que parece a primera vista.

Los excesos

Algunas personas suelen presentar el lenguaje no verbal como una ciencia exacta que se puede utilizar para lograr resultados asombrosos en quienes nos rodean, influir en ellos y controlarlos, o al menos de “saber lo que realmente piensan y sienten” descodificando sus gestos y posturas. Aunque cada vez sabemos más acerca de esta forma de comunicación fundamental, aún no estamos ni siquiera cerca de poder lograr esas fantásticas afirmaciones que solemos hallar en el mundo de la “autoayuda” y otras expresiones del new age.

La guerra y la paz de Alfred Nobel

Uno de los apellidos más conocidos del mundo, el de Alfred Nobel, resume una historia que va mucho más allá del “inventor de la dinamita” con el que se suele despachar al apasionado inventor sueco.

Cada año, los medios de comunicación repiten una y otra vez el apellido Nobel, primero, durante todo el año pero sobre todo en septiembre, haciéndose cábalas sobre quiénes podrían ser los ganadores de los premios que llevan ese nombre, una tensión informativa potenciada por el hecho de que los responsables de conceder los premios son herméticos respecto a los candidatos que están o no teniendo en consideración. Después, a lo largo de una semana o dos, se van sucediendo los anuncios de los nombres de los premiados del año en física, química, medidina o fisiología, paz y literatura. Finalmente, el 10 de diciembre es la ceremonia de entrega de los premios en Estocolmo, Suecia, salvo el de la Paz, que se entrega en Oslo, Noruega.

Lo que con frecuencia se omite en la abundante información que celebra a los científicos, escritores y activistas por la paz, es el por qué de la fecha de entrega de los premios, aunque suele anotarse que la asignación en metálico que acompaña el diploma y la medalla proceden de un fideicomiso creado con la fortuna de Alfred Nobel. La asignación, por cierto, en 2014 fue de unos 840.000 euros.

La ceremonia de entrega de los premios tiene por objeto recordar la fecha de la muerte de su creador, el 10 de diciembre de 1896, en San Remo, Italia, uno de sus muchos hogares.

Su primer hogar, sin embargo, fue Estocolmo, donde nació el 21 de octubre de 1833, cuarto de los ocho hijos de un emprendedor ingeniero e inventor, Immanuel, y su esposa Karolina. Apenas tenía 9 años cuando su padre llevó a la familia a San Petersburgo, Rusia, donde había fundado una empresa dedicada a suministrar equipo a los ejércitos del desastroso zar Nicolás I y que sería además pionera en la instalación de calefacción doméstica en Rusia.

La mudanza le significó además a Alfred abandonar la única escuela a la que asistiría en su vida, pues en lo sucesivo sería educado por tutores con una educación amplia que incluyó las artes, la literatura, varios idiomas, además de técnica y ciencia que animaron su amor por la ingeniería y los explosivos, estimulado por su propio padre. Habiendo encontrado su vocación, Immanuel mandó a Alfred en 1850 lo envió a estudiar ingeniería química visitando Suecia, Alemania, Francia y los Estados Unidos.

La familia no volvería a Suecia sino hasta 1859, abandonando Rusia después de que la empresa había quebrado cuando el nuevo gobierno ruso se negó a respetar acuerdos previos con los Nobel. Para entonces, Alfred ya tenía a su nombre tres patentes menores: de un medidor de gas, de un medidor de líquidos y de un barómetro mejorado. Pero desde sus viajes, su mayor interés era la nitroglicerina, un potente explosivo descubierto por Ascanio Sobrero en 1847. Alfred siguió experimentando en San Petersburgo hasta que decidió reunirse con su familia en Suecia en 1863 y pronto instalaron una fábrica de nitroglicerina y de unos detonadores inventados por él mismo que servían para hacerla estallar.

La principal característica de la nitroglicerina es su inestabilidad, su impredecibilidad para estallar o no. De hecho, un hermano de Nobel, Emil, murió junto con otros trabajadores de su fábrica en 1864 debido a una explosión de nitroglicerina en sus instalaciones de Estocolmo, lo cual además obligó a Nobel a llevar su laboratorio a zonas menos pobladas. El desafío que enfrentaban los químicos de la época era encontrar una forma de dominar la nitroglicerina y conseguir que se mantuviera estable, estallando sólo cuando se deseara.

La solución que encontró Nobel fue mezclar la nitroglicerina con tierra de diatomeas llamada “kieselguhr”. El sílice, un material inerte (del que está hecha mayormente la arena) estabilizaba la nitroglicerina formando una pasta a la que se podía dar forma de tubos para introducirla en orificios en la roca y hacer más efectiva su explosión. Llamó a la combinación “dinamita” y, junto con unos casquillos detonadores mejorados que había producido, cambió el mundo de la ingeniería permitiendo por primera vez explosiones potentes, controladas y eficientes. La minería, la construcción de carreteras, la demolición y otras industrias lo convirtieron en millonario en poco tiempo.

Desde 1865, su pasión por la invención y la industria lo llevarían a fundar más de 90 fábricas e industrias diversas en 20 países, muchas de las cuales hoy siguen existiendo sin que se conozca su relación originaria con Nobel.  Y reuniría 355 patentes, la mayoría relacionadas con explosivos, pero también con sus avances en la creación de caucho y piel sintéticos, seda artificial, forja de piezas metálicas y otros descubrimientos.
Pero su logro, que veía como una gran aportación al progreso y a la mejoría de la vida de toda la gente a su alrededor, llamó de inmediato la atención de la industria bélica. Nobel mismo, un pacifista declarado, vio el asunto con inquietud. No quería eso, pero no podía evitarlo.

En 1888, cuando murió su hermano Ludvig, a su vez inventor del buque cisterna e innovador en la industria petrolera, algunos diarios interpretaron erróneamente que el fallecido había sido Alfred, y lo describieron como un hombre que se había enriquecido diseñando formas de matar a más gente más rápido, y como el “el mercader de la muerte”. Esto impactó profundamente al inventor. Se consideraba un pacifista, un hombre ilustrado que escribía poemas y obras teatrales, que disfrutaba del arte y buscaba logros que mejoraran la vida de su sociedad. No era, pensaba él, un mercader de la muerte, aunque sus inventos fueran usados incorrectamente por otros.
Cuando murió, en 1896, se descubrió con sorpresa que había dispuesto que la mayor parte de su fortuna se destinara a invertirse en valores seguros y sus beneficios se entregaran cada año a las personas que, durante el año anterior, le hubieran dado el mayor beneficio a la humanidad en cinco áreas. Era su forma de afirmar su convicción de paz con la fortuna que había obtenido, en parte, por la guerra

Alfred Nobel, siempre inmerso en su trabajo, por cierto, nunca se casó y nunca tuvo hijos.

El debate del testamento

Los albaceas destinados a hacer realidad los premios dispuestos por Nobel, dos ingenieros de sus empresas, no se decidieron a llevar a cabo sus deseos, especialmente ante la oposición por parte de la familia de Alfred Nobel. Tendrían que pasar cinco años para que se entregaran por primera vez los premios en 1901. Y, desde entonces, nunca han estado desprovistos de debate tanto por las decisiones como por la forma de tomarlas y la fidelidad o falta de ella a las disposiciones testamentarias del inventor.

La marquesa que preguntaba

Gabrielle Émilie Le Tonnelier de Breteuil, marquesa de Châtelet
(Imagen D.P. de pintor anónimo vía Wikimedia Commons)
Libre, fuerte, independiente, apasionada, rebelde, extremadamente inteligente y llena de preguntas. Es un resumen, si bien insuficiente, al menos básico para conocer a Emilie du Châtelet, una de las figuras relevantes de la Ilustración francesa: matemática, física, filósofa, lingüista y feminista.

Vista con una mirada simplemente frívola, lo más destacado de su vida fue una serie de aventuras amorosas que disfrutó con la complacencia o al menos la simulada ignorancia de su marido. Los años que fue amante de Voltaire bastarían para darle un lugar en la historia de esos años en los que el pensamiento se iba liberando de antiguas ataduras. Pero ella misma se rebeló contra esa fácil visión cuando le escribió a Federico el Grande de Prusia: “Juzgadme por mis propios méritos, o por la falta de ellos, pero no me veáis como un simple apéndice de este gran general o ese gran sabio, esta estrella que brilla en la corte de Francia o ese autor famoso. Soy, por mi propio derecho, una persona completa, responsable sólo ante mí por todo lo que soy, todo lo que digo, todo lo que hago”.

El camino que llevó a esa postura comenzó con el nacimiento de la hija del Barón de Breteuil el 17 de diciembre de 1706, en medio de la turbulencia de la revolución científica y, con ella, del pensamiento ilustrado. Su nombre completo fue Émilie le Tonnelier de Breteuil. El barón, su padre, que ocupó un puesto en la corte de Luis XIV, observó que su hija era extremadamente inquieta, interesada en cuanto le rodeaba y una fuente incesante de preguntas. La educó en latín, italiano, griego, alemán e inglés, y ella aprovechó a los amigos de la familia para expresar y desarrollar de modo autodidacta su pasión por las matemáticas.

La libertad que anhelaba pasaba por un buen matrimonio con un caballero que no le pusiera fronteras a sus intereses y gustos, y encontró al candidato ideal en el Marqués Florent-Claude de Châtelet-Lomont, con el que se casó en 1725 convirtiéndose así en marquesa. Ella tenía 19 años y él 34, y los diversos lugares donde vivieron, especialmente París, influyeron en los gustos estéticos y las pasiones intelectuales de la joven esposa. Tuvieron dos hijos en rápida sucesión y un tercero poco después que vivió apenas un año. Era 1734 y Emilie, además de cumplir con sus obligaciones como marquesa de Châtelet, había tenido una agitada vida sentimental por la que habían pasado al menos tres amantes, asunto por lo demás común en esa época para la gente de su posición social. Pero, además, había contratado a diversos sabios de la época para que le enseñaran matemáticas, y frecuentaba reuniones de intelectuales, matemáticos y físicos, como las llevadas a cabo en el café de Gradot que, sin embargo, tenía prohibida la entrada a mujeres. Emilie optó por vestirse como hombre y, aunque todos sabían quién era y no engañaba a nadie, le franquearon la entrada convirtiéndola en habitual de las reuniones, porque sus aportaciones siempre eran bienvenidas.

En 1733 había conocido a uno de los personajes fundamentales del pensamiento de la Ilustración, con el que inició una relación amorosa y con quien reanimóa sus intereses intelectuales y científicos, Voltaire, que se refirió a ella como “la mujer que en toda Francia tiene la mayor disposición para todas las ciencias”. Emilie y Voltaire se instalaron en una casa en Cirey, propiedad del marido de Emilie, quien aceptó la situación de buen grado, y se ocuparon de estudios científicos, especialmente las propuestas de Newton sobre la gravedad, que no eran aceptadas en la Francia que prefería a Descartes, quien rechazaba la existencia del espacio vacío y explicaba la atracción gravitacional como vórtices en el éter que todo lo llena. Voltaire y Emilie consideraban que la evidencia se inclinaba hacia la explicación de Newton, y dedicaron largo tiempo a estudiar el asunto. Ambos participarían independientemente (ella sin hacérselo saber a su amante) en un premio de la Academia de Ciencias sobre el fuego y su propagación, que finalmente fue ganado por el matemático Euler.

En 1738 se publicaban sus Elementos de la filosofía de Newton, una obra de divulgación de las ideas de Newton que pese a ser firmada sólo por Voltaire éste aclaraba en el prólogo que era una obra a cuatro manos con Emilie de Châtelet. Por entonces también se publicaba la traducción al francés de La fábula de las abejas, obra sobre moral de Mandeville donde la científica aprovechaba también el prólogo para establecer su reivindicación: “Siento todo el peso del prejuicio que nos excluye de manera tan universal de las ciencias; es una de las contradicciones de la vida que siempre me ha asombrado, viendo que la ley nos permite determinar el destino de grandes naciones, pero no hay un lugar donde se nos enseñe a pensar…”

Dos años después, Emilie du Châtelet publicaba su obra personal principal, Fundamentos de la física donde hace la defensa de la posición newtoniana con apoyo en Descartes y Leibniz. En ese libro, sin embargo, no sólo se dedica a asuntos eminentemente científicos, sino que presenta su propia visión sobre Dios, la metafísica y el método científico, junto con las reflexiones producto de su trabajo en el laboratorio que había instalado en Cirey, y donde también se situaba como una innovadora en cuanto a la defensa de las hipótesis como bases para el trabajo científico.

Por esos años se daría tiempo además para escribir su Discurso sobre la felicidad, una reflexión autobiográfica y moral sobre la naturaleza de la felicidad, especialmente de las mujeres.

Hacia 1747, Emilie había dejado su romance con Voltaire, pero no su amistad con él. Se había enamorado del Marqués de Saint-Lambert e intensificó el trabajo en un proyecto que le había ocupado muchos años: una detallada traducción al francés de la obra magna de Newton, los Principia mathematica, acompañada de abundantes comentarios algebraicos clarificadores de la propia traductora.

Nunca lo vería publicado. En 1749 quedó embarazada de su nuevo amante, aunque Voltaire la ayudó a convencer a su marido legítimo que él era el padre del futuro bebé. A los pocos días de nacer su cuarto hijo, Emilie du Châtelet murió inesperadamente el 10 de septiembre de 1749, con apenas 43 años de edad.

Voltaire escribió a un amigo, relatando el acontecimiento: “No he perdido a una amante, sino a la mitad de mí mismo, un alma para la cual parece haber sido hecha la mía.”

Diez años después se publicaba al fin la traducción de Emilie, que es hasta hoy la única traducción al francés de la obra cumbre de Newton. No ha hecho falta otra.

Si fuera rey…

“Si fuera rey”, escribió Emilie du Châtelet, “repararía un abuso que recorta, por así decirlo, a la mitad de la humanidad. Haría que las mujeres participaran en todos los derechos humanos, especialmente los de la mente.”

La anestesia y la lucha contra el dolor

The first use of ether in dental surgery, 1846. Ernest Board. Wellcome V0018140.jpg
El primer uso del éter como anestésico en cirugía dental, a cargo de W.T.G. Morton en 1846.
(Pintura al óleo de Ernest Board, vía Wikimedia Commons.)
Hubo una época en que una de las habilidades más apreciadas de los cirujanos era su rapidez. Por ejemplo, Dominique Jean Larrey, médico del ejército de Napoleón que participó en 25 campañas militares, llegó a poder amputar una pierna por encima de la rodilla en tres minutos y desarticular un hombro en 17 segundos.

¿Qué valor tenía eso? Que los soldados a los que atendía el ágil Larrey se sometían a sus cuchillos y sierras sin anestesia.

Y esto se aplica a toda la historia de la cirugía, a, a los cirujanos de la Roma imperial que ya hacían operaciones para las cataratas y a todos los demás cirujanos en todo el mundo, en todas las culturas.

O, para ser precisos, se aplica a los pacientes de todos estos cirujanos, que durante la mayor parte de la historia tuvieron recursos limitados para controlar el dolor, como la compresión de la arteria carótida en el cuello con la que los antiguos egipcios hacían perder la conciencia a los adolescentes a los que les practicaban circuncisiones. Otros sistemas del pasado fueron los vapores de cannabis usados en la India desde 600 años antes de la era común, acompañados con acónito en China o con opio en las culturas árabes. El vino y después los licores fueron también analgésicos de uso común. Y en el siglo XIII en Italia se usaban opio y mandrágora.

Pero ninguna de estas impedía del todo que la cirugía exigiera, además de destreza y rapidez, la ayuda de personal con gran fuerza física para retener al paciente que solía exigir que el procedimiento se detuviera en cuanto sentía dolor. Los cirujanos aprendieron también a ignorar los gritos de los pacientes.

Un escenario que nada tiene que ver, por supuesto, con un moderno quirófano donde un especialista realiza desde operaciones rutinarias hasta complejísimos procedimientos sobre un paciente plácidamente desconectado de la realidad gracias a la anestesia.

El camino hacia la anestesia moderna se emprendió a fines del siglo XVIII, cuando Joseph Priestley, uno de los descubridores del oxígeno, logró producir óxido nitroso. A principios del siglo siguiente otro químico, Humphrey Davy, como parte de su trabajo investigando las propiedades de distintos gases, empezó a experimentar con el creado por Priestley. A falta de sujetos de investigación, Davy era su propio conejillo de indias. Así, según un observador, aspiró 4 galones de óxido nitroso en un período de 7 minutos y quedó “completamente intoxicado”.

Los experimentos de Davy no dieron frutos sino hasta 1844, cuando Gardner Colton, que daba exhibiciones científicas, mostró en Connecticut cómo un hombre que aspiraba óxido nitroso podía golpearse la espinilla sin sentir dolor. Entre el público estaba el dentista Horace Wells, que lo invitó a un experimento en su consultorio. Al día siguiente, Colton le administró el gas a Wells y el ayudante de éste le extrajo al dentista una muela del juicio. La primera extracción sin dolor de la historia.

William Thomas Green Morton, un dentista que estudió con Wells, empezó a experimentar con éter, anestesiando por igual a su pez dorado, a su perro y a sí mismo. El 30 de septiembre de 1846 por fin probó a anestesiar a un paciente con éter para una extracción, con un éxito que mereció mención en los diarios de Boston al día siguiente. Pronto Morton empezó a hacer de anestesista para cirujanos.

Las noticias del descubrimiento de Morton llegaron pronto a Inglaterra. En 1847 empezó además a utilizarse otra sustancia, el cloroformo, que el médico escocés James Simpson empleó para eliminar el dolor del parto con gran éxito.

La anestesia enfrentó la oposición de las iglesias cristianas, según las cuales esa práctica contravenía lo dispuesto en el versículo 3, 16 del Génesis donde se ordenaba a las mujeres a parir a sus hijos con dolor. La muy puritana reina Victoria de Inglaterra, sin embargo, y como jefe de la iglesia anglicana, pidió anestesia para el nacimiento de su octavo hijo, el príncipe Leopoldo, en 1853. Si la reina podía evadir la maldición bíblica, abría las puertas a que lo hicieran todas las mujeres, y lo empezaron a hacer.

Para fines del siglo XIX se empezó a valorar cuánta anestesia durante cuánto tiempo era adecuada para cada paciente, pues no eran infrecuentes los fallecimientos por sobredosis de anestésicos. Ernest Codman y Harvey Cushing crearon a fines del siglo la primera tabla que ayudaba a los profesionales a vigilar el pulso, la respiración y la temperatura de los pacientes para detectar signos de sobredosis.

La historia subsiguiente se centró en la profesionalización de los anestesistas, en la introducción de nuevas sustancias más eficaces y seguras y en la aparición de técnicas como la aguja hipodérmica, para facilitar la administración de anestesia. Para principios del siglo XX, la anestesia se iba generalizando en Europa y Estados Unidos.

Las dos formas más comunes de anestesia en cirugía mayor son la general, donde el paciente queda inconsciente e insensible al dolor, y la regional, donde se produce insensibilidad al dolor y generalmente se acompaña de sedación. Está además la anestesia local para procedimientos menores.

Según el paciente y el procedimiento se aplica una mezcla de sustancias ya sea por inhalación, mediante inyección intravenosa o mezclando ambas técnicas, que provocan la inconsciencia junto con otras que bloquean la sensación de dolor. Algunas sustancias se usan para inducir rápidamente la anestesia y otras para mantenerla, todo ello bajo la más estricta vigilancia, lo que ha permitido que hoy en día, las muertes debidas a la anestesia durante procedimientos quirúrgicos son de menos de 1 en cada 250,000 operaciones.

Más aún, el conocimiento de los efectos de los distintos anestésicos ha permitido que sea posible someter a cirugía a pacientes que en el pasado no era posible operar por el riesgo, desde fetos aún en el vientre materno hasta personas de edad muy avanzada o personas que sufren afecciones diversas como la diabetes.

Y, por ejemplo, una articulación de la cadera nueva para un paciente octogenario marca la diferencia entre unos años finales confinado a una silla de ruedas o con capacidad de moverse y disfrutarlos.

Que es otra forma de impedir el dolor.

Cómo funciona

Sabemos qué hace la anestesia y sus efectos más evidentes, cómo bloquea el dolor e induce la inconsciencia, pero hasta hoy, la ciencia no sabe exactamente cómo actúan los anestésicos, cuál es su acción química precisa sobre las fibras nerviosas que conducen el dolor o sobre todo nuestro encéfalo, provocando una condición similar al sueño o a la catatonia. Neurocientíficos, genetistas y biólogos moleculares trabajan aún hoy en día para conseguir desentrañar el mecanismo de las sustancias que han expulsado al dolor del dominio de los cirujanos.

Bach por números

Johann Sebastian Bach sentado al órgano. Grabado inglés de 1725.
(Imagen D.P. del Museo Británico, vía Wikimedia Commons)
El apellido Bach tiene una expresión musical.

En el sistema alemán de entonces, las notas se representaban mediante letras, como se sigue haciendo en los países anglosajones. Así, la letra B representaba el si bemol, la A representaba el la, la C representaba el do y la H correspondía al si. Y si hacemos sonar las notas “si bemol, la, do, si”, estamos expresando el apellido Bach en una pequeña melodía.

Por supuesto, Johann Sebastian Bach, así como sus hijos (cuatro de los cuales tuvieron distinguidas carreras como músicos) estaban conscientes de esa relación, y el tema, hoy conocido como “motivo Bach” fue utilizado en numerosas ocasiones por el compositor, como en el segundo Concierto de Brandenburgo, en las Variaciones Canónicas para órgano y en el contrapunto inconcluso del Arte de la Fuga.

De hecho, uno de sus hijos solía contar que la muerte del compositor se produjo precisamente cuando escribió esas notas en el pentagrama, historia apasionante pero improbable. Como fuera, los hijos de Bach también usaron ese criptograma musical en numerosas ocasiones, y después fue retomado por los admiradores del compositor en literalmente cientos de piezas, algunos tan conocidos como Robert Schumann, Franz Liszt o Arnold Schoenberg.

Además, según un sistema numerológico místico que le da a las letras un número de acuerdo a su posición en el alfabeto, las letras del apellido “Bach” tienen el valor “14” (2+1+3+8), y las supersticiones también le atribuían un gran valor al inverso de ese número, en este caso “41”. Bach, como hombre de su tiempo, estaba muy consciente de ello, como lo estaba del simbolismo de los números en términos de la religión cristiana. Entre los luteranos, iglesia a la que pertenecía, el simbolismo desarrollado por San Agustín era ampliamente conocido y utilizado. El 3, así, era la representación de la santísima trinidad, y por tanto los creadores hacían esfuerzos, sobre todo en la música sacra, de que sus obras se relacionaran con el 3. El 10 se relacionaba inevitablemente con los diez mandamientos y el 12 con los apóstoles, mientras que el 7 se refería a la gracia y al Espíritu Santo.

Es indudable que Bach, como compositor eminentemente sacro, conocía estos simbolismos y muy probablemente los utilizó en distintos momentos en sus obras. Sin embargo, resulta muy difícil, si no imposible, desentrañar cuándo lo hizo voluntariamente y cuándo el número no era considerado por el propio compositor como significativo.

Resulta muy aventurado pensar que las obras de Bach ocultan un significado numerológico, aunque así lo hayan sugerido algunos autores. Se puede tomar cualquier elemento de una composición de cualquier músico (las notas, el número de compases, los intervalos, la relación entre notas, etc.) y buscar una correlación con algún número o relación matemática o palabra codificada. En más de 1.100 obras conocidas de Bach, un buscador concienzudo puede encontrar, virtualmente, lo que sea. Incluso las dimensiones de la pirámide de Giza.

La relación de Bach con los números se encuentra más bien en la proporción, en los juegos de las notas y las armonías que producen de acuerdo con las reglas de la música que descubrió y describió Pitágoras, en las numerosas obras donde su interpretación de las matemáticas de la música es de un dominio absoluto aún si no fuera consciente.

Pero aún si Bach no intentara conscientemente aplicar las matemáticas a su trabajo como compositor, estudiosos posteriores han encontrado notables relaciones entre la música y los números, sean las ecuaciones de la geometría fractal apenas descrita en la década de 1970 o series de números con significado matemático especial, como la de Fibonacci.

Su propio hijo, Carl Philipp Emanuel, le dio al biógrafo de su padre, Forkel, “el fallecido (su padre), como yo o cualquier otro verdadero músico, no era un amante de los asuntos matemáticos secos”.

Aunque así fuera, Bach había pertenecido a una sociedad científico-musical fundada por su alumno, el médico, matemático y compositor polaco Lorenz Christoph Mizler. La sociedad buscaba que los músicos intercambiaran ideas teóricas y trabajos sugerentes. Cada año, los miembros debían presentar una disertación o una composición, y en 1748, Bach envió a la sociedad su Ofrenda musical, una serie de cánones, fugas y sonatas en la que destaca el que el propio Bach llamó Canon del cangrejo, cuya relevancia matemática no podía escapársele.

Es una pieza para cuerdas donde se tocan dos melodías, como en cualquier contrapunto, pero una de las melodías es exactamente la imagen en espejo de la otra. Es como si un violín tocara la primera melodía y el segundo también, pero empezando por el final y siguiendo en orden inverso, de modo que cuando la primera llega al final, la segunda llega al principio, en una especie de palindromo musical. Esta hazaña musical (y matemática) se ve complementada con la última pieza de la serie, el Canon perpetuo que al terminar puede volverse a comenzar una octava más arriba, ascendiendo, teóricamente, hasta el infinito.

Quizá se pueda aplicar a Bach la frase del matemático alemán, y su contemporáneo, Gottffried Leibniz, quien afirmó que “La música es un ejercicio aritmético oculto del alma, que no sabe que está contando”.

Pero si Bach no sabía que estaba haciendo matemáticas, las hizo extraordinariamente bien.

El temperado o afinación

Siguiendo los principios matemáticos pitagóricos que regían la música, los instrumentos como el clavecín y el órgano se afinaban o temperaban para tocar en un tono determinado, digamos Sol, y si había que interpretar una pieza en otro tono, digamos Re, era necesario volverlo a afinar. Si no se hacía esto, algunas notas sonaran mal porque sus intervalos no eran perfectos. Bach desarrolló un sistema de afinación igualando logarítmicamente los intervalos entre todas las notas de la escala, lo que permite afinar un instrumento de modo que pueda interpretar piezas en todos los tonos sin volver a afinarse. Es lo que se llamó el “buen temperamento”, ejemplificado precisamente en las obras de “El clavecín bien temperado”.

Simetrías y seres vivos

Simetría Impresionante de un lirio del Parque Portugal (Lagoa do Taquaral).Campinas/SP-Brasil de Giuliano Maiolini (Imagen D.P. vía Wikimedia Commons)
Uno de los aspectos más notables de los seres vivos, de nosotros mismos, es que nuestros cuerpos son simétricos de distintas maneras, al menos en el exterior.

La simetría es la cualidad de un objeto de ser igual después de una transformación. Aunque quizá esa definición matemática merece aclaración. Por ejemplo, si reflejamos con un espejo la mitad derecha de un mamífero, veremos que es casi idéntica que su mitad izquierda. Es una simetría de reflexión o bilateral, que podemos ver con mucha claridad en nuestras manos: la derecha es como el reflejo en un espejo de la izquierda.

La simetría es una solución que con frecuencia aparece en la naturaleza como una forma económica de adaptarse a su medio en cuanto a su aspecto externo, aunque la disposición de sus órganos internos no siempre sea igualmente ordenada: nuestros hemisferios cerebrales, por ejemplo, son simétricos, pero no así nuestro aparato digestivo o nuestro corazón. En el caso que usamos como ejemplo, la simetría bilateral es la más visible a nuestro alrededor: los mamíferos, las aves, los peces, los insectos, los reptiles, los anfibios tienen un lado derecho y un lado izquierdo. Pese a ello, no es la única forma de simetría que exhiben los seres vivos, animales y vegetales. Para entenderlo, debemos remitirnos a los inicios de la vida en nuestro planeta.

Hasta donde sabemos, la vida en nuestro planeta apareció hace unos 3.800 millones de años en la forma de seres unicelulares, que vivieron sin demasiados sobresaltos hasta hace Unos 1.000 millones de años, cuando hicieron su aparición unos organismos unicelulares distintos, llamados coanoflagelados, es decir, que para moverse usaban un flagelo o cola. Lo que los hacía distintos era que, en ocasiones, se reunían formando colonias llamadas “sphaeroecas” o “casas esféricas”. Hay evidencias que permiten suponer que estas colonias son los ancestros de los animales multicelulares que aparecerían hace 700 millones de años.

Una esfera tiene en sí varias formas de simetría. Es bilateralmente simétrica: si marcamos un eje a lo largo de su mitad, el lado derecho es el reflejo del izquierdo. Es también simétrica alrededor de un eje central, lo que se conoce como simetría radial. Y los primeros seres multicelulares asumieron, de modo esperable, una simetría radial. De hecho, a ellos y a sus descendientes se les conoce genéricamente como “radiata”, animales radiales. Los que conocemos actualmente son los celenterados, denominación que incluye a las medusas y a los pólipos.

Hace 530 millones de años ocurrió una verdadera revolución en la historia de la vida, que se conoce como la “explosión cámbrica”, por la era geológica en la que se desarrolló. La lenta evolución que había transcurrido hasta entonces se vio sacudida por el surgimiento, en un breve tiempo desde el punto de vista geológico, entre cinco y diez millones de años, de los principales linajes de la vida que conocemos actualmente multiplicando súbitamente la variedad de las formas de vida. Surgieron entonces los primeros animales con conchas (moluscos como los mejillones, los caracoles o las lapas), los que disponían de exoesqueletos (como los trilobites, ancestros por igual de gambas, cangrejos, arácnidos e insectos), los equinodermos (estrellas de mar, erizos de mar, pepinos de mar), los cordados (ancestros de todos los animales con columna vertebral: peces, aves, reptiles, anfibios y mamíferos) y los gusanos, además de que se multiplicaron las plantas y hongos.

Algunos de estos animales tienen simetría bilateral y otros radial, y sólo hay un animal, el más primitivo que sobrevive hasta nuestros días, cuyo cuerpo es totalmente asimétrico: la esponja.

Pero si la simetría radial tuvo claramente poco éxito en la evolución de los animales después de la explosión cámbrica, ello no ocurrió con las plantas y hongos, donde la simetría radial está presente de manera mucho más común. Los tallos y troncos, así como la gran mayoría de las flores y muchísimos frutos, exhiben simetría radial, mientras que la simetría bilateral está presente en las hojas, algunos frutos, en muchas semillas y en flores como las orquídeas. Incluso podemos ver simetría esférica en muchas formas de polen.

Las flores a su vez suelen tener, salvo algunas excepciones, 3, 5, 8, 13, 21, 34 o 55 pétalos. Estos números forman la llamada “serie de Fibonacci”, donde cada número es resultado de la suma de los dos anteriores (el siguiente, claro, sería 34+55=89). Esta serie de números está además estrechamente relacionada con la proporción áurea o número “phi”, 1.618... que es como “pi” un número irracional porque es infinito. Ese número está estrechamente relacionado con otras formas de la simetría como las espirales de las conchas de los caracoles o los nautilus, o las que forman las semillas en flores como el girasol. También las hojas de las plantas o las ramas de los árboles aparecen en forma de una espiral regida por la secuencia de Fibonacci.

El sistema nervioso, incluso el humano, parece haber evolucionado desarrollando una sensibilidad especial a la simetría. Los neurocientíficos y los biólogos evolutivos señalan que la mayoría de los objetos biológicamente relevantes (los seres de nuestra especie, los depredadores y las presas) son simétricos, es razonable pensar que la atención a la simetría sirva como un sistema de advertencia de lo que es importante en nuestro entorno.

Los estudiosos de la muy reciente disciplina de la neuroestética, o estudio científico de la belleza, han observado que la simetría es esencial para que muchas cosas nos parezcan hermosas. El reconocido neurocientífico Vilayanur S. Ramachandran, considera a la simetría una de las ocho características que hacen que algo nos resulte estéticamente placentero. De hecho, se ha demostrado experimentalmente que diversos animales, incluidos los humanos, prefieren a parejas con rasgos simétricos por encima de las que muestran asimetría. Y esta tendencia es innata, no aprendida.

Quizá lo más asombroso es que la simetría del mundo vivo parece reflejar la que encontramos en el universo físico, de moléculas a cristales hasta las majestuosas espirales de las galaxias. El misterio que queda por resolver es si ambas están interconectadas de alguna forma.

Nuestra percepción

Hay otras formas de simetría que podemos ver en la naturaleza, como la de papel tapiz, donde un patrón se repite una y otra vez, tal como vemos en un panal de abejas o en la piel de algunas serpientes, o . Pero probablemente la más compleja es la simetría fractal, como la que podemos ver en el brécol romanescu.

Los fractales, en geometría, son formas complejas donde cada parte de un objeto tiene, en tamaños progresivamente más pequeños, el mismo patrón geométrico que se va repitiendo, teóricamente hasta el infinito.

Un Nobel de luz LED

"Proyección sobre una superficie de tres colores con componentes LED RGB" de Viferico.
(Imagen D.P. vía Wikimedia Commons)

De pronto, su casa, su ciudad, su mundo se han llenado de lámparas que utilizan LED. La historia de estos pequeños y eficaces productores de luz explica por qué.

El mundo está enamorado de las luces LED. Las tiene en la iluminación de las casas, en los faros de automóviles, en semáforos y anuncios luminosos. En relativamente poco tiempo ha sustituido a las formas de iluminación comunes creadas por el hombre. Son eficientes, resistentes y seguras.

Las bombillas incandescentes clásicas, como la de Thomas Alva Edison, calientan un filamento de tungsteno a altas temperaturas para que, al no poderse quemar por la falta de oxígeno (al estar al vacío o llena de algún gas) emite luz como producto de ese calor, del mismo modo en que lo hace un hierro al rojo vivo. Es por ello que las bombillas tradicionales producen una gran cantidad de calor, que no es sino energía desperdiciada que no se ha convertido en luz.

Las luces fluorescentes, en cambio, contienen un gas noble como el argón o el neón, más una minúscula cantidad de mercurio. El gas se estimula con electricidad, se agita y produce una radiación ultravioleta invisible, que choca contra las paredes de fósforo de la lámpara y produce una luz visible. Estas lámparas emiten menos calor y son, por tanto, más eficientes en el uso de la electricidad, aunque presentan problemas de contaminación por mercurio.

LED son las iniciales en inglés de diodo emisor de luz. Estos diodos producen luz directamente como respuesta al paso de la corriente eléctrica, en un fenómeno llamado electroluminiscencia. Un diodo es un componente electrónico formado por dos electrodos y un material semiconductor. En el caso de los LED, lo común es utilizar como semiconductores a elementos conocidos como tierras raras como el galio o el selenio. Al convertir la electricidad en luz directamente, producen una cantidad muy pequeña de calor, lo cual además de ser fuente de eficiencia permite que los diodos tengan una duración muy superior al no sufrir degradación por las altas temperaturas.

La electroluminiscencia fue descubierta en el año 1907 por Henry Joseph Round, pionero de la radio y asistente de Guiglielmo Marconi. Al pasar una corriente por una pieza de carburo de silicio, observó que éste emitía una tenue luz amarillenta. Independientemente, el inventor ruso Oleg Losev observó el mismo fenómeno en 1920. Pero el resplandor de esta primera sustancia electroluminiscente era demasiado débil como para ser de alguna utilidad y quedó solamente anotado como curiosidad.

Fue en la década de 1950 cuando empezó la exploración a fondo de los semiconductores, a partir de la invención del transistor, que permitió los primeros pasos para la miniaturización de aparatos como radiorreceptores y televisores, además de abrir la posibilidad de ordenadores prácticos.

Como resultado, en 1961, Robert Baird y Gary Pittman inventaron el primer LED infrarrojo. Ese primer paso todavía está presente en nuestros hogares, ya que los diodos emisores de infrarrojos se utilizan para transmitir la información de los mandos a distancia a aparatos como los televisores o los equipos de sonido. Un año después, Nick Holonyak Jr., considerado el verdadero padre de esta tecnología, creó el primer LED que emitía luz visible, roja, utilizando un compuesto de galio. Más adelante consiguió producir un LED que emitía luz láser.

Los LED de color rojo brillante serían los primeros que vería el público en general, en las pantallas de las primeras calculadoras y relojes digitales lanzados al mercado desde 1971 y durante toda la década, dispositivos en los cuales grupos de LED rojos daban forma a los números.

Durante los siguientes años, los LED de luz visible fueron subiendo a lo largo del espectro electromagnético. Si habían comenzado en el infrarrojo y el rojo, su carrera siguió con el desarrollo del primer LED amarillo en Monsanto en 1972, al que siguió el LED violeta ese mismo año, creado en los laboratorios de la RCA. Y en 1976, se desarrolló el primer LED de alta eficiencia y gran potencia que se utilizaría en las comunicaciones de fibra óptica.

Pero los LED seguían siendo una curiosidad para la gente en general hasta que en 1979, los investigadores japoneses Isamu Akasaki, Hiroshi Amano y Shuji Nakamura consiguieron por fin uno que emitiera luz de un color azul brillante. Este logro les mereció ser reconocidos con el Premio Nobel de Física en 2014. ¿Por qué era tan importante este logro comparado con los demás de la historia de este tipo de iluminación?

Por motivos de física, es imposible tener un LED que ofrezca luz blanca, que como sabemos está formada por una mezcla de todos los colores del espectro visual, de todas sus frecuencias. Cada compuesto de estos diodos sólo puede emitir luz en una frecuencia determinada. Se puede obtener luz blanca encendiendo tres LED, rojo, azul y verde, y a cierta distancia el ojo humano interpretará la suma de ellos como luz blanca, del mismo modo en que lo hacen los puntos de un televisor. Sin un LED azul, es imposible conseguir esta ilusión que, como vimos ,se emplea en enormes pantallas de televisión o vídeo como las que se pueden ver en Tokio o Nueva York.

Pero la luz LED azul de estos investigadores tenía además la capacidad de excitar al fósforo para que emitiera luz blanca, de modo similar a como lo estimula el gas de una lámpara fluorescente. Un LED azul recubierto por dentro de fósforo emite una brillante luz blanca, que es la que nos gusta tener pues es la que imita a la luz solar con la cual evolucionaron nuestros ojos y con la que mejor vemos.

A partir del LED azul, esta tecnología pudo al fin invadir nuestros hogares y ciudades como una opción altamente conveniente. Para obtener la misma cantidad de luz, un grupo de LED sólo necesita el 20% de la electricidad que las bombillas incandescentes. Su mantenimiento es barato, son muy seguros al utilizar poca tensión, y al ser direccionales disminuyen la contaminación lumínica de los cielos, y al no contener mercurio u otros productos peligrosos son mucho menos contaminantes.

Y, lo más interesante, muchos científicos ven a la luz LED como apenas el primer paso en la creación de un nuevo universo de iluminación mediante semiconductores. Las nuevas luces LED pronto podrían ser cosa del pasado.

El siguiente paso: OLED

En 1987 nació la tecnología llamada OLED, que ya está presente en muchas pantallas de diversos dispositivos. La “O” indica que el diodo emisor de luz tiene entre los dos electrodos una película de un compuesto orgánico, es decir, basada en el carbono en el sentido de la química orgánica, no de que provenga del mundo vivo, como pueden ser polímeros similares al plástico. Los OLED prometen hacer realidad, entre otras cosas, pantallas de vídeo flexibles, eficaces, brillantes y a precios muy bajos.

Schrödinger y su omnipresente gato

Pocas metáforas científicas están más difundidas que el “gato de Schrödinger” que, nos dicen, no está ni vivo ni muerto. Pero, ¿qué significa realmente?

Erwin Schrödinger, físico.
(Imagen de Robertson, copyright de la Smithsonian Institution,
via Wikimedia Commons)
A principios del siglo XX, la idea que teníamos de la física era muy incompleta. No se conocían los protones, la estructura del átomo era sujeto de especulación y muchos aspectos apenas empezaban a estudiarse.

Esto representó una explosión del conocimiento en la física que, entre otras cosas, vino a confirmar que nuestro sentido común no es buena herramienta para entender la realidad. Por sentido común podemos pensar, que los cielos giran alrededor de nuestro planeta, sin importar las pruebas de Copérnico, Kepler y Galileo. La ciencia a veces exige rechazar lo que sugiere nuestra intuición.

Así, en la revolución del siglo XX supimos que el tiempo no es constante, sino variable, que el movimiento no es absoluto, sino relativo, que la única constante universal es la velocidad de la luz... conclusiones de la teoría de la relatividad de Einstein para explicar el mundo macroscópico. Pero Einstein viajó también al mundo subatómico donde nuestra intuición es, si posible, aún más inútil.

En 1900, el físico Max Planck había postulado que la radiación (las ondas de radio, la luz visible, los rayos X, todas las formas que adopta el espectro electromagnético) no ocurría en un flujo continuo, sino que se emitía en paquetes, uno tras otro, como los vagones de un tren. Llamó a estos paquetes de energía “cuantos”. Cinco años después, Einstein desarrolló las ideas de Planck y propuso la existencia de un “cuanto” de luz, el fotón, su unidad menor e indivisible. Esto no era grave, podíamos percibir la luz como un continuo sin que lo fuera, del mismo modo en que percibimos una película como movimiento continuo sin ver que está formada por 24 fotogramas cada segundo.

Pero los cálculos de Einstein demostraron algo más: los fotones no eran ni ondas ni partículas o, desde nuestro punto de vista, a veces se comportan como ondas y a veces se comportan como partículas, cuando para la física clásica sólo existían ondas o partículas como fenómenos diferentes. ¿Cómo puede ser eso? La explicación, por supuesto, es que así ocurre y nuestro sentido común se equivoca al pensar que una manifestación física tiene que ser “onda o partícula” tanto como se equivocaba al creer que el universo giraba a nuestro alrededor. Esto dio origen a toda una rama de la física dedicada a estudiar el mundo subatómico, las leyes que rigen a las partículas elementales, la “mecánica cuántica”.

Los descubrimientos en la cuántica se sucedieron rápidamente pintando un panorama extraño, casi daliniano. En 1913, Niels Bohr desarrolla el primer modelo de cómo es un átomo que refleja con razonable precisión la realidad.  Y en 1926 entra en escena el físico austríaco Erwin Schrödinger, de sólo 39 años, que con tres artículos brillantes, el primero de los cuales describe cómo cambia el estado cuántico de un sistema físico al paso del tiempo, el equivalente de las leyes de Newton en el mundo a escala macroscópica. Si aplicamos la ecuación del movimiento de Newton a un objeto podemos saber dónde estará en el futuro en función de su aceleración . Para saber cómo evolucionará un sistema en la pequeñísima escala cuántica, se aplica la ecuación de Schrödinger.

Pero la ecuación de Schrödinger sólo nos da una probabilidad estadística de cómo evolucionará ese sistema. Un electrón puede tener probabilidad de estar en varios lugares... se diría que sus “funciones de onda” (su descripción matemática) están “superpuestas”, lo que quiere decir que ninguna se ha vuelto realidad. Pero cuando observamos el electrón (o lo registramos con un aparato, no es necesario que lo veamos con los ojos, lo cual además es imposible dado su diminuto tamaño) se dice que la “función de onda” del electrón, que incluye todas las probabilidades de dónde puede estar, se “colapsa” en una sola probabilidad del 100% y el electrón sólo está donde lo hemos observado. Esto significaría que el hecho mismo de observar un fenómeno cuántico (y es importante recordar que esto sólo ocurre a esala cuántica, es decir, a nivel microscópico) “provocaría” que tenga una u otra posición.

Poner esto en palabras, por supuesto, ha sido pretexto para que numerosos charlatanes y simuladores hablen como si supieran de cuántica y traten de extrapolar estos asombrosos acontecimientos a la realidad macroscópica, donde las cosas, claro, no ocurren así.

Incluso es posible que aún no tengamos completa la explicación. Como sea, el propio Erwin Schrödinger se sentía enormemente incómodo con estas paradojas, contradicciones y desafíos al sentido común que presenta la mecánica cuántica y las interpretaciones que daban sus colegas físicos, y en 1935 diseñó un experimento mental para ilustrar lo que a él le parecía un absurdo de las conclusiones que mencionamos.

En su experimento, hay un gato encerrado en una caja hermética y opaca con un dispositivo venenoso que se puede activar o no activar dependiendo de un fenómeno cuántico, como sería que un elemento radiactivo emita o no una partícula en un tiempo determinado. Si la probabilidad de que lo emita o no es del 50%, la conclusión sería que el gato no estaría ni vivo ni muerto (o su estado de vivo y muerto estarían “superpuestos”) porque mientras el sistema no sea observado no se hará 100% la probabilidad de que la partícula se emita o no. Al abrir la caja y ver si se ha emitido o no la partícula, su función de onda se colapsará y el veneno se habrá liberado o no, de modo que el gato estará o vivo o muerto.

Como es imposible que un gato esté a la vez vivo y muerto, según Schrödinger señaló, su experimento mental subrayaba que nuestra comprensión del mundo cuántico no es completa aún. Desde entonces, numerosas interpretaciones han intentado conciliar esta aparente paradoja, sin lograrlo.

Pero el experiento del mítico “gato de Schrödinger” en todo caso no tiene por objeto concluir que el pobre felino está realmente vivo y muerto al mismo tiempo, al contrario. Cosa que no tienen claro muchos que, de distintas formas, pretenden usar esta metáfora como aparente explicación de cuestiones que no tienen nada que ver con la física.

Los cuentos del gato

Son literalmente cientos los escritores y cineastas que han utilizado al gato de Schrödinger, ya sea como elemento de una historia, para ofrecer interpretaciones originales que resuelvan la paradoja o, simplemente, por su nombre. Douglas Adams, autor de El autoestopista galáctico, lo es de otra novela, Dirk Gently: agencia de investigaciones holísticas, donde el detective que le da nombre es contratado porque en vez de estar vivo o muerto, el gato simplemente ha desaparecido, harto de ser sometido una y otra vez al mismo experimento.