Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

¿Cuántas vidas puedes salvar?

La donación de órganos y tejidos después de la muerte es la única esperanza de millones de personas que sufren las más diversas afecciones.

Injerto de vena safena en el corazón
(Wikimedia Commons)
El primer trasplante exitoso de un tejido de una persona a otra ocurrió en lo que hoy es Chequia en diciembre de 1905, cuando el médico austríaco Eduard Konrad Zirm trasplantó las córneas de un niño a un trabajador, devolviéndole la vista. Pero no fue sino hasta que Christiaan Barnard realizó en Sudáfrica el primer trasplante de corazón en 1968 que la donación de nuestros restos mortales se convirtió en un aspecto importante de las decisiones que tomamos para después de nuestra muerte.

Antes de esa época, la única opción (que sigue vigente) era legar el cuerpo para ser utilizado en investigación o en la enseñanza de anatomía y técnicas quirúrgicas en la carrera de medicina. Pero en el camino que ha llevado hasta 2011, cuando el médico español Pedro Cavadas realizó el primer trasplante doble de piernas, lo más común en la visión popular es la donación de órganos (hígado, pulmones, corazón, riñones, etc.) y, más recientemente, miembros.

Pero los órganos y miembros completos son una mínima parte de todo lo que se puede reutilizar de nuestro cuerpo.

Las otras donaciones

Podemos donar nuestro cuerpo completo o sólo algunos tejidos u órganos. Todos pueden usarse para el tratamiento de diversas dolencias, afecciones o problemas de salud. Cada uno de nosotros es, por así decirlo, un almacén ambulante de piezas de recambio con las que, después de que termine nuestra vida, podemos salvar a casi una decena de personas, devolverle la vista a dos más y mejorar la calidad de vida de muchas más.

Por ejemplo, el hueso se utiliza en la reparación o estabilización de la columna vertebral y de otros huesos dañados por traumatismos, cáncer, degeneración o defectos congénitos. Igualmente se emplea en cirugía oral para reparar hueso perdido alrededor de los dientes. El hueso donado también puede someterse a un proceso de desmineralización para extraer algunas proteínas que estimulan la formación de hueso. Estas proteínas se utilizan conjuntamente con hueso del propio paciente para estimular el crecimiento de hueso nuevo. Entre los huesos que podemos donar están los arcos vertebrales, las cabezas de los fémures, las rótulas, los platillos de las tibias y la bóveda craneal.

Los músculos de nuestro cuerpo están recubiertos de un tejido conjuntivo fibroso que se conoce médicamente como fascia y que los protege y une. La fascia se utiliza en cirugía para reparar tendones, músculos, ligamentos y deformidades diversas.

Otro tipo de tejido conjuntivo son los tendones, tejidos fibrosos que conectan a los músculos con los huesos para permitir el movimiento. En cirugía, los tendones se utilizan para la reconstrucción de lesiones como la rotura del ligamento anterior cruzado y en otras reconstrucciones de las articulaciones.

También se puede donar la membrana amniótica dentro de la cual se desarrolla el feto, aunque sólo en casos de nacimiento por cesárea, ya que el paso por el canal del parto contamina estos tejidos. La membrana amniótica puede dar más vida de la que ha albergado al utilizarse para el tratamiento de quemaduras, ya que permite reducir el dolor, disminuir el peligro de infecciones y promover el desarrollo de piel nueva. Se emplea también en la reconstrucción de tímpanos y de las meninges (los tejidos que rodean y protegen al cerebro) y para reparar cierto tipo de úlceras. Finalmente, se utilza también en cirugía oftalmológica para la reconstrucción de distintas partes del ojo.

El resto de la placenta puede donarse para procedimientos de cirugía en los que se utiliza para disminuir la inflamación, las cicatrices y el dolor. Además, la sangre de la placenta y la que queda en el cordón umbilical cuando se corta son fuentes abundantes de células madre adultas que se utilizan tanto en transplantes como en investigaciones médicas y que no están sujetas a las cuestiones éticas de las células madre provenientes de fetos abortados.

Las paratiroides son glándulas que están detrás de la tiroides, alrededor de la tráquea y que producen una hormona (PTH), encargada de controlar los niveles de calcio, fósforo y vitamina D dentro de la sangre y el hueso. La escasez de esta hormona se corrige con el trasplante de glándulas paratiroides donadas.

No sólo se puede hacer un trasplante de corazón completo, sino que también se pueden trasplantar válvulas cardiacas a pacientes que tienen defectos en las propias. Igualmente, las grandes arterias, como la aorta, y venas, como la femoral o la safena, se utilizan continuamente para sustituir segmentos de vasos sanguíneos en pacientes que han sufrido traumatismos u otro tipo de lesiones, por ejemplo, en la cirugía de arterias coronarias del corazón y para bypass femoral como solución a algunos problemas de circulación de las piernas.

Uno de los tratamientos más prometedores para la diabetes es el transplante de las células del páncreas responsables de la producción de insulina, la sustancia que nos permite metabolizar el azúcar. En lugar de hacer un transplante de páncreas completo, que es un procedimiento quirúrgico en extremo complejo, se transplantan solamente estas células, llamadas islotes de Langerhans mejorando la calidad y la duración de vida de los diabéticos.

También se puede donar la piel para injertos o trasplantes en cirugías de reparación de la pared abdominal, cirugía plástica o reconstructiva y para el tratamiento de víctimas de quemaduras. Cada uno de nosotros tiene entre uno y dos metros cuadrados de piel que pueden ayudar a muchos pacientes.

Por último mencionaremos el pericardio, el recubrimiento protector del corazón, que se utiliza para la reparación de defectos en las paredes de diversos vasos sanguíneos, como un “parche” en neurocirugía para reemplazar la duramadre, una de las membranas que protegen al cerebro y para reparar el hueso en cirugías orales.

Todos, independientemente de nuestra edad, somos potenciales donantes de al menos algunos tejidos. El único requisito es no tener enfermedades infecciosas tales como el VIH/SIDA o la hepatitis B (aunque aún en esos casos podemos donar órganos, tejidos o todo nuestro cuerpo para la investigación de estas afecciones).

Es el regalo de la vida que se le puede arrancar a la muerte.

El futuro de los trasplantes

La investigación con células madre permite soñar con una era en la que se podrán hacer órganos y tejidos de recambio “a la medida” sin necesidad de donantes. Las células madre tienen la capacidad de convertirse en cualquier tejido del cuerpo humano según las instrucciones químicas que reciban: piel, tendones, ligamentos, músculo cardiaco, en fin. Sin embargo, esa posibilidad es aún lejana y se mantiene en el terreno de la ciencia ficción.

El hombre de los mosquitos

Sir Patrick "Mosquito" Manson,
padre de la medicina tropical

El animal más peligroso del mundo no posee garras afiladas, enorme dentadura, músculos poderosos, veneno, un tamaño imponente ni ninguno de los elementos que habitualmente relacionamos con la capacidad de hacer daño.

El animal más mortífero para el ser humano es el mosquito. Algunos cálculos afirman que las enfermedades transmitidas por los mosquitos han matado a la mitad de las personas que han vivido en la historia, unos 47 mil millones.

Distintas especies de mosquitos pueden transmitir alrededor de 600 agentes causantes de enfermedades, virus, protozoarios o gusanos que afectan a unos 700 millones de personas (el 10% de los seres humanos) principalmente en África, América Latina y Asia. Los más conocidos son el virus del Nilo Occidental, la filiarasis (o elefantiasis), el dengue hemorrágico, la fiebre amarilla y la más mortífera de todas las enfermedades del mundo, la malaria.

El organismo unicelular que provoca la malaria es transmitido por el mosquito anófeles y ocasiona la muerte a entre 2 y 3 millones de personas al año, principalmente niños en África. En comparación, las serpientes venenosas causan unas 9.000 muertes al año en el mundo, los tiburones 5 y el temido cáncer pulmonar 1,4 millones.

El mosquito estuvo impune durante millones de años. Los protomédicos de la antigüedad y de todas las culturas, nunca descubrieron la relación entre la picadura del mosquito y las diversas enfermedades que transmite. Esto ocurrió a fines del siglo XIX, y el responsable fue un médico escocés que llegó a ser conocido como Patrick “Mosquito” Manson.

Educado en la universidad de Aberdeen, a los 22 años Manson viajó a Taiwán como oficial médico y enfrentó el tratamiento de las enfermedades propias del clima cálido y húmedo de los trópicos. La primera que estudió a fondo fue la elefantiasis, una forma de la filariasis cuyo síntoma más notable es la acumulación de líquidos en las extremidades, principalmente en las piernas, y un enorme engrosamiento de la piel y los tejidos subyacentes, dándoles un aspecto que recuerda a las patas de elefante. Como ya se sabía desde mediados del siglo XIX que la filariasis era causada por la infección de pequeños gusanos nemátodos de varias especies, Manson se propuso averiguar cómo llegaban los gusanos al torrente sanguíneo de los enfermos.

Manson empezó a estudiar la elefantiasis en la sangre de su jardinero llamado Hin Lo , que la padecía. Observó que por la noche aparecían más parásitos en la sangre cercana a la piel, de modo que se planteó la hipótesis de que la enfermedad podría ser transmitida por algún insecto que se alimentara de la sangre de los enfermos.

Se dedicó entonces a estudiar a los mosquitos que picaban a los pacientes, atrapándolos y disecándolos cuidadosamente al microscopio en busca de los gusanos. Finalmente los encontró en una especie llamada Culex fatigans. Al analizar el estado de evolución de los gusanos dentro de los mosquitos, y observar asombrado que, en vez de ser digeridos, los parásitos parecían florecer en el sistema digestivo del mosquito. Concluyó que este pequeño y molesto insecto era parte esencial del ciclo de vida de la enfermedad.

De regreso en Londres en 1892, Manson se ocupó de la más extendida y mortal de las enfermedades tropicales, la malaria, cuyo parásito había sido descubierto pocos años antes por Charles Laveran, un cirujano militar francés, quien también describió parte del ciclo vital. En 1894 comenzó una serie de intercambios con Ronald Ross, médico nacido en la India y por entonces dedicado a la malaria, y en diciembre de 1894 publicó un artículo en el British Medical Journal postulando que un mosquito sostenía una fase esencial del desarrollo del parásito, como lo hacía con la filariasis. El trabajo de Manson impulsó a Ross a una investigación que lo llevó finalmente a desrcibir el ciclo vital del parásito de la malaria (un ciclo que muchos de nosotros estudiamos en la escuela) y a identificar a la especie concreta que lo transmitía. Ross escribió en 1898: “Estas observaciones prueban que la teoría del mosquito para la malaria, como la presentó el Dr. Patrick Manson… Su brillante inducción indicó con tanta precisión la línea verdadera de la investigación que mi papel ha sido simplemente seguir su dirección”.

Fue Manson el responsable de dar a conocer al público los descubrimientos de Ross, quien seguía con el ejército en la India. Ambos estaban convencidos de que el control de los vectores o transmisores, los mosquitos, era fundamental para vencer a la enfermedad, pero la idea no tenía precedente alguno y habría sido considerada ridícula, sobre todo porque la sociedad seguía creyendo que las enfermedades eran transmitidas por malos olores o malos aires, tormentas, las constelaciones, la lluvia y otros factores. De hecho, “malaria” está tomado del italiano “mal aire”.

Según relata Joseph Rowton, de la propia universidad de Aberdeen donde estudió Manson, lo hizo con un dramatismo difícil de igualar para no dejar duda de la implicación del mosquito en la transmisión de la malaria. Dejó que dos mosquitos anófeles que se habían alimentado de pacientes de malaria se alimentaran también de dos voluntarios que nunca habían estado expuestos a esta enfermedad, uno de ellos médico e hijo del propio Patrick Manson, Thornburn Manson. Después de ser picados por los mosquitos, desarrollaron la malaria y el parásito se encontró presente en su sangre.

Finalmente, Ross realizó las primeras acciones preventivas en Ismailia, Egipto, combatiendo el desarrollo de larvas de mosquitos en aguas estancadas. En poco tiempo, la ciudad estaba libre de malaria.

Patrick Manson continuó estudiando diversos parásitos propios de las regiones tropicales, fue nombrado Sir del reino británico y fundó tanto la primera escuela de medicina tropical del mundo en Liverpool como la Real Sociedad de Medicina Tropical. Pero, sobre todo, había sido el científico que abrió el camino para entender cómo se transmiten muchas enfermedades infecciosas, una de las claves de la medicina científica.

Mosquitos transgénicos contra la malaria

Dado lo difícil que es prevenir efectivamente la malaria en ciertas zonas, se ha propuesto el uso de mosquitos genéticamente modificados para cortar el ciclo de vida del insecto. Anthony James, de la Universidad de California, ha modificado mosquitos para que las hembras no puedan volar, haciendo que la población caiga dramáticamente junto con su capacidad de transmitir la enfermedad. Las pruebas que se han hecho son alentadoras, aunque se teme el rechazo de grupos opuestos a toda forma de modificación genética.

El viaje fantástico de Vesalio

Retrato de Vesalio en su libro
De humani corporis fabrica
Viaje fantástico fue una película de 1966 en la que un submarino, con sus tripulantes y un equipo de médicos, son reducidos de tamaño para ser inyectados en el torrente sanguíneo de un científico estadounidense y disolver directamente un coágulo. Aunque la historia estaba llena de agujeros lógicos, el público quedó cautivado por las representaciones (bastante fantasiosas) del interior del cuerpo humano.

El conocimiento real de lo que ocurre debajo de nuestra piel tiene una historia bastante corta, que comienza con la publicación de De Humani Corporis Fabrica, es decir “De la estructura del cuerpo humano”, el atlas anatómico de Andrés Vesalio.

Antes de Vesalio

En occidente, el estudio de la anatomía comenzó quizá en el año 500 a.C., cuando Alcmeón de Crotona, filósofo pitagóricos, comparó las estructuras de hombres y animales y diferenció las arterias de las venas. 200 años después, Herófilo de Calcedonia y Erasístrato de Ceos, fundadores de la Escuela de Alejandría, realizaron disecciones públicas de cadáveres y reunieron un acervo que no sobrevivió a las sucesivas destrucciones de la Biblioteca de Alejandría de modo que sólo lo conocemos por citas de otros autores.

Hacia el año 162, el cirujano griego Galeno de Pérgamo empieza a tratar a los heridos en una escuela de gladiadores en Roma. Los conocimientos que adquirió estudiando en Alejandría las obras de Herófilo y Erasístrato, entre otros, se vio complementado con las disecciones que realizó en monos, cerdos, vacas y perros, dado que no podía hacerlas en seres humanos porque la ley romana las prohibía. Galeno escribió más de 600 libros sobre diversos temas de medicina y filosofía, de los cuales sobrevive menos de una tercera parte. Galeno se convirtió pronto en el autor médico de referencia de Europa y del mundo islámico.

El Vaticano, durante la Edad Media, tampoco veía con buenos ojos la disección de cadáveres humanos (aunque no la persiguió, como suele afirmarse), y las obrasde Galeno fueron elevadas a la categoría de autoridad indiscutible. Esta visión apenas fue tibiamente desafiada por las disecciones públicas que se hicieron en la escuela de medicina creada en Salerno, Italia, en 1235 y las que realizó Mondino de Liuzzi en Bolonia a comienzos del siglo XIV, aunque en su libro “Anathomia corporis humani”, antes que describir sus propias experiencias, repite los conceptos de la “autoridad” de sus predecesores, en particular Galeno.

Entre 1489 y 1515 el genio renacentista Leonardo da Vinci realizó la disección de unos treinta cuerpos humanos para sus dibujos anatómicos. Cuando el papa León X le ordenó que suspendiera sus disecciones, Leonardo había producido alrededor de 750 dibujos de extraordinario detalle. En 1522 el anatomista italiano Jacopo Berengario da Carpi publica la primera descripción anatómica detallada del cuerpo humano.

El desafío a Galeno se había lanzado… y terminaría con el flamenco Andries Van Wesel, al que en español llamamos Andrés Vesalio.

De la admiración a la crítica

Vesalio nació en 1514 en Bruselas, en una familia de médicos, y estudió en París, donde complementó las enseñanzas con disecciones de perros observando huesos humanos en los cementerios de París. Después, estudió en Louvain y en Padua, donde se doctoró y se quedó como catedrático. Convencido de la importancia de la anatomía, empezó a realizar disecciones pero, a diferencia de sus predecesores, que solían leer a Galeno en voz alta mientras un cirujano-barbero, realizaba la disección, Vesalio hacía personalmente el trabajo rodeado de sus alumnos, lo que le permitió tratar de confirmar y ampliar los enseñado por Galeno, a quien admiraba.

Lo que encontró, sin embargo, fue que Galeno, la autoridad absoluta sobre anatomía durante más de mil años, se equivocaba. En 1541, Vesalio descubrió por qué: Galeno nunca había diseccionado un cuerpo humano, sino que extrapolaba todas sus afirmaciones de sus disecciones de distintos animales, principalmente de monos de Gibraltar. Vesalio pronto descubrió que en los seres humanos no existían algunas estructuras propias de otras especies y empezó a publicar correcciones a Galeno que no siempre fueron bien recibidas.

Si distintas especies tenían distinta anatomía, también existía la posibilidad de que las variaciones entre seres humanos individuales fueran relevantes. Era necesario hacer lo que hoy se conoce como anatomía comparada: diseccionar a distintos individuos y determinar cuáles son sus características comunes y cuáles serían peculiaridades individuales. Como dijo Vesalio, “no estoy acostumbrado a decir nada con certeza después de sólo una o dos observaciones” . Por fortuna, un juez de Padua se interesó por su trabajo y puso a su disposición los cuerpos de los delincuentes ejecutados en la ciudad, facilitando el trabajo de comparación.

El método, la aproximación de Vesalio al cuerpo humano describiéndolo tal como era, recogiendo la observación directa, buscando hechos más que la confirmación de los prejuicios, y sin las interpretaciones astrológicas, religiosas y basadas en ideas no comprobadas del pasado, fue quizás una aportación aún mayor que los propios datos anatómicos que reunió, entre ellos puntos tan relevantes como la primera descripción fiel del corazón humano. Algunos de sus predecesores habían empezado el camino, pero su apego al pensamiento vigente les había impedido llegar a donde llegó Vesalio.

Lo más asombroso, quizá, es que Vesalio creó los siete tomos de su magna obra en tan sólo 4 años, entre los 24 y los 28. Era el primer atlas anatómico exhaustivo, tanto en sus descripciones como en sus abundantes y detalladas ilustraciones (con frecuencia atribuidas a Jan Stepehn Van Calcar, discípulo de Tiziano).

Terminada su obra, Vesalio se dedicó a la práctica de la medicina, llegando a ser médico de Carlos V, quien lo hizo conde palatino, y de su hijo, Felipe II, en cuyo servicio murió en 1564, de regreso de un viaje a Tierra Santa, probablemente sin estar consciente de que 21 años atrás había dado el gran paso para empezar el lento proceso de convertir el estudio del ser humano y sus enfermedades en una verdadera ciencia.

La revolución científica

En los siglos XVI y XVII se operó un cambio en Europa que enfrentó a la corriente filosófica dominante según la cual la razón se debía someter a la fe, y si entraba en conflicto con ella no podía estar en lo correcto, y que la fuente de todo conocimiento era la autoridad de los libros antiguos, en particular la Biblia. Las observaciones de personajes como Copérnico, Galileo o Vesalius no sólo exaltaron a la razón y a la observación, sino que dijeron, por primera vez en siglos, que el ser humano podía obtener conocimientos nuevos, que no todo estaba escrito ya, y que había aún grandes misterios por enfrentar.

De la Tierra a Marte... y de vuelta

El 4 de noviembre finalizó la misión Marte 500 realizada conjuntamente por Europa, China y Rusia, una simulación para poner a prueba la posibilidad de un viaje a Marte.

El logotipo de la misión
Viajar a Marte es un viejo sueño alimentado a partes iguales por la realidad y la ficción. En la realidad, Marte destaca en el cielo nocturno por su peculiar color rojo, que hizo que los romanos le dieran el nombre del dios pagano de la guerra, y ya en el siglo XVIII el astrónomo William Herschel señaló que, de todos los planetas del sistema solar, Marte era el más parecido a nosotros. Además, está cerca… relativamente. En algunas ocasiones nos separan apenas unos 56 millones de kilómetros.
En la ficción, tenemos una vasta obra literaria que ha atizado la fascinación marciana, que comienza en 1656 con el alemán Athanasius Kirchner y sigue hasta la épica Trilogía Marciana de Edgar Rice Burroughs (también creador de Tarzán), la aterradora Guerra de los Mundos de H.G. Wells o las poéticas Crónicas Marcianas de Ray Bradbury.

A la mitad entre la realidad y la ficción, en 1877 el astrónomo italiano Giovanni Schiaparelli creyó ver en la superficie de Marte una red de líneas que interpretó como posibles canales de agua. La imaginación popular pronto las convirtió en canales artificiales, autopistas u otras estructuras producto de una civilización vecina … aunque resultaron ser únicamente ilusiones ópticas producto de la imperfecta óptica disponible a fines del siglo XIX.

El inicio de la era espacial dio al sueño la posibilidad de realizarse.

Sin embargo, los viajes espaciales tienen complicaciones, la primera de las cuales es que las naves no pueden viajar en línea recta de un planeta a otro (o a su satélite, en el caso de la Luna), sino que deben despegar y describir una curva elíptica para encontrarse con su objetivo meses después, o incluso años en el caso de las sondas que han ido a los límites del Sistema Solar. Un viaje a Marte de ida y vuelta por la ruta de “menor coste”, la llamada “órbita de transferencia de Hohmann”, incluyendo el tiempo que se pretenda pasar en la superficie marciana, sería cosa de más de un año.

La duración del viaje no sólo es un desafío técnico en términos de combustible, impulsores, sistemas de frenado y despegue en la superficie marciana y otros asuntos de ingenería. Es también un reto humano, de relaciones interpersonales, de separación de los seres queridos, de alimentación, bebida, entretenimiento, trabajo, salud, ejercicio y trabajo, de sistemas eficientes y fiables de sostenimiento de la vida y de formación para enfrentar cualquier dificultad imaginable, desde una emergencia médica hasta una pelea entre dos tripulantes.

Diversos experimentos han buscado analizar aspectos de un viaje de estas características. El más ambicioso hasta hoy lo emprendieron las agencias espaciales de Europa, Rusia y China con el nombre “Marte 500”. En esta misión, , seis participantes debían simular un viaje a Marte durante 520 días que incluía el recorrido, el aterrizaje, la exploración y el regreso, reproduciendo algunas condiciones de un recorrido de este tipo, aunque otras no se pudieran simular, como la microgravedad y el bombardeo de rayos cósmicos a los que se ve sometido todo objeto en el espacio.

La “nave” marciana del proyecto es una estructura de 180 metros cuadrados habitables construida dentro del Instituto Ruso de Problemas Biomédicos, en las afueras de Moscú, formada por un módulo médico, sala de estar, cocina y comedor, dormitorios, cabina de control, un invernadero y un simulador de la superficie marciana. A ella entraron el 3 de junio de 2010 tres científicos rusos, uno chino, uno italocolombiano y uno francés, para quedar aislados totalmente durante la misión, sin luz del sol y sin más aire y agua que los que reciclan los equipos de la “nave”.

Al hacinamiento, la poca privacidad, la falta de luz solar, la rutina agobiante y los problemas propios de todo grupo humano se añadieron otros elementos como la comunicación ralentizada con sus seres queridos y con el centro de control debida a la distancia. Dado que las ondas de radio viajan a la velocidad de la luz, un correo electrónico (o una entrada de Twitter de los astronautas europeos) podía tardar hasta 25 minutos. Y, a nivel personal, el sólo poderse duchar cada 10 días, los problemas digestivos de alguno de los participantes y la falta de relaciones sexuales fueron factores de tensión y de estudio por parte del amplio equipo científico del proyecto.

Pasar el tiempo libre fue otro de los problemas que la misión sorteó con éxito con soluciones que iban Durante la misión, se desarrollaron 106 investigaciones científicas sobre los participantes: 28 de tipo psicológico y psicofisiológico, 34 clínicas y de diagnóstico de laboratorio, 26 fisiológicas, 8 sobre sanidad, higiene y microbiología y 10 operativas y tecnológicas, con investigadores de numerosos países. Los estudios tenían objetivos tan diversos como analizar continuamente la bioquímica, la temperatura y las variables de salud de los participantes, estudiar sus relaciones y tensiones sociales y psicológicas o, incluso, muestrear distintas superficies la “nave” para determinar cómo se daba el crecimiento y desarrollo de microorganismos en ese espacio cerrado, un elemento que podría representar un problema grave de salud y supervivencia en un viaje real.

Al final de la misión, los participantes superaron con creces la marca de de 437 días continuos en el espacio que estableció Valeri Vladimirovich Polyakov en la estación espacial Mir entre 1994 y 1995. Polyakov se había prestado a ese experimento para demostrar que el cuerpo humano podría soportar la microgravedad en un viaje prolongado, y cuando volvió a la Tierra declaró convencido: “Podemos viajar a Marte”.

No muy distinto que lo que dijo el miembro francés de Marte 500, Romain Charles al salir del aislamiento el 4 de noviembre con sus compañeros en un más que razonable estado de salud: "¡Estamos listos para embarcarnos en la siguiente nave espacial que vaya para allá!"

Las conclusiones preliminares de los científicos encargados de los experimentos de estos meses parecen apoyarlos: es posible. Falta ahora la decisión de hacerlo, y ésa no depende de los científicos ni de los astronautas.

Un menú para 17 meses

Para alimentarse durante un viaje como el Marte 500, cada astronauta debería llevar consigo 1.000 kilogramos de alimentos, algo inviable desde el punto de vista técnico. El invernadero hidropónico de Marte 500 permitió analizar la posibilidad de que los astronautas cultiven sus propios alimentos durante el viaje. Marte 500 también ayudará a encontrar formas de combatir el aburrimiento alimenticio que implica el comer menús limitados durante largo tiempo… sin poder llamar para pedir una pizza.

Entender el cerebro... con el cerebro

Nuestro cerebro y sus funciones siguen siendo grandes desconocidos, y su investigación neurocientífica es una de las grandes historias de nuestro tiempo.

Fue René Descartes quien en el siglo XVII por primera vez propuso que el cerebro era una máquina que se encargaba de controlar las funciones del cuerpo y el comportamiento en los animales. Como hombre religioso, consideró que esa máquina era operada, en el hombre, por la mente, un ente inmaterial que no respondía a las leyes naturales.

Pese al problema filosófico que planteaba esta dicotomía mente-cuerpo, la visión de Descartes abrió el camino a la investigación sobre el cerebro y sus funciones.

El problema del estudio del cerebro era muy distinto al de otras partes del cuerpo humano, porque su observación directa, su anatomía o su fisiología no ofrecían prácticamente ninguna información sobre su funcionamiento, como sí lo hacen la observación y disección de otros órganos.

Por ello, las lesiones cerebrales fueron durante largo tiempo la única forma de estudiar la relación entre forma y funcionamiento de esa masa rosada de kilo y medio o dos kilos de peso y formada por 100.000 millones de neuronas que es el cerebro o encéfalo. Así, a mediados del siglo XIX el francés Paul Broca pudo determinar al trabajar con pacientes que padecían lesiones cerebrales que la capacidad de hablar se localiza en el lóbulo frontal del cerebro, en la hoy conocida como área de Broca. Para 1890, el trabajo con otros pacientes con lesiones en el lóbulo occipital (la parte más trasera de nuestro cerebro) permitió al neurólogo sueco Salomon Henschenn identificar allí el centro de la visión.

En el siglo XX, la investigación y las nuevas técnicas de observación fueron dibujando un mapa tremendamente complejo del cerebro, donde su actividad dependía de que ciertas sustancias, verdaderos mensajeros químicos llamados neurotransmisores, recorrieran el camino entre dos neuronas, en el punto donde se comunican pero no se tocan, llamado sinapsis, separadas por el espacio sináptico identificado por Santiago Ramón y Cajal.

Estas sustancias resultaron uno de los más complejos acertijos de la fisiología, y su estudio ayudó a poner en marcha lo que hoy conocemos como neurociencias: el estudio del sistema nervioso desde diversos puntos de vista, desde el conductual hasta el químico, desde el anatómico hasta el genético, tratando de armar el rompecabezas del aparato con el que percibimos, sentimos, pensamos y actuamos, desde la transmisión de un impulso entre dos neuronas hasta un comportamiento complejo como la solución de problemas matemáticos, desde el aspecto evolutivo hasta una función tan elusiva como la memoria.

Poco a poco, la imagen del cerebro se va aclarando… y complicando a la vez, porque el cerebro ha demostrado ser un órgano mucho más plástico o flexible de lo que imaginábamos.

Si antes se pensaba que las neuronas no se reproducían, las investigaciones ahora apuntan a que sí existe producción de nuevas neuronas en los humanos adultos. La comprensión de los elementos que favorecen o inhiben la producción de neuronas, así como las posibilidades de cultivarlas, abren amplias avenidas de investigación para el tratamiento de enfermedades neurodegenerativas o de lesiones nerviosas graves como las que producen parálisis, además de entender cómo ciertas sustancias pueden dañar o favorecer ciertas conductas y funciones, como la adicción a sustancias psicogénicas o la capacidad matemática.

Pero no son las nuevas neuronas las que dan su mayor flexibilidad al cerebro, sino las conexiones entre neuronas y las redes que crean, su capacidad de intercomunicación, las que parecen guardar la clave de nuestras funciones cognitivas. Una sola neurona puede tener miles de sinapsis con otras tantas neuronas, formando complejos entramados. Cuando aprendemos algo, por ejemplo, empezamos adquiriendo una memoria a corto plazo que forma patrones temporales de comunicación entre neuronas, mientras que la memoria a largo plazo implica la creación de nuevas conexiones entre neuronas. La forma en que esas conexiones codifican lo que para nosotros puede ser la memoria de una canción, del olor de una fruta o de una experiencia del pasado sigue siendo un misterio cuya solución no parece cercana.

Los propios neurotransmisores son apenas comprendidos. Algunos excitan a la neurona a la que se unen, mientras que otros inhiben la actividad de esas neuronas. Sabemos que algunos neurotransmisores están relacionados con ciertos aspectos psicológicos y conductuales, pero la imagen dista mucho de ser clara. Por ejemplo, el primer neurotransmisor identificado, la acetilcolina, tiene relación con aspectos tan distintos como el movimiento voluntario, el aprendizaje, la memoria y el sueño; un exceso de esta sustancia está asociado con la depresión y una carencia de ella en cierta zona del encéfalo llamada hipocampo se ha asociado a la demencia o pérdida de la memoria.

Del mismo modo, con frecuencia hablamos de una “subida de adrenalina”, que está implicada en la energía y el metabolismo de la glucosa, y cuya carencia se asocia también a la depresión. O leemos algo sobre las endorfinas, neurotransmisores que se libera en situaciones tan diversas como el ejercicio, la excitación, el dolor, el consumo de comida picante, el amor y el orgasmo y cuyo funcionamiento exacto desconocemos.

El neurocientífico de la Universidad de Duke, Scott Huettel, ha afirmado que el cerebro humano es “el objeto más complejo del universo conocido… su complejidad es tal que los modelos simples son poco prácticos y los modelos complejos son difíciles de comprender”. La simplificación en la cultura popular que pretende que ciertos neurotransmisores provoquen ciertos resultados de modo mecánico, sin embargo, son imprecisas. Así, si no sabemos exactamente cómo funcionan las endorfinas, quienes afirman que se liberan más o menos endorfinas con tales o cuales alimentos o prácticas, y que eso es bueno o malo pretenden que sabemos mucho más de lo que la ciencia ha descubierto hasta hoy, sin admitir que las neurociencias todavía tienen su mayor camino por recorrer, probablemente como la disciplina más relevante del siglo XXI, del mismo modo en que la física dominó el siglo pasado.

El desafío se complica

Además de los 100.000 millones de neuronas que activamente transmiten impulsos nerviosos, nuestro cerebro tiene entre 10 y 50 veces más células gliales, que durante mucho tiempo se pensó que eran sólo aislantes entre las neuronas. Ahora se ha descubierto que estas células no sólo se comunican entre sí, sino que alimentan y protegen a las neuronas, y regulan la transmisión de impulsos entre éstas de un modo que aún no entendemos. Lo que multiplica entre 10 y 50 veces el desafío de las neurociencias.

Que siga la música

Fonógrafo de Edison
(Fotografía de Norman Bruderhofer)
Hace apenas 120 años que podemos grabar y reproducir interpretaciones musicales, dándole a esta forma de arte una permanencia como la que tienen literatura o las artes plásticas.

Sabemos lo que pensaron las culturas antiguas gracias a que dejaron escritas sus ideas, sus crónicas, sus creencias y sus reflexiones. De hecho, a la época anterior a la existencia de los registros escritos la consideramos “prehistoria”. Sabemos también lo que esculpieron, lo que pintaron, lo que construyeron, al menos parcialmente, las culturas ancestrales.

Pero no podemos escuchar los sonidos del pasado más allá de una grabación realizada en 1888 con el fonógrafo creado por Edison. De la música anterior a ese momento, no tenemos más que una idea más o menos imprecisa.

La única forma de preservar la memoria musical antes de grabar la música era utilizar un sistema de símbolos que representaran las distintas características de la música, sus notas, su ritmo, su sonido. Es lo que llamamos “notación musical” y su primer ejemplo es una tableta cuneiforme de hace unos cuatro mil años, procedente de la ciudad de Nippur, en lo que hoy es Irak. Muchas culturas lo intentaron en distintos momentos, pero la mayoría de las formas de notación eran insuficientes e imperfectas.

El desafío era tal que llegó a desesperar a teóricos como el arzobispo del siglo VI-VII Isidoro de Sevilla, dueño de una enorme pasión por la música y quien creía que las leyes de la armonía regían todo el universo, pero que concluyó con desánimo que era imposible hacer una notación musical precisa. Pasaron unos 400 años antes de que Guido d’Arezzo, monje benedictino italiano, desarrollara los principios de la notación que utilizamos hoy, con un pentagrama dónde escribir las notas, su duración, el ritmo, las armonías y todo lo necesario para reproducir la música.

Gracias a esta revolucionaria notación, conocemos las composiciones a partir del siglo XI. Tenemos, por ejemplo, las partituras de Nicolo Paganini. Pero ignoramos cómo las interpretaba, cuáles eran los sonidos de su virtuosismo, que le ganó la admiración de sus contemporáneos.

En 1857, el impresor francés Édouard-Léon Scott de Martinville trató de reproducir el oído humano con un aparato que registrara visualmente el sonido usando una membrana elástica y lo transmitiera para accionar una aguja que dibujaba el movimiento en una superficie cubierta de hollín. Poco después, el también francés Charles Cros propuso que la aguja grabara o estriara una superficie metálica, de modo que al hacer pasar la aguja sobre los surcos, la membrana vibrara reproduciendo el sonido. Sobre estas bases, en 1877, Thomas Alva Edison creó el fonógrafo, el primer grabador reproductor de sonido.

Y en 1888, el 29 de junio, un agente de Edison grabó “Israel en Egipto”, de Georg Friedrich Handel, interpretado en Londres, una grabación que aún existe.

Los cilindros de cera de Edison se vieron sustituidos por los discos fonográficos inventados en 1888 por Emile Berliner. El proceso mecánico de reproducción se perfeccionó y en 1920 pasó a ser eléctrico, utilizando el micrófono que el mismo Berliner había inventado para la transmisión telefónica y una serie de dispositivos electrónicos para captar el sonido con mayor fidelidad. Los músicos interpretaban sus melodías ante micrófonos y grababan un disco maestro del cual se obtenía un vaciado invertido en platino, que se usaba entonces para imprimir muchos discos iguales en vinilo.

La siguiente evolución fue la cinta magnética para capturar el sonido y a partir de él crear el disco maestro. Aunque se inventó en 1898, sólo se empezó a usar en 1932 y no se comercializó sino hasta fines de la década de 1940. Con la cinta magnética, la grabación de música se volvió más sencilla. Y en 1957, la experiencia del disfrute musical se incrementó con la aparición de los discos estereofónicos, capaces de reproducir distintos sonidos (instrumentos, voces) en dos canales y dos altavoces.

Para el ciudadano común hasta mediados de la década de 1980 la música vino en discos de 30,5 cm de diámetro hechos de vinilo negro (salvo algunas excepciones de color) que giraban a 33 1/3 revoluciones por minuto y podían reproducir unos 25 minutos de sonido en cada uno de sus dos lados. Eran los discos de larga duración. La opción eran discos de 18 cm que giraban a 45 revoluciones por minuto y ofrecían una canción por lado, que se vendían por el atractivo de una de las canciones, mientras que la otra, en el “lado B” era considerada de relleno.

La cinta magnética llegó al ciudadano común como forma de reproducción en forma de “cassette”, una cajita de plástico con dos carretes y cinta capaz de contener 30, 60 o 90 minutos de música. Fue eficaz competidora de los discos de vinilo desde fines de la década de 1970 hasta el principio de la de 1990, impulsada por el primer sistema de reproducción portátil individual, el Walkman, abuelo del moderno reproductor MP3.

Con el avance de los ordenadores, el siguiente paso lógico era capturar y reproducir la música digitalmente, un sistema que llegó al público mediante el disco compacto o CD, capaz de almacenar cualquier tipo de información y, en audio, hasta 90 minutos de música. A fines de la década de 1980, el CD de audio empezó a desplazar a los discos de vinilo y a los audiocassettes, ofreciendo además la posibilidad, por primera vez, de copiar la música sin perder calidad, algo que no se podía lograr con los sistemas analógicos.

El formato digital utilizado en el CD conserva toda la información de la grabación original y los archivos resultan muy grandes, de modo que se propuso comprimir esos archivos con una pérdida selectiva e indetectable de parte de la información. Lo logró el estándar de compresión de audio actual, el MP3, que reduce los archivos de música a una onceava parte del tamaño original, permitiendo el desarrollo de los reproductores portátiles omnipresentes.

Por primera vez, nuestra cultura tiene memoria musical precisa para perpetuar a grandes virtuosos, trátese de Yitzakh Perlman o Yngwie Malmstein, y cada uno de nosotros puede disfrutar de su música favorita como nunca lo hicieron nuestros ancestros… un trascendente hecho cultural y una hazaña tecnológica al servicio de nuestro placer auditivo.

El vinilo y el CD

Entre los audiófilos no hay tema más candente que la comparación entre la calidad de los discos de vinilo y a de los CD. Aunque técnicamente los datos favorecen la calidad de la música reproducida digitalmente, esto no basta para convencer a los amantes del vinilo. Lo único seguro es que, inevitablemente, reproducir un disco de vinilo lo degrada un poco cada vez, mientras que la música reproducida digitalmente no pierde información sin importar cuántas veces se reproduzca, lo cual no deja de ser una consideración importante.

La gravedad, el acertijo omnipresente

Al paso del tiempo hemos descubierto que la gravedad es el gran elemento cohesivo del universo, y su comportamiento nos ha permitido investigar toda nuestra realidad… y aún queda mucho por saber.

Albert Einstein en 1921
(Foto de E.O. Hoppe, revista Life
via Wikimedia Commons)
Es un fenómeno evidente e ineludible: saltamos, y la gravedad nos hace volver al suelo. Lanzamos una pelota y cae al suelo. Una fuerza poderosa está en acción, pero distinta de las otras que conocemos: no tiene opuesto, no nos podemos blindar contra ella y pese a ser la más débil de las cuatro fuerzas fundamentales, es la que mantiene unido el universo.

Una de las primeras teorías sobre la gravedad, su funcionamiento y sus causas, es la que formuló Aristóteles basado en dos creencias ya existente desde tiempos presocráticos: primero, que nuestro mundo estaba en el centro del universo y, segundo, que éste estaba formado por cuatro elementos: agua, aire, tierra y fuego. Cada uno de estos elementos parecía tener su lugar en el universo: la tierra en el centro, sobre ella una capa de agua, sobre ésta el aire y finalmente, en la bóveda celeste, el fuego. En la visión de Aristóteles, la gravedad era únicamente la “naturaleza contenida en cada sustancia” que la llevaba a buscar su lugar en el universo. El aire subía por el agua en forma de burbujas, para ubicarse donde le correspondía, el fuego subía por el aire y la tierra caía por el aire y el agua para llegar al nivel de la tierra.

Otra idea de Aristóteles (en su libro “Física”, escrito alrededor del 330 a.C.) respecto de la forma en que se expresaba esta “naturaleza” era que los objetos caían a velocidades distintas según su peso: una piedra 10 veces más pesada que otra caía 10 veces más rápido.

Por erróneo que fuera el modelo, no cabe duda que era elegante y parecía coherente internamente. Tanto así que fue admitido como real, sin posibilidad de desafío, en Europa y el Cercano Oriente hasta mediados del siglo XVI, cuando Nicolás Copérnico estableció un modelo más sencillo que el derivado de Aristóteles y que explicaba mejor el movimiento de los cuerpos celestes, ubicando al sol en el centro del universo, y que dio a conocer en 1543. Para fines del siglo XVI, Galileo demostró que los objetos de peso distinto caían a la misma velocidad (o, más exactamente, a la misma tasa de aceleración).
Conforme se alcanzaban estos nuevos conocimientos, el modelo aristotélico se desmoronó.

Sobre la base de los trabajos de Copérnico, Galileo y sus contemporáneos, Isaac Newton, nacido exactamente 100 años después de la publicación de Copérnico, logró describir la forma en que actuaba esa fuerza que él llamó “gravedad” en 1686. En el modelo de Newton, la gravedad era una fuerza universal de atracción de los cuerpos que podía expresarse como el producto de las masas de los dos cuerpos dividido por el cuadrado de la distancia que los separa. Y esta ley explicaba por qué las órbitas de los planetas alrededor del Sol son elípticas, por qué la Luna provoca las mareas y por qué los objetos (como la manzana que vio caer en su granja en 1666 y le llevó a preguntarse por qué los objetos caían siempre en forma perpendicular al suelo, poniendo en marcha sus investigaciones sobre la gravedad).

El modelo que Newton dio a conocer en 1687 proporcionó una explicacion matemática muy precisa de la forma en que se mueven los cuerpos en un campo gravitacional, desde por qué cuando lanzamos una pelota describe una parábola hasta cómo se orquestaba el movimiento de todos los cuerpos estelares.
Esto no significa que no hubiera paradojas y contradicciones en el modelo de Newton, sobre todo una que preocupó a los físicos del siglo XIX: ¿cómo sabía cada cuerpo de la existencia del otro para ejercer esa fuerza de atracción? ¿A qué velocidad se transmitía la gravitación (si para entonces ya se conocía la velocidad de la luz)?

En 1907, Einstein se dio cuenta de que una persona en caída libre no experimentaría un campo gravitacional (lo que ocurre precisamente con los astronautas en órbita alrededor de nuestro planeta). Esto le llevó a profundizar en las dudas existentes sobre la gravedad y cómo se relacionaba con la relatividad especial que había formulado un año antes y a enfrentar un problema que desafiaba a los físicos: el punto más cercano de la órbita de Mercurio alrededor del Sol avanzaba lentamente al paso del tiempo, de un modo que no se ajustaba a lo previsto por Newton.

La solución fue la relatividad general, presentada en 1915, en la que Einstein consideraba a la gravedad no como una fuerza del modo que lo es el electromagnetismo, sino como un efecto geométrico de un fenómeno totalmente inesperado: la curvatura del espaciotiempo provocada por la masa de los objetos (a mayor masa de un objeto, mayor curvatura espaciotemporal, provocando una mayor aceleración de los objetos que caen hacia él), del mismo modo en que un objeto sobre una cama elástica provoca una deformación hacia abajo. La gravedad, entonces, no afectaba únicamente a los cuerpos, sino también a la luz, en un fenómeno llamado “lente gravitacional” que se demostró en 1919, durante un eclipse en el cual se pudo observar que la luz de las estrellas que pasaba cerca del sol estaba ligeramente curvada.

Sin embargo, el modelo de Einstein tampoco carece de problemas. El principal es que la relatividad general funciona muy bien a nivel macroscópico, pero no es compatible con la mecánica cuántica, que describe las otras fuerzas o interacciones fundamentales del universo (el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil) a nivel subatómico, de modo que debemos avanzar hacia una nueva teoría de gravedad cuántica. Un candidato a este puesto es la teoría de cuerdas, que postula que las partículas elementales que forman el universo proceden de diminutos objetos que representamos como cuerdas que vibran… y entre esas partículas estaría el “gravitón”, una partícula virtual que nunca ha sido detectada pero que sería la transmisora o la mensajera de la gravedad.

Los físicos siguen trabajando, con desarrollos matemáticos de creciente complejidad que buscan ser un mejor modelo de cómo funciona esa fuerza evidente que nos mantiene “con los pies en el suelo”. Una fuerza que no por evidente ha revelado todos sus secretos.

Las predicciones de Einstein

La relatividad general de Einstein se traduce en una serie de predicciones físicas que han sido sólidamente comprobadas a lo largo de casi 100 años. Una que aún está pendiente es que existen “ondas gravitacionales” y se comportan de cierto modo. Dos proyectos, una futura antena orbital llamada LISA actualmente en estudio por la agencia espacial europea y un observatorio terrestre llamado LIGO que entrará en operación en 2013 en Livingston, Nueva Orléans, tienen la misión de encontrar esas ondas gravitacionales.

Antes del robot, el autómata

Anuncio de los autómatas o "sueños mecánicos"
de Vaucanson
(D.P. vía Wikimedia Commons)
El persistente sueño de crear seres que imiten la vida sin estar vivos.

Máquinas que pudieran ser esclavos o guerreros sin miedo, sirvientes o amigos, que cantaran previsiblemente en los árboles como las aves o que se desplazaran silenciosas y líquidas como felinos. Los autómatas han tenido mejor suerte en la ficción que en la realidad, desde Talos, el gigante de bronce forjado por Hefestos para proteger Creta (y vencido por Medea) hasta los robots de la literatura inventados por el checo Karel Capek y perfeccionados por Isaac Asimov o los del cine, como los memorables y aterradores robots de la serie “Terminator” o David, el entrañable niño de “Inteligencia Artificial”.

Los logros del mundo de los autómatas se ha visto amplificada con frecuencia por el mito, y por el entusiasmo de quienes querían ver más de lo que probablemente había en las exhibiciones del pasado. Así tenemos el legendario trono con animales mecánicos del rey Salomón en la tradición hebrea, mientra que entre los antiguos chinos, las crónicas hablan de orquestas mecánicas y animales asombrosos, incluso aves de madera capaces de volar desde el siglo III antes de la Era Común hasta el siglo VI d.E.C., cuando se publicó el “Libro de las excelencias hidráulicas”.

La historia constatable de los autómatas comienza con Arquitas de Tarento, filósofo griego del grupo de los pitagóricos, que en el año 400 a.N.E. construyó un ave de madera movida por vapor, mientras que Herón de Alejandría, creador del primer motor de vapor, la eolípila, describió otras aves autómatas 250 años después.

El vapor como fuente de energía para los autómatas cayó en el olvido hasta el siglo XVIII, de modo que los inventores tuvieron que accionar sus aparatos con la energía del viento o la hidráulica. Ésta última fue la fuente de energía, junto con el desarrollo de la leva y el árbol de levas, que utilizó Al-Jazarí para construir pavorreales que se movían y autómatas humanoides que servían bebidas o ayudaban a lavarse las manos. Su mayor logro fue una orquesta hidráulica de cuatro integrantes en una pequeña embarcación que amenizaban las fiestas desde el lago. Los logros mecánicos de Al-Jazarí, que iban mucho más allá de sus entretenidos autómatas, están descritos en el “Libro del conocimiento de dispositivos mecánicos ingeniosos” de 1206, que posiblemente fue una de las influencias sobre la visión mecánica de Leonardo Da Vinci.

En el siglo XV surgió en Europa el mecanismo de cuerda, un muelle espiral que almacena energía al apretarse con una perilla y que que después libera controladamente la energía. El sistema, creado primero para el diseño de cerrojos fue pronto utilizado en relojes y en autómatas. Fue el alemán Karel Grod el primer creador de autómatas de cuerda asombrosos en su momento que en el siglo XX eran simples juguetes relativamente baratos. Leonardo Da Vinci, en su menos conocida labor como escenógrafo y responsable de lo que hoy llamaríamos “efectos especiales” hizo en 1509 un león de cuerda para recibir a Luis XII en su visita a Italia.

Los autómatas de cuerda se volvieron parte esencial del entretenimiento de los poderosos y llegaron a un detalle exquisito utilizando únicamente engranes, levas y máquinas simples. Su época de oro fue sin duda el siglo XVIII.

Jacques de Vaucanson creó dos famosos autómatas: un flautista tamaño natural capaz de tocar doce canciones con flauta y tamboril que presentó en 1738 y, un año después, un pato capaz de digerir alimentos… al menos en apariencia. El pato mecánico parecía comer granos, digerirlos y después deshacerse de las heces por detrás. En realidad, el grano se almacenaba dentro del pato y los supuestos desechos prefabricados salían de otro depósito. Pero Vaucanson soñaba que algún día habría un autómata capaz de digerir. Uno de los más impresionados por el ave fue ni más ni menos que Voltaire.

Lo que sí hizo Vaucanson en sus últimos años como encargado de mejorar los procesos de la seda fue intentar automatizar los procesos de hilado y tejido, algo que conseguiría su continuador Joseph Marie Jacquard, creador del telar mecánico.

El ejemplo más acabado de autómatas de cuerda lo dieron Jean-Pierre Droz y su hijo Henri-Louis, que hacían autómatas para anunciar su “verdadera empresa” como relojeros a fines del siglo XVIII. Henri-Louis creó probablemente el más complejo, “El dibujante”, autómata capaz de dibujar retratos complejos y que aún puede verse en el “Museo de arte e historia” de Neuchatel, en Suiza, acompañado de “El escritor” creado por su padre y de “La organista” de Jean-Frédéric Leschot.

A fines del siglo XVIII fue famoso “El Turco”, un autómata jugador de ajedrez creado por Wolfgang Von Kempelen para impresionar a la emperatriz austríaca María Teresa. El autómata recorrió Europa y Estados Unidos jugando contra humanos y venciéndolos las más de las veces. Sin embargo, era un elaborado fraude, pues debajo de la mesa de ajedrez se acomodaba un jugador humano que movía la mano del autómata, como se demostró en varias ocasiones.

El primer verdadero autómata capaz de jugar al ajedrez fue “El ajedrecista”, creado por el prolífico y genial inventor cántabro Leonardo Torres y Quevedo, que presentó en París en 1914. Este artilugio es actualmente considerado el primer juego informatizado de la historia y el ancestro directo de Deep Blue, el ordenador que venció por primera vez a un campeón mundial humano, Garry Kasparov en 1997.

Aunque Deep Blue no era un autómata. A falta de miembros propios, usaba a seres humanos para hacer físicamente las jugadas en el tablero.

Para el siglo XIX, los autómatas habían pasado de maravillas del asombro a una industria que estaba a la mitad entre la juguetería y el lujo: cabezas parlantes, autómatas que fingían predecir el futuro y animales varios, muchos de los cuales aún podemos ver en lugares como el museo de art nouveau y art decó Casa Lis, en Salamanca o en “La casa de la magia”, del legendario mago Robert Houdin, en Blois, departamento de Loire, en Francia.

Y aunque en el siglo XX y XXI siguen haciéndose autómatas, la aparición de la electricidad abrió otro espacio amplísimo, el de los robots, que pese a sus limitaciones hacen que los autómatas del pasado parezcan tan torpes que podemos olvidar que fueron, cada uno en su momento, un avance asombroso.

Autómatas y prótesis

Muchos avances de la robótica no se expresan aún como lo prometían los dibujos animados y la ciencia ficción. Sin embargo, tienen cada vez más aplicaciones en la prostética, con miembros capaces de responder a los impulsos nerviosos de sus dueños. La mano robótica más avanzada a la fecha fue creada por el equipo Mercedes de Fórmula 1 y la empresa Touch Bionics para un joven aficionado a las carreras de 14 años y puede mover cada dedo independientemente.

Nuestro cuerpo se defiende

Fotografía de Marko Žunec
(CC via Wikimedia Commons)
Las más comunes respuestas de nuestro cuerpo a las agresiones físicas y biológicas: moratones, inflamación y fiebre, sin las cuales no podríamos sobrevivir.

Nuestro cuerpo cuenta con un sistema de defensas del que nos hacemos conscientes solamente cuando algo anda mal y experimentamos inflamaciones, fiebre, moratones y otras reacciones de una complejidad mucho mayor que la aparente a primera vista.

¿Equimosis?

Todos hemos visto con fascinación el desarrollo de los moratones (moretones, cardenales, moraduras, magulladuras, hematomas o equimosis) y sus peculiares cambios de color, que cuentan toda una historia de manejo de desastres a nivel celular.

El moratón comienza con una lesión que provoca una hemorragia bajo la piel, liberando sangre a los espacios entre las células de la piel, en el lugar de la lesión y con frecuencia en la forma del objeto que la pueda haber provocado, como solemos ver en los dramas forenses de la televisión.

Conforme la sangre fluye hacia los tejidos circundantes, puede presionar las terminaciones nerviosas de la zona, provocando dolor. Lo percibimos con esos moratones que no duelen hasta que, inquietos, los presionamos… hasta que aparece el esperado dolor.

Desde el principio de la lesión se ponen en marcha procesos para reparar el daño y eliminar la sangre que no debe estar allí, en una secuencia tan precisa que un médico experimentado puede decir cuántos días han pasado desde la lesión con solo verla, al menos en los casos más comunes, cuando no hay factores de salud o edad que alteren significativamente el proceso. La lesión tiene primero un aspecto rojo debido a la hemoglobina, una proteína con hierro que da a la sangre su color característico. Al cabo de uno o dos días, por la degradación de la hemoglobina asume un color azul negruzco o morado.

En esa sangre acumulada ya están trabajando los leucocitos o glóbulos blancos responsables de nuestro sistema de defensas, comiéndose, consumiendo y reciclando la sangre del moratón. En esta auténtica digestión, para el sexto día la hemoglobina se ha convertido en biliverdina, dando al hematoma el extraño color verdoso que tanto nos divierte de niños. Después, la biliverdina es convertida en bilirrubina, dando el siguiente cambio de tono, el amarillo, a los ocho o nueve días. Finalmente, los leucocitos convierten la bilirrubina en hemosiderina, que tiene un color marrón dorado y que sirve como depósito del hierro de la hemoglobina que es luego retirado para reutilizarlo, y el moratón finalmente desaparece al cabo de dos o tres semanas.

La inflamación

Lo que los médicos llaman “proceso inflamatorio” no es únicamente la hinchazón o aumento del volumen, sino que incluye otros tres aspectos: enrojecimiento, calor y dolor. Es decir, la hinchazón puede existir sin que haya una “inflamación” en términos técnicos, aunque el lenguaje popular tienda a utilizarlos como sinónimos.

La hinchazón característica es una respuesta a los estímulos perjudiciales. Los tejidos muertos y lesionados, así como las plaquetas rotas o dañadas liberan dos sustancias químicas: la bradiquinina y la histamina, cuya presencia dispara el reflejo inflamatorio. El proceso comienza con la dilatación de los vasos sanguíneos, lo que aumenta el flujo sanguíneo a la zona donde está la lesión o infección y provoca el color rojizo de la inflamación. Los vasos sanguíneos, además, responden experimentando un cambio en la estructura de sus paredes, permitiendo la salida del llamado “exudado inflamatorio”, un un líquido derivado del plasma sanguíneo. Lo componen anticuerpos generales, fibrinógeno (una proteína del plasma que se se convierte en fibrina para crear el tejido fibroso de las cicatrices que reparan los tejidos lesionados) y multitud de células especializadas, entre ellas leucocitos o glóbulos blancos como los neutrófilos, que atacan a las bacterias responsables de las infecciones y los macrófagos que rodean y digieren tanto a las bacterias muertas como a los tejidos dañados.

El exudado inflamatorio sigue saliendo de los vasos sanguíneos mientras existan tejidos muertos y lesionados que el cuerpo debe reparar. Conforme van eliminándose estos tejidos dañados, los disparadores químicos van disminuyendo y la inflamación cede. Si en la lesión hay, además, hemorragia, puede haber un proceso paralelo de moratón o hematoma.

Aunque la inflamación es una respuesta defensiva, puede convertirse en un problema cuando se desarrolla de modo anormal, se dispara sin causa o se vuelve crónica. La artritis reumatoide o la enfermedad de Crohn son dos ejemplos de inflamación crónica.

Fiebre

Fiebre, calentura… el aumento de la temperatura del cuerpo es también un mecanismo de defensa… aunque realmente todavía no se ha descubierto exactamente cómo contribuye a la curación. Hay estudios, sí, que indican que los animales de sangre caliente se recuperan más rápido de infecciones y enfermedades graves cuando debido a la fiebre, y se sabe que hay algunas reacciones inmunológicas que se aceleran si aumenta la temperatura del cuerpo, además de que se crea un entorno más hostil a algunos patógenos.

El hipotálamo es el responsable de controlar la temperatura del cuerpo y mantenerla en su rango normal, alrededor de los 37 grados centígrados. Cuando hay presencia de algunas sustancias llamadas pirógenos y que pueden ser producidas por el propio cuerpo o por alguna invasión infecciosa, el hipotálamo libera una hormona llada PGE2 que dispara una reacción en todo el cuerpo que por un lado genera más calor aumentando el tono muscular y liberando otras hormonas como la epinefrina, y por otro conserva ese calor, provocando la constricción de los vasos sanguíneos cerca de la piel. La temperatura se mantiene alta mientras estén presentes los pirógenos.

La utilidad que tienen reacciones como la inflamación y la fiebre en la lucha contra las lesiones, infecciones y enfermedades hace recomendable que sólo se combatan cuando se vuelven en sí un problema, como en los casos de infección crónica o fiebres demasiado altas que pueden ocasionar desde alucinaciones hasta la deshidratación. Lo mismo que nos está curando puede ser una importante incomodidad, lo que hace que el uso de antiinflamatorios o antipiréticos (medicamentos que reducen la fiebre) a veces no sea buena idea si no es con la recomendación de un médico.

La primera línea de defensa

La primera y más importante defensa que tiene el cuerpo humano es la piel, una barrera altamente eficaz para impedir la entrada de agentes infecciosos y cuerpos extraños y que regula la hidratación y la temperatura de todo el cuerpo. No es sólo una barrera física, sino que también secreta sus propios antibióticos, los péptidos antimicrobianos. Es además el mayor órgano humano con un área de entre 1,5 y 2 metros cuadrados.

El físico y los bongós

Richard Feynman con otros físicos en Los Álamos
(D.P. vía Wikimedia Commons)
La presencia en la cultura popular de Richard Feynman, el más iconoclasta de los físicos teóricos, parece crecer al paso de los años.

Le gustaba la fiesta, frecuentaba asiduamente clubes nocturnos, era un Don Juan inveterado, tocaba los bongós y otras percusiones, e incluso llegó a ser parte de una escuela de samba, exhibiendo a lo largo de toda su vida una actitud desenfadada, divertida y aventurera. Y sin ser una estrella del mundo del espectáculo, sino uno de los más brillantes físicos teóricos del siglo XX: Richard Feynman, Premio Nobel en 1965 que detestó, hasta el fin de su vida, haber ganado el premio, “un dolor de…” que le había impedido hacer cosas “como la gente normal”. Porque, decía, el verdadero premio es “el placer de averiguar las cosas, el golpe del descubrimiento, observar a otras personas usarlo… ésas son las cosas reales”.

Si algo distinguió a Richard Feynman fue seguir siempre su propio camino como independiente, antiautoritario y audaz figura de un siglo en el que la física avanzó más que en toda la historia humana previa.

Nacido en el condado de Queens, en Nueva York, en 1918, en familia de inmigrantes, él ruso y ella polaca, se vio impulsado hacia la ciencia por su padre (a quien citaría abundantemente a lo largo de toda su vida, en entrevistas, conferencias y conversaciones) y por su propia inquietud. Su facilidad y gusto por las matemáticas se hicieron evidentes muy pronto, y lo llevaron a obtener el campeonato de matemáticas de Nueva York cuando cursaba su último año de bachillerato.

A los 17 años entró al Massachusets Institute of Technology para estudiar matemáticas, pero el deseo de aplicarlas al mundo real lo llevó a la física. Obtuvo la licenciatura en ciencias en 1939 y pasó a Princeton a realizar su doctorado, que finalizó en 1942.

Todavía estaba en Princeton cuando se le propuso ser parte del Proyecto Manhattan para el desarrollo de una bomba atómica. Se unió al proyecto como físico junior, por miedo a la posibilidad de que la Alemania nazi desarrollara la bomba antes que Estados Unidos, y pronto se encontró a cargo de la división de física teórica.

Mientras trabajaba tratando de adelantarse a los nazis, la personalidad de Feynman se expresó en los laboratorios secretos de Los Álamos. Decidió estudiar libros sobre cómo abrir cajas fuertes y a conocer el funcionamiento de los cerrojos de combinación que se usaban en el proyecto. Se dedicó a abrir muebles, incluidos los escritorios de sus colegas, con los documentos más secretos, dejando atrás notas bromistas que no causaron muchas sonrisas en el ejército, que llegó a temer que todo fuera obra de un espía.

Terminada la Segunda Guerra Mundial, Feynman pasó a ser profesor de física teórica en la Universidad de Cornell hasta 1950, pasando a ocupar el mismo puesto en el California Institute of Technology, universidad en la que permanecería durante el resto de su carrera profesional, dando clases y desarrollando sus ideas sobre la mecánica cuántica.

Llegó así 1965 y el Premio Nobel, que se le concedió “por su trabajo fundamental en la electrodinámica cuántica, que tiene profundas consecuencias para la física de las partículas elementales”. Sería sólo uno de los muchos galardones que recibió por su trabajo.

Pero el físico brillante capaz de desarrollos matemáticos que admiraban a sus geniales contemporáneos era también hombre de muchas inquietudes. Algunas de ellas, musicales, como su reconocida afición a los bongós, que tocaba con suficiente profesionalismo como para llegar a escribir una partitura de percusiones para un pequeño ballet en Nueva York. A él no le parecía tan extraño y, cuando en 1964 mencionaron que tocaba los bongós al presentarlo en unas conferencias sobre física en la Universidad de Cornell, observó con sorna “En las escasas ocasiones en que me han llamado para tocar los bongós en un lugar formal, el presentador nunca encontró necesario mencionar que también hago física teórica”.

Fue dos veces a Brasil. En la segunda, mientras coqueteaba con azafatas de Pan American Airlines que se hospedaban en su mismo hotel, le ocurrieron dos cosas relevantes. Primero, en un momento descubrió que tenía deseos de beber una copa sin que hubiera ninguna razón social, y esto le preocupó tanto que no volvió a beber en su vida (aunque seguiría yendo a centros nocturnos donde hacía apuntes de física teórica mientras las strippers hacían lo suyo en la barra o el escenario). Segundo, se interesó por la música brasileña, tanto que aprendió a tocar un pequeño instrumento llamado “frigideira”, una pequeña sartén que se golpea con una varilla metálica y terminó participando con el correspondiente traje visualmente impactante en el Carnaval de Río de Janeiro con una escuela de samba.

Y en medio de todo esto, Feynman llegó a la conciencia pública debido a su pasión por explicar la ciencia, por ser profesor no solo de física teórica, sino del valor de la ciencia en nuestra sociedad, de la importancia del pensamiento riguroso y ordenado, del peligro de las creencias irracionales incluso referidas a la ciencia, pues solía decir que “la ciencia”, como tal, no demuestra nada, lo que demuestra las cosas es el experimento, el trabajo, los datos. En una entrevista de 1981 decía: “Puedo vivir con la duda y la incertidumbre y el no saber. Creo que es mucho más interesante vivir sin saber que tener respuestas que puedan estar equivocadas”. Una actitud que intentó enseñarle no sólo a sus alumnos, sino a una sociedad necesitada de comprender la postura del científico.

El último trabajo públicamente relevante de Richard Feynman fue en 1986 como miembro del comité designado para investigar la causa de la explosión del transbordador espacial Challenger, que estalló poco después de su despegue, y donde no sólo descubrió que las juntas tóricas de los motores habían sido la causa del problema, sino que detectó y denunció los problemas de falta de comunicación entre los ingenieros y los ejecutivos de la NASA.

Feynman había sido operado de un cáncer estomacal en 1979, con un buen resultado que daba esperanzas de que se hubiera extirpado totalmente el mal. Sin embargo, el cáncer recurrió en 1987 y finalmente causó su muerte el 15 de febrero de 1988. Estuvo dando clases y entrevistas hasta dos semanas antes de esa fecha.

Según su biógrafo, el periodista científico James Gleick, las últimas palabras de Feynman fueron: “Odiaría morir dos veces. Es tan aburrido”.

Para leer a Feynman

Dos libros reúnen las conversaciones informales y divertidas de Richard Feynman con Ralph Leighton, un baterista aficionado y productor de cine que fue gran amigo del físico. El primero “¿Está usted de broma, Sr. Feynman?” fue reeditado en España en 2010. El segundo, “¿Qué te importa lo que piensen los demás?” fue reeditado este mismo 2011.

Y la ciencia se hizo arte

La ciencia y el arte nunca han estado divorciados, pero quizá nunca han estado tan unidos como desde principios del siglo XX.

Pablo Picasso, el pintor
de la cuarta dimensión
(D.P. via Wikimedia Commons)
‘La crucifixión’ de Dalí, pintura de 1954 también lleva el título de ‘Corpus hypercubus’. Su Cristo está crucificado flotando ante una cruz bastante poco usual, formada por ocho cubos. Estos ocho cubos tridimensionales, plegados en una hipotética cuarta dimensión espacial serían un hipercubo o teseracto, del mismo modo en que seis cuadrados de dos dimensiones representados en papel se pueden doblar en tres dimensiones para formar un cubo. Muchos de nosotros hicimos este ejercicio en la escuela.

Por supuesto, el concepto de una cuarta dimensión espacial sale totalmente de nuestra experiencia y apenas podemos hacer ejercicios de imaginación sobre cómo se verían las cosas en ese espacio que los matemáticos definen, de modo intrigante, como una dimensión ‘perpendicular a las otras tres’.

Pero Dalí y muchos artistas de su corriente creativa, el surrealismo, y muchos otros como los cubistas, intentaron tomar los más revolucionarios conceptos de la física, las matemáticas y la ciencia en general y llevarlas a sus lienzos, cambiando para siempre la forma en que vemos el arte. Y no sólo la cuarta dimensión espacial, sino los conceptos del tiempo como cuarta dimensión del “continuo espaciotemporal” de Einstein.

Así, los relojes derretidos de Dalí en ‘La persistencia de la memoria’ y el cuadro con el nada enigmático título de ‘En busca de la cuarta dimensión’ son la representación visual del concepto del tiempo relativo einsteiniano, que cautivó al mundo: el tiempo era –es– elástico, impreciso; un año para una persona puede ser unos breves días para alguien que viaja a velocidades cercanas a la de la luz. El mundo no era lo que hasta entonces había parecido. La búsqueda de lo surreal, lo que está “por encima de la realidad” se veía validada, así fuera metafóricamente, por una nueva física y una nueva matemática que decían que había una realidad más allá, y no sólo una realidad mística o fantástica, sino tan real como la que percibíamos.

Era un gran pretexto para el arte: inspirarse en los asombros del conocimiento, utilizarlo como metáfora, como alimento para el proceso creativo, que veían como distinto o incluso opuesto a la lógica de la ciencia. En palabras del poeta y pionero del surrealismo Guillaume Apollinaire, “Los nuevos pintores no se proponen, como tampoco lo hicieron sus predecesores, ser geómetras. Pero se puede decir que la geometría es a las artes plásticas lo que la gramática es al arte del escritor. Hoy en día, los académicos ya no se limitan a las tres dimensiones de Euclides. Los pintores han sido llevados de modo muy natural, diríase que por intuición, a preocuparse por las nuevas posibilidades de la medición espacial que, en el idioma de los estudios modernos, se designan con el término cuarta dimension”.

El pintor y el matemático

El cubismo tiene una fecha precisa de nacimiento: 1907, con el óleo de Pablo Picasso ‘Les demoiselles d’Avignon’. Allí, por primera vez, un cuerpo es visto al mismo tiempo desde varias perspectivas… la mujer está de espaldas, pero vemos su rostro, o al menos parte de él, como si fuera de algún modo transparente y a la vez vista desde un ángulo totalmente nuevo.

Arthur I. Miller, profesor emérito de historia y filosofía de la ciencia del University College de Londres, contaba en un artículo de 2007 para la revista ‘New Scientist’ en celebración de los 100 años del cubismo, que esa quinta figura del revolucionario cuadro de Picasso fue objeto de literalmente cientos de bocetos, como era habitual en el artista malagueño. Pero el concepto, previo al primer boceto, era muy anterior.

Picasso, como artista, se había visto fascinado por el descubrimiento y popularización de los rayos X, que interpretaba como una prueba de que lo que se ve no es “la realidad” completa, además de los conceptos sobre distintos tipos de radiación que permeaban el universo sin que los pudiéramos ver. El espectro electromagnético demostraba que lo que podemos ver está muy limitado. Y la obligación del artista es, en todo caso, trascender lo que se ve para representar lo que se siente, lo que se vive, las emociones y las dudas.

En ese 1907, además, Picasso conoció al matemático y actuario Maurice Princet, quien se hizo parte del círculo bohemio parisino de artistas y literatos de vanguardia. Según relata Miller, en junio de 1907, cuando Picasso luchaba con la composición de su cuadro, recibió la visita de Princet, que le mostró un libro escrito por su colega matemático Esprit Jouffret, ‘Tratado elemental de la geometría de cuatro dimensiones’, que presentaba a nivel de divulgación los trabajos del matemático Henri Poincaré. Jouffret describía posibles objetos en cuatro dimensiones, como el hipercubo, y los proyectaba sobre el papel, un plano de sólo dos dimensiones.

No sabemos, pero podemos fantasear, que la idea de la cuarta dimensión espacial representó toda una epifanía para el joven pintor (tenía entonces 26 años). Ahí había todo un universo, toda una dimensión, absolutamente nueva. Podían pintarse las cosas por detrás y por delante al mismo tiempo, o como si las viéramos desde todos lados a la vez, girando a su alrededor, sumando en una sola percepción todos los fotogramas, por ejemplo, de una película que rodeara nuestro sujeto. Y los cuerpos se podían representar también al mismo tiempo por dentro y por fuera, como si fueran vistos por los rayos X. O includo representarlos en distintos momentos, como eran ayer, hace cinco meses, hoy o dentro de cuarenta años, ideas que además reforzaba el cinematógrafo que apasionaba a los vanguardistas.

A partir de ese momento, Picasso comenzaría a jugar en el arte sobre los temas del tiempo y el espacio como lo estaba haciendo, casi al mismo tiempo, Albert Einstein en Suiza, desde la trinchera de la física teórica. Sus cuadros de los años siguientes son desarrollos sobre esta visión absolutamente original. Para muchos, además, comprender esta visión “tetradimensional” del cubismo puede servir para ver, si es posible, la pintura cubista (y otras corrientes pictóricas del siglo XX) desde otra perspectiva.

Las otras fascinaciones de Dalí

Además de la teoría de la relatividad y la geometría de más de tres dimensiones, no euclidiana, Salvador Dalí estuvo fascinado siempre por la ciencia y la técnica, reinterpretados a través de su peculiar visión; la energía atómica (“Idilio atómico y uranio melancólico”), la física de partículas (“Santo rodeado de tres mesones pi”), las imágenes estereoscópicas, el descubrimiento del ADN y la holografía, de la cual fue pionero. Decía Dalí: “Creo que los artistas deberían tener nociones científicas para caminar sobre otro terreno, que es el de la unidad”.

Cataclismos cósmicos

Keplers supernova
Los restos de la supernova de Kepler
(Foto D.P. de NASA/ESA/JHU/R.Sankrit y W.Blair,
vía Wikimedia Commons
Todas las explosiones que puede imaginar y fingir Hollywood no son sino un petardo sin importancia junto a los acontecimientos más violentos del universo real: las supernovas.

Era el año 185 de la Era Común y en el imperio romano las legiones se amotinaban contra el emperador Cómodo, que dilapidaba el tesoro romano con su pasión por los juegos gladiatorios, en los que él mismo gustaba de participar. En Asia se acercaba el fin de los más de 400 años de dominio de la Dinastía Han ante otras rebeliones, como la de los turbantes amarillos o la de los cinco montones de arroz del año 184. Fue el año en que los astrónomos imperiales anotaron en “Los anales astrológicos del libro de Han posterior” el avistamiento de una “estrella visitante”, como llamaron a una luz brillante que apareció súbitamente en el cielo nocturno, que titilaba como una estrella, no se movía a diferencia de los cometas y, en ocho meses, se desvaneció.

Los astrónomos creen hoy que es muy posible que aquellos sabios chinos hayan hecho el primer registro de la historia humana de una supernova. En la zona donde los astrónomos imperiales describieron esa misteriosa estrella, modernos instrumentos como los telescopios espaciales Chandra y XMM-Newton han encontrado una capa gaseosa que podría ser la huella de la supernova SN185, llamada así por el año en que ocurrió.

Desde entonces, el ser humano ha visto más de mil acontecimientos similares, estrellas que surgen de súbito y se desvanecen en cosa de días o meses.

Fue el danés Tycho Brahe el primero que, en su libro de 1573 “Sobre la nueva estrella” señaló que las “nuevas estrellas” (o “novas”) no eran fenómenos que ocurrían cerca de nuestro planeta. Sus cuidadosas observaciones de la “nova de Tycho” de 1572 demostró que estaba mucho más allá de las supuestas “esferas celestiales” perfectas e inmutables de Platón, Aristóteles y Ptolomeo. El modelo precientífico era incorrecto. Sólo doce años después, Giordano Bruno promovería la idea de que las estrellas eran, en realidad, cuerpos iguales a nuestro sol, pero a grandes distancias, y que podrían incluso tener planetas (su idea de que podrían albergar vida le costó la ejecución a cargo de la Inquisición).

Si las estrellas eran soles, las “novas”, y las aún más colosales “supernovas” son soles que de pronto brillan más intensamente. Hoy sabemos por qué.

Novas y supernovas

Las estrellas brillan debido a las reacciones nucleares que ocurren en su interior, donde los átomos de hidrógeno, con un protón en su núcleo, se fusionan formando átomos de helio con dos protones y, al hacerlo, producen una enorme cantidad de energía. La fusión depende de la masa de la estrella: mientras más masa posee, puede fusionar componentes más pesados, es decir, con más protones en su núcleo.

Cuando se va agotando su capacidad de sostener la fusión nuclear, una estrella con una masa de menos de cinco veces nuestro sol crece convirtiéndose en gigante roja para luego encogerse como “enana blanca”, una estrella muy densa compuesta principalmente de oxígeno y carbono. Si esta estrella es parte de un sistema doble, o binario, algo muy común en el universo (nuestra vecina más cercana, Sirio, es una estrella doble), puede por gravedad hidrógeno y helio de su vecina hasta que estos elementos entran en una violenta reacción nuclear de fusión descontrolada. Es lo que conocemos como una “nova”.

Una “supernova” es un fenómeno muchísimo más violento y espectacular, que puede ser mil millones de veces más brillante que nuestro sol.

Las supernovas de tipo “I” ocurren cuando la enana blanca tiene una masa mucho mayor y su atracción gravitacional puede acumular gran cantidad de materia de su vecina, hasta tener una densidad de dos millones de kilogramos por centímetro cúbico. Entonces, la superficie de la estrella cae velozmente hacia su centro, comprimiéndose por su fuerza gravitacional; el carbono y el oxígeno de su núcleo comienzan una reacción de fusión descontrolada y ocurre la gigantesca explosión que forma los objetos más brillantes que conocemos en el universo. Para darnos una dea de la densidad necesaria para que una enana blanca estalle como supernova, un dado pequeño, de 1 centímero por lado, que tomáramos de ella pesaría lo que cuatro buques petroleros grandes llenos.

Las otras supernovas, las de “Tipo II”, son producto de un proceso distinto que ocurre en estrellas de una masa muy superior, desde 8 hasta 50 veces la de nuestro sol. Esta enorme masa impide que puedan convertirse en enanas blancas, y al irse agotando su combustible ocurren complejas reacciones en su interior formando distintas capas, como una cebolla, con un núcleo de hierro y las capas superiores formadas de elementos cada vez más ligeros, con fuerzas colosales que producen por fusión nuclear todos los elementos naturales conocidos, hasta que la estrella se colapsa y se produce la explosión.

Cuando una estrella ha estallado como supernova, deja como huella una nube de gas y, en el centro, un cuerpo extraordinariamente denso. Si tiene entre 1,4 y 3 veces la masa de nuestro sol, su núcleo se convierte en una “estrella de neutrones” supermasiva. Y si tiene más de 3 veces la masa del sol, se convertirá en un agujero negro.

No todas las estrellas se convierten en novas o supernovas, el ciclo vital de una estrella puede llevar a otros finales bastante menos espectaculares. Lo que nos han enseñado las supernovas es tan espectacular como su propio aspecto. Como ejemplo, el premio Nobel de física de este año se concedió a tres físicos que, estudiando 50 supernovas lejanas, demostraron que la expansión de nuestro universo es cada vez más rápida, lo que implica que hay una fuerza aún desconocida que impulsa esta expansión, una fuerza que llamamos “energía oscura”.

En nuestra galaxia no hemos visto una supernova desde la de 1604, que estalló a unos 13.000 millones de años luz y fue estudiada por Johannes Kepler. Muchos astrónomos desearían poder observar otra supernova tan cerca de nosotros y en condiciones claramente visibles. Con los delicados instrumentos que hoy están a nuestra disposición, podríamos aprender mucho más sobre el universo al estudiar estos cataclismos estelares. Tanto como aprendieron Tycho Brahe y Johannes Kepler.

La supernova de las supernovas

La más brillante supernova registrada hasta hoy ha sido la que se observó el 4 de julio de 1054 y que se pudo ver de día durante 23 días, y después alrededor de dos años en la noche, y fue registrada por astrónomos chinos, japoneses, coreanos, árabes y, probablemente europeos. En 1942, los astrónomos Nicholas Mayalll y Jan Oort concluyeron, más allá de toda duda razonable, que la Nebulosa del Cangrejo situada en la constelación de Tauro no es sino los restos de la masiva explosión de la supernova de 1054.

El acertijo de las enfermedades fantasma

La capacidad de diagnosticar es requisito previo de la aplicación del tratamiento correcto. En ocasiones es imposible un diagnóstico preciso, y la enfermedad se vuelve un desafío terrible para médicos y pacientes.

Una tomografía de emisión de positrones
muestra las zonas del cerebro activadas por
un dolor de cabeza.
(imagen CC del Dr. A. May via CK-Wissen)
La lucha contra las enfermedades no es sólo el proceso de encontrar remedios o, al menos, paliativos para los males que nos afectan, es también la capacidad de diagnosticar dichas enfermedades.

Antes de la teoría de los gérmenes de Louis Pasteur y Robert Koch, en la segunda mitad del siglo XIX, las enfermedades se caracterizaban de modo general como lo hacen aún algunas prácticas que ofrecen remedios “para el dolor de estómago”, sin importar si es producto de acidez, cáncer, úlceras, infecciones, etc.

Junto a esa caracterización había intentos de diagnóstico. Las creencias tradicionales chinas, por ejemplo, le tomaban el pulso al paciente en varios puntos, suponiendo que así se podían percibir procesos complejos de todas las enfermedades. Otras tradiciones buscaban inspiración en sus dioses, en el vuelo de las aves o en las líneas de las manos.

El diagnóstico médico certero tuvo que esperar a que el médico canadiense William Osler desarrollara los principios del diagnóstico clínico. Para Osler, el médico tenía que utilizar los síntomas para identificar las enfermedades y tratar éstas. Según su teoría, la tarea del médico ante un dolor de estómago era encontrar las causas de ese dolor.

Con los nuevos conocimientos de la biología, la química y la física, surgieron los estudios, análisis y pruebas para el diagnóstico: análisis químicos; biopsias, la exploración de nuestro interior (rayos X, tomografías, resonancia magnética, etc.), la medición de la tensión sanguínea y cuanto nos asombra en series de ficción como “House”, dedicada al llamado diagnóstico diferencial que desentraña enfermedades con síntomas similares y tratamientos distintos.

Pero la capacidad de diagnóstico reunida topa, en ocasiones, con afecciones fantasma, donde los pacientes informan de síntomas que les provocan un enorme sufrimiento físico y emocional, pero cuyas causas no pueden ser identificadas con claridad.

Estas afecciones, como la fibromialgia, descrita apenas en 1981, o el síndrome de fatiga crónica, identificado en 1986, así como muchas afecciones relacionadas con el comportamiento como el trastorno de déficit de atención o hiperactividad en niños, se diagnostican por exclusión. Es decir, el médico debe realizar las pruebas necesarias para eliminar las causas conocidas y razonables de los síntomas del paciente y, al eliminarlas, quedar con un diagnóstico de “origen desconocido”.

Aunque se realizan continuamente estudios variados para identificar las posibles causas de estas enfermedades, una de las hipótesis es que estas afecciones pueden no tener un origen físico, sino psíquico. Esto no significa en modo alguno que los pacientes estén fingiendo, sufran enfermedades mentales ni mucho menos que “se están imaginando” los síntomas que padecen. Más bien, en palabras de los investigadores Anindya Gupta y Alan Silman, de la Escuela de Epidemiología y Ciencias de la Salud de Manchester, Inglaterra, se trata de determinar si hay un determinante físico o se trata de una respuesta del cuerpo ante el estrés psicológico. Pese a la desazón que esto puede ocasionar entre los pacientes, no se puede descartar esta hipótesis sin investigarla con tanto cuidado como se investigan las posibles causas genéticas, virales, autoinmunes o fisiológicas de estas afecciones.

Existen otros trastornos igualmente “fantasmales”, como las llamadas “sensibilidad química múltiple” o la “electrosensibilidad”, en las cuales los pacientes aseguran que el origen de sus síntomas se encuentra en ciertos aspectos de su entorno, como las que consideran “sustancias químicas artificiales” o la radiación electromagnética.

Estudios de provocación

Una forma de comprobar si los síntomas son realmente producto de aquello que los pacientes ven como su problema es realizar “estudios de provocación” donde el sujeto es sometido aleatoriamente a la influencia del elemento que considera culpable de sus síntomas, sin que sepa en qué momento está activo. Por ejemplo, a una persona que dice experimentar determinados síntomas al estar cerca de una fuente de radio como los teléfonos móviles, se le pide que identifique, según la intensidad de los síntomas, cuándo un teléfono móvil está activo y cuándo no.

Para que estos estudios sean rigurosos y que los sujetos no se vean condicionados por el experimentador, que puede dar sutiles señales para indicar el estado del estímulo, el propio experimentador ignora cuándo el estímulo es efectivo y cuándo es un placebo. Esto se conoce como un experimento de “doble ciego”, el mismo procedimiento científico que se utiliza para determinar si un medicamento tiene efectos reales o no.

Sin negar el sufrimiento de los pacientes, la medicina debe enfrentar el hecho de que ningún estudio de provocación sobre la sensibilidad química múltiple y la sensibilidad electromagnética ha conseguido demostrar que efectivamente el estímulo al que culpan los pacientes sea responsable de los síntomas, sino que, en palabras de un estudio del Instituto de Psiquiatría de Londres sobre sensibilidad química los resultados sugieren que “el mecanismo de acción no es específico de la sustancia química en sí, y puede estar relacionado con las expectativas y las creencias previas”. Algo muy similar señalaba un estudio sobre sensibilidad a los campos electromagnéticos de 2005 al notar que “no había encontrado evidencia de una mayor capacidad para detectar campos electromagnéticos en los participantes ‘hipersensibles’”, por lo cual los síntomas, por reales que sean, “no están relacionados con la presencia de campos electromagnéticos”.

La capacidad de la medicina para mejorar la calidad de nuestra vida y aumentar su duración hasta el doble de hace un siglo (cuando la expectativa media de vida en el mundo era de 31 años comparada con los más de 67 de hoy) a veces nos hace olvidar que apenas estamos comprendiendo nuestro cuerpo, incluido nuestro cerebro y sus complejísimas funciones. Las enfermedades de difícil diagnóstico y orígenes aún imprecisos nos recuerdan el largo camino que aún tiene que recorrer la ciencia.

El diagnóstico bioquímico

Las ideas de William Osler sobre el diagnóstico fueron ampliadas y consolidadas por su sucesor, Archibald Edward Garrod, el primero que se planteó la posibilidad de que algunas enfermedades fueran producto de errores congénitos de nuestro metabolismo aprovechando la teoría de la herencia de Gregor Mendel, abriendo todo un campo de la medicina desconocido hasta entonces, y que sólo se apreció en todo su valor cuando conocimos el ADN y su codificación genética.