Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Cómo conservamos nuestros alimentos

Nicholas Appert, inventor de las conservas
(imagen D.P. via Wikimedia Commons)
El ser humano ha luchado durante toda su historia por mantener sus alimentos a salvo de bacterias, hongos y otros factores dañinos.

El problema de la conservación de los alimentos ha sido preocupación principal del ser humano durante toda su existencia, porque... ¿de qué sirve acumular comida, ser previsores y llenar nuestras despensas si la comida se echa a perder, se pudre, se enmohece, se arrancia, se endurece, pierde color y sabor y finalmente resulta imposible de comer? Una buena cosecha o una cuantiosa cacería, no son de abundancia a largo plazo si no se conservan.

La conservación de los alimentos tuvo una importancia capital para la supervivencia y el desarrollo de nuestra especie, facilitando el paso del nomadismo al sedentarismo, el comercio de alimentos a gran distancia, que más gente tuviera acceso a mejores alimentos, reduciendo las enfermedades transmitidas por los alimentos y, por supuesto, permitió la supervivencia al ofrecer suministros para enfrentar los inviernos y los tiempos de mala cacería o bajos rendimientos agrícolas.

La lucha por la conservación de los alimentos se da en dos frentes. El primero busca combatir, inhibir o dejar fuera a las bacterias que producen la descomposición. El segundo busca mantener o aumentar incluso las características que percibimos de los alimentos (su color, sabor, aspecto, aroma, etc., que es lo que los expertos conocen como sus “propiedades organolépticas”.

En las sociedades prehistóricas, el método más común para preservar los alimentos era cocinarlos de diversas formas. Este proceso mata a los microorganismos responsables de la descomposición y los mantiene a raya más tiempo. Además, nuestros ancestros crearon procedimientos para conservar la carne que seguimos usando, como el ahumado, que es antimicrobiano y antioxidante; el curado con sal, que impide la proliferación de bacterias al deshidratarlas cuando entran en contacto con la sal, y el secado mediante el sol, que al eliminar la humedad del alimento dificulta igualmente la proliferación bacteriana.

Otro procedimiento tradicional para conservar los alimentos es la fermentación, como la del vino, los quesos o la cerveza, en la que se somete al alimento a la acción de unos microorganismos concretos (levaduras y mohos) que ocupan el lugar que de otro modo tendrían organismos que descomponen los alimentos. Precisamente este medio ambiente tóxico es el que crean los hongos del genus o grupo de especies Penicillium, al producir la sustancia que llamamos penicilina, un potente antibiótico, y que son los responsables de la preservación de los quesos azules, el camembert, el brie y otros.

Las conservas en salmuera, vinagre, alcohol o aceites vegetales, que son líquidos comestibles, funcionan inhibiendo el crecimiento de las bacterias o matándolas, mientras que la conserva de productos cocinados en líquidos con alto contenido de azúcar (como las mermeladas) evita las bacterias porque tiene una presión osmótica tan elevada que no permite que vivan casi microbios en su interior.

Estos sistemas fueron los básicos de la conservación de alimentos hasta el siglo XVIII, cuando la tecnología empezó a desarrollar nuevas opciones. En 1810, el confitero francés Nicholas Appert dio a conocer su invención de la conservación hermética de los alimentos, que colocaba en frascos de vidrio que sellaba con corcho y lacre, y posteriormente colocaba en agua hirviendo. Cambiando los frascos de vidrio por latas metálicas se obtiene el moderno sistema de enlatado.

Enfriar o congelar los alimentos fue un método marginal usado en zonas donde se podía recoger hielo o nieve, pero no se pudo utilizar ampliamente sino hasta la creación de la refrigeración artificial en 1756, que llevó a la producción artificial de hielo y, finalmente, a las neveras mecánicas domésticas, que empezaron a llegar a los hogares en 1911.

A este arsenal de métodos de conservación se han añadido otros en los últimos años, que van desde sustancias con propiedades conservantes hasta sistemas como la irradiación de los alimentos con rayos X, gamma o electrones de gran energía; la aplicación de pulsos de un potentísimo campo eléctrico, o el empacado al vacío o con una atmósfera baja en oxígeno.

Al eliminar el oxígeno de los alimentos se presenta el riesgo del botulismo, es decir, el envenenamiento frecuentemente mortal con la toxina producida por la bacteria Clostridium botulinum, que es anaeróbica, lo que significa que vive y se reproduce sin necesidad de oxígeno. Para evitar también la proliferación de esta bacteria se utilizan otras sustancias, como las sales llamadas nitritos.

Entre las sustancias que inhiben la actividad de bacterias y hongos se encuentra el benzoato de sodio, una sal que se presenta de modo natural en algunos alimentos, y que se añade a otros, especialmente si tienen un pH ácido. La misma función la realizan sustancias como el sorbato de potasio. Los propionatos, por su parte, inhiben el crecimiento de moho en los alimentos horneados, destacadamente el pan y las galletas.

Algunas personas y grupos tienen la preocupación de que las sustancias conservantes que se utilizan en la actualidad tengan peligros desconocidos para la salud. Los estudios que se llevan a cabo con estas sustancias tienen por objeto determinar si existe este riesgo y en qué medida, teniendo presente que nada de lo que consumimos, nada de lo que hay en el universo, está totalmente exento de riesgo, y todo depende de cantidades, dosis, y la delicada relación entre el beneficio y los peligros.

Finalmente, los procesos tradicionales de conservación tampoco están exentos de peligros. Consumidos en exceso, los productos ahumados, curados o salados aumentan el riesgo de cáncer estomacal, además de que el exceso de sal es un riesgo para las enfermedades cardiacas, y ciertamente las personas con diabetes no pueden consumir productos conservados con azúcar, jarabes o miel.

Si bien debemos estar alerta a los posibles peligros, no podemos olvidar que los sistemas de conservación, tanto los actuales como los que podamos desarrollar, serán esenciales no sólo en la lucha contra el hambre, sino en una nutrición de calidad para todos los seres humanos. Nuestra especie no habría prosperado si no hubiera aprendido a preservar sus alimentos, lo cual también jugará un papel en su éxito futuro, su desarrollo o su extinción.

Una víctima del frío

En 1626, uno de los padres del método científico, Sir Francis Bacon, se propuso experimentar la posibilidad de conservar un ave rellenándola de nieve, mismo que, escribió Bacon “triunfó excelentemente bien”. Sin embargo, en el proceso, contrajo una pulmonía que unas semanas después lo llevaría a la muerte, como mártir de la ciencia... y de la conservación de los alimentos.

Las contradicciones del petróleo

Torres de petróleo en Orange County, 1928
(CC Orange County Archives
via Wikimedia Commons)
El petróleo es por igual oro negro, motor de la economía y la vida moderna, contaminante peligroso, motivo de guerras y salvador de vidas. Una muy humana colección de contradicciones.

El petróleo que hoy es preocupación cotidiana fue una curiosidad poco relevante durante la mayor parte de la historia humana. Manaba naturalmente de la tierra o se filtraba a lagos y ríos, un material con pocos usos.

Cierto, se podía quemar, con un olor bastante peor que el de otros aceites, como el de oliva. Pero el petróleo –el “aceite de piedra”– se empleaba principalmente como remedio, y la brea se usaba para calafatear o impermeabilizar embarcaciones. La Biblia cuenta que el alquitrán se usaba cemento en la antigua Babilonia, y ateniéndonos a lo que relata el libro del Génesis en su capítulo 11, el alquitrán fue el adhesivo o cemento usado en la supuesta construcción de la Torre de Babel.

Heródoto menciona en el 450 antes de la era común un pozo en Babilonia que producía sal, betún y petróleo, mientras que Alejandro Magno usó antorchas empapadas en alquitrán petróleo para asustar a sus enemigos. Alrededor del año 100 de nuestra era, Plutarco habla de petróleo que sale burbujeando de la tierra cerca de Kirkurk, en lo que hoy es Irak, país desolado por una guerra en la que el petróleo juega un papel relevante. Y en China, en el siglo IV de nuestra era, se utilizó para quemarlo y evaporar agua salada para obtener sal. Allí se perforaron los primeros pozos, de hasta 250 metros, para obtenerlo.

El petróleo ni siquiera protagonizó la revolución industrial de los siglos XVIII y XIX, sino que lo hizo el carbón, otro combustible fósil que sustituyó a la madera para obtener el vapor que movió la naciente industria. El carbón se procesó también para gasificarlo y purificarlo, permitiendo que se usara en la iluminación con gas que a principios del siglo XX permitía la vida nocturna en las grandes ciudades de Europa y EE.UU.

El petróleo por su parte empezaba a desarrollarse a partir de 1853, cuando el científico polaco Ignacy Lukasiewicz creó la destilación del petróleo para obtener queroseno, que antes se obtenía del carbón. Lukasiewicz inventó además la lámpara de queroseno, que era limpia, fácil de usar y de poco olor comparada con sus antecesores. Ambos avances impulsaron la aparición de explotaciones petroleras en todo el mundo, junto con las grandes fortunas y los grandes monopolios.

Desde mediados del siglo XIX hasta el siglo XX, los productos obtenidos del petróleo mediante la destilación fraccionada se multiplicaron: combustibles gaseosos como el propano, combustibles líquidos (desde el gasavión y la gasolina hasta el diesel, los lubricantes, el ácido sulfúrico, el alquitrán, el asfalto y el coque de petróleo, hasta los productos petroquímicos).

El salto del petróleo a la primera fila de la atención mundial fue el desarrollo del motor de combustión interna o motor a explosión. En 1886, Karl Benz patentó el motor de cuatro tiempos con el que empezaría a producir sus automóviles, seguido por numerosos ingenieros que perfeccionaron, ampliaron y desarrollaron la idea del automóvil y el motor.

Y de la mano del automóvil, el avión nacido en 1905 y las refinerías, el petróleo empezó a apoderarse, literalmente, del mundo. Los autos exigían carreteras en condiciones (asfaltadas... con petróleo), y gasolina y aceite (del petróleo), así como los aviones que demandaban igualmente combustibles procedentes del petróleo, nace la petroquímica.

Los productos no combustibles del petróleo, como el propileno, el etileno, el benceno y el tolueno dieron origen a la industria petroquímica y multiplicaron el valor comercial del petróleo y el hambre del mismo que fue desarrollando nuestro mundo. El petróleo se convirtió así en plásticos de gran utilidad, fibras artificiales como el nylon, el rayon o el poliéster que sustituyen al menos en parte al algodón, el lino y otras fibras naturales, empaques baratos y multitud de productos más.

Las desventajas, sin embargo, siempre estuvieron presentes. La contaminación ocasionada por la combustión de la gasolina, el diesel y otros combustibles del petróleo, así como por los desechos de los lubricantes, ha sido uno de los principales problemas de los últimos 100 años, exigiendo mejores fórmulas y diseños para paliar el daño que causan.

Los maravillosos plásticos, a su vez, tienen también su lado oscuro. Además de que su biodegradación puede tardar siglos, su combustión puede emitir emanaciones sumamente venenosas, y los procesos de producción conllevan también la emisión de contaminantes nocivos para el ambiente y la salud de personas y animales.

Sin embargo, el problema no durará mucho, porque el petróleo se agotará en algún momento determinado. Según distintos cálculos, esto podría pasar ya en 2057 o hasta 2094, dependiendo de nuestra capacidad de conservar este recurso y del descubrimiento o no de nuevas reservas. Hoy en día, las reservas mundiales de petróleo se calculan entre 1,4 y 2 billones de barriles (millones de millones), mientras el consumo diario de petróleo en el mundo es de alrededor de 84 millones de barriles.

Nosotros, o nuestros descendientes inmediatos, deberemos enfrentar el fin de la era del petróleo en nuestro planeta. Lo que pueda pasar entonces está totalmente abierto a especulaciones, desde las de los más pesimistas, que esperan un desastre apocalíptico al abatirse la producción y transporte de alimentos, hasta los optimistas que confían en que algo pasará que resuelva el problema, ya sea un aumento en la conciencia pública o un avance de la ciencia.

Sin embargo, sabemos que el petróleo se agotará, y en el momento en que la producción diaria sea menor que el consumo diario (lo que significaría que día a día se iría creando una escasez de petróleo) empezará un largo proceso de destete. En él, esperamos que el desarrollo de formas de energía más limpias, renovables y accesibles, jugará un papel fundamental.

Pero no lo sabemos. Y por ello todos los esfuerzos de conservación son útiles y recomendables. La humanidad ha vivido más de un siglo sin precedentes sumida en las contradicciones del petróleo. Y tendrá que hacerse a la idea de que esta fiesta, cuando menos, tiene horario de cierre.

El fósil que nos mueve

Solemos referirnos al petróleo y al carbón como “combustibles fósiles" debido a que eso son precisamente. El petróleo se ha formado a partir de los cuerpos y restos orgánicos de plantas y animales que vivieron hace millones de años y que se hundieron en el fondo del mar. Enterrados bajo kilómetros de arena y sedimentos, atrapados en roca no porosa y sometidos a enormes presiones y temperaturas, un pequeño porcentaje de estos restos orgánicos se desintegró en compuestos formados por átomos de hidrógeno y carbono, los hidrocarburos.

El padre de la neurocirugía moderna

Harvey Cushing
(foto D.P. de Doris Ulmann via
Wikimedia Commons)
Durante la mayor parte de la historia humana no hubo nada que pudiéramos llamar estrictamente "neurocirugía". Los avances que hoy salvan vidas comenzaron con un médico de Cleveland.

De entre todos los misterios del cuerpo humano, probablemente el más enigmático es el que se guarda dentro de nuestro cráneo, como un tesoro dentro de un cofre hermético, sólido, inexpugnable.

No es de extrañarse, somos una especie curiosa, que desde los albores de la historia el hombre abriera el cráneo de sus semejantes para ver lo que hay dentro... o para intentar curar alguna afección, como creen los arqueólogos que han encontrado numerosos casos de trepanación que se remontan hasta los 6.500 años antes de nuestra era.

Trepanar significa hacer un agujero. Numerosos cráneos prehistóricos muestran agujeros de distintos tamaños que se les practicaron con herramientas especializadas. Y que sobrevivieron, como lo revela la cicatrización ósea, es decir, el crecimiento de nuevo hueso en los bordes del agujero, y en algunos casos la oclusión total del mismo.

Algunas pinturas rupestres parecen indicar que la trepanación se practicaba con objeto de curar afecciones tales como los ataques epilépticos, las migrañas y los trastornos mentales, aunque también para realizar la limpieza de heridas como las causadas por piedras y porras. La operación fue común en la América precolombina, desde el centro de México hasta Los Andes. Y se siguió practicando en Europa durante la era clásica, la edad media y el renacimiento, como la única práctica quirúrgica relacionada con el cráneo y el cerebro junto con las reparaciones de lesiones óseas..

La aparición de la medicina científica a mediados del siglo XIX y el desarrollo de los métodos antisépticos y la anestesia, estimularon el interés por realizar intervenciones quirúrgicas eficaces en el cerebro.

En 1884, En el Hospital Epiléptico de Regent’s Park, Rickman John Godlee, cirujano británico y sobrino de Joseph Lister, llevó a cabo la que podría considerarse la primera cirugía cerebral moderna, practicada para extirpar un tumor cerebral de su paciente. Godlee trabajó bajo las indicaciones de Lister, quien a la luz de los descubrimientos de Louis Pasteur sobre los microorganismos patógenos y la consecuente teoría de que éstos eran los causantes de las infecciones, propuso procedimientos antisépticos y el establecimiento de un entorno estéril para la cirugía, bajo la hipótesis de que ello reduciría las infecciones postoperatorias que tantas vidas costaban y permitiría cirugías que antes nadie se atrevía a intentar.

El éxito de la intervención provocó que más y más médicos se atrevieran a realizar cirugías cerebrales, y el nuevo campo empezó a avanzar. El cirujano Victor Horsley se convirtió muy pronto en el primer cirujano que dedicaba buena parte de su práctica a la neurocirugía como disciplina quirúrgica. En 1887 extirpó por primera vez un tumor de la médula espinal.

Pero la disciplina necesitaba su Edison, su Pasteur, su Cristóbal Colón, el que definiera claramente la especialidad de la neurocirugía... Ese papel le estaba reservado al médico estadounidense Harvey Cushing.

Nacido en Cleveland, Ohio, en 1869, el espíritu innovador y adelantado de Cushing se hizo evidente ya desde sus años de formación. En 1894, un año antes de recibir su título de la Universidad de Harvard, Cushing vio morir a un paciente durante una operación debido a una sobredosis de éter, el anestésico de uso común por entonces. Con su colega Ernest Codman, Cushing creó la primera tabla de anestésicos diseñada para ayudar al médico y al anestesiólogo a vigilar el pulso, la respiración y la temperatura... todo eso que hoy sigue bajo supervisión a cargo de sensores automatizados.

Como resultado, se redujeron notablemente las muertes debidas al mal uso de la anestesia.

El mismo año en que Cushing obtuvo su título como médico, 1895, Ernst Roentgen descubrió los rayos X, y un año después ya Cushing y Codman estaban utilizando esta nueva tecnología para hacer diagnósticos radiográficos mientras continuaban su educación especializada en neurocirugía.

Cushing empezó a realizar intervenciones quirúrgicas en 1902. A lo largo de la carrera que seguiría durante los siguientes 37 años desarrolló sus propios avances y técnicas, como el electrocauterizador que ayudó a desarrollar para obturar los vasos sanguíneos durante las intervenciones, además de estudiar numerosas enfermedades y afecciones hasta entonces no descritas en la literatura médica.

En particular le interesó la glándula pituitaria, que estudió tan intensamente que durante su vida se le consideró el máximo experto en esta glándula. Uno de los trastornos que identificó, la "enfermedad de Cushing", causada por un tumor en el lóbulo anterior de la pituitaria y que se puede tratar principalmente con cirugía.

Además, Harvey Cushing fue promotor y defensor de técnicas y procedimientos nuevos, no creados por él, pero que consideraba esenciales para realizar mejor su trabajo.

Entre las técnicas de las que fue pionero se encuentran muchas que son práctica común en la actualidad, como el uso de la irrigación con solución salina para limpiar la zona de la cirugía y permitir al médico una mejor visión del campo quirúrgico.

De gran importancia fue su promoción de la monitorización continua de la tensión arterial durante las intervenciones quirúrgicas, primero con un esfigmomanómetro que sólo medía la presión sistólica (el momento de la contracción del corazón) y después con el tensiómetro de Korsakoff, que también medía la presión diastólica (el momento de la relajación del músculo).

Como el principal formador de neurocirujanos durante muchos años, muchos consideran a Cushing el padre de la neurocirugía como la entendemos, estudiamos y practicamos en la actualidad con el sueño de conseguir lo que Cushing: salvar vidas. Y el ejemplo de este médico es alentador: en sus más de 2.000 intervenciones quirúrgicas para extirpar tumores, consiguió el extraordinario logro de llevar a sus pacientes de un 90% de probabilidades de morir a sólo un 8%, multipicando la calidad y cantidad de vida de miles de personas directa e indirectamente.

Un nombre omnipresente

El nombre de Harvey Cushing está presente en diversas formas en el mundo de la medicina, pues lo llevan el clip de Cushing, un dispositivo de sujeción; tres distintos síndromes (Cushing I, II y III), la tríada de Cushing, la úlcera Rokitansky-Cushing, el sinfalangismo de Cushing (una afección en la que se fusonan las articulaciones de las falanges), el síndrome Bailey-Cushing, el síndrome Neurath-Cushing y, por supuesto, la ley de Cushing, que indica que el aumento de la presión intracraneal comprime los vasos sanguíneos y causa la isquemia, o falta de riego sanguíneo, cerebral.

Júpiter, ¿una estrella fallida?

Imagen de Júpiter captada por la sonda
Cassini-Huygens
(Foto D.P de NASA/JPL/University of
Arizona, via Wikimedia Commons)
Es el mayor planeta de nuestro sistema solar, uno de los más intensa y apasionadamente estudiados y un gigante de gas que algunos sueñan que pudo ser nuestro segundo sol.

El planeta más grande de nuestro sistema solar, Júpiter, es una presencia destacada en los cielos de la Tierra, pues aparece como el cuarto objeto más brillante que hay en la esfera celeste, después del Sol, la Luna y Venus, salvo en algunas ocasiones en que Marte tiene un mayor brillo aparente.

Ya los astrónomos babilónicos se ocuparon de este singular cuerpo celeste, y varias culturas se interesaron en lo que era evidentemente un planeta muy grande. Los astrónomos hindús del siglo V de nuestra era calcularon que Júpiter tenía un diámetro de unos 67.000 kilómetros, mientras que la astronomía islámica del siglo VIII lo estimaba en 97.000 kilómetros. Ninguno se acercó al asombroso tamaño de este gigante, que es de 143.000 kilómetros, bastante más de diez veces el diámetro de la Tierra (12.700 km).

El interés por Júpiter aumentó a principios del siglo XVII, cuando Galileo Galilei descubrió las cuatro mayores lunas de Júpiter –Io, Europa, Ganímedes y Calisto– hoy conocidas precisamente como "lunas galileicas". Las implicaciones astronómicas y cosmológicas de sus descubrimientos fueron, por desgracia, menor evidentes en el momento que las de orden religioso, con los resultados ya conocidos.

Mayores y mejores telescopios que el construido por Galileo permitieron estudiar más a fondo el planeta. En la década de 1660, Giovanni Cassini descubrió las manchas y bandas del planeta, junto con el curioso hecho de que las bandas giran a velocidades diferentes y notó su forma achatada en los polos. Muy poco después, Robert Hooke y el propio Cassini descubrirían independientemente una de las características más distintivas del planeta, la Gran Mancha Roja, un óvalo que hoy sabemos que es una tormenta anticiclónica persistente que ha durado al menos 180 años, pero probablemente tiene muchos más.

No fue sino hasta 1892 cuando se descubrió un quinto satélite de Júpiter. Los demás miembros de la corte de 63 lunas que siguen al planeta fueron descubiertos por sucesivas misiones de sondas robóticas. Muchas de esas lunas surgieron cuando se formó el planeta, mientras que otras fueron capturadas por su campo gravitacional.

Júpiter tarda casi 12 años terrestres en dar la vuelta al sol, y sin embargo tiene el día más corto del sistema solar, pues da una vuelta sobre su eje cada 9 horas y 55 minutos, lo que influye en la intensa actividad de los gases en su superficie.

Al ser un planeta tan grande, y estar formado por materia gaseosa, sin un suelo donde se pudiera “aterrizar” como lo soñó la ciencia ficción primigenia, no era extraño que tarde o temprano alguien se preguntara si Júpiter no podría ser una estrella, un segundo sol cuya ignición incluso podría provocar el hombre.

Estrellas binarias

La estrella más cercana al sol, nuestra vecina cósmica, es en realidad una estrella triple, que conocemos como Alfa Centauri. El sistema esté formado por una enana roja llamada Proxima Centauri y dos estrellas visibles, alfa Centauri A y B, que giran alrededor una de otra o, para ser exactos, alrededor de un centro de masa común. Son un sistema binario, concepto usado por primera vez por el astrónomo británico Sir William Herschel en 1802 para diferenciar a las estrellas dobles que simplemente estaban cerca una de otra de las parejas de estrellas gravitacionalmente unidas.

En el caso de Alfa Centauri, la estrella A es la más brillante y es por tanto la estrella primaria, mientras que la B es la acompañante. Hasta hoy no se ha podido determinar si Proxima Centauri también está gravitacionalmente unida a las otras dos.

La existencia de los sistemas binarios es muy útil para los astrónomos, que utilizan el cálculo de sus órbitas para determinar la masa de las estrellas con gran precisión, lo que les permite estimar con mayor exactitud la masa de estrellas similares que no están en sistemas binarios.

Las estrellas binarias no son tan desusadas como podríamos pensar. Aunque no se descarta la probabilidad, aunque baja, de que algunas se hayan formado por una “captura gravitacional”, donde una estrella grande captura a otra más pequeña en su campo gravitacional, los astrónomos consideran que la mayoría son resultado de los propios procesos de formación de las estrellas, y el enorme número de sistemas binarios descubiertos hace pensar que se trata de un acontecimiento bastante común.

¿Podría Júpiter ser una estrella? Su tamaño no es mucho menor que el de nuestra ya mencionada vecina, Proxima Centauri, pero la masa de ésta es mucho mayor a la de Júpiter. ¿Qué se necesitaría para convertir a Júpiter en un segudo sol de nuestro sistema?

Fundamentalmente, más masa.

En realidad, y pese al nombre común de “gigantes gaseosos”, la materia que forma a Júpiter está en un estado en el que lo gaseoso y lo líquido no se diferencian, y sería más exacto llamarlos planetas fluidos. En su centro, Júpiter tiene hidrógeno en estado sólido, metálico, pero la mayor parte de su volumen consta de hidrógeno y helio, con vestigios de otros gases.

Si le añadiéramos masa a Júpiter, más hidrógeno o helio, su diámetro prácticamente no variaría debido a su potente campo gravitacional. Sólo tendríamos que añadir 50 veces más masa a Júpiter (es decir, sumar 50 planetas fluidos del tamaño de Júpiter) para que su gravedad y su masa desencadenaran el proceso de fusión de núcleos de hidrógeno que convertiría al planeta en una semiestrella de las conocidas como “enanas marrones”. Para que fuera una verdadera estrella, una enana roja, su masa debería ser 80 veces mayor.

Aunque la idea es tremendamente seductora, y la imagen de un cielo con dos soles sin duda tiene un poderoso atractivo, nuestro sistema solar nunca estuvo siquiera cerca de tenerlos, de contar con un sistema binario de estrellas. Tenemos un sol, un único sol que nos basta y nos sobra, y un vecino gigantesco que aún tiene muchas historias por contarnos.

Que no es poca cosa.

Las misiones a Júpiter

Desde 1973, cuando la Pioneer 10 sobrevoló Júpiter, otras siete misiones han visitado al gigante y a sus lunas: Pioneer 11 en 1974, que observó por primera vez los polos jovianos; Voyager 1 y 2 en 1979, que descubrieron los anillos de Júpiter, invisibles desde la Tierra; Galileo, que quedó en órbita alrededor de Júpiter durante ocho años desde diciembre de 1995; Ulises, misión conjunta NASA- ESA, que observó Júpiter en 1992 y 2003-2004 en su órbita alrededor del sol; Cassini, que pasó por Júpiter en 2000 camino a su misión principal en Saturno, y New Horizons, que visitó el planeta en 2007. A futuro, en 2011 está prevista la misión Juno y, para 2020, la Europa-Júpiter, donde volverá a participar la ESA.

Los asombrosos lémures

Sifaka de Coquerel
(Foto CC-BY-2.0 Frank Vassen, via Wikimedia Commons)
Extraños fantasmas vivientes que posiblemente guardan el secreto del surgimiento de los primates, el primer paso evolutivo hacia el ser humano.

Seres que sólo se encuentran en Madagascar. Habitantes de la noche con ojos gigantescos que brillan en la oscuridad. Ágiles cuerpos que parecen enormes gatos con colas erguidas y pulgares oponibles. Animales que avanzan a saltos sobre sus patas traseras mientras las delanteras muestran manos exquisitamente formadas. Todo un arcoiris de más de 50 especies bajo un solo nombre: lémures.

El nombre lémur, palabra latina para los “espectros de la noche”, lo asignó el fundador de la moderna nomenclatura taxonómica, Carl Linnaeus al loris esbelto rojo, pero pronto se aplicó a todos los primates de Madagascar, una alargada isla de Madagascar, la cuarta mayor del mundo, situada en el océano índico, frente a la costa este del sur de África. En ella encontramos una asombrosa variedad de formas de vida. Como ocurre con Australia, el aislamiento permite que se encuentre allí gran cantidad de especies que no existen en ningún otro lugar del mundo, entre ellos los lémures y algunas especies de baobab, el árbol inmortalizado en El principito.

Los lémures son primates strepsirrinos (los tarseros, monos y antropoides –lo que nos incluye– pertenecemos al orden de los haplorrinos), y forman dos superfamilias con una gran diversidad de especies. No se trata de los primates primigenios como algunos creen, pero nos permiten atisbar cómo fueron esos primates que comenzaron el camino evolutivo hacia los monos modernos.

Todo ese camino evolutivo hacia las especies humanas pasa por tres elementos que están presentes en los lémures. Primero está el bipedalismo, que se encuentra parcialmente en algunas especies de lémures como el sifaka o el indri, pero que no ha sido favorecido por el entorno de selva pluvial en el que viven estos animales. En segundo lugar está la conversión de la pata delantera en mano con pulgar oponible, rasgo de la mayoría de los lémures. Y en tercer lugar está el desarrollo de la capacidad craneal, permitiendo la existencia de un cerebro mayor.

Esto hace de los lémures un importante recurso en la reconstrucción de la evolución humana. Un recurso que sin embargo está en grave peligro por la destrucción de su hábitat. Para la Unión Internacional para la Conservación de la Naturaleza, organización conservacionista científica y democrática, casi la totalidad de los lémures de Madagascar están en la lista de especies en peligro de extinción inmediato o cercano.

Entre ellos está el aye-aye, el único representante sobreviviente de una gran familia de lémures, un animal nocturno misterioso, elusivo, y conocido como la versión mamífera del pájaro carpintero. Tiene un huesudo y alargado dedo medio que utiliza para golpear la corteza de los árboles y escuchar dónde hay huecos que puedan revelar la presencia de larvas. Una vez hallado el hueco, usa sus afilados incisivos para roer la madera, encontrar el hueco y extraer su alimento con el largo dedo.

El peligro de extinción del aye-aye no se debe sólo a la destrucción de su hábitat, sino también a las supersticiones locales que lo consideran animal de mal agüero y símbolo de la muerte, y se cree que si nos señala con su largo dedo buscador de larvas, nos concena a muerte. Por todo esto, es costumbre en gran parte de Madagascar matar a cualquier aye-aye que se descubra.

Otro lémur en riesgo de extinción es el indri, el mayor de todos los lémures con un peso de hasta 8 kg. Es un animal estrictamente diurno, que come plantas, flores y frutas, vive en grupos de hasta 5 individuos y es famoso por sus cantos colectivos. En este caso, las supersticiones locales protegen al indri como animal sagrado y bondadoso, pero la agricultura de roza y quema, necesaria en las escuálidas condiciones económicas de Madagascar es la responsable de la reducción de su hábitat.

El genus sifaka incluye al menos 8 especies distintas, y todas ellas también están en peligro. Estos herbívoros sociales que viven en grupos de hasta 13 individuos y que asombran por su bipedalismo cuando están en tierra, aunque su hábitat normal son los árboles. Los riesgos que sufre son igualmente variados, desde ser cazado como alimento hasta la agricultura que invade su hábitat, incendios forestales y la tala de árboles para hacer carbón.

Finalmente, está igualmente en peligro el más conocido de la familia, el lémur de cola anillada, popularizado por la película llamada, precisamente Madagascar, en la figura del rey Julien. Esta especie altamente agresiva y matriarcal, que vive en bandas de hasta 30 individuos, se reproduce con facilidad. Por ello, pese al riesgo de extinción por todas las causas ya señaladas, se le encuentra muy extendida en los zoos del mundo.

El enorme tamaño de Madagascar (mayor que toda Francia), su accidentada geografía, sus convulsiones políticas y su extrema pobreza han dificultado tradicionalmente la exploración de su biodiversidad, tanto que año tras año se informa del descubrimiento de nuevas especies de lémures.

Apenas en marzo de 2010 se anunció que había sido observada una variedad de lémur de Coquerel que, por el lugar donde se vio y por sus características físicas, podría ser una nueva especie, distinta de los dos lémures ratones gigantes ya conocidos.

Un mes después, en abril, se descubría una población viva de lémures enanos de Sibree, una especie descubierta en 1896 pero que no se estudió en su momento. La destrucción de la pluviselva que era su hábitat hizo creer que se había extinguido por completo, de modo que el descubrimiento de una colonia de unos mil individuos era, sin duda, una buena noticia.

En noviembre de 2005 una especie de lémur recibió un nombre singular, Avahi cleesei, en honor a John Cleese, popular ex miembro de la troupe de Monty Python. Pero la distinción no fue por la comedia de Cleese ni la imagen entre misteriosa y cómica que tienen los lémures a nuestros ojos, sino a la labor del actor británico en pro de la conservación a través de diversas acciones, entre otras un documental sobre los peligros que amenazan la singular población de lémures de Madagascar.

Madagascar

Hace 170 millones de años, Madagascar se separó de lo que hoy son el sur de África y de América manteniéndose unido a la India, hasta que hace unos 88 millones de años se desgajó de ésta. La India siguió su camino hasta chocar de nuevo con el continente euroasiático (accidente que provocó el plegamiento de la corteza terrestre que llamamos la cordillera del Himalaya, mientras que Madagascar comenzó su vida en un aislamiento que permitió que sobrevivieran y siguieran evolucionando incluso especies que se extinguieron en África y América, como los lémures.

El hereje que amplió el universo

Adalid de la libertad de pensar y cuestionar, y de las actitudes políticamente incorrectas, Giordano Bruno fue quien por primera vez imaginó un universo infinito.

Estatua de Giordano Bruno en la plaza
de Campo de Fiori, Roma
(fotografía D.P. David Olivier
vía Wikimedia Commons)
La estatua que ocupa el centro de la plaza Campo de Fiori en Roma, a dos calles del Río Tíber, es un tanto siniestra: un monje dominico con la capucha hacia adelante, sombreando el rostro mira hacia el frente con la cabeza ligeramente inclinada, tiene ante sí las manos cruzadas por las muñecas, como si estuviera maniatado y sostiene contra su cuerpo uno de sus libros.

El hombre representado en esa estatua de 1889, Giordano Bruno, murió quemado el 17 de febrero de 1600 en esa misma plaza, que ya era, como hoy, un concurrido mercado romano, acusado de muchos y muy graves crímenes de herejía, sostener opiniones contrarias a la fe católica, tener opiniones “equivocadas” según la Inquisición y, especialmente, por afirmar que en un universo infinito y eterno había innumerables mundos habitados.

El miedo a sus palabras era tal que se le condujo al quemadero con la boca torturada por pinchos de hierro para evitar que hablara.

Filippo Bruno nació en Nola, Campania, en 1548 y asumió el nombre Giordano al ingresar a la orden de los dominicos donde se ordenó sacerdote a los 24 años. Sólo cuatro años después, habiendo llamado la atención por su libre pensamiento y su gusto por los libros prohibidos por la iglesia, optó por abandonar la orden y la ciudad. Emprendió interminables viajes dando clases de matemáticas y de métodos de memorización que le valieron el interés de poderosos mecenas que, finalmente, acababan echándolo de su lado por sus opiniones escandalosas y su gusto por el debate.

De Génova a París y a Londres, donde daría clases en Oxford. Después de vuelta a París, Marburgo, Wittenberg, Praga, Helmstedt y Frankfurt lo acogieron mientras escribía y publicaba poco a poco sus obras, entre ellas Del universo infinito y los mundos, de 1584.

Su filosofía sería una expresión de la floreciente revolución científica, asumiendo una duda sistemática y buscando que no sólo la filosofía respondiera a las grandes preguntas. En su original visión, las ideas eran sólo sombras de la verdad, no la verdad misma.

El filósofo era uno de los frentes de batalla de la ruptura con la autoridad de los textos antiguos, considerada el camino hacia el conocimiento durante siglos. ¿Por qué era verdad algo si lo decía Aristóteles? Y más aún, ¿por qué preferir a Aristóteles cuando la experiencia nos muestra que Aristóteles está equivocado?

Durante siglos, las disputas sobre el conocimiento se zanjaban acudiendo a lo dicho por Aristóteles, o a la interpretación de algún pasaje aristotélico. Nadie se atrevió en siglos, tal es la fuerza de la imposición de la verdad social, a señalar que las moscas no tenían cuatro patas, como creía el filósofo de Estagira, pues bastaba atrapar una mosca y contarle las patas para ver que en realidad tenían seis. O que, en un famoso ejemplo destacado por Bertrand Russell en el siglo XX, las mujeres no tenían menos dientes que los hombres.

Ante el aristotelismo, Bruno asume la posición de Copérnico, la nueva astronomía, y la defiende con pasión en su libro La cena del miércoles de ceniza. Durante diez años, de 1582 a 1592, sería prácticamente el único filósofo dedicado a difundir esta visión, adicionada con sus propias conclusiones que le llevan incluso a atisbar la relatividad cuando observó que no hay un arriba y abajo absolutos como creía Aristóteles, sino que “la posición de un cuerpo es relativa a la de otros cuerpos. En todo lugar hay un cambio relativo incesante de la posición por todo el universo”.

Pero el principal delito de Bruno a ojos de su encausador, el cardenal Belarmino (que años después lanzaría su furia contra Galileo), era aplicar el razonamiento a los misterios de la religión, rechazando así la virginidad de María, la divinidad de Cristo y, en general, las enseñanzas de la Biblia, hasta acabar asumiendo una visión panteísta, donde todo era una manifestación de dios.

Pero, sobre todo, Giordano Bruno es recordado por imaginar un concepto totalmente novedoso: Libertes Philosophica, lo que hoy llamamos la libertad de pensar, de soñar, de filosofar sin ataduras impuestas exteriormente. La libertad de investigar el mundo a nuestro alrededor y alcanzar conclusiones independientes.

Y una de las conclusiones independientes de Giordano Bruno desafiaba las creencias prevalecientes más directamente que incluso la visión copernicana del universo. Escribió Bruno: "Hay un solo espacio general, una sola vasta inmensidad que libremente podemos llamar el vacío, en ella hay innumerables orbes como éste, sobre el que vivimos y crecemos, y declaramos que este espacio es infinito, pues ni la razón ni la conveniencia, la percepción de los sentidos ni la naturaleza le asignan un límite".

En la visión de Bruno, el hombre como cumbre de la creación, según la narración del Génesis, perdía su posición central. Si Copérnico quitaba a la Tierra del centro del universo para colocar en él al sol, Giordano Bruno simplemente se imaginaba infinitos mundos con otros seres vivos, iguales a los seres humanos, quizá con sus adanes, quizá incluso sin pecado original. La idea era un abismo para sus contemporáneos. Para Bruno, el panteísta, dios “es glorificado no en uno, sino en incontables soles; no en una sola tierra, un solo mundo, sino en miles y miles, diría una infinidad, de mundos”.

El universo que constaba de la tierra rodeada de la esfera celeste, tras la cual transcurría el paraíso, se convertía bajo la intuición de Giordano Bruno en un espacio sin límites, tan grande como la propia deidad.

Acusado de hereje por uno de sus mecenas, Zuane Mocenigo, decepcionado porque Bruno le enseñaba filosofía y no secretos del ocultismo mágico, como esperaba, sus libros y opiniones obraron en su contra. Detenido en 1592, el filósofo habría de padecer siete años de prisión, torturas, interrogatorios y exigencias de una total retractación de todas sus ideas, algo que Bruno no pudo hacer. Su último recurso, ante el papa Clemente VIII, fue inútil. Para el Papa también era culpable y su único camino era el de la hoguera.

Le siguieron sus libros. Toda su obra fue incluida en el Índice de Libros Prohibidos en 1603.

Interrogado

En uno de sus últimos interrogatorios, sabiendo que la sentencia de muerte le esperaba, Bruno respondió, según documentos del Vaticano: “... las teorías sobre el movimiento de la tierra y la invmovilidad del firmamento o el cielo son producidas por mí sobre bases razonadas y seguras, que no minan la autoridad de las Sagradas Escrituras [...] Respecto del sol, digo que no sale ni se pone, ni lo vemos salir ni ponerse, porque si la Tierra gira sobre su eje, ¿qué queremos decir con salir o ponerse?”

50 años de la píldora anticonceptiva

Margaret Sanger (1879-1966) en 1922
(Foto D.P. de Underwood & Underwood,
via Wikimedia Commons)
Separar las relaciones sexuales de la procreación siempre fue sencillo para los hombres. Pero las mujeres tuvieron que esperar a la llegada de un sistema simplemente conocido como "la píldora".

Desde que el ser humano comprendió que las relaciones sexuales causaban el embarazo, se inició una prolongada lucha por conseguir el disfrute sexual sin la reproducción, ya para ocultar relaciones inaceptables (sexo prematrimonial o extramatrimonial) o por causas económicas o de salud de la mujer.

Esto implicaba problemas: en muchas sociedades, los hijos se consideran "propiedad" del padre, y las religiones tienen visiones distintas respecto de la sexualidad, además de que todas favorecen la reproducción. Este contexto cambia, además, según el método anticonceptivo usado: coitus interruptus (o “marcha atrás”), pesarios, distintas pócimas herbales, abortos quirúrgicos, etc.

Hace 50 años, en 1960, apareció un nuevo procedimiento de control natal que era seguro y altamente eficaz: la píldora anticonceptiva, cuya influencia en nuestra cultura ha sido tal que, en 1999, la revista The Economist declaró que era el invento más importante del siglo XX

La gran promotora de la píldora anticonceptiva fue la enfermera y defensora de la planificación familiar Margaret Sanger. Habiendo visto los resultados de los embarazos no deseados entre las mujeres pobres de Nueva York, decidió oponerse a las leyes estadounidenses a partir de 1912, escribiendo artículos de salud reproductiva y estableciendo clínicas de control natal que la llevarían más de una vez a la cárcel.

En la década de 1930 se descubrió que las hormonas evitaban la ovulación en conejos. ¿Un medicamento a base de hormonas podría evitar la ovulación en las mujeres? Para 1940, los científicos habían entendido el ciclo reproductivo femenino y establecieron que una vez que la mujer se embaraza, su fertilidad se suspende porque sus ovarios secretan estrógeno, que hace que la glándula pituitaria no libere las hormonas necesarias para la ovulación, y progesterona, que suprime la producción de la hormona luteinizante.

Pero la progesterona obtenida de animales era prohibitivamente costosa. Hubo de llegar Russell Marker, que en 1943 descubrió un procedimiento para extraer progesterona de fuentes vegetales y encontró en México un árbol cuya raíz tenía grandes cantidades de progesterona natural, el llamado “cabeza de negro”. Esto permitió avanzar las investigaciones mientras se encontraba la forma de sintetizar esta sustancia.

En 1951, el químico mexicano Luis Ernesto Miramontes, del equipo del Dr. Carl Djerassi, consiguió sintetizar la 19-noretisterona, una forma de progesterona. Poco después, Frank Colton desarolló otra forma sintética llamada noretinodrel. Estos químicos no pensaban en anticonceptivos, sino en conocer las hormonas, por entonces una rama de la investigación en plena efervescencia.

Ese mismo año, Margaret Sanger conoció al endocrinólogo Gregory Pincus, el pionero que había logrado la primera fertilización in vitro de conejos en 1937. Con ya más de 80 años de edad, se lanzó a una campaña de recaudación de fondos para apoyar las investigaciones del pequeño laboratorio de Pincus, reuniendo más de 150.000 dólares.

Pincus y Min Chueh Chang emprendieron el estudio de la noretisterona en animales, y el Dr. John Rock se ocupño de los estudios en seres humanos, empezando con la seguridad de la sustancia. Más difícil era hacer los estudios clínicos en cuanto a la capacidad anticonceptiva de la píldora, pues apoyar siquiera la anticoncepción era un delito en Massachusets, donde trabajaba Rock.

Por ello, las pruebas tuvieron que trasladarse a Puerto Rico, donde ya había clínicas de control de la natalidad. Un dato curioso fue que algunos de los informes de efectos secundarios que hicieron las mujeres participantes en el experimento permitieron descubrir que los placebos también podían causar los mismos efectos, abriendo la puerta a la moderna medicina basada en evidencias. Las pruebas siguieron con más voluntarias en México, Haití y Los Ángeles.

La píldora Enovid fue autorizada en 1957 por la Administración de Alimentos y Medicamentos de los EE.UU.como un medicamento para los trastornos de la mensturación, y el laboratorio luchó hasta que el 23 de junio de 1960 obtuvo la aprobación de su producto como anticonceptivo, aunque sólo para mujeres casadas.

Por primera vez, la mujer tenía una forma controlable sólo por ella (a diferencia del condón o la marcha atrás, que requerían la participación activa de su pareja) para evitar el embarazo como consecuencia de las relaciones sexuales. Se iniciaba la “revolución sexual”.

En la mayoría de los países estaba prohibida la venta y uso de toda forma de anticoncepción, pero el impulso de la píldora y su significado social y psicológico para las mujeres fue derribando muros. Los gobiernos se vieron forzados a autorizar la píldora anticonceptiva y con ella otras formas de evitar embarazos no deseados, como el dispositivo intrauterino, la píldora del día después

Y esto significaba que la mujer, como el hombre, podía tener una vida sexual sin necesidad de comprometerse a largo plazo con el matrimonio y la reproducción. Más aún, podía posponer ambos acontecimientos para ajustarlos a una visión más amplia de su vida y su rol en la sociedad.

A Estados Unidos siguieron la aprobación para su venta en Australia, el Reino Unido y Alemania (Occidental) en 1961, Francia en 1967, Canadá en 1969 e Italia en 1971. España tendría que esperar hasta 1978.

Al paso del tiempo, las distintas presentaciones de la píldora anticonceptiva se han refinado, necesitando cantidades menores de hormonas, lo cual también ha disminuido los efectos secundarios sobre las usuarias. El más reciente estudio citado por la revista Time en abril, un seguimiento de 46.000 mujeres durante casi 40 años, demostró que las mujeres que toman la píldora no experimentan los riesgos más frecuentemente citados y, de hecho, tienen menos probabilidades de morir prematuramente por cualquier enfermedad, incluidos el cáncer y las enfermedades cardiacas.

Pero su efecto sobre la sociedad, sobre la libertad y autoafirmación de la mujer, sobre la cultura humana sigue siendo profundo, tanto que a los 50 años de su primera autorización, sigue siendo más que un medicamento, un símbolo de una nueva era.

Las religiones y la píldora

Para muchas iglesias cristianas, la píldora es simplemente inaceptable por considerarse que va contra los dictados de la Biblia. El judaísmo, por su parte, considera más aceptable la píldora que los condones o la marcha atrás, pero la mujer sólo puede usarla después de haber parido al menos una vez. El hinduísmo, el islam (con algunas excepciones) y el budismo no tienen prohibiciones concretas contra la píldora.

La comprensión de nuestras emociones

Duchenne provocando expresiones
faciales en uno de sus sujetos
experimentales.
(D.P. vía Wikimedia Commons)
Las emociones nos definen singularmente muchas veces más que nuestro intelecto o nuestras capacidades físicas. Pero esa chispa que vive en nuestro interior sigue siendo uno de los más profundos misterios.

Júbilo, tristeza, furia, nostalgia, calma interior, miedo, timidez, sorpresa... nuestras emociones son entidades misteriosas, subjetivas por cuanto que sólo podemos experimentarlas nosotros interiormente, pero absolutamente reales si nos atenemos a su expresión exterior, y a la identidad, simpatía o solidaridad que podemos experimentar al ver tal expresión.

Los filósofos, que durante la mayor parte de la historia humana dominaron la reflexión acerca de las emociones, nos recuerdan que no existe forma de saber si una persona siente lo mismo que otra, pues no podemos comparar la experiencia subjetiva de dos personas a la muerte de un ser querido o ante el gol del triunfo de su equipo de fútbol.

Pero las demostraciones externas de estas emociones son tan similares que deben tener un significado. El llanto, la expresión de abatimiento, los suspiros, en el primer ejemplo, nos sugieren que lo que las personas están experimentando debe ser similar.

Y lo mismo ocurre con la reacción que provoca en nosotros ver las emociones en otros, como cuando un grupo estalla jubiloso ante el gol de su equipo, creemos saber lo que sienten, el corazón acelerado, el hormigueo en la piel, las ganas de reír y, curiosamente, sí, de abrazar y en ocasiones hasta besar a alguien a nuestro alrededor, quien sea.

Quizá la forma más curiosa de compartir emociones que tiene el ser humano sea el arte, que a través de muy diversos medios consigue plasmar las emociones del creador y evocarlas (o emociones muy similaresi) en sus espectadores.

Nuestras emociones son respuestas a ciertos acontecimientos que nos resultan relevantes, y que disparan cambios en nuestro cuerpo y provocan un comportamiento característico, como el llanto del deudo o el grito del aficionado deportivo.

Pero no fue sino hasta muy recientemente, a partir del siglo XIX, cuando las consideraciones filosóficas acerca de nuestras emociones se empezaron a estudiar por medio de la ciencia. Esto quiere decir que se empezaron a proponer hipótesis explicativas que podían explorarse experimentalmente y por medio de observaciones, para validarlas o rechazarlas.

El psicólogo estadounidense William James, por ejemplo, teorizó que las emociones eran simplemente una clase peculiar de sensaciones causadas por cambios en las condiciones fisiológicas de las funciones autonómicas y motoras. Decía James en 1884: “nos sentimos tristes porque lloramos, furiosos porque golpeamos, temerosos porque temblamos”.

Sin embargo, sin que James lo supiera, esta teoría había sido desmentida experimentalmente varios años antes, por el científico francés Guillaume-Benjamin-Amand Duchenne de Boulogne, quien realizó grandes aportaciones a la naciente neurología ampliando los estudios que Galvani había hecho acerca de la electrofisiología, es decir, la forma en que impulsos eléctricos externos podían provocar la contracción muscular.

Utilizando electrodos aplicados en puntos concretos del rostro de sus sujetos, Duchenne consiguió reproducir expresiones de numerosas emociones humanas. Pero aunque sus sujetos mostraran en su rostro emociones a veces muy intensas y convincentes, ello no hacía que las experimentaran interiormente. Su rostro reía o mostraba miedo, pero no lo sentían. Sin embargo, a través de sus detallados y prolijos experimentos, Duchenne realizó grandes avances en el conocimiento de la musculatura del rostro, de las rutas neurales que la activan y de la fisiología de nuestros movimientos, y para la comprensión de la parálisis.

El trabajo de Duchenne influyó además en una de las grandes obras de Darwin, La expresión de las emociones en el hombre y en los animales, donde proponía la idea de que las emociones y su expresión eran, al igual que los aspectos meramente anatómicos y fisiológicos, producto de la evolución por medio de la selección natural. Era un gigantesco paso para llevar el tema de nuestras emociones de las alturas de lo sobrenatural a la realidad cotidiana capaz de ser estudiada científicamente.

Pero hoy, a punto de terminar la primera década del siglo XXI, seguimos muy lejos de poder comprender científicamente las emociones. La psiquiatría se aproxima a las emociones como parte de su estudio y tratamiento de los desórdenes mentales (categoría ésta, en sí, profundamente conflictiva). La psicología busca comprender los procesos internos que las caracterizan, así como las conductas mediante las cuales se expresan y sus mecanismos fisiológicos y neurológicos. Por su parte, las neurociencias buscan respuestas correlacionando el estudio psicológico con métodos que valoran la actividad cerebral, los neurotransmisores y las distintas estructuras del cerebro que participan cuando experimentamos una emoción.

Alrededor de todos estos estudios se encuentran quienes en la biología evolutiva estudian cómo llegaron a existir las emociones, quienes en la etología comparan emociones entre distintas especies, y quienes analizan las emociones compartidas en estudios sociológicos o cómo utilizarlas en labores terapéuticas diversas.

Somos nuestras emociones de modo tan intenso que bien podría decirse que toda ciencia relacionada con el ser humano las estudia, desde uno u otro punto de vista. Y pese a que nuestros conocimientos son tan limitados, no faltan charlatanes y embusteros que afirman conocer el funcionamiento de las emociones y poder utilizar sus imaginarios conocimientos, en asombrosos actos de magia, para realizar maravillas como la curación del cáncer.

Es cierto que las emociones juegan un papel en nuestros procesos fisiológicos. El misterioso efecto placebo, en el cual las expectativas y el condicionamiento cultural determinan que alguien se sienta mejor si toma una sustancia inocua que cree que es un medicamento, el valor de la relación emotiva médico-paciente e incluso los datos que indican que un bajo nivel de estrés y una buena disposición emocional ayudan a la curación de ciertas afecciones son todos indicadores de que allí hay un universo de posibilidades por descubrir, un verdadero misterio apasionante que vive en cada unbo de nosotros y nos anima a cada momento.

La sonrisa de Duchenne

En sus estudios de la expresión de las emociones, Duchenne descubrió que la sonrisa “verdadera”, la que evoca una emoción, no sólo implica los músculos de las comisuras de los labios, sino el músculo orbicular de los ojos, que eleva las mejillas y forma las patas de gallo a los lados de los ojos. Y lo más asombroso es que la mayoría de nosotros, innatamente, puede diferenciar la sonrisa falsa de la que evoca una verdadera alegría.

Luces, estrellas, soles

Zona de formación de estrellas en la constelación
del Cisne (D.P. imagen de NASA/ESA)
El surgimiento de la conciencia de sí mismos que experimentaron nuestros antepasados homínidos en algún momento no determinado, y que es en sí uno de los más fascinantes misterios imaginable, fue al mismo tiempo la conciencia sobre todo cuanto los rodeaba.

Cuando atardece, los seres vivos reaccionan de acuerdo a un programa en gran medida genéticamente establecido.

Las plantas pueden cerrar sus flores y aprovechan la ausencia de sol y, por tanto, la suspensión de su actividad de fotosíntesis, para respirar. Los animales diurnos se refugian en sus guaridas, cuevas, ramas de árbol, rincones o nidos que pueden ser diminutos como los del colibrí o gigantescos como los que se hacen día a día los gorilas de lomo plateado. Los nocturnos se desperezan y comienzan la búsqueda de alimento, agua, cópula. Las presas y los depredadores se ubican en el ajedrez de la vida. Por la noche, la presencia o ausencia de la luz lunar también determina los grados de actividad que pueden tener los animales.

Sólo un grupo de seres, sin embargo, ha levantado la vista hacia el cielo y se ha preguntado qué son las luces que lo visten, las pequeñas y titilantes que pueblan la noche, la gran rueda de plata que crece y disminuye en ciclos de alrededor de 28 días y, por supuesto la enorme fuente de luz, calor y vida que domina compeltamante el cielo diurno.

Esos seres son los humanos. Y no sólo nuestra especie, Homo sapiens, sino muy probablemente nuestros menos afortunados parientes humanos que, con todo y sus incipientes civilizaciones, se extinguieron en el pasado, como el Homo erectus y el neandertal.

La primera hipótesis sobre las luces nocturnas, las estrellas, las ubicaban como luces fijas en una esfera que rodeaba a la Tierra, la esfera celeste, aunque para pensadores un poco más audaces se planteaban la posibilidad de que fueran en realidad pequeños agujeros en el manto celeste a través de los cuales se colaba hasta nosotros una mínima muestra de la luz que inundaba el reino de uno u otro dios, el paraíso.

Al observar además que algunas estrellas parecían conservar sus posiciones relativas entre sí al paso del tiempo, distintas culturas se las imaginaron relacionadas en “constelaciones” que, además de integrarse en sus mitologías como deidades, fuentes de profecías o seres míticos, servían para seguir el movimiento de otras luces que sí parecían moverse a su aire, extraños cuerpos errabundos. “Estrella errante” se dice en griego clásico “asteres planetai”, y de allí proviene la palabra “planeta”.

Pero no fue sino hasta 1584 cuando la idea de las esferas celestes y las luces fijas se vio desafiada por una mente singular, la de Giordano Bruno, que sugirió que las estrellas eran en realidad objetos como nuestro sol, posiblemente con planetas como el nuestro, pero muy alejadas de nosotros y que el universo no era una esfera sino un lugar infinito y eterno. Estas opiniones figuraron de manera relevante entre las acusaciones que lo llevaron ante la Inquisición y, finalmente, a ser quemado vivo en el centro de Roma.

Pero la semilla sembrada por Bruno germinó y floreció. Los astrónomos de los tiempos posteriores –viviendo siempre bajo la amenaza de ser considerados herejes por opinar distinto de la iglesia católica– fueron cimentando la idea de que las estrellas eran como nuestro sol. En 1838, el matemático y astrónomo alemán Friedrich Bessell consiguió medir por primera vez la distancia que nos separa de otra estrella, determinando que la conocida como 61 Cygnus está a 11,4 años luz de nosotros.

La explicación final de cómo arden las estrellas tendría que esperar, sin embargo, a que llegara el genio intuitivo y cuestionador de Albert Einstein, cuyos desarrollos teóricos permitieron determinar que las estrellas actúan como colosales hornos de fusión nuclear donde núcleos de hidrógeno se fusionan formando núcleos de helio y, en el proceso, liberando una gran cantidad de energía.

Igualmente, Erwin Hubble nos permitió medir con precisión la distancia que nos separa de estrellas muy lejanas. Si bien la velocidad de la luz es constante en todo el universo, Hubble demostró que mientras más lejos está una estrella su luz nos llega más enrojecida, lo que se conoce como corrimiento al rojo. Calculando cuánto se ha corrido al rojo el espectro de una estrella o galaxia, podemos saber a qué distancia está.

Las estrellas no son inmutables en un universo estático como pensaban nuestros ancestros. Las estrellas nacen, se desarrollan y mueren de muy diversas formas, y no todas son iguales. Son distintas según su masa, desde las hipergigantes que pueden tener hasta 150 veces la masa de nuestro sol, hasta las subenanas que pueden tener la mitad de la masa del Sol. Su masa determina su temperatura, y por tanto su color y su clasificación, así como la duración de sus vidas.

Aunque el telescopio espacial Hubble nos ha asombrado con fotografías sobrecogedoras de auténticos viveros de estrellas en los límites del universo visible, donde nacen espectacularmente millones de estrellas, las que más nos interesan son, sin duda alguna, las más cercanas a nosotros, por el sueño (difícil de conseguir en términos prácticos) de poder viajar hasta ellas.

Nuestra vecina más cercana es Proxima Centauri, una enana roja que está aproximadamente a 4,2 años luz de nosotros, en la constelación de Centauro (un año luz es la distancia que recorre la luz en un año; viajando a unos 300.000 km por segundo los 31.536.000 de segundos del año, es de 9.460.528.400.000 kilómetros, casi 10 billones de kilómetros).

Sin embargo, Alfa Centauri (también conocido como Rigel), un sistema de estrella doble situado a 4.37 años luz, es la estrella más brillante de de la constelación y por tanto una que le ha llamado la atención especialmente a las distintas culturas humanas.

En un radio de 16 años luz desde nuestro sol hay un total de 40 estrellas conocidas. No todas tienen planetas en órbita a su alrededor, de modo que también resulta de especial interés la llamada Estrella de Barnard, a 5,9 años luz de nuestro sol, y que es la más cercana que probablemente tiene uno o más planetas a su alrededor.

Si bien es difícil visitar otras estrellas por las limitaciones que imponen las leyes de la física, siempre tenemos la posibilidad de estudiar a fondo a la estrella más cercana a la tierra, que es el sol, tan fascinante como cualquier estrella del espacio profundo.

Nuestra propia estrella

El sol es una estrella de 1.4 millones de kilómetros de diámetro con una masa de más de 330.000 veces la de la Tierra. Es de color blanco y su clasificación es GV2, una enana amarilla situada en un brazo exterior de la galaxia de la Vía Láctea, en una órbita de unos 250 millones de años de duración, y del que nos separan aproximadamente 150 millones de kilómetros (poco más de 8 minutos-luz).

Cáncer: detección y diagnóstico

Gordon Isaacs, primera persona tratada con
radiación para un cáncer de la retina en
1957. Sobrevive a la fecha.
(D.P. National Cancer Institute, vía
Wikimedia Commons)
Detectar a tiempo el cáncer es fundamental para una recuperación completa, la mítica “cura del cáncer”.

Nuestro cuerpo está formado por entre 50 y 100 billones (millones de millones) de células ampliamente diferenciadas, formando tejidos tan distintos como los huesos y la corteza cerebral. Y nuestras células deben reproducirse constantemente, controladas por un sistema que va eliminando a las células anormales que aparecen. Cuando tales células anormales no son eliminadas y se empiezan a multiplicar desordenadamente, tenemos la enfermedad llamada cáncer.

Hay muchos tipos de cáncer, dependiendo del tipo de células afectadas, que además pueden invadir y ocupar otros tejidos, algo que las células normales no hacen. Las células cancerosas también pueden migrar o trasladarse mediante el torrente sanguíneo o linfático y afincarse en otros lugares del cuerpo, usurpando el espacio físico, los nutrientes y las funciones de distintos tejidos.

Sin embargo, no existe una forma de detectar “el cáncer”, en general. Y, lo más grave, en sus primeras etapas la gran mayoría de las formas de cáncer no produce dolor. Por tanto, echamos mano de ciertas recomendaciones para estar en guardia contra algunos tipos de cáncer especialmente comunes o virulentos y que presentan signos externos o fácilmente distinguibles.

Así, el cáncer del cuello del útero se puede detectar tempranamente mediante la prueba de Papanicolau, tomar una muestra de la mucosa del cérvix del útero para después tintarla y observarla bajo el microscopio. Esto permite identificar células sanas, parásitos como las tricomonas, herpes y células cancerosas. Además, el ginecólogo puede hacer tactos del útero, la vagina, los ovarios, las trompas de falopio, la vejiga y el recto en busca de bultos o tumores sospechosos de ser cancerosos.

El cáncer de mama, por su parte, se detecta mediante el autoexamen, enseñando a la mujer a realizarse una exploración con el tacto en busca de bultos o irregularidades que podrían ser cancerosos. Los médicos y las enfermeras ambién ueden realizar esta exploración, pero cada vez se prefieren más los mamogramas, radiografías de los pechos que pueden mostrar irregularidades peligrosas incluso antes de que se puedan percibir al tacto. Estos métodos son sólo indicativos, pues hay muchos trastornos, afecciones y problemas leves que pueden formar los temidos "bultos" en las glándulas mamarias.

La prevención del cáncer de piel es, sobre todo, un ejercicio de observación atenta en busca de manchas, lunares que cambian de forma o posición, sangran o producen comezón. Otras formas de cáncer, como la de colon o próstata, requieren ciertas pruebas periódicas a partir de cierta edad considerada de riesgo. Pero hay muchos otros síntomas que son señales de alerta de una posible forma de cáncer: ulceraciones que no sanan, indigestión recurrente, sangrado rectal o de la vejiga, etc.

La única forma eficaz de detectar un cáncer es por medio de la observación y las pruebas de laboratorio.

La observación se realiza indirectamente por medio de sistemas de generación de imágenes: radiografías, resonancias magnéticas o tomografías computarizadas, ultrasonidos o escaneos de radionúclidos. En ocasiones, obtener imágenes útiles puede exigir que usted tome alguna sustancia, como un tinte para los tejidos o un medio de contraste que rellene y destaque órganos huecos. Pero también se puede hacer directamente utilizando métodos de endoscopía, en los cuales un tubo iluminado llamado endoscopio se inserta en alguna parte del cuerpo para mirarla, como por ejemplo la colonoscopía, que es este procedimiento realizado en el colon.

Pero incluso pese a estos procedimientos, el diagnóstico no es 100% certero. Por ello se utilizan además diversos análisis de laboratorio de la orina, la sangre y otros, que ayudan al diagnóstico midiendo la presencia de ciertas sustancias en los fluidos corporales, basados en el conocimiento de que ciertos tipos de cáncer provocan la presencia de niveles anormales de ciertas sustancias.

Si todos estos procedimientos indican riesgo, se procede a la única forma de poder determinar con certeza que un problema es, efectivamente, cáncer. Se trata de la extrañamente temida “biopsia”, un procedimiento quirúrgico para obtener una muestra del tejido de la zona afectada. El sistema puede ser tan sencillo como cortar un pequeño trozo de piel bajo anestesia local que realizar una compleja intervención para obtener muestras de tejidos no fácilmente accesibles, como el páncreas o la médula ósea.

Un patólogo especializado examina estas muestras bajoel microscopio y determina si son cancerosas y, con frecuencia, qué tipo de cáncer es y si en el futuro tendrá un desarrollo rápido o lento.

Finalmente, con la certeza de que se trata de un proceso canceroso, el médico puede realizar otras pruebas y exámenes para determinar la etapa en la que se encuentra, si se ha extendido por el cuerpo y en qué medida. Con base en ello, se realiza la cirugía para eliminar el cáncer, retirando con frecuencias los nódulos linfáticos de los alrededores del tumor para analizarlos y ver si han transportado o no células cancerosas a otras partes del cuerpo.

Precisamente por la enorme complejidad del diagnóstico del cáncer, se recomienda habitualmente tener una “segunda opinión”, el punto de vista de otros especialistas que analicen el caso, revisen las muestras de laboratorio y se aseguren de que nada se haya pasado por alto.

Porque, finalmente, algunos cánceres se diagnostican mal, y también, en algunos casos, sin que haya cifras precisas sobre ello, otros cánceres perfectamente certificados se destruyen a sí mismos, en la llamada “remisión espontánea". Es por ello que la detección y diagnóstico de esta compleja clase de enfermedades es, por desgracia, mucho más difícil que la de otras afecciones y trastornos más evidentes.

Y es por ello, también, que hoy en día, el arma principal de lucha contra el cáncer no es solamente el tratamiento, sino sobre todo la detección temprana, oportuna y eficaz que impide que la enfermedad se extienda y sea mortal.

La multiplicación celular

Las células de nuestro cuerpo tienen ciclos vitales muy diversos. Las células de nuestro páncreas pueden vivir un año o más, los glóbulos rojos o eritrocitos de nuestra sangre viven unos 4 meses, las plaquetas (encargadas de la coagulación) sólo unos 10 días, las células del recubrimiento del estómago 2 días y algunos glóbulos blancos encargados de la defensa de nuestro cuerpo pueden vivir apenas unas 10 horas. En el otro extremo están las neuronas de nuestra corteza cerebral, algunas de las cuales viven toda nuestra vida. La vital necesidad de reponer las células que van muriendo para mantener nuestra salud es aprovechada por el cáncer para producirse y crecer.

El médico hereje

Miguel Servet
(Grabado de Christian Fritzsch, D.P.)
“Ni con estos, ni con aquellos estoy conforme ni disiento en todo. Todos tienen parte de verdad y parte de error, y cada cual descubre el error en otro sin ver el suyo”. Esta cita de Miguel Servet, de su libro Diálogos sobre la Trinidad resume el camino que siguió el sabio aragonés en una época de agitadas revoluciones en el pensamiento, las creencias y toda la forma de vida había señalado a la Edad Media. Su inquietud intelectual, duda sistemática e independencia de criterio marcaron su vida y determinaron su muerte.

Nacido en Huesca, el 29 de septiembre de 1511, Miguel de Servet o Serveto era parte de una familia originaria del Pirineo aragonés que había aprovechado las Cartas de Población que concedía la corona de Aragón conforme se desarrollaba la reconquista y asentándose en Villanueva de Sigena. Su padre Antón, noble infanzón, era notario del Monasterio de Sigena, y pudo financiar los estudios de su brillante heredero.

A los 13 años, Servet era pupilo de fray Juan de Quintana, asistiendo a procesos contra herejes mientas aprende griego, latín y hebreo. A los 16 ya está en Toulouse, Francia, estudiando derecho. Por entonces se familiariza con el naciente movimiento de la Reforma, que rechazaba la corrupción y mala conducta de la iglesia católica de Roma.

La pasión de Servet por las nuevas ideas pronto lo puso en el camino de serios problemas. Con apenas 20 años de edad y viviendo en Basilea publica De los errores acerca de la Trinidad, obra en la que defendía que la idea de la Trinidad católica no tenía bases en la Biblia. Igualmente, afirma que Jesús es hombre y no dios, y que el Espíritu Santo no es una persona, sino una manifestación del dios único. Un año después publica Diálogos sobre la Trinidad, en la misma línea. Las dos obras concitan el rechazo de los nacientes reformistas y del bien establecido catolicismo.

En esos momentos, cuando ni siquiera se habían publicado los primeros libros de Calvino, poner en cuestión cualquiera de los dogmas establecidos por la iglesia católica era ponerse en la mira de la Inquisición y de todas las fuerzas empeñadas en evitar el terremoto de pensamiento que se avecinaba.

Pero las ideas de Servet tampoco encontraban buena recepción entre los tempranos reformistas, y se enfrentó agriamente con personajes importantes como el propio Martín Lutero, Ecolampadio, Martín Bucero y Capito. Por entonces comenzó también una larga relación epistolar con Juan Calvino. Con sólo 21 años, debe ocultarse, cambiarse el nombre por el de Miguel Villanovano, una referencia al pueblo familiar de Villanueva, perseguido por la Inquisición Española.

Pese a sus inquietudes teológicas, Servet encuentra tiempo para la ciencia. En realidad, tanto la teología como eso que aún no se llamaba ciencia, se englobaban en la filosofía, por lo que el espíritu del renacimiento era lo que hoy llamaríamos “multidisciplinar”. Entre debates trinitarios y violentos enfrentamientos con otros teólogos, Miguel Servet estudia matemáticas y geografía, con tanto éxito que, trabajando como corrector de pruebas de imprenta se le encarga la publicación de la Geografía de Ptolomeo. Con poco más de 20 años, aborda la labor con pasión, mejorando y actualizando la obra original de modo tan acucioso que por ella se considera hoy que Servet es el fundador de la etnografía y de la geografía comparada.

En 1537, “Miguel Villanovano” marcha a estudiar medicina a París y se gana la vida impartiendo clases de matemáticas. Allí se dedica asiduamente a la disección de cadáveres, y es probable que en estas prácticas se sentaran las bases de su máximo descubrimiento científico, el de la circulación pulmonar (o menor) de la sangre. Pero de nuevo sus inquietudes y su decisión de expresar abiertamente todas sus ideas, le causan problemas.

En 1537 publica un libro sobre jarabes para administrar remedios donde hace gala de conocimientos de farmacología. A éste le sigue otro defendiendo la astrología como auxiliar en el diagnóstico de las enfermedades. Pero en ese libro también Servet denuncia a los médicos que recetan Por esos mismos tiempos comenzó su correspondencia con el que sería el máximo representante y pensador de la Reforma, el propio Calvino.sin contacto con el enfermo, sin atender a las circunstancias ambientales que rodean al paciente.

Ambos libros fueron prohibidos aunque la Inquisición no condenó al estudiante, y Servet se vio obligado a huir nuevamente, ahora a Montpellier, donde finalmente recibe su doctorado en medicina para luego ir a Leuven a estudiar teología.

Servet se inclina por una forma de pensar y enfrentar el mundo que se empezaba a difundir, el método científico: empirismo, exigencia de experimentos y pruebas sólidas. Es un precientífico sin saberlo, y un creyente en la libre expresión, la tolerancia y el libre debate. Por ello dice: "No deben imponerse como verdades conceptos sobre los que existen dudas”.

De 1542 a 1553 practica la medicina en Vienne, Francia, donde fue médico personal del arzobispo Pierre Palmier y, en 1546, envía a Calvino una primera versión de su libro Restitución del Cristianismo, en cuyo libro quinto, Miguel Servet explica por primera vez cómo la sangre es llevada por la arteria pulmonar a la vena pulmonar pasando por los pulmones, cambiando de color y liberándose de lo que Servet llamaría “los vapores fuliginosos”, el bióxido de carbono. Todo para decir que la sangre diseminaba el alma por todo el cuerpo.

El libro agudiza el conflicto con Calvino, al que Servet acabaría llamando acusador, criminal y homicida. Calvino, por su parte, empezó a preparar su venganza. En 1553, al publicarse finalmente el volumen, se desvela la identidad de Servet y la inquisición católica de Lyon detiene al médico. Servet huyó, siendo quemado en efigie.

Su fuga duró poco, sin embargo. Cuatro meses después es reconocido en Ginebra y detenido por las fuerzas calvinistas. Fue quemado vivo como hereje en leña verde el 27 de octubre de 1553. Su labor científica tardaría casi 150 años en ser reconocida, gracias al filósofo y matemático Leibniz, quien inició la recuperación de la obra de Servet, intelecto libre que, incluso, escribió mucho antes de morir: “Es un abuso condenar a muerte a aquellos que se equivocaron en sus interpretaciones de la Biblia”.

Voltaire y Servet

Para el filósofo Voltaire, Servet fue ejemplo clave de libre pensamiento. En sus Memorias habla de Ginebra como la ciudad donde reinó Calvino “y el lugar donde quemó a Servet”, para asegurar que al redactar sus memorias, “casi todos los sacerdotes" aceptan las ideas teológicas de Servet. Más adelante, Voltaire recuerda haber sido atacado por un predicador por haber dicho que Calvino "era de naturaleza cruel y había quemado a Servet sin causa”.

Recambios mecánicos para el ser humano

Prótesis de cadera común
(D.P. vía Wikimedia Commons)
En los últimos años, los avances del mundo de las prótesis están abriendo nuevos horizontes para la resistencia y duración del frágil cuerpo humano.

En la década de 1970 se popularizó una serie de televisión donde un astronauta sufría un terrible accidente y su ojo derecho, su brazo derecho y ambas piernas eran sustituidos por prótesis de tecnología desarrolladísima. La serie llevaba por nombre “El hombre de los sies millones de dólares”, el coste de las reparaciones a las que era sometido el protagonista.

En aquella época, el surtido de piezas de recambio para los miembros humanos ya era variado y empezaba a dejar atrás una tecnología primitiva. Ante la promesa de los ordenadores que apenas iban a salir de empresas y universidades para llegar a los hogares, el asombro de la carrera espacial y los nuevos materiales, la promesa de esta serie era asombrosa: miembros que realmente sirvieran.

Las piernas “biónicas” le permitían al personaje correr a gran velocidad. El ojo le daba visión telescópica e infrarroja y el brazo le permitía levantar pesos tremendos (una hazaña si consideramos que el brazo estaba articulado con una clavícula, sostenida por una columna vertebral apoyada en una pelvis... tres elementos formados de humilde hueso que nunca habrían podido sostener los pesos que levantaba el brazo. Pero vale... es una fantasía.

La historia de las prótesis, que reemplazan artificialmente una parte del cuerpo faltante, se remonta a más de 2000 años. La más antigua evidencia arqueológica de la que disponemos es una pierna artificial hecha con placas de metal martilladas sobre un núcleo de madera que se ataban con cintas al muñón de la pierna faltante.

La ciencia y técnica de las prótesis para amputaciones se vio impulsada, desafortunadamente, por las consecuencias de diversas guerras, y para la época en la que “El hombre de los seis millones de dólares” ocupaba las pantallas caseras, la guerra de Vietnam impulsaba el desarrollo de esta especialidad en los Estados Unidos. Fue por entonces, por ejemplo, que se diseñó la copa moldeada en plásticos de nueva generación que dio a los amputados de piernas una comodidad nunca antes ofrecida. El diseño se ajusta al muñón como un guante, y distribuye correctamente el peso en toda la parte restante, hueso y músculos.

Este principio usado hasta hoy, fija la pierna artificial al muñón y permite hazañas como correr en competiciones oficiales. La fijación suele estar acompañada del llamado “pie de Seattle” o "pie prostético almacenador de energía", que cuenta con un sistema para absorber la energía que recibe al darse un paso para impulsar el siguiente paso. Esto es posible únicamente gracias a nuevos materiales como la fibra de carbono (la misma que se usa en raquetas de tenis o en las carrocerías de los autos de Fórmula Uno) y modernos polímeros, todo ello acompañado de ciencias de reciente nacimiento como la biomecánica y la bioingeniería, que estudian cómo nos movemos y cómo reproducir esos movimientos.

Las manos artificiales, sin embargo, no pueden funcionar de modo únicamente mecánico. En 1964, en la Unión Soviética, comenzó el desarrollo de manos artificiales movidas por pequeños servomotores. Las contracciones de los músculos del muñón del miembro realizadas voluntariamente por el paciente son percibidas e interpretadas por circuitos eléctricos del miembro artificial para abrir y cerrar la mano.

Apenas en 2009 aparecieron los primeros estudios de una mano artificial capaz de sustituir la sensación del tacto. La mano artificial cuenta con sensores táctiles que envían a su vez información para activar pequeños actuadores que tocan el muñón y dan información al poseedor de la prótesis.

Las amputaciones presentan el problema de reproducir el movimiento de las partes perdidas, especialmente cuando ocurren por encima de la rodilla (en las piernas) y por encima del codo (en los brazos). En esos casos, ha sido mucho más difícil desarrollar rodillas y codos artificiales que reproduzcan de modo adecuado los movimientos que ofrecen estas articulaciones.

En estos casos, la opción tecnológica son las rodillas y codos controlados por microprocesadores, que analizan la información sobre la posición y el tipo de movimiento que está realizando el paciente, y procede a enviar señales para que un cilindro hidráulico flexione o extienda la rodilla artificial.

Resulta mucho más sencillo sustituir articulaciones que se hayan desgastado, pero que estén en miembros que cuentan con todos sus músculos, nervios y arterias. Una de las articulaciones que más se sustituye hoy en día es la cadera, sobre todo en personas de edad muy avanzada en cirugías que hace apenas dos décadas se hubiera considerado de altísimo riesgo.

La sustitución de la cadera requiere cambiar los dos elementos de la articulación: la parte superior o cabeza del fémur y el acetábulo o receptáculo que está en la pelvis. La técnica se desarrolló en la década de 1970 y consta de una pieza metálica que se inserta en el fémur, al que se le ha cortado la parte superior, una cabeza de cerámica ultrarresistente y una copa o que se coloca en la pelvis con cemento óseo o tornillos y donde se articula la cabeza.

La existencia de huesos y músculos ha facilitado y permitido un notable éxito para implantes como los de reemplazo de cadera, de codo (con una bisagra simple) y rodilla (donde dos piezas metálicas se colocan en los extremos del fémur y la tibia, y entre ellos un espaciador de un plástico altamente resistente que permite el movimiento del metal sin fricción).

Estos y otros implantes, como los tornillos y placas utilizados para fijar y reparar fracturas, la piel artificial, los implantes cocleares que le han devuelto el oído a muchísimas personas, avanzan continuamente gracias a nuevos materiales, nuevos desarrollos de la microminiaturización y una mejor comprensión de nuestro cuerpo. Quizá nunca lleguen a la ciencia ficción, un tanto ingenua de la TV de 1970, pero cada paso adelante tiene un claro beneficio en vidas de mayor calidad y duración.

El problema del ojo

El ojo artificial solía ser únicamente cosmético, una pieza de vidrio o plástico para ocultar una inquietante cuenca vacía. Actualmente están en desarrollo no menos de 17 proyectos distintos que buscan restituir la función visual a los ciegos, entre ellos el de la Neuroprótesis Visual Cortical, Cortivis, con grupos en seis universidades, todos encabezado por el Dr. Eduardo Fernández del Instituto de Bioingeniería en la Universidad Miguel Hernández, en Alicante. Este proyecto en concreto utiliza una “cámara” o codificador bioinspirado que envía señales a un microprocesador situado en la nuca que estimula a su vez la corteza visual del cerebro, de modo análogo al de los implantes cocleares.