Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El hereje que amplió el universo

Adalid de la libertad de pensar y cuestionar, y de las actitudes políticamente incorrectas, Giordano Bruno fue quien por primera vez imaginó un universo infinito.

Estatua de Giordano Bruno en la plaza
de Campo de Fiori, Roma
(fotografía D.P. David Olivier
vía Wikimedia Commons)
La estatua que ocupa el centro de la plaza Campo de Fiori en Roma, a dos calles del Río Tíber, es un tanto siniestra: un monje dominico con la capucha hacia adelante, sombreando el rostro mira hacia el frente con la cabeza ligeramente inclinada, tiene ante sí las manos cruzadas por las muñecas, como si estuviera maniatado y sostiene contra su cuerpo uno de sus libros.

El hombre representado en esa estatua de 1889, Giordano Bruno, murió quemado el 17 de febrero de 1600 en esa misma plaza, que ya era, como hoy, un concurrido mercado romano, acusado de muchos y muy graves crímenes de herejía, sostener opiniones contrarias a la fe católica, tener opiniones “equivocadas” según la Inquisición y, especialmente, por afirmar que en un universo infinito y eterno había innumerables mundos habitados.

El miedo a sus palabras era tal que se le condujo al quemadero con la boca torturada por pinchos de hierro para evitar que hablara.

Filippo Bruno nació en Nola, Campania, en 1548 y asumió el nombre Giordano al ingresar a la orden de los dominicos donde se ordenó sacerdote a los 24 años. Sólo cuatro años después, habiendo llamado la atención por su libre pensamiento y su gusto por los libros prohibidos por la iglesia, optó por abandonar la orden y la ciudad. Emprendió interminables viajes dando clases de matemáticas y de métodos de memorización que le valieron el interés de poderosos mecenas que, finalmente, acababan echándolo de su lado por sus opiniones escandalosas y su gusto por el debate.

De Génova a París y a Londres, donde daría clases en Oxford. Después de vuelta a París, Marburgo, Wittenberg, Praga, Helmstedt y Frankfurt lo acogieron mientras escribía y publicaba poco a poco sus obras, entre ellas Del universo infinito y los mundos, de 1584.

Su filosofía sería una expresión de la floreciente revolución científica, asumiendo una duda sistemática y buscando que no sólo la filosofía respondiera a las grandes preguntas. En su original visión, las ideas eran sólo sombras de la verdad, no la verdad misma.

El filósofo era uno de los frentes de batalla de la ruptura con la autoridad de los textos antiguos, considerada el camino hacia el conocimiento durante siglos. ¿Por qué era verdad algo si lo decía Aristóteles? Y más aún, ¿por qué preferir a Aristóteles cuando la experiencia nos muestra que Aristóteles está equivocado?

Durante siglos, las disputas sobre el conocimiento se zanjaban acudiendo a lo dicho por Aristóteles, o a la interpretación de algún pasaje aristotélico. Nadie se atrevió en siglos, tal es la fuerza de la imposición de la verdad social, a señalar que las moscas no tenían cuatro patas, como creía el filósofo de Estagira, pues bastaba atrapar una mosca y contarle las patas para ver que en realidad tenían seis. O que, en un famoso ejemplo destacado por Bertrand Russell en el siglo XX, las mujeres no tenían menos dientes que los hombres.

Ante el aristotelismo, Bruno asume la posición de Copérnico, la nueva astronomía, y la defiende con pasión en su libro La cena del miércoles de ceniza. Durante diez años, de 1582 a 1592, sería prácticamente el único filósofo dedicado a difundir esta visión, adicionada con sus propias conclusiones que le llevan incluso a atisbar la relatividad cuando observó que no hay un arriba y abajo absolutos como creía Aristóteles, sino que “la posición de un cuerpo es relativa a la de otros cuerpos. En todo lugar hay un cambio relativo incesante de la posición por todo el universo”.

Pero el principal delito de Bruno a ojos de su encausador, el cardenal Belarmino (que años después lanzaría su furia contra Galileo), era aplicar el razonamiento a los misterios de la religión, rechazando así la virginidad de María, la divinidad de Cristo y, en general, las enseñanzas de la Biblia, hasta acabar asumiendo una visión panteísta, donde todo era una manifestación de dios.

Pero, sobre todo, Giordano Bruno es recordado por imaginar un concepto totalmente novedoso: Libertes Philosophica, lo que hoy llamamos la libertad de pensar, de soñar, de filosofar sin ataduras impuestas exteriormente. La libertad de investigar el mundo a nuestro alrededor y alcanzar conclusiones independientes.

Y una de las conclusiones independientes de Giordano Bruno desafiaba las creencias prevalecientes más directamente que incluso la visión copernicana del universo. Escribió Bruno: "Hay un solo espacio general, una sola vasta inmensidad que libremente podemos llamar el vacío, en ella hay innumerables orbes como éste, sobre el que vivimos y crecemos, y declaramos que este espacio es infinito, pues ni la razón ni la conveniencia, la percepción de los sentidos ni la naturaleza le asignan un límite".

En la visión de Bruno, el hombre como cumbre de la creación, según la narración del Génesis, perdía su posición central. Si Copérnico quitaba a la Tierra del centro del universo para colocar en él al sol, Giordano Bruno simplemente se imaginaba infinitos mundos con otros seres vivos, iguales a los seres humanos, quizá con sus adanes, quizá incluso sin pecado original. La idea era un abismo para sus contemporáneos. Para Bruno, el panteísta, dios “es glorificado no en uno, sino en incontables soles; no en una sola tierra, un solo mundo, sino en miles y miles, diría una infinidad, de mundos”.

El universo que constaba de la tierra rodeada de la esfera celeste, tras la cual transcurría el paraíso, se convertía bajo la intuición de Giordano Bruno en un espacio sin límites, tan grande como la propia deidad.

Acusado de hereje por uno de sus mecenas, Zuane Mocenigo, decepcionado porque Bruno le enseñaba filosofía y no secretos del ocultismo mágico, como esperaba, sus libros y opiniones obraron en su contra. Detenido en 1592, el filósofo habría de padecer siete años de prisión, torturas, interrogatorios y exigencias de una total retractación de todas sus ideas, algo que Bruno no pudo hacer. Su último recurso, ante el papa Clemente VIII, fue inútil. Para el Papa también era culpable y su único camino era el de la hoguera.

Le siguieron sus libros. Toda su obra fue incluida en el Índice de Libros Prohibidos en 1603.

Interrogado

En uno de sus últimos interrogatorios, sabiendo que la sentencia de muerte le esperaba, Bruno respondió, según documentos del Vaticano: “... las teorías sobre el movimiento de la tierra y la invmovilidad del firmamento o el cielo son producidas por mí sobre bases razonadas y seguras, que no minan la autoridad de las Sagradas Escrituras [...] Respecto del sol, digo que no sale ni se pone, ni lo vemos salir ni ponerse, porque si la Tierra gira sobre su eje, ¿qué queremos decir con salir o ponerse?”

50 años de la píldora anticonceptiva

Margaret Sanger (1879-1966) en 1922
(Foto D.P. de Underwood & Underwood,
via Wikimedia Commons)
Separar las relaciones sexuales de la procreación siempre fue sencillo para los hombres. Pero las mujeres tuvieron que esperar a la llegada de un sistema simplemente conocido como "la píldora".

Desde que el ser humano comprendió que las relaciones sexuales causaban el embarazo, se inició una prolongada lucha por conseguir el disfrute sexual sin la reproducción, ya para ocultar relaciones inaceptables (sexo prematrimonial o extramatrimonial) o por causas económicas o de salud de la mujer.

Esto implicaba problemas: en muchas sociedades, los hijos se consideran "propiedad" del padre, y las religiones tienen visiones distintas respecto de la sexualidad, además de que todas favorecen la reproducción. Este contexto cambia, además, según el método anticonceptivo usado: coitus interruptus (o “marcha atrás”), pesarios, distintas pócimas herbales, abortos quirúrgicos, etc.

Hace 50 años, en 1960, apareció un nuevo procedimiento de control natal que era seguro y altamente eficaz: la píldora anticonceptiva, cuya influencia en nuestra cultura ha sido tal que, en 1999, la revista The Economist declaró que era el invento más importante del siglo XX

La gran promotora de la píldora anticonceptiva fue la enfermera y defensora de la planificación familiar Margaret Sanger. Habiendo visto los resultados de los embarazos no deseados entre las mujeres pobres de Nueva York, decidió oponerse a las leyes estadounidenses a partir de 1912, escribiendo artículos de salud reproductiva y estableciendo clínicas de control natal que la llevarían más de una vez a la cárcel.

En la década de 1930 se descubrió que las hormonas evitaban la ovulación en conejos. ¿Un medicamento a base de hormonas podría evitar la ovulación en las mujeres? Para 1940, los científicos habían entendido el ciclo reproductivo femenino y establecieron que una vez que la mujer se embaraza, su fertilidad se suspende porque sus ovarios secretan estrógeno, que hace que la glándula pituitaria no libere las hormonas necesarias para la ovulación, y progesterona, que suprime la producción de la hormona luteinizante.

Pero la progesterona obtenida de animales era prohibitivamente costosa. Hubo de llegar Russell Marker, que en 1943 descubrió un procedimiento para extraer progesterona de fuentes vegetales y encontró en México un árbol cuya raíz tenía grandes cantidades de progesterona natural, el llamado “cabeza de negro”. Esto permitió avanzar las investigaciones mientras se encontraba la forma de sintetizar esta sustancia.

En 1951, el químico mexicano Luis Ernesto Miramontes, del equipo del Dr. Carl Djerassi, consiguió sintetizar la 19-noretisterona, una forma de progesterona. Poco después, Frank Colton desarolló otra forma sintética llamada noretinodrel. Estos químicos no pensaban en anticonceptivos, sino en conocer las hormonas, por entonces una rama de la investigación en plena efervescencia.

Ese mismo año, Margaret Sanger conoció al endocrinólogo Gregory Pincus, el pionero que había logrado la primera fertilización in vitro de conejos en 1937. Con ya más de 80 años de edad, se lanzó a una campaña de recaudación de fondos para apoyar las investigaciones del pequeño laboratorio de Pincus, reuniendo más de 150.000 dólares.

Pincus y Min Chueh Chang emprendieron el estudio de la noretisterona en animales, y el Dr. John Rock se ocupño de los estudios en seres humanos, empezando con la seguridad de la sustancia. Más difícil era hacer los estudios clínicos en cuanto a la capacidad anticonceptiva de la píldora, pues apoyar siquiera la anticoncepción era un delito en Massachusets, donde trabajaba Rock.

Por ello, las pruebas tuvieron que trasladarse a Puerto Rico, donde ya había clínicas de control de la natalidad. Un dato curioso fue que algunos de los informes de efectos secundarios que hicieron las mujeres participantes en el experimento permitieron descubrir que los placebos también podían causar los mismos efectos, abriendo la puerta a la moderna medicina basada en evidencias. Las pruebas siguieron con más voluntarias en México, Haití y Los Ángeles.

La píldora Enovid fue autorizada en 1957 por la Administración de Alimentos y Medicamentos de los EE.UU.como un medicamento para los trastornos de la mensturación, y el laboratorio luchó hasta que el 23 de junio de 1960 obtuvo la aprobación de su producto como anticonceptivo, aunque sólo para mujeres casadas.

Por primera vez, la mujer tenía una forma controlable sólo por ella (a diferencia del condón o la marcha atrás, que requerían la participación activa de su pareja) para evitar el embarazo como consecuencia de las relaciones sexuales. Se iniciaba la “revolución sexual”.

En la mayoría de los países estaba prohibida la venta y uso de toda forma de anticoncepción, pero el impulso de la píldora y su significado social y psicológico para las mujeres fue derribando muros. Los gobiernos se vieron forzados a autorizar la píldora anticonceptiva y con ella otras formas de evitar embarazos no deseados, como el dispositivo intrauterino, la píldora del día después

Y esto significaba que la mujer, como el hombre, podía tener una vida sexual sin necesidad de comprometerse a largo plazo con el matrimonio y la reproducción. Más aún, podía posponer ambos acontecimientos para ajustarlos a una visión más amplia de su vida y su rol en la sociedad.

A Estados Unidos siguieron la aprobación para su venta en Australia, el Reino Unido y Alemania (Occidental) en 1961, Francia en 1967, Canadá en 1969 e Italia en 1971. España tendría que esperar hasta 1978.

Al paso del tiempo, las distintas presentaciones de la píldora anticonceptiva se han refinado, necesitando cantidades menores de hormonas, lo cual también ha disminuido los efectos secundarios sobre las usuarias. El más reciente estudio citado por la revista Time en abril, un seguimiento de 46.000 mujeres durante casi 40 años, demostró que las mujeres que toman la píldora no experimentan los riesgos más frecuentemente citados y, de hecho, tienen menos probabilidades de morir prematuramente por cualquier enfermedad, incluidos el cáncer y las enfermedades cardiacas.

Pero su efecto sobre la sociedad, sobre la libertad y autoafirmación de la mujer, sobre la cultura humana sigue siendo profundo, tanto que a los 50 años de su primera autorización, sigue siendo más que un medicamento, un símbolo de una nueva era.

Las religiones y la píldora

Para muchas iglesias cristianas, la píldora es simplemente inaceptable por considerarse que va contra los dictados de la Biblia. El judaísmo, por su parte, considera más aceptable la píldora que los condones o la marcha atrás, pero la mujer sólo puede usarla después de haber parido al menos una vez. El hinduísmo, el islam (con algunas excepciones) y el budismo no tienen prohibiciones concretas contra la píldora.

La comprensión de nuestras emociones

Duchenne provocando expresiones
faciales en uno de sus sujetos
experimentales.
(D.P. vía Wikimedia Commons)
Las emociones nos definen singularmente muchas veces más que nuestro intelecto o nuestras capacidades físicas. Pero esa chispa que vive en nuestro interior sigue siendo uno de los más profundos misterios.

Júbilo, tristeza, furia, nostalgia, calma interior, miedo, timidez, sorpresa... nuestras emociones son entidades misteriosas, subjetivas por cuanto que sólo podemos experimentarlas nosotros interiormente, pero absolutamente reales si nos atenemos a su expresión exterior, y a la identidad, simpatía o solidaridad que podemos experimentar al ver tal expresión.

Los filósofos, que durante la mayor parte de la historia humana dominaron la reflexión acerca de las emociones, nos recuerdan que no existe forma de saber si una persona siente lo mismo que otra, pues no podemos comparar la experiencia subjetiva de dos personas a la muerte de un ser querido o ante el gol del triunfo de su equipo de fútbol.

Pero las demostraciones externas de estas emociones son tan similares que deben tener un significado. El llanto, la expresión de abatimiento, los suspiros, en el primer ejemplo, nos sugieren que lo que las personas están experimentando debe ser similar.

Y lo mismo ocurre con la reacción que provoca en nosotros ver las emociones en otros, como cuando un grupo estalla jubiloso ante el gol de su equipo, creemos saber lo que sienten, el corazón acelerado, el hormigueo en la piel, las ganas de reír y, curiosamente, sí, de abrazar y en ocasiones hasta besar a alguien a nuestro alrededor, quien sea.

Quizá la forma más curiosa de compartir emociones que tiene el ser humano sea el arte, que a través de muy diversos medios consigue plasmar las emociones del creador y evocarlas (o emociones muy similaresi) en sus espectadores.

Nuestras emociones son respuestas a ciertos acontecimientos que nos resultan relevantes, y que disparan cambios en nuestro cuerpo y provocan un comportamiento característico, como el llanto del deudo o el grito del aficionado deportivo.

Pero no fue sino hasta muy recientemente, a partir del siglo XIX, cuando las consideraciones filosóficas acerca de nuestras emociones se empezaron a estudiar por medio de la ciencia. Esto quiere decir que se empezaron a proponer hipótesis explicativas que podían explorarse experimentalmente y por medio de observaciones, para validarlas o rechazarlas.

El psicólogo estadounidense William James, por ejemplo, teorizó que las emociones eran simplemente una clase peculiar de sensaciones causadas por cambios en las condiciones fisiológicas de las funciones autonómicas y motoras. Decía James en 1884: “nos sentimos tristes porque lloramos, furiosos porque golpeamos, temerosos porque temblamos”.

Sin embargo, sin que James lo supiera, esta teoría había sido desmentida experimentalmente varios años antes, por el científico francés Guillaume-Benjamin-Amand Duchenne de Boulogne, quien realizó grandes aportaciones a la naciente neurología ampliando los estudios que Galvani había hecho acerca de la electrofisiología, es decir, la forma en que impulsos eléctricos externos podían provocar la contracción muscular.

Utilizando electrodos aplicados en puntos concretos del rostro de sus sujetos, Duchenne consiguió reproducir expresiones de numerosas emociones humanas. Pero aunque sus sujetos mostraran en su rostro emociones a veces muy intensas y convincentes, ello no hacía que las experimentaran interiormente. Su rostro reía o mostraba miedo, pero no lo sentían. Sin embargo, a través de sus detallados y prolijos experimentos, Duchenne realizó grandes avances en el conocimiento de la musculatura del rostro, de las rutas neurales que la activan y de la fisiología de nuestros movimientos, y para la comprensión de la parálisis.

El trabajo de Duchenne influyó además en una de las grandes obras de Darwin, La expresión de las emociones en el hombre y en los animales, donde proponía la idea de que las emociones y su expresión eran, al igual que los aspectos meramente anatómicos y fisiológicos, producto de la evolución por medio de la selección natural. Era un gigantesco paso para llevar el tema de nuestras emociones de las alturas de lo sobrenatural a la realidad cotidiana capaz de ser estudiada científicamente.

Pero hoy, a punto de terminar la primera década del siglo XXI, seguimos muy lejos de poder comprender científicamente las emociones. La psiquiatría se aproxima a las emociones como parte de su estudio y tratamiento de los desórdenes mentales (categoría ésta, en sí, profundamente conflictiva). La psicología busca comprender los procesos internos que las caracterizan, así como las conductas mediante las cuales se expresan y sus mecanismos fisiológicos y neurológicos. Por su parte, las neurociencias buscan respuestas correlacionando el estudio psicológico con métodos que valoran la actividad cerebral, los neurotransmisores y las distintas estructuras del cerebro que participan cuando experimentamos una emoción.

Alrededor de todos estos estudios se encuentran quienes en la biología evolutiva estudian cómo llegaron a existir las emociones, quienes en la etología comparan emociones entre distintas especies, y quienes analizan las emociones compartidas en estudios sociológicos o cómo utilizarlas en labores terapéuticas diversas.

Somos nuestras emociones de modo tan intenso que bien podría decirse que toda ciencia relacionada con el ser humano las estudia, desde uno u otro punto de vista. Y pese a que nuestros conocimientos son tan limitados, no faltan charlatanes y embusteros que afirman conocer el funcionamiento de las emociones y poder utilizar sus imaginarios conocimientos, en asombrosos actos de magia, para realizar maravillas como la curación del cáncer.

Es cierto que las emociones juegan un papel en nuestros procesos fisiológicos. El misterioso efecto placebo, en el cual las expectativas y el condicionamiento cultural determinan que alguien se sienta mejor si toma una sustancia inocua que cree que es un medicamento, el valor de la relación emotiva médico-paciente e incluso los datos que indican que un bajo nivel de estrés y una buena disposición emocional ayudan a la curación de ciertas afecciones son todos indicadores de que allí hay un universo de posibilidades por descubrir, un verdadero misterio apasionante que vive en cada unbo de nosotros y nos anima a cada momento.

La sonrisa de Duchenne

En sus estudios de la expresión de las emociones, Duchenne descubrió que la sonrisa “verdadera”, la que evoca una emoción, no sólo implica los músculos de las comisuras de los labios, sino el músculo orbicular de los ojos, que eleva las mejillas y forma las patas de gallo a los lados de los ojos. Y lo más asombroso es que la mayoría de nosotros, innatamente, puede diferenciar la sonrisa falsa de la que evoca una verdadera alegría.

Luces, estrellas, soles

Zona de formación de estrellas en la constelación
del Cisne (D.P. imagen de NASA/ESA)
El surgimiento de la conciencia de sí mismos que experimentaron nuestros antepasados homínidos en algún momento no determinado, y que es en sí uno de los más fascinantes misterios imaginable, fue al mismo tiempo la conciencia sobre todo cuanto los rodeaba.

Cuando atardece, los seres vivos reaccionan de acuerdo a un programa en gran medida genéticamente establecido.

Las plantas pueden cerrar sus flores y aprovechan la ausencia de sol y, por tanto, la suspensión de su actividad de fotosíntesis, para respirar. Los animales diurnos se refugian en sus guaridas, cuevas, ramas de árbol, rincones o nidos que pueden ser diminutos como los del colibrí o gigantescos como los que se hacen día a día los gorilas de lomo plateado. Los nocturnos se desperezan y comienzan la búsqueda de alimento, agua, cópula. Las presas y los depredadores se ubican en el ajedrez de la vida. Por la noche, la presencia o ausencia de la luz lunar también determina los grados de actividad que pueden tener los animales.

Sólo un grupo de seres, sin embargo, ha levantado la vista hacia el cielo y se ha preguntado qué son las luces que lo visten, las pequeñas y titilantes que pueblan la noche, la gran rueda de plata que crece y disminuye en ciclos de alrededor de 28 días y, por supuesto la enorme fuente de luz, calor y vida que domina compeltamante el cielo diurno.

Esos seres son los humanos. Y no sólo nuestra especie, Homo sapiens, sino muy probablemente nuestros menos afortunados parientes humanos que, con todo y sus incipientes civilizaciones, se extinguieron en el pasado, como el Homo erectus y el neandertal.

La primera hipótesis sobre las luces nocturnas, las estrellas, las ubicaban como luces fijas en una esfera que rodeaba a la Tierra, la esfera celeste, aunque para pensadores un poco más audaces se planteaban la posibilidad de que fueran en realidad pequeños agujeros en el manto celeste a través de los cuales se colaba hasta nosotros una mínima muestra de la luz que inundaba el reino de uno u otro dios, el paraíso.

Al observar además que algunas estrellas parecían conservar sus posiciones relativas entre sí al paso del tiempo, distintas culturas se las imaginaron relacionadas en “constelaciones” que, además de integrarse en sus mitologías como deidades, fuentes de profecías o seres míticos, servían para seguir el movimiento de otras luces que sí parecían moverse a su aire, extraños cuerpos errabundos. “Estrella errante” se dice en griego clásico “asteres planetai”, y de allí proviene la palabra “planeta”.

Pero no fue sino hasta 1584 cuando la idea de las esferas celestes y las luces fijas se vio desafiada por una mente singular, la de Giordano Bruno, que sugirió que las estrellas eran en realidad objetos como nuestro sol, posiblemente con planetas como el nuestro, pero muy alejadas de nosotros y que el universo no era una esfera sino un lugar infinito y eterno. Estas opiniones figuraron de manera relevante entre las acusaciones que lo llevaron ante la Inquisición y, finalmente, a ser quemado vivo en el centro de Roma.

Pero la semilla sembrada por Bruno germinó y floreció. Los astrónomos de los tiempos posteriores –viviendo siempre bajo la amenaza de ser considerados herejes por opinar distinto de la iglesia católica– fueron cimentando la idea de que las estrellas eran como nuestro sol. En 1838, el matemático y astrónomo alemán Friedrich Bessell consiguió medir por primera vez la distancia que nos separa de otra estrella, determinando que la conocida como 61 Cygnus está a 11,4 años luz de nosotros.

La explicación final de cómo arden las estrellas tendría que esperar, sin embargo, a que llegara el genio intuitivo y cuestionador de Albert Einstein, cuyos desarrollos teóricos permitieron determinar que las estrellas actúan como colosales hornos de fusión nuclear donde núcleos de hidrógeno se fusionan formando núcleos de helio y, en el proceso, liberando una gran cantidad de energía.

Igualmente, Erwin Hubble nos permitió medir con precisión la distancia que nos separa de estrellas muy lejanas. Si bien la velocidad de la luz es constante en todo el universo, Hubble demostró que mientras más lejos está una estrella su luz nos llega más enrojecida, lo que se conoce como corrimiento al rojo. Calculando cuánto se ha corrido al rojo el espectro de una estrella o galaxia, podemos saber a qué distancia está.

Las estrellas no son inmutables en un universo estático como pensaban nuestros ancestros. Las estrellas nacen, se desarrollan y mueren de muy diversas formas, y no todas son iguales. Son distintas según su masa, desde las hipergigantes que pueden tener hasta 150 veces la masa de nuestro sol, hasta las subenanas que pueden tener la mitad de la masa del Sol. Su masa determina su temperatura, y por tanto su color y su clasificación, así como la duración de sus vidas.

Aunque el telescopio espacial Hubble nos ha asombrado con fotografías sobrecogedoras de auténticos viveros de estrellas en los límites del universo visible, donde nacen espectacularmente millones de estrellas, las que más nos interesan son, sin duda alguna, las más cercanas a nosotros, por el sueño (difícil de conseguir en términos prácticos) de poder viajar hasta ellas.

Nuestra vecina más cercana es Proxima Centauri, una enana roja que está aproximadamente a 4,2 años luz de nosotros, en la constelación de Centauro (un año luz es la distancia que recorre la luz en un año; viajando a unos 300.000 km por segundo los 31.536.000 de segundos del año, es de 9.460.528.400.000 kilómetros, casi 10 billones de kilómetros).

Sin embargo, Alfa Centauri (también conocido como Rigel), un sistema de estrella doble situado a 4.37 años luz, es la estrella más brillante de de la constelación y por tanto una que le ha llamado la atención especialmente a las distintas culturas humanas.

En un radio de 16 años luz desde nuestro sol hay un total de 40 estrellas conocidas. No todas tienen planetas en órbita a su alrededor, de modo que también resulta de especial interés la llamada Estrella de Barnard, a 5,9 años luz de nuestro sol, y que es la más cercana que probablemente tiene uno o más planetas a su alrededor.

Si bien es difícil visitar otras estrellas por las limitaciones que imponen las leyes de la física, siempre tenemos la posibilidad de estudiar a fondo a la estrella más cercana a la tierra, que es el sol, tan fascinante como cualquier estrella del espacio profundo.

Nuestra propia estrella

El sol es una estrella de 1.4 millones de kilómetros de diámetro con una masa de más de 330.000 veces la de la Tierra. Es de color blanco y su clasificación es GV2, una enana amarilla situada en un brazo exterior de la galaxia de la Vía Láctea, en una órbita de unos 250 millones de años de duración, y del que nos separan aproximadamente 150 millones de kilómetros (poco más de 8 minutos-luz).

Cáncer: detección y diagnóstico

Gordon Isaacs, primera persona tratada con
radiación para un cáncer de la retina en
1957. Sobrevive a la fecha.
(D.P. National Cancer Institute, vía
Wikimedia Commons)
Detectar a tiempo el cáncer es fundamental para una recuperación completa, la mítica “cura del cáncer”.

Nuestro cuerpo está formado por entre 50 y 100 billones (millones de millones) de células ampliamente diferenciadas, formando tejidos tan distintos como los huesos y la corteza cerebral. Y nuestras células deben reproducirse constantemente, controladas por un sistema que va eliminando a las células anormales que aparecen. Cuando tales células anormales no son eliminadas y se empiezan a multiplicar desordenadamente, tenemos la enfermedad llamada cáncer.

Hay muchos tipos de cáncer, dependiendo del tipo de células afectadas, que además pueden invadir y ocupar otros tejidos, algo que las células normales no hacen. Las células cancerosas también pueden migrar o trasladarse mediante el torrente sanguíneo o linfático y afincarse en otros lugares del cuerpo, usurpando el espacio físico, los nutrientes y las funciones de distintos tejidos.

Sin embargo, no existe una forma de detectar “el cáncer”, en general. Y, lo más grave, en sus primeras etapas la gran mayoría de las formas de cáncer no produce dolor. Por tanto, echamos mano de ciertas recomendaciones para estar en guardia contra algunos tipos de cáncer especialmente comunes o virulentos y que presentan signos externos o fácilmente distinguibles.

Así, el cáncer del cuello del útero se puede detectar tempranamente mediante la prueba de Papanicolau, tomar una muestra de la mucosa del cérvix del útero para después tintarla y observarla bajo el microscopio. Esto permite identificar células sanas, parásitos como las tricomonas, herpes y células cancerosas. Además, el ginecólogo puede hacer tactos del útero, la vagina, los ovarios, las trompas de falopio, la vejiga y el recto en busca de bultos o tumores sospechosos de ser cancerosos.

El cáncer de mama, por su parte, se detecta mediante el autoexamen, enseñando a la mujer a realizarse una exploración con el tacto en busca de bultos o irregularidades que podrían ser cancerosos. Los médicos y las enfermeras ambién ueden realizar esta exploración, pero cada vez se prefieren más los mamogramas, radiografías de los pechos que pueden mostrar irregularidades peligrosas incluso antes de que se puedan percibir al tacto. Estos métodos son sólo indicativos, pues hay muchos trastornos, afecciones y problemas leves que pueden formar los temidos "bultos" en las glándulas mamarias.

La prevención del cáncer de piel es, sobre todo, un ejercicio de observación atenta en busca de manchas, lunares que cambian de forma o posición, sangran o producen comezón. Otras formas de cáncer, como la de colon o próstata, requieren ciertas pruebas periódicas a partir de cierta edad considerada de riesgo. Pero hay muchos otros síntomas que son señales de alerta de una posible forma de cáncer: ulceraciones que no sanan, indigestión recurrente, sangrado rectal o de la vejiga, etc.

La única forma eficaz de detectar un cáncer es por medio de la observación y las pruebas de laboratorio.

La observación se realiza indirectamente por medio de sistemas de generación de imágenes: radiografías, resonancias magnéticas o tomografías computarizadas, ultrasonidos o escaneos de radionúclidos. En ocasiones, obtener imágenes útiles puede exigir que usted tome alguna sustancia, como un tinte para los tejidos o un medio de contraste que rellene y destaque órganos huecos. Pero también se puede hacer directamente utilizando métodos de endoscopía, en los cuales un tubo iluminado llamado endoscopio se inserta en alguna parte del cuerpo para mirarla, como por ejemplo la colonoscopía, que es este procedimiento realizado en el colon.

Pero incluso pese a estos procedimientos, el diagnóstico no es 100% certero. Por ello se utilizan además diversos análisis de laboratorio de la orina, la sangre y otros, que ayudan al diagnóstico midiendo la presencia de ciertas sustancias en los fluidos corporales, basados en el conocimiento de que ciertos tipos de cáncer provocan la presencia de niveles anormales de ciertas sustancias.

Si todos estos procedimientos indican riesgo, se procede a la única forma de poder determinar con certeza que un problema es, efectivamente, cáncer. Se trata de la extrañamente temida “biopsia”, un procedimiento quirúrgico para obtener una muestra del tejido de la zona afectada. El sistema puede ser tan sencillo como cortar un pequeño trozo de piel bajo anestesia local que realizar una compleja intervención para obtener muestras de tejidos no fácilmente accesibles, como el páncreas o la médula ósea.

Un patólogo especializado examina estas muestras bajoel microscopio y determina si son cancerosas y, con frecuencia, qué tipo de cáncer es y si en el futuro tendrá un desarrollo rápido o lento.

Finalmente, con la certeza de que se trata de un proceso canceroso, el médico puede realizar otras pruebas y exámenes para determinar la etapa en la que se encuentra, si se ha extendido por el cuerpo y en qué medida. Con base en ello, se realiza la cirugía para eliminar el cáncer, retirando con frecuencias los nódulos linfáticos de los alrededores del tumor para analizarlos y ver si han transportado o no células cancerosas a otras partes del cuerpo.

Precisamente por la enorme complejidad del diagnóstico del cáncer, se recomienda habitualmente tener una “segunda opinión”, el punto de vista de otros especialistas que analicen el caso, revisen las muestras de laboratorio y se aseguren de que nada se haya pasado por alto.

Porque, finalmente, algunos cánceres se diagnostican mal, y también, en algunos casos, sin que haya cifras precisas sobre ello, otros cánceres perfectamente certificados se destruyen a sí mismos, en la llamada “remisión espontánea". Es por ello que la detección y diagnóstico de esta compleja clase de enfermedades es, por desgracia, mucho más difícil que la de otras afecciones y trastornos más evidentes.

Y es por ello, también, que hoy en día, el arma principal de lucha contra el cáncer no es solamente el tratamiento, sino sobre todo la detección temprana, oportuna y eficaz que impide que la enfermedad se extienda y sea mortal.

La multiplicación celular

Las células de nuestro cuerpo tienen ciclos vitales muy diversos. Las células de nuestro páncreas pueden vivir un año o más, los glóbulos rojos o eritrocitos de nuestra sangre viven unos 4 meses, las plaquetas (encargadas de la coagulación) sólo unos 10 días, las células del recubrimiento del estómago 2 días y algunos glóbulos blancos encargados de la defensa de nuestro cuerpo pueden vivir apenas unas 10 horas. En el otro extremo están las neuronas de nuestra corteza cerebral, algunas de las cuales viven toda nuestra vida. La vital necesidad de reponer las células que van muriendo para mantener nuestra salud es aprovechada por el cáncer para producirse y crecer.

El médico hereje

Miguel Servet
(Grabado de Christian Fritzsch, D.P.)
“Ni con estos, ni con aquellos estoy conforme ni disiento en todo. Todos tienen parte de verdad y parte de error, y cada cual descubre el error en otro sin ver el suyo”. Esta cita de Miguel Servet, de su libro Diálogos sobre la Trinidad resume el camino que siguió el sabio aragonés en una época de agitadas revoluciones en el pensamiento, las creencias y toda la forma de vida había señalado a la Edad Media. Su inquietud intelectual, duda sistemática e independencia de criterio marcaron su vida y determinaron su muerte.

Nacido en Huesca, el 29 de septiembre de 1511, Miguel de Servet o Serveto era parte de una familia originaria del Pirineo aragonés que había aprovechado las Cartas de Población que concedía la corona de Aragón conforme se desarrollaba la reconquista y asentándose en Villanueva de Sigena. Su padre Antón, noble infanzón, era notario del Monasterio de Sigena, y pudo financiar los estudios de su brillante heredero.

A los 13 años, Servet era pupilo de fray Juan de Quintana, asistiendo a procesos contra herejes mientas aprende griego, latín y hebreo. A los 16 ya está en Toulouse, Francia, estudiando derecho. Por entonces se familiariza con el naciente movimiento de la Reforma, que rechazaba la corrupción y mala conducta de la iglesia católica de Roma.

La pasión de Servet por las nuevas ideas pronto lo puso en el camino de serios problemas. Con apenas 20 años de edad y viviendo en Basilea publica De los errores acerca de la Trinidad, obra en la que defendía que la idea de la Trinidad católica no tenía bases en la Biblia. Igualmente, afirma que Jesús es hombre y no dios, y que el Espíritu Santo no es una persona, sino una manifestación del dios único. Un año después publica Diálogos sobre la Trinidad, en la misma línea. Las dos obras concitan el rechazo de los nacientes reformistas y del bien establecido catolicismo.

En esos momentos, cuando ni siquiera se habían publicado los primeros libros de Calvino, poner en cuestión cualquiera de los dogmas establecidos por la iglesia católica era ponerse en la mira de la Inquisición y de todas las fuerzas empeñadas en evitar el terremoto de pensamiento que se avecinaba.

Pero las ideas de Servet tampoco encontraban buena recepción entre los tempranos reformistas, y se enfrentó agriamente con personajes importantes como el propio Martín Lutero, Ecolampadio, Martín Bucero y Capito. Por entonces comenzó también una larga relación epistolar con Juan Calvino. Con sólo 21 años, debe ocultarse, cambiarse el nombre por el de Miguel Villanovano, una referencia al pueblo familiar de Villanueva, perseguido por la Inquisición Española.

Pese a sus inquietudes teológicas, Servet encuentra tiempo para la ciencia. En realidad, tanto la teología como eso que aún no se llamaba ciencia, se englobaban en la filosofía, por lo que el espíritu del renacimiento era lo que hoy llamaríamos “multidisciplinar”. Entre debates trinitarios y violentos enfrentamientos con otros teólogos, Miguel Servet estudia matemáticas y geografía, con tanto éxito que, trabajando como corrector de pruebas de imprenta se le encarga la publicación de la Geografía de Ptolomeo. Con poco más de 20 años, aborda la labor con pasión, mejorando y actualizando la obra original de modo tan acucioso que por ella se considera hoy que Servet es el fundador de la etnografía y de la geografía comparada.

En 1537, “Miguel Villanovano” marcha a estudiar medicina a París y se gana la vida impartiendo clases de matemáticas. Allí se dedica asiduamente a la disección de cadáveres, y es probable que en estas prácticas se sentaran las bases de su máximo descubrimiento científico, el de la circulación pulmonar (o menor) de la sangre. Pero de nuevo sus inquietudes y su decisión de expresar abiertamente todas sus ideas, le causan problemas.

En 1537 publica un libro sobre jarabes para administrar remedios donde hace gala de conocimientos de farmacología. A éste le sigue otro defendiendo la astrología como auxiliar en el diagnóstico de las enfermedades. Pero en ese libro también Servet denuncia a los médicos que recetan Por esos mismos tiempos comenzó su correspondencia con el que sería el máximo representante y pensador de la Reforma, el propio Calvino.sin contacto con el enfermo, sin atender a las circunstancias ambientales que rodean al paciente.

Ambos libros fueron prohibidos aunque la Inquisición no condenó al estudiante, y Servet se vio obligado a huir nuevamente, ahora a Montpellier, donde finalmente recibe su doctorado en medicina para luego ir a Leuven a estudiar teología.

Servet se inclina por una forma de pensar y enfrentar el mundo que se empezaba a difundir, el método científico: empirismo, exigencia de experimentos y pruebas sólidas. Es un precientífico sin saberlo, y un creyente en la libre expresión, la tolerancia y el libre debate. Por ello dice: "No deben imponerse como verdades conceptos sobre los que existen dudas”.

De 1542 a 1553 practica la medicina en Vienne, Francia, donde fue médico personal del arzobispo Pierre Palmier y, en 1546, envía a Calvino una primera versión de su libro Restitución del Cristianismo, en cuyo libro quinto, Miguel Servet explica por primera vez cómo la sangre es llevada por la arteria pulmonar a la vena pulmonar pasando por los pulmones, cambiando de color y liberándose de lo que Servet llamaría “los vapores fuliginosos”, el bióxido de carbono. Todo para decir que la sangre diseminaba el alma por todo el cuerpo.

El libro agudiza el conflicto con Calvino, al que Servet acabaría llamando acusador, criminal y homicida. Calvino, por su parte, empezó a preparar su venganza. En 1553, al publicarse finalmente el volumen, se desvela la identidad de Servet y la inquisición católica de Lyon detiene al médico. Servet huyó, siendo quemado en efigie.

Su fuga duró poco, sin embargo. Cuatro meses después es reconocido en Ginebra y detenido por las fuerzas calvinistas. Fue quemado vivo como hereje en leña verde el 27 de octubre de 1553. Su labor científica tardaría casi 150 años en ser reconocida, gracias al filósofo y matemático Leibniz, quien inició la recuperación de la obra de Servet, intelecto libre que, incluso, escribió mucho antes de morir: “Es un abuso condenar a muerte a aquellos que se equivocaron en sus interpretaciones de la Biblia”.

Voltaire y Servet

Para el filósofo Voltaire, Servet fue ejemplo clave de libre pensamiento. En sus Memorias habla de Ginebra como la ciudad donde reinó Calvino “y el lugar donde quemó a Servet”, para asegurar que al redactar sus memorias, “casi todos los sacerdotes" aceptan las ideas teológicas de Servet. Más adelante, Voltaire recuerda haber sido atacado por un predicador por haber dicho que Calvino "era de naturaleza cruel y había quemado a Servet sin causa”.

Recambios mecánicos para el ser humano

Prótesis de cadera común
(D.P. vía Wikimedia Commons)
En los últimos años, los avances del mundo de las prótesis están abriendo nuevos horizontes para la resistencia y duración del frágil cuerpo humano.

En la década de 1970 se popularizó una serie de televisión donde un astronauta sufría un terrible accidente y su ojo derecho, su brazo derecho y ambas piernas eran sustituidos por prótesis de tecnología desarrolladísima. La serie llevaba por nombre “El hombre de los sies millones de dólares”, el coste de las reparaciones a las que era sometido el protagonista.

En aquella época, el surtido de piezas de recambio para los miembros humanos ya era variado y empezaba a dejar atrás una tecnología primitiva. Ante la promesa de los ordenadores que apenas iban a salir de empresas y universidades para llegar a los hogares, el asombro de la carrera espacial y los nuevos materiales, la promesa de esta serie era asombrosa: miembros que realmente sirvieran.

Las piernas “biónicas” le permitían al personaje correr a gran velocidad. El ojo le daba visión telescópica e infrarroja y el brazo le permitía levantar pesos tremendos (una hazaña si consideramos que el brazo estaba articulado con una clavícula, sostenida por una columna vertebral apoyada en una pelvis... tres elementos formados de humilde hueso que nunca habrían podido sostener los pesos que levantaba el brazo. Pero vale... es una fantasía.

La historia de las prótesis, que reemplazan artificialmente una parte del cuerpo faltante, se remonta a más de 2000 años. La más antigua evidencia arqueológica de la que disponemos es una pierna artificial hecha con placas de metal martilladas sobre un núcleo de madera que se ataban con cintas al muñón de la pierna faltante.

La ciencia y técnica de las prótesis para amputaciones se vio impulsada, desafortunadamente, por las consecuencias de diversas guerras, y para la época en la que “El hombre de los seis millones de dólares” ocupaba las pantallas caseras, la guerra de Vietnam impulsaba el desarrollo de esta especialidad en los Estados Unidos. Fue por entonces, por ejemplo, que se diseñó la copa moldeada en plásticos de nueva generación que dio a los amputados de piernas una comodidad nunca antes ofrecida. El diseño se ajusta al muñón como un guante, y distribuye correctamente el peso en toda la parte restante, hueso y músculos.

Este principio usado hasta hoy, fija la pierna artificial al muñón y permite hazañas como correr en competiciones oficiales. La fijación suele estar acompañada del llamado “pie de Seattle” o "pie prostético almacenador de energía", que cuenta con un sistema para absorber la energía que recibe al darse un paso para impulsar el siguiente paso. Esto es posible únicamente gracias a nuevos materiales como la fibra de carbono (la misma que se usa en raquetas de tenis o en las carrocerías de los autos de Fórmula Uno) y modernos polímeros, todo ello acompañado de ciencias de reciente nacimiento como la biomecánica y la bioingeniería, que estudian cómo nos movemos y cómo reproducir esos movimientos.

Las manos artificiales, sin embargo, no pueden funcionar de modo únicamente mecánico. En 1964, en la Unión Soviética, comenzó el desarrollo de manos artificiales movidas por pequeños servomotores. Las contracciones de los músculos del muñón del miembro realizadas voluntariamente por el paciente son percibidas e interpretadas por circuitos eléctricos del miembro artificial para abrir y cerrar la mano.

Apenas en 2009 aparecieron los primeros estudios de una mano artificial capaz de sustituir la sensación del tacto. La mano artificial cuenta con sensores táctiles que envían a su vez información para activar pequeños actuadores que tocan el muñón y dan información al poseedor de la prótesis.

Las amputaciones presentan el problema de reproducir el movimiento de las partes perdidas, especialmente cuando ocurren por encima de la rodilla (en las piernas) y por encima del codo (en los brazos). En esos casos, ha sido mucho más difícil desarrollar rodillas y codos artificiales que reproduzcan de modo adecuado los movimientos que ofrecen estas articulaciones.

En estos casos, la opción tecnológica son las rodillas y codos controlados por microprocesadores, que analizan la información sobre la posición y el tipo de movimiento que está realizando el paciente, y procede a enviar señales para que un cilindro hidráulico flexione o extienda la rodilla artificial.

Resulta mucho más sencillo sustituir articulaciones que se hayan desgastado, pero que estén en miembros que cuentan con todos sus músculos, nervios y arterias. Una de las articulaciones que más se sustituye hoy en día es la cadera, sobre todo en personas de edad muy avanzada en cirugías que hace apenas dos décadas se hubiera considerado de altísimo riesgo.

La sustitución de la cadera requiere cambiar los dos elementos de la articulación: la parte superior o cabeza del fémur y el acetábulo o receptáculo que está en la pelvis. La técnica se desarrolló en la década de 1970 y consta de una pieza metálica que se inserta en el fémur, al que se le ha cortado la parte superior, una cabeza de cerámica ultrarresistente y una copa o que se coloca en la pelvis con cemento óseo o tornillos y donde se articula la cabeza.

La existencia de huesos y músculos ha facilitado y permitido un notable éxito para implantes como los de reemplazo de cadera, de codo (con una bisagra simple) y rodilla (donde dos piezas metálicas se colocan en los extremos del fémur y la tibia, y entre ellos un espaciador de un plástico altamente resistente que permite el movimiento del metal sin fricción).

Estos y otros implantes, como los tornillos y placas utilizados para fijar y reparar fracturas, la piel artificial, los implantes cocleares que le han devuelto el oído a muchísimas personas, avanzan continuamente gracias a nuevos materiales, nuevos desarrollos de la microminiaturización y una mejor comprensión de nuestro cuerpo. Quizá nunca lleguen a la ciencia ficción, un tanto ingenua de la TV de 1970, pero cada paso adelante tiene un claro beneficio en vidas de mayor calidad y duración.

El problema del ojo

El ojo artificial solía ser únicamente cosmético, una pieza de vidrio o plástico para ocultar una inquietante cuenca vacía. Actualmente están en desarrollo no menos de 17 proyectos distintos que buscan restituir la función visual a los ciegos, entre ellos el de la Neuroprótesis Visual Cortical, Cortivis, con grupos en seis universidades, todos encabezado por el Dr. Eduardo Fernández del Instituto de Bioingeniería en la Universidad Miguel Hernández, en Alicante. Este proyecto en concreto utiliza una “cámara” o codificador bioinspirado que envía señales a un microprocesador situado en la nuca que estimula a su vez la corteza visual del cerebro, de modo análogo al de los implantes cocleares.

Satélites de comunicaciones y GPS

Satélite GPS-IIRM
(D.P. vía Wikimedia Commons)
Ciertos avances tecnológicos pueden a veces implantarse de modo tan silencioso que no apreciamos el alcance del cambio que producen en nuestras vidas, como los satélites de comunicaciones.

La primera vez que se propuso la posibilidad de utilizar satélites para retransmitir señales de comunicación entre dos puntos de la Tierra ni siquiera había comenzado la era espacial.

Era octubre de 1945, y el especialista e instructor de radar de la Real Fuerza Aérea británica, Arthur Charles Clarke, aficionado a la astronomía y a la lectura de relatos de ciencia ficción desde su niñez, publicaba el artículo “Retransmisores extraterrestres: ¿pueden las estaciones cohete darnos cobertura mundial de radio?” en la revista Wireless World, dedicada a la radio y la naciente rama de la electrónica.

La idea del joven soldado que no había podido pagarse una educación universitaria por los recursos limitados de sus padres era ubicar un satélite artificial en una órbita geoestacionaria, es decir, que se mantuviera siempre sobre el mismo punto de nuestro planeta. Para conseguir esa posición el satélite debe tener una órbita geosincrónica, es decir, dar una vuelta a la Tierra en exactamente el mismo tiempo que tarda la Tierra en girar una vez alrededor de su eje y que esa órbita esté directamente sobre el ecuador terrestre, además de mantener la misma altura todo el tiempo.

Con esas características, el satélite funciona como un punto fijo visto desde nuestro planeta, y puede por tanto recibir comunicaciones con una antena y reenviarlas con otra, consiguiendo unir puntos sumamente distantes de modo muy sencillo. Cualquier otra órbita que no sea una “órbita de Clarke” como se le llama actualmente, exige que el satélite tenga antenas móviles para hacer el rastreo de las señales entrantes con una antena y mantenerse “apuntando” al punto de recepción de la señal.

Unir esos mismos puntos sin los satélites requeriría de una red de estaciones repetidoras o retransmisoras en línea de visión la una de la otra, pues ondas como las de televisión o las microondas viajan en línea recta.

El soldado pasó a convertirse en el autor de ciencia ficción Arthur C. Clarke, creador, entre otras muchas historias, de 2001: una odisea del espacio, mientras que otras personas se acercaban a la idea del satélite de telecomunicaciones para hacerla realidad. Primero, los satélites se utilizaron para almacenar y reenviar mensajes grabados, como el SCORE de 1958, o eran globos aluminizados que reflejaban pasivamente ondas de radio o de radar.

Pero el 10 de julio de 1962 se lanzaba el primer satélite de telecomunicaciones que activamente recibía y retransmitía señales, el Telstar 1, que en su breve vida (dejó de funcionar el 21 de febrero de 1963) retransmitió imágenes de televisión, llamadas telefónicas e imágenes de fax, realizando el primer enlace directo transatlántico entre Estados Unidos y Europa.

Los satélites de comunicaciones de hoy en día no sólo utilizan órbitas Clarke, sino otras varias órbitas en función de las necesidades que sirven. La telefonía, por ejemplo, fue una de las principales aplicaciones hasta que el uso de cables submarinos de fibra óptica empezó a desplazarlos por ser más eficientes y económicos, salvo por los teléfonos que se comunican directamente con los satélites, usados en sitios inaccesibles y sin servicio ordinario.

Uno de los principales usos de los satélites de telecomunicaciones es la televisión, tanto la que se transmite directamente a los hogares “via satélite” hasta los enlaces de grandes emisoras con sus subsidiarias, o de reporteros y unidades remotas hacia las centrales de producción. Así, por ejemplo, las imágenes de un partido de fútbol se envían usando enlaces de satélite desde la central de realización en la unidad remota hasta la central, de donde la señal se reenvía a las televisoras nacionales, o a las emisoras de televisión digital usando otros varios enlaces de satélite en todo el mundo.

Salvo por pequeños retrasos debidos a la gran distancia a la que están los satélites de comunicaciones, la señal de cada jugada del Mundial estará en todos los televisores del mundo prácticamente en el mismo momento en que ocurra.

Otras utilizaciones son la radio por satélite, el servicio de Internet por satélite, las comunicaciones militares de distintos ejércitos o grupos multinacionales como la OTAN y, de manera muy especial, la navegación, y no sólo la que ocurre en embarcaciones, sino todo tipo de navegación u orientación en cualquier vehículo terrestre, aéreo, marítimo o, incluso, a pie.

La navegación con ayuda de satélites se realiza gracias al llamado Sistema de Posicionamiento Global, GPS por sus siglas en inglés. Este sistema proporciona información precisa sobre la ubicación y la hora de cualquier receptor de GPS que pueda “ver” (es decir, que esté en la línea de visión directa) al menos cuatro satélites de los entre 24 y 32 satélites que actualmente forman la red. El primero de ellos se lanzó en 1989, la constelación de 24 satélites se completó en 1994 y se han seguido lanzando satélites más avanzados para reemplazar a los que van saliendo de servicio.

Nuestro receptor GPS, instalado en el automóvil o como parte de nuestro teléfono móvil, ordenador portátil o agenda electrónica, recibe las señales enviadas por los satélites mediante microondas. Estas señales incluyen entre sus datos el momento preciso del envío de la señal, la información orbital precisa del satélite y las condiciones generales del sistema junto con una ubicación general de sus órbitas.

El receptor, verdadero portento informático, realiza a velocidad vertiginosa el cálculo del tiempo de transmisión de cada uno de los cuatro o más mensajes que recibe y computa la distancia a cada uno de los satélites. Mediante un algoritmo matemático, calcula su posición respecto de los satélites, y ésa es la posición que se nos muestra, ya sea simplemente como un conjunto de coordenadas o situándonos en un mapa que nos pone en el contexto de nuestro entorno.

Los mapas de papel, los extravíos tremendos, el tiempo perdido y los problemas para localizar, por ejemplo, a víctimas de deslaves o avalanchas, poco a poco se van sustituyendo por este sistema, originalmente creado para la guerra y que sin embargo hoy ahorra tiempo, facilita la vida y, en muchos casos, salva vidas en tierra, mar y aire.

Del ejército a la vida civil

El sistema GPS nació como un proyecto de la década de 1970 para el ejército de Estados Unidos. El sistema se puso a disposición de los civiles después de que, en 1983, un caza soviético derribara a un avión civil de pasajeros coreano. Debido a un error de navegación, el vuelo KAL 007 entró en espacio aéreo prohibido por la Unión Soviética, y en el ataque resultante murieron sus 269 ocupantes.

La muerte, obsesión de la especie

Fotografía © Mauricio-José Schwarz
Morir es el destino de los hombres, un misterio profundo y un miedo que ha dominado las culturas humanas y grandes preocupaciones científicas

En abril, los diarios dieron la noticia de un estudio de la revista Current Biology (Biología actual) según el cual los chimpancés enfrentan la muerte de modo muy parecido al que lo hacemos los seres humanos. En las filmaciones, se veía a la tropa despiojando y peinando a una hembra anciana que había muerto, como lo hacían cuando estaba viva. Otros investigadores vieron a hembras que llevaban consigo los cuerpos de sus crías muertas durante días y semanas.

Pero aún si la reacción ante la muerte, que también exhiben de modo enternecedor los elefantes y los perros, está extendida entre los seres vivos, hasta donde sabemos sólo el hombre es capaz de mirar saber que morirá como ha visto morir a otros. Somos el único animal consciente de que su vida es limitada.

Es un ejercicio interesante imaginar a los primeros homínidos que por vez primera se hacían conscientes de que uno de los suyos, acaso un ser querido, dejaba de moverse, de reaccionar a los estímulos, que está y es... pero al mismo tiempo ya no está y ya no es. El asombro, el miedo que pudo apoderarse de ellos al percibir la muerte en toda su irreversibilidad deben haber sido enormes. ¿Qué pasaba? ¿El compañero iba a despertar eventualmente? Y cuando no lo hacía y empezaba a descomponerse, ¿qué preguntas surgían?

Ciertamente, el muerto causaba temor, y el contacto con él se consideraba tabú entre muchas culturas, desde los antiguos persas a los hebreos, que en el Libro de los Números de la Biblia ordenan echar del campamento “a todo contaminado con muerto”, desde los zoroastrianos hasta los polinesios. El oficio de enterrador, incluso hoy, ha comportado siempre un estigma social y un temor irracionales.

¿Qué pasaba cuando alguien soñaba a un muerto? ¿Acaso no le parecía que estaba experimentando una visión de otro mundo donde seguía vivo, donde seguía siendo y estando? Porque en esos sueños el muerto caminaba, reía y hablaba, mandando acaso “mensajes desde allá” a los que seguían “aquí”. Más preguntas, más inquietudes.

De allí, creen muchos antropólogos, surgirían las religiones, gran parte de la filosofía, del arte y de las profundas dudas que nos convierten, en cierta medida, en una especie obsesionada por la muerte. Gran cantidad de nuestros monstruos son, precisamente, muertos que vuelven como los zombies o el monstruo de Frankenstein, o seres que quedan a la mitad entre la vida y la muerte, como los vampiros o "no muertos".

Por eso numerosos estudiosos consideran que la civilización comienza al mismo tiempo que los ritos funerarios. Los más antiguos parecen remontarse al menos a 60.000 años de antigüedad entre nuestros cercanos parientes, los neandertales, de los que se han encontrado enterramientos acompañados de cuernos de animales y fragmentos de flores, indicando que algún tipo de rito funerario, del que dejarían amplio testimonio tiempo después nuestros ancestros, al llegar a Europa.

La fisiología de la muerte

Más allá del hecho antropológico de nuestra conciencia sobre el eventual—e inevitable—fin de nuestra vida, está el problema de cómo determinar cuándo una persona ha dejado de vivir, cuándo ha muerto... y saberlo antes de los primeros desagradables signos de la descomposición.

Las primeras definiciones consideraban la interrupción definitiva del latido cardiaco y de la respiración. Pero, como demostró la preocupación por el enterramiento en vida en el siglo XIX, que tan bien plasmó Edgar Allan Poe en su relato “El entierro prematuro”, el latido cardiaco y la respiración no eran indicadores fiables, podían provocar una declaración de muerte en falso si eran poco perceptibles. Las noticias que de cuando en cuando llegan a los diarios sobre personas que “despiertan” durante sus funerales o velatorios, muestran por qué era necesario diagnosticar la muerte de modo claro.

La palidez, el asentamiento de la sangre en parte inferior del cuerpo, el rigor mortis y la caída en la temperatura corporal fueron signos claros de la muerte, pero para entonces el cuerpo ya era inviable. El surgimiento de las técnicas de trasplante llevó a una redefinición, con el consenso en casi todo el mundo de que la muerte de la persona es la muerte cerebral, aunque el cuerpo siguiera fisiológicamente vivo. La implicación filosófica es clara: somos nuestro cerebro, nuestra personalidad está inscrita en la danza electroquímica de comunicación de nuestras neuronas.

Cuando el electroencefalograma es plano, cuando ya no existe actividad electroquímica, dejamos de ser aunque nuestro cuerpo siga vivo, los pulmones respiren y el corazón lata. Y, por otra parte, con un procedimiento adecuado de resucitación cardiorrespiratoria, fármacos y desfibrilación, un paro del corazón y la respiración no es igual a la muerte pues es reversible.

De hecho, algunos estudiosos hoy abogan porque se considere muerto a quien no tiene actividad en la corteza cerebral superior, que es característica de los humanos, aunque siga teniendo actividad en las zonas más antiguas y más inferiores del encéfalo.

El cerebro muere gradualmente. Al detenerse el corazón, se suspende el suministro de oxígeno a las neuronas, que pueden sobrevivir apenas unos cinco o seis minutos. Si en ese plazo no se reanudan la circulación sanguínea y la respiración, muy probablemente la víctima sufrirá daño cerebral, más grave mientras más tiempo pase privado de oxígeno. Las primeras en morir son las neuronas de la corteza superior, primero las de las zonas motoras y después las de las zonas sensoriales.

Cuanto conocemos hoy acerca de la muerte no ha logrado tranquilizar, al menos en la mayoría de las personas, el miedo a morir, la repulsión a los muertos y, como contraparte, el largamente acariciado sueño de la inmortalidad, de vencer a ese enemigo que nos ha aterrorizado desde el inicio de la autoconciencia que nos define como especie.

La granja de los cadáveres

Lo que ocurre después de la muerte no era bien conocido hasta muy recientemente. Partes normales del proceso de descomposición o momificación de los cuerpos fueron confundidas en el pasado con síntomas de vampirismo u otros horrores, pero el estudio científico de los procesos de descomposición se inició con fines forenses. Su máximo exponente es el antropólogo forense Bill Bass, que en 1981 puso en marcha la mundialmente conocida "granja de cadáveres", donde con cuerpos donados de personas y cerdos se estudian los procesos de descomposición en distintas condiciones de enterrramiento, humedad, aislamiento, etc. para conseguir lo que nunca pudieron hacer los médiums: que los muertos cuenten historias importantes y, muchas veces, incluso señalen a sus asesinos.

La ecuación más famosa del mundo

Encontramos E=mc2 en todas partes, desde dibujos animados hasta esculturas. Es la ecuación más famosa, pero... ¿qué significado tiene?

Albert Einstein a los tres años (1882)
(Foto D.P. vía Wikimedia Commons)
Era 1905 cuando el poco conocido físico que trabajaba como examinador de la oficina de patentes de Berna, Suiza, Albert Einstein, presentó cuatro trabajos de física en la reconocida revista científica alemana Annalen der Physik (Anales de la Física).

Estos cuatro trabajos, tan cercanos en el tiempo, son un logro sin paralelo en la ciencia. Los cuatro refundaron la física en los términos en que la entendemos hoy en día, y por ellos se conoce a 1905 como el annus mirabilis o “año maravilloso" de Einstein.

El primero de los artículos decía que la energía se emite en paquetes discretos llamados “cuantos de energía”, lo que explicaba entre otras cosas el efecto fotoeléctrico y sentaba las bases de la mecánica cuántica. El segundo se ocupaba del movimiento browniano de las partículas suspendidas en un líquido. El tercero analizaba la mecánica de los objetos a velocidades cercanas a la de la luz, lo que se conocería después como la “teoría especial de la relatividad”.

El cuarto artículo afirmaba que la materia y la energía eran equivalentes, es decir, que la materia y la energía son dos formas diferentes de lo mismo,.y que esa equivalencia se veía definida por la ecuación E=mc2.

Esta ecuación en apariencia sencilla significa simplemente que el contenido de energía de cualquier trozo de materia es equivalente a su masa (m) multiplicada por la velocidad de la luz (c) elevada al cuadrado.

La ecuación E=mc2 no es, como en ocasiones se cree, la ecuación de la teoría de la relatividad. Es un resultado de dicha teoría, ciertamente, pero nada más. Parte de su encanto, muy probablemente, es su simplicidad: cinco símbolos con significado claro que chocan con los encerados pletóricos de símbolos extraños que suelen representar a los matemáticos y a los físicos.

Para entenderlo, veamos primero cómo medimos la energía La medida de la energía son los joules, o julios, denominados así en memoria del físico inglés James Prescott Joule. 1 joule es la cantidad de energía necesaria para elevar en 1 grado Celsius la temperatura de 1 kilogramo de agua, y se define como 1kg m2/s2, kilogramo por metro al cuadrado entre segundo al cuadrado.

Sabiendo cómo definimos la energía, pensemos ahora qué pasaría si convertimos 1 gramo de materia, un modesto y sencillo gramo de materia, en energía. Es decir, cuánta energía hay contenida en un gramo de cualquier cosa que queramos, un gramo que es igual a 0,001 kg. La energía (E) se obtendría multiplicando 0,001kg por la velocidad de la luz al cuadrado.

La velocidad de la luz es aproximadamente de 300.000 kilómetros por segundo, es decir, 300.000.000 metros por segundo

La operación sería, entonces E=0,001 kg x 300.000.000 m/s x 300.000.000 m/s

Lo que resulta en E=90.000.000.000.000 kg m2/s2 o simplemente joules.

Estos 90 billones de joules equivalen, a su vez, a la explosión de más de 21.000 toneladas de TNT. Para darnos una idea de lo que eso significa, la bomba atómica arrojada sobre Hiroshima liberó una energía explosiva de entre 13 y 18 mil toneladas de TNT, o kilotones.

En la reacción nuclear llevada a cabo en el interior de aquella atroz arma de destrucción masiva, menos de 1 gramo del uranio 235 que la componía se transformó en energía... y ello bastó para arrasar la ciudad y matar a más de 60.000 personas de inmediato. Es decir, la cantidad de energía concentrada en la masa es asombrosamente grande.

Más allá de medir el potencial destructivo, claro, E=mc2 nos dice que si pudiéramos controlar la liberación de energía de un gramo de masa obtendríamos 25.000.000 de kilovatio-horas de energía eléctrica. La energía eléctrica necesaria para encender 25 millones de bombillas de 100 vatios durante 10 horas.

La ecuación de Einstein, por tanto, nos decía que existe una fuente de energía abundantísima en la materia que nos rodea. La pregunta, claro, era cómo obtener esa energía. Desde que Cockroft y Walton ofrecieron la primera confirmación experimental de la equivalencia entre masa y energía, en 1932, gran parte del trabajo técnico se ha orientado a conseguir una buena solución técnica para obtener energía a partir de la masa.

Las centrales nucleares, que utilizan la fisión o división de los núcleos de materiales radiactivos para obtener energía, son una forma de rentabilizar, por así decirlo, la ecuación de Einstein. Pero la gran promesa para resolver las necesidades energéticas de la humanidad se encuentra en la fusión nuclear, el proceso de unión de dos núcleos para formar un elemento más pesado, que también libera una gran cantidad de energía.

El sol es un horno de fusión nuclear. Y es la ecuación E=mc2 la que explica cómo la fusión de átomos de hidrógeno para formar átomos de helio en las estrellas, incluida la nuestra, tiene la capacidad de producir tanta energía. La comprensión científica tanto nuestro sol como de todas las estrellas, e incluso el Big Bang como origen del universo, del espacio y el tiempo, requerían como antecedente fundamental la ecuación de equivalencia de masa y energía de Einstein.

Esta fórmula, además, es clave para explicar uno de los fenómenos más curiosos de la teoría de la relatividad de Einstein, y es el que establece que ningún objeto con masa puede alcanzar la velocidad de la luz: al añadir energía a un objeto, se hace aumentar su masa. Es decir que, por ejemplo, al calentar agua en un microondas, el agua adquiere una cantidad adicional de masa, así sea casi infinitesimal. Y lo mismo ocurre al acelerar cualquier objeto: hacemos crecer su masa.

Si aceleramos un objeto de tal modo que se aproxime a la velocidad de la luz, la aplicación de la energía hará que su masa crezca en consecuencia. A mayor energía, mayor masa y, por tanto, se necesita más energía para seguir acelerando el objeto. Al aproximarse a la velocidad de la luz, la masa de cualquier objeto tiende a infinito.

Dicho de otro modo, si aceleramos cualquier objeto con masa, así sea un grano de café, hasta que llegue a la velocidad de la luz, su masa sería infinita y ocuparía todo el universo.

Así que, aunque podamos buscar la forma de obtener energía abundante, limpia y barata a partir de la ecuación de Einstein, también ella nos dice que los viajes instantáneos por el universo están al parecer condenados a ser, para siempre, cosa de fantasía.

La ecuación y su creador

Sobre E=mc2, Einstein dijo: “De la teoría especial de la relatividad se seguía que la masa y la energía no son sino distintas manifestaciones de una misma cosa... un concepto más bien poco corriente para la mente promedio." Hoy, 105 años después de que enunciara la ecuación, quizá la “mente promedio” se haya acercado un poco a la genialidad del físico del peinado imposible.

Tim Berners-Lee, el señor WWW

Pocos hombres como el inventor de la World Wide Web han visto al mundo transformarse con el impulso de sus ideas.

Tim Berners-Lee en 2009.
(foto CC Silvio Tanaka, via
Wikimedia Commons)
Tim Berners-Lee cumplirá apenas 55 años en junio, pero su rostro es casi desconocido para la mayoría de las personas, y su nombre es apenas un poco más reconocible, aunque sin él no habría redes sociales ni páginas Web, ni buscadores, ni navegadores Web, ni desarrolladores para la Web, ni nuestra puerta a la información, la comunicación, el conocimiento y la diversión. Porque fue este personajequien creó lo que hoy conocemos como la World Wide Web.

Tim Berners-Lee nació en Londres el 8 de junio de 1955, hijo de dos informáticos de gran relevancia. Su padre, Conway Berners-Lee, es un matemático, ingeniero y científico informático que trabajó en la creación del Ferranti Mark 1, el primer ordenador elctrónico comercial con programas almacenados. En la fiesta de Navidad de Ferranti en 1952, Conway conoció a la madre de Tim, Mary Lee Woods, también matemática y una de las programadoras del Ferranti Mark 1.

Con esos antecedentes, no fue extraño que, después del bachillerato, el joven Tim pasara al afamado Queens College de Oxford, donde recibió un título de primera clase en física y se empezara a dedicar a la informática.

El hipertexto

En 1980, Berners-Lee fue contratado como proveedor para la Organización Europea para la Investigación Nuclear, CERN, donde propuso usar el hipertexto inventado por Ted Nelson (texto que incluye referencias o enlaces a otros documentos a los que el lector puede acceder), para que los científicos de CERN pudieran compartir datos. Para ello escribió el programa ENQUIRE, un software de hipertexto muy parecido a lo que hoy conocemos como “wiki”, cuyo ejemplo más conocido es la Wikipedia.

Después de trabajar algunos años en empresas privadas, Berners-Lee volvió a CERN como investigador del centro. CERN era, y sigue siendo ahora con el Gran Colisionador de Hadrones, el LHC, el mayor laboratorio de física de partículas del mundo. Ello implica que genera grandes cantidades de información que deben hacerse accesibles a los investigadores del centro y del mundo, y que tiene una gran relación con los centros de la física en todo el mundo, por lo que en 1989 CERN era el mayor nodo de Internet de toda Europa.

Pero era un Internet donde era difícil encontrar la información, con diversos protocolos o formas de comunicación, y que requería que sus usuarios conocieran lenguaje de programación para usar cosas como la transferencia de archivos por FTP, los grupos de noticias de Usenet e incluso el correo electrónico, todo lo cual ya existía.

Lo que no había era ordenadores comunes, programas comunes ni programas de presentación comunes para intercambiar información. Berners-Lee se planteó unir sus ideas sobre el hipertexto con Internet para enlazar la información y hacerla accesible. Su primera propuesta a CERN fue en marzo de 1989 y le siguió una versión refinada con ayuda de Robert Cailliau en 1990.

En 1990, Tim Berners-Lee creó los elementos esenciales de la red. El HTTP, o "Protocolo de Transferencia de HiperTexto”, las reglas según las cuales la forma se comunican y entienden las máquinas que solicitan algo mediante un enlace de hipertexto y las que lo sirven. El HTML, o “Lenguaje de Marcado de HiperTexto”, para incluir en el texto elementos de formato y enlaces a imágenes, gráficos y documentos que pueden estar en otras máquinas. Finalmente, el navegador interpreta el lenguaje HTML para presentarlo al lector, transmitir las solicitudes de los enlaces y recibir documentos e imágenes.

Había nacido la Web.

Una danza de millones y millones

El 6 de agosto de 1991, Berners-Lee escribió un resumen de su proyecto en el grupo de noticias alt.hypertext. Ese día, la World Wide Web se convirtió en un servicio público y, en el plazo de apenas cinco años, en una gran oportunidad de negocios donde han surgido fortunas fabulosas, como las de los creadores de ICQ, YouTube, FaceBook o Google.

Pero entre ellos no se cuenta Tim Berners-Lee.

En poco tiempo, se convirtió en preocupación principal del inventor que la Web se mantuviera libre, sin patentes ni regalías. Para ello, primero, Tim Berners-Lee regaló su invento al mundo, como lo hicieran en su momento Jonas Salk, creador de la vacuna contra la polio, y Alexander Fleming, descubridor de la penicilina. En segundo lugar, en 1994 fundó en el renombrado MIT (Instituto de Tecnología de Massachusets) el W3C o Consorcio de la World Wide Web, dedicado a crear estándares libres de regalías y recomendaciones para la red, que durante años ha dirigido desde una modesta oficina.

A los 54 años, el innovador británico ha reunido una impresionante cantidad de reconocimientos. En su país natal es Caballero del Reino, Orden del Mérito, miembro de la Royal Society y de varias sociedades más. La revista Time lo nombró entre las 100 personas más influyentes del siglo 20, ha obtenido reconocimientos en Finlandia, Estados Unidos, Holanda y España, donde la Universidad Poltécnica de Madrid lo nombró Doctor Honoris Causa en 2009.

Desde 2009 trabaja en el proyecto británico para hacer los datos de gobierno más accesibles y transparentes para el público en general, lo que se conoce como open government o gobierno abierto. Tal como quiere que sea la red, libre, sin censura, donde los proveedores ni controlen ni monitoricen la actividad de los internautas sin su permiso explícito.

Y, entretanto, se ocupa de lo que será la nueva era de la World Wide Web, según la concibe su creador: la Web Semántica, o Web 3.0, donde los datos no estarán controlados por las aplicaciones que están en red, sino que los propios datos estarán en red, para integrar, combinar y reutilizar los datos, una red de conceptos y no de programas.

Después de todo, Tim Berners-Lee tiene por delante muchos años para volver a sorprender al mundo y ponerlo de cabeza. Y siempre desde una modestia y falta de avaricia de la que tanto podrían aprender tantos.

Los nombres de la red

La World Wide Web (red a nivel mundial), pudo llamarse de muchas formas. Tim Berners-Lee quería destacar que era una forma descentralizada en la que cualquier cosa se podría enlazar a cualquier otra, y entre los nombres que desechó estuvo “Mine of information” (mina de información, cuyas siglas son MOI, "yo" en francés, que le pareció "un poco egoísta"), “The Information Mine” (la mina de información, que desechó porque sus siglas son, precisamente, su nombre, TIM) e “Information mesh” (malla de información, que le parecía que sonaba demasiado parecida a “mess”, confusión). Finalmente, el nombre se eligió porque la red es global, y porque matemáticamente es una red. Además, sentía Berners-Lee, una letra identificativa sería útil. Aunque sea difícil pronunciar WWW en casi todos los idiomas.

Transbordador espacial, fin de ciclo

Primera prueba de vuelo planeador del transbordador
Enterprise, que nunca llegó a ir al espacio.
(foto D.P. NASA, vía Wikimedia Commons)
El 12 de abril de 1981 se lanzó la primera misión del Transbordador Espacial, proyecto destinado a revolucionar la exploración espacial del país que había ganado la carrera a la Luna.

Entre septiembre y diciembre de 2010, a menos que el presidente Obama decida una ampliación, tendrá lugar el último viaje de estas naves, cerrando un ciclo en la exploración del espacio.

El Transbordador Espacial se diferencia de todas las anteriores naves espaciales en que sus principales componentes son reutilizables. Desde el vuelo de su primer astrounauta hasta 1975, las naves habían sido cohetes de varias etapas que se iban desechando conforme ascendían, hasta quedar únicamente la “cápsula” superior del cohete, donde viajaban los tripulantes.

La cápsula volvía a Tierra frenada por paracaídas y caía al mar, sin que se reutilizara tampoco ninguno de sus componentes.

Entre 1959 y 1963 hubo 6 misiones del programa Mercury de un solo tripulante. De 1963 a 1966 se lanzaron 10 misiones del programa Gemini, de dos tripulantes. Y de 1961 a 1972 hubo 17 misiones Apolo, 11 de ellas tripuladas con tres astronautas cada una y cuyo objetivo fue llegar (y volver en varias ocasiones) a la Luna. Tres misiones Apolo se cancelaron por recortes presupuestales.

Las cápsulas Apolo, con cohetes Saturno Ib, menos potentes que el Saturno V que las llevó a la luna, se utilizaron en 1973 en tres misiones a la malograda estación espacial Skylab y en 1975 protagonizaron el primer “encuentro orbital” con una cápsula Soyuz de la Unión Soviética.

Por cierto, todas las misiones tripuladas de la URSS hasta 1989 y de Rusia desde entonces, se han realizado con cohetes de etapas y cápsulas Sputnik, y desde 1963 en sucesivas versiones de las cápsulas Soyuz, para un total de más de 110 misiones orbitales.

Desde la década de 1960, sin embargo, la NASA trabajó en el diseño de una nave reutilizable, que en teoría haría menos costosos los vuelos y podría llevar una carga útil mayor. El diseño final fue lo que técnicamente se conoce como Sistema de Transportación Espacial, formado por un enorme tanque de combustible externo, dos cohetes impulsores sólidos y un vehículo orbitador dotado de tres motores propios y de una serie de pequeños motores impulsores que forman el sistema de maniobra orbital.

La secuencia de puesta en órbita es la siguiente: en el lanzamiento vertical de la nave entran en acción tanto los cohetes impulsores sólidos como los motores del orbitador, alimentados por el hidrógeno y el oxígeno que contiene el tanque externo. Unos dos minutos después del despegue, los cohetes impulsores sólidos se desprenden y caen al mar en paracaídas para ser rescatados y reutilizados.

El orbitador y el tanque siguen hasta llegar a la órbita que ocupará la misión. Entonces el tanque se desprende y cae a tierra, y aunque no se quema al reingresar a la atmósfera, no se reutiliza como tal en otra misión, pero sí se recicla para distintos fines.

El orbitador, que es lo que habitualmente conocemos como “transbordador espacial”, puede llevar hasta ocho astronautas, además de contar con un enorme compartimiento de carga de 18 por 4,5 metros dotado de un brazo robótico que se ocupa de manipular la carga. En este compartimiento de carga, por ejemplo, viajó el telescopio espacial Hubble. El brazo robótico del compartimiento puede además “capturar” vehículos para su reparación, como lo ha hecho con el propio telescopio Hubble, primero para repararlo y después para mejorar continuamente sus capacidades de exploración de nuestro universo.

Terminada su misión, el orbitador reingresa en la atmósfera. La parte inferior del vehículo está cubierta de ladrillos de cerámica altamente resistente al calor, que le permite sobrevivir a las elevadísimas temperaturas provocadas por la fricción en el reingreso. Una vez en la atmósfera, el vehículo puede corregir el rumbo con instrumental de vuelo y sus motores, pero esencialmente es un planeador que vuela sin potencia propia hasta aterrizar.

En total se construyeron seis orbitadores. El primero, el Enterprise, no tenía por objeto llgar a ponerse en órbita, y se usó únicamente para las pruebas atmosféricas. Curiosamente, su nombre fue elegido por la presión de los aficionados a la clásica serie de ciencia ficción Star Trek, cuya nave es, precisamente, el Enterprise. Los otros cinco orbitadores fueron el Challenger, el Columbia, el Discovery, el Atlantis y el Endeavour.

Dos de ellos sufrieron accidentes fatales.

El 28 de enero de 1986, podo después de su despegue, el transbordador Challenger se desintegró en vuelo a causa de una junta defeectuosa en uno de los dos cohetes impulsores sólidos, falleciendo los siete miembros de su tripulación.

El 1º de febrero de 2003, al reingresar a la tierra y pocos minutos antes de su aterrizaje, el transbordador Columbia se desintegró a causa de un pequeño trozo del aislante del tanque externo que se desprendió en el lanzamiento y golpeó el ala izquierda, dañando los ladrillos de cerámica térmica. Al reentrar en la atmósfera, las alas llegan a los 1.650 grados centígrados de calor, y en el proceso cayó uno de los ladrillos, lo que desencadenó el desastre en el que perecieron los siete astronautas de a bordo.

Criticado por su diseño, por no haber conseguido la relación costo-beneficio originalmente prometida y por sus problemas de seguridad, causantes de los dos desastres más costosos en vidas humanas de los programas espaciales, el transbordador espacial pasará a la historia sin embargo como la transición de la competitiva carrera lunar al esfuerzo cooperativo de la Estación Espacial Internacional.

Y, con un presupuesto total de 150 mil millones de dólares en su historia de casi treinta años de viajes espaciales, conviene recordar que los beneficios que ha aportado para el conocimiento, la industria y la tecnología es apenas una quinta parte de lo que ha costado la guerra de Irak desde 2001, y bastante menos de lo que han costado únicamente los rescates bancarios de la crisis financiera desde 2008 en todo el mundo, por mencionar dos ejemplos.

En realidad, un dinero bien invertido.

Después del transbordador

Durante al menos cinco años, Estados Unidos dependerá totalmente de las naves soviéticas Soyuz para sus misiones tripuladas, principalmente el envío de su personal a la Estación Espacial Internacional. Después entrará en acción el programa Orión, actualmente en desarrollo, cápsulas impulsadas por un cohete Ares I de dos etapas, la primera de las cuales es totalmente reutilizable. El vehículo Orión, el módulo de tripulación, es un regreso al concepto original de la cápsula espacial cónica, aunque ahora totalmente reutilizable salvo por el escudo térmico que la protege al reingreso. Si la política no dicta otra cosa, su primer vuelo será en 2015.