Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Satélites de comunicaciones y GPS

Satélite GPS-IIRM
(D.P. vía Wikimedia Commons)
Ciertos avances tecnológicos pueden a veces implantarse de modo tan silencioso que no apreciamos el alcance del cambio que producen en nuestras vidas, como los satélites de comunicaciones.

La primera vez que se propuso la posibilidad de utilizar satélites para retransmitir señales de comunicación entre dos puntos de la Tierra ni siquiera había comenzado la era espacial.

Era octubre de 1945, y el especialista e instructor de radar de la Real Fuerza Aérea británica, Arthur Charles Clarke, aficionado a la astronomía y a la lectura de relatos de ciencia ficción desde su niñez, publicaba el artículo “Retransmisores extraterrestres: ¿pueden las estaciones cohete darnos cobertura mundial de radio?” en la revista Wireless World, dedicada a la radio y la naciente rama de la electrónica.

La idea del joven soldado que no había podido pagarse una educación universitaria por los recursos limitados de sus padres era ubicar un satélite artificial en una órbita geoestacionaria, es decir, que se mantuviera siempre sobre el mismo punto de nuestro planeta. Para conseguir esa posición el satélite debe tener una órbita geosincrónica, es decir, dar una vuelta a la Tierra en exactamente el mismo tiempo que tarda la Tierra en girar una vez alrededor de su eje y que esa órbita esté directamente sobre el ecuador terrestre, además de mantener la misma altura todo el tiempo.

Con esas características, el satélite funciona como un punto fijo visto desde nuestro planeta, y puede por tanto recibir comunicaciones con una antena y reenviarlas con otra, consiguiendo unir puntos sumamente distantes de modo muy sencillo. Cualquier otra órbita que no sea una “órbita de Clarke” como se le llama actualmente, exige que el satélite tenga antenas móviles para hacer el rastreo de las señales entrantes con una antena y mantenerse “apuntando” al punto de recepción de la señal.

Unir esos mismos puntos sin los satélites requeriría de una red de estaciones repetidoras o retransmisoras en línea de visión la una de la otra, pues ondas como las de televisión o las microondas viajan en línea recta.

El soldado pasó a convertirse en el autor de ciencia ficción Arthur C. Clarke, creador, entre otras muchas historias, de 2001: una odisea del espacio, mientras que otras personas se acercaban a la idea del satélite de telecomunicaciones para hacerla realidad. Primero, los satélites se utilizaron para almacenar y reenviar mensajes grabados, como el SCORE de 1958, o eran globos aluminizados que reflejaban pasivamente ondas de radio o de radar.

Pero el 10 de julio de 1962 se lanzaba el primer satélite de telecomunicaciones que activamente recibía y retransmitía señales, el Telstar 1, que en su breve vida (dejó de funcionar el 21 de febrero de 1963) retransmitió imágenes de televisión, llamadas telefónicas e imágenes de fax, realizando el primer enlace directo transatlántico entre Estados Unidos y Europa.

Los satélites de comunicaciones de hoy en día no sólo utilizan órbitas Clarke, sino otras varias órbitas en función de las necesidades que sirven. La telefonía, por ejemplo, fue una de las principales aplicaciones hasta que el uso de cables submarinos de fibra óptica empezó a desplazarlos por ser más eficientes y económicos, salvo por los teléfonos que se comunican directamente con los satélites, usados en sitios inaccesibles y sin servicio ordinario.

Uno de los principales usos de los satélites de telecomunicaciones es la televisión, tanto la que se transmite directamente a los hogares “via satélite” hasta los enlaces de grandes emisoras con sus subsidiarias, o de reporteros y unidades remotas hacia las centrales de producción. Así, por ejemplo, las imágenes de un partido de fútbol se envían usando enlaces de satélite desde la central de realización en la unidad remota hasta la central, de donde la señal se reenvía a las televisoras nacionales, o a las emisoras de televisión digital usando otros varios enlaces de satélite en todo el mundo.

Salvo por pequeños retrasos debidos a la gran distancia a la que están los satélites de comunicaciones, la señal de cada jugada del Mundial estará en todos los televisores del mundo prácticamente en el mismo momento en que ocurra.

Otras utilizaciones son la radio por satélite, el servicio de Internet por satélite, las comunicaciones militares de distintos ejércitos o grupos multinacionales como la OTAN y, de manera muy especial, la navegación, y no sólo la que ocurre en embarcaciones, sino todo tipo de navegación u orientación en cualquier vehículo terrestre, aéreo, marítimo o, incluso, a pie.

La navegación con ayuda de satélites se realiza gracias al llamado Sistema de Posicionamiento Global, GPS por sus siglas en inglés. Este sistema proporciona información precisa sobre la ubicación y la hora de cualquier receptor de GPS que pueda “ver” (es decir, que esté en la línea de visión directa) al menos cuatro satélites de los entre 24 y 32 satélites que actualmente forman la red. El primero de ellos se lanzó en 1989, la constelación de 24 satélites se completó en 1994 y se han seguido lanzando satélites más avanzados para reemplazar a los que van saliendo de servicio.

Nuestro receptor GPS, instalado en el automóvil o como parte de nuestro teléfono móvil, ordenador portátil o agenda electrónica, recibe las señales enviadas por los satélites mediante microondas. Estas señales incluyen entre sus datos el momento preciso del envío de la señal, la información orbital precisa del satélite y las condiciones generales del sistema junto con una ubicación general de sus órbitas.

El receptor, verdadero portento informático, realiza a velocidad vertiginosa el cálculo del tiempo de transmisión de cada uno de los cuatro o más mensajes que recibe y computa la distancia a cada uno de los satélites. Mediante un algoritmo matemático, calcula su posición respecto de los satélites, y ésa es la posición que se nos muestra, ya sea simplemente como un conjunto de coordenadas o situándonos en un mapa que nos pone en el contexto de nuestro entorno.

Los mapas de papel, los extravíos tremendos, el tiempo perdido y los problemas para localizar, por ejemplo, a víctimas de deslaves o avalanchas, poco a poco se van sustituyendo por este sistema, originalmente creado para la guerra y que sin embargo hoy ahorra tiempo, facilita la vida y, en muchos casos, salva vidas en tierra, mar y aire.

Del ejército a la vida civil

El sistema GPS nació como un proyecto de la década de 1970 para el ejército de Estados Unidos. El sistema se puso a disposición de los civiles después de que, en 1983, un caza soviético derribara a un avión civil de pasajeros coreano. Debido a un error de navegación, el vuelo KAL 007 entró en espacio aéreo prohibido por la Unión Soviética, y en el ataque resultante murieron sus 269 ocupantes.

La muerte, obsesión de la especie

Fotografía © Mauricio-José Schwarz
Morir es el destino de los hombres, un misterio profundo y un miedo que ha dominado las culturas humanas y grandes preocupaciones científicas

En abril, los diarios dieron la noticia de un estudio de la revista Current Biology (Biología actual) según el cual los chimpancés enfrentan la muerte de modo muy parecido al que lo hacemos los seres humanos. En las filmaciones, se veía a la tropa despiojando y peinando a una hembra anciana que había muerto, como lo hacían cuando estaba viva. Otros investigadores vieron a hembras que llevaban consigo los cuerpos de sus crías muertas durante días y semanas.

Pero aún si la reacción ante la muerte, que también exhiben de modo enternecedor los elefantes y los perros, está extendida entre los seres vivos, hasta donde sabemos sólo el hombre es capaz de mirar saber que morirá como ha visto morir a otros. Somos el único animal consciente de que su vida es limitada.

Es un ejercicio interesante imaginar a los primeros homínidos que por vez primera se hacían conscientes de que uno de los suyos, acaso un ser querido, dejaba de moverse, de reaccionar a los estímulos, que está y es... pero al mismo tiempo ya no está y ya no es. El asombro, el miedo que pudo apoderarse de ellos al percibir la muerte en toda su irreversibilidad deben haber sido enormes. ¿Qué pasaba? ¿El compañero iba a despertar eventualmente? Y cuando no lo hacía y empezaba a descomponerse, ¿qué preguntas surgían?

Ciertamente, el muerto causaba temor, y el contacto con él se consideraba tabú entre muchas culturas, desde los antiguos persas a los hebreos, que en el Libro de los Números de la Biblia ordenan echar del campamento “a todo contaminado con muerto”, desde los zoroastrianos hasta los polinesios. El oficio de enterrador, incluso hoy, ha comportado siempre un estigma social y un temor irracionales.

¿Qué pasaba cuando alguien soñaba a un muerto? ¿Acaso no le parecía que estaba experimentando una visión de otro mundo donde seguía vivo, donde seguía siendo y estando? Porque en esos sueños el muerto caminaba, reía y hablaba, mandando acaso “mensajes desde allá” a los que seguían “aquí”. Más preguntas, más inquietudes.

De allí, creen muchos antropólogos, surgirían las religiones, gran parte de la filosofía, del arte y de las profundas dudas que nos convierten, en cierta medida, en una especie obsesionada por la muerte. Gran cantidad de nuestros monstruos son, precisamente, muertos que vuelven como los zombies o el monstruo de Frankenstein, o seres que quedan a la mitad entre la vida y la muerte, como los vampiros o "no muertos".

Por eso numerosos estudiosos consideran que la civilización comienza al mismo tiempo que los ritos funerarios. Los más antiguos parecen remontarse al menos a 60.000 años de antigüedad entre nuestros cercanos parientes, los neandertales, de los que se han encontrado enterramientos acompañados de cuernos de animales y fragmentos de flores, indicando que algún tipo de rito funerario, del que dejarían amplio testimonio tiempo después nuestros ancestros, al llegar a Europa.

La fisiología de la muerte

Más allá del hecho antropológico de nuestra conciencia sobre el eventual—e inevitable—fin de nuestra vida, está el problema de cómo determinar cuándo una persona ha dejado de vivir, cuándo ha muerto... y saberlo antes de los primeros desagradables signos de la descomposición.

Las primeras definiciones consideraban la interrupción definitiva del latido cardiaco y de la respiración. Pero, como demostró la preocupación por el enterramiento en vida en el siglo XIX, que tan bien plasmó Edgar Allan Poe en su relato “El entierro prematuro”, el latido cardiaco y la respiración no eran indicadores fiables, podían provocar una declaración de muerte en falso si eran poco perceptibles. Las noticias que de cuando en cuando llegan a los diarios sobre personas que “despiertan” durante sus funerales o velatorios, muestran por qué era necesario diagnosticar la muerte de modo claro.

La palidez, el asentamiento de la sangre en parte inferior del cuerpo, el rigor mortis y la caída en la temperatura corporal fueron signos claros de la muerte, pero para entonces el cuerpo ya era inviable. El surgimiento de las técnicas de trasplante llevó a una redefinición, con el consenso en casi todo el mundo de que la muerte de la persona es la muerte cerebral, aunque el cuerpo siguiera fisiológicamente vivo. La implicación filosófica es clara: somos nuestro cerebro, nuestra personalidad está inscrita en la danza electroquímica de comunicación de nuestras neuronas.

Cuando el electroencefalograma es plano, cuando ya no existe actividad electroquímica, dejamos de ser aunque nuestro cuerpo siga vivo, los pulmones respiren y el corazón lata. Y, por otra parte, con un procedimiento adecuado de resucitación cardiorrespiratoria, fármacos y desfibrilación, un paro del corazón y la respiración no es igual a la muerte pues es reversible.

De hecho, algunos estudiosos hoy abogan porque se considere muerto a quien no tiene actividad en la corteza cerebral superior, que es característica de los humanos, aunque siga teniendo actividad en las zonas más antiguas y más inferiores del encéfalo.

El cerebro muere gradualmente. Al detenerse el corazón, se suspende el suministro de oxígeno a las neuronas, que pueden sobrevivir apenas unos cinco o seis minutos. Si en ese plazo no se reanudan la circulación sanguínea y la respiración, muy probablemente la víctima sufrirá daño cerebral, más grave mientras más tiempo pase privado de oxígeno. Las primeras en morir son las neuronas de la corteza superior, primero las de las zonas motoras y después las de las zonas sensoriales.

Cuanto conocemos hoy acerca de la muerte no ha logrado tranquilizar, al menos en la mayoría de las personas, el miedo a morir, la repulsión a los muertos y, como contraparte, el largamente acariciado sueño de la inmortalidad, de vencer a ese enemigo que nos ha aterrorizado desde el inicio de la autoconciencia que nos define como especie.

La granja de los cadáveres

Lo que ocurre después de la muerte no era bien conocido hasta muy recientemente. Partes normales del proceso de descomposición o momificación de los cuerpos fueron confundidas en el pasado con síntomas de vampirismo u otros horrores, pero el estudio científico de los procesos de descomposición se inició con fines forenses. Su máximo exponente es el antropólogo forense Bill Bass, que en 1981 puso en marcha la mundialmente conocida "granja de cadáveres", donde con cuerpos donados de personas y cerdos se estudian los procesos de descomposición en distintas condiciones de enterrramiento, humedad, aislamiento, etc. para conseguir lo que nunca pudieron hacer los médiums: que los muertos cuenten historias importantes y, muchas veces, incluso señalen a sus asesinos.

La ecuación más famosa del mundo

Encontramos E=mc2 en todas partes, desde dibujos animados hasta esculturas. Es la ecuación más famosa, pero... ¿qué significado tiene?

Albert Einstein a los tres años (1882)
(Foto D.P. vía Wikimedia Commons)
Era 1905 cuando el poco conocido físico que trabajaba como examinador de la oficina de patentes de Berna, Suiza, Albert Einstein, presentó cuatro trabajos de física en la reconocida revista científica alemana Annalen der Physik (Anales de la Física).

Estos cuatro trabajos, tan cercanos en el tiempo, son un logro sin paralelo en la ciencia. Los cuatro refundaron la física en los términos en que la entendemos hoy en día, y por ellos se conoce a 1905 como el annus mirabilis o “año maravilloso" de Einstein.

El primero de los artículos decía que la energía se emite en paquetes discretos llamados “cuantos de energía”, lo que explicaba entre otras cosas el efecto fotoeléctrico y sentaba las bases de la mecánica cuántica. El segundo se ocupaba del movimiento browniano de las partículas suspendidas en un líquido. El tercero analizaba la mecánica de los objetos a velocidades cercanas a la de la luz, lo que se conocería después como la “teoría especial de la relatividad”.

El cuarto artículo afirmaba que la materia y la energía eran equivalentes, es decir, que la materia y la energía son dos formas diferentes de lo mismo,.y que esa equivalencia se veía definida por la ecuación E=mc2.

Esta ecuación en apariencia sencilla significa simplemente que el contenido de energía de cualquier trozo de materia es equivalente a su masa (m) multiplicada por la velocidad de la luz (c) elevada al cuadrado.

La ecuación E=mc2 no es, como en ocasiones se cree, la ecuación de la teoría de la relatividad. Es un resultado de dicha teoría, ciertamente, pero nada más. Parte de su encanto, muy probablemente, es su simplicidad: cinco símbolos con significado claro que chocan con los encerados pletóricos de símbolos extraños que suelen representar a los matemáticos y a los físicos.

Para entenderlo, veamos primero cómo medimos la energía La medida de la energía son los joules, o julios, denominados así en memoria del físico inglés James Prescott Joule. 1 joule es la cantidad de energía necesaria para elevar en 1 grado Celsius la temperatura de 1 kilogramo de agua, y se define como 1kg m2/s2, kilogramo por metro al cuadrado entre segundo al cuadrado.

Sabiendo cómo definimos la energía, pensemos ahora qué pasaría si convertimos 1 gramo de materia, un modesto y sencillo gramo de materia, en energía. Es decir, cuánta energía hay contenida en un gramo de cualquier cosa que queramos, un gramo que es igual a 0,001 kg. La energía (E) se obtendría multiplicando 0,001kg por la velocidad de la luz al cuadrado.

La velocidad de la luz es aproximadamente de 300.000 kilómetros por segundo, es decir, 300.000.000 metros por segundo

La operación sería, entonces E=0,001 kg x 300.000.000 m/s x 300.000.000 m/s

Lo que resulta en E=90.000.000.000.000 kg m2/s2 o simplemente joules.

Estos 90 billones de joules equivalen, a su vez, a la explosión de más de 21.000 toneladas de TNT. Para darnos una idea de lo que eso significa, la bomba atómica arrojada sobre Hiroshima liberó una energía explosiva de entre 13 y 18 mil toneladas de TNT, o kilotones.

En la reacción nuclear llevada a cabo en el interior de aquella atroz arma de destrucción masiva, menos de 1 gramo del uranio 235 que la componía se transformó en energía... y ello bastó para arrasar la ciudad y matar a más de 60.000 personas de inmediato. Es decir, la cantidad de energía concentrada en la masa es asombrosamente grande.

Más allá de medir el potencial destructivo, claro, E=mc2 nos dice que si pudiéramos controlar la liberación de energía de un gramo de masa obtendríamos 25.000.000 de kilovatio-horas de energía eléctrica. La energía eléctrica necesaria para encender 25 millones de bombillas de 100 vatios durante 10 horas.

La ecuación de Einstein, por tanto, nos decía que existe una fuente de energía abundantísima en la materia que nos rodea. La pregunta, claro, era cómo obtener esa energía. Desde que Cockroft y Walton ofrecieron la primera confirmación experimental de la equivalencia entre masa y energía, en 1932, gran parte del trabajo técnico se ha orientado a conseguir una buena solución técnica para obtener energía a partir de la masa.

Las centrales nucleares, que utilizan la fisión o división de los núcleos de materiales radiactivos para obtener energía, son una forma de rentabilizar, por así decirlo, la ecuación de Einstein. Pero la gran promesa para resolver las necesidades energéticas de la humanidad se encuentra en la fusión nuclear, el proceso de unión de dos núcleos para formar un elemento más pesado, que también libera una gran cantidad de energía.

El sol es un horno de fusión nuclear. Y es la ecuación E=mc2 la que explica cómo la fusión de átomos de hidrógeno para formar átomos de helio en las estrellas, incluida la nuestra, tiene la capacidad de producir tanta energía. La comprensión científica tanto nuestro sol como de todas las estrellas, e incluso el Big Bang como origen del universo, del espacio y el tiempo, requerían como antecedente fundamental la ecuación de equivalencia de masa y energía de Einstein.

Esta fórmula, además, es clave para explicar uno de los fenómenos más curiosos de la teoría de la relatividad de Einstein, y es el que establece que ningún objeto con masa puede alcanzar la velocidad de la luz: al añadir energía a un objeto, se hace aumentar su masa. Es decir que, por ejemplo, al calentar agua en un microondas, el agua adquiere una cantidad adicional de masa, así sea casi infinitesimal. Y lo mismo ocurre al acelerar cualquier objeto: hacemos crecer su masa.

Si aceleramos un objeto de tal modo que se aproxime a la velocidad de la luz, la aplicación de la energía hará que su masa crezca en consecuencia. A mayor energía, mayor masa y, por tanto, se necesita más energía para seguir acelerando el objeto. Al aproximarse a la velocidad de la luz, la masa de cualquier objeto tiende a infinito.

Dicho de otro modo, si aceleramos cualquier objeto con masa, así sea un grano de café, hasta que llegue a la velocidad de la luz, su masa sería infinita y ocuparía todo el universo.

Así que, aunque podamos buscar la forma de obtener energía abundante, limpia y barata a partir de la ecuación de Einstein, también ella nos dice que los viajes instantáneos por el universo están al parecer condenados a ser, para siempre, cosa de fantasía.

La ecuación y su creador

Sobre E=mc2, Einstein dijo: “De la teoría especial de la relatividad se seguía que la masa y la energía no son sino distintas manifestaciones de una misma cosa... un concepto más bien poco corriente para la mente promedio." Hoy, 105 años después de que enunciara la ecuación, quizá la “mente promedio” se haya acercado un poco a la genialidad del físico del peinado imposible.

Tim Berners-Lee, el señor WWW

Pocos hombres como el inventor de la World Wide Web han visto al mundo transformarse con el impulso de sus ideas.

Tim Berners-Lee en 2009.
(foto CC Silvio Tanaka, via
Wikimedia Commons)
Tim Berners-Lee cumplirá apenas 55 años en junio, pero su rostro es casi desconocido para la mayoría de las personas, y su nombre es apenas un poco más reconocible, aunque sin él no habría redes sociales ni páginas Web, ni buscadores, ni navegadores Web, ni desarrolladores para la Web, ni nuestra puerta a la información, la comunicación, el conocimiento y la diversión. Porque fue este personajequien creó lo que hoy conocemos como la World Wide Web.

Tim Berners-Lee nació en Londres el 8 de junio de 1955, hijo de dos informáticos de gran relevancia. Su padre, Conway Berners-Lee, es un matemático, ingeniero y científico informático que trabajó en la creación del Ferranti Mark 1, el primer ordenador elctrónico comercial con programas almacenados. En la fiesta de Navidad de Ferranti en 1952, Conway conoció a la madre de Tim, Mary Lee Woods, también matemática y una de las programadoras del Ferranti Mark 1.

Con esos antecedentes, no fue extraño que, después del bachillerato, el joven Tim pasara al afamado Queens College de Oxford, donde recibió un título de primera clase en física y se empezara a dedicar a la informática.

El hipertexto

En 1980, Berners-Lee fue contratado como proveedor para la Organización Europea para la Investigación Nuclear, CERN, donde propuso usar el hipertexto inventado por Ted Nelson (texto que incluye referencias o enlaces a otros documentos a los que el lector puede acceder), para que los científicos de CERN pudieran compartir datos. Para ello escribió el programa ENQUIRE, un software de hipertexto muy parecido a lo que hoy conocemos como “wiki”, cuyo ejemplo más conocido es la Wikipedia.

Después de trabajar algunos años en empresas privadas, Berners-Lee volvió a CERN como investigador del centro. CERN era, y sigue siendo ahora con el Gran Colisionador de Hadrones, el LHC, el mayor laboratorio de física de partículas del mundo. Ello implica que genera grandes cantidades de información que deben hacerse accesibles a los investigadores del centro y del mundo, y que tiene una gran relación con los centros de la física en todo el mundo, por lo que en 1989 CERN era el mayor nodo de Internet de toda Europa.

Pero era un Internet donde era difícil encontrar la información, con diversos protocolos o formas de comunicación, y que requería que sus usuarios conocieran lenguaje de programación para usar cosas como la transferencia de archivos por FTP, los grupos de noticias de Usenet e incluso el correo electrónico, todo lo cual ya existía.

Lo que no había era ordenadores comunes, programas comunes ni programas de presentación comunes para intercambiar información. Berners-Lee se planteó unir sus ideas sobre el hipertexto con Internet para enlazar la información y hacerla accesible. Su primera propuesta a CERN fue en marzo de 1989 y le siguió una versión refinada con ayuda de Robert Cailliau en 1990.

En 1990, Tim Berners-Lee creó los elementos esenciales de la red. El HTTP, o "Protocolo de Transferencia de HiperTexto”, las reglas según las cuales la forma se comunican y entienden las máquinas que solicitan algo mediante un enlace de hipertexto y las que lo sirven. El HTML, o “Lenguaje de Marcado de HiperTexto”, para incluir en el texto elementos de formato y enlaces a imágenes, gráficos y documentos que pueden estar en otras máquinas. Finalmente, el navegador interpreta el lenguaje HTML para presentarlo al lector, transmitir las solicitudes de los enlaces y recibir documentos e imágenes.

Había nacido la Web.

Una danza de millones y millones

El 6 de agosto de 1991, Berners-Lee escribió un resumen de su proyecto en el grupo de noticias alt.hypertext. Ese día, la World Wide Web se convirtió en un servicio público y, en el plazo de apenas cinco años, en una gran oportunidad de negocios donde han surgido fortunas fabulosas, como las de los creadores de ICQ, YouTube, FaceBook o Google.

Pero entre ellos no se cuenta Tim Berners-Lee.

En poco tiempo, se convirtió en preocupación principal del inventor que la Web se mantuviera libre, sin patentes ni regalías. Para ello, primero, Tim Berners-Lee regaló su invento al mundo, como lo hicieran en su momento Jonas Salk, creador de la vacuna contra la polio, y Alexander Fleming, descubridor de la penicilina. En segundo lugar, en 1994 fundó en el renombrado MIT (Instituto de Tecnología de Massachusets) el W3C o Consorcio de la World Wide Web, dedicado a crear estándares libres de regalías y recomendaciones para la red, que durante años ha dirigido desde una modesta oficina.

A los 54 años, el innovador británico ha reunido una impresionante cantidad de reconocimientos. En su país natal es Caballero del Reino, Orden del Mérito, miembro de la Royal Society y de varias sociedades más. La revista Time lo nombró entre las 100 personas más influyentes del siglo 20, ha obtenido reconocimientos en Finlandia, Estados Unidos, Holanda y España, donde la Universidad Poltécnica de Madrid lo nombró Doctor Honoris Causa en 2009.

Desde 2009 trabaja en el proyecto británico para hacer los datos de gobierno más accesibles y transparentes para el público en general, lo que se conoce como open government o gobierno abierto. Tal como quiere que sea la red, libre, sin censura, donde los proveedores ni controlen ni monitoricen la actividad de los internautas sin su permiso explícito.

Y, entretanto, se ocupa de lo que será la nueva era de la World Wide Web, según la concibe su creador: la Web Semántica, o Web 3.0, donde los datos no estarán controlados por las aplicaciones que están en red, sino que los propios datos estarán en red, para integrar, combinar y reutilizar los datos, una red de conceptos y no de programas.

Después de todo, Tim Berners-Lee tiene por delante muchos años para volver a sorprender al mundo y ponerlo de cabeza. Y siempre desde una modestia y falta de avaricia de la que tanto podrían aprender tantos.

Los nombres de la red

La World Wide Web (red a nivel mundial), pudo llamarse de muchas formas. Tim Berners-Lee quería destacar que era una forma descentralizada en la que cualquier cosa se podría enlazar a cualquier otra, y entre los nombres que desechó estuvo “Mine of information” (mina de información, cuyas siglas son MOI, "yo" en francés, que le pareció "un poco egoísta"), “The Information Mine” (la mina de información, que desechó porque sus siglas son, precisamente, su nombre, TIM) e “Information mesh” (malla de información, que le parecía que sonaba demasiado parecida a “mess”, confusión). Finalmente, el nombre se eligió porque la red es global, y porque matemáticamente es una red. Además, sentía Berners-Lee, una letra identificativa sería útil. Aunque sea difícil pronunciar WWW en casi todos los idiomas.

Transbordador espacial, fin de ciclo

Primera prueba de vuelo planeador del transbordador
Enterprise, que nunca llegó a ir al espacio.
(foto D.P. NASA, vía Wikimedia Commons)
El 12 de abril de 1981 se lanzó la primera misión del Transbordador Espacial, proyecto destinado a revolucionar la exploración espacial del país que había ganado la carrera a la Luna.

Entre septiembre y diciembre de 2010, a menos que el presidente Obama decida una ampliación, tendrá lugar el último viaje de estas naves, cerrando un ciclo en la exploración del espacio.

El Transbordador Espacial se diferencia de todas las anteriores naves espaciales en que sus principales componentes son reutilizables. Desde el vuelo de su primer astrounauta hasta 1975, las naves habían sido cohetes de varias etapas que se iban desechando conforme ascendían, hasta quedar únicamente la “cápsula” superior del cohete, donde viajaban los tripulantes.

La cápsula volvía a Tierra frenada por paracaídas y caía al mar, sin que se reutilizara tampoco ninguno de sus componentes.

Entre 1959 y 1963 hubo 6 misiones del programa Mercury de un solo tripulante. De 1963 a 1966 se lanzaron 10 misiones del programa Gemini, de dos tripulantes. Y de 1961 a 1972 hubo 17 misiones Apolo, 11 de ellas tripuladas con tres astronautas cada una y cuyo objetivo fue llegar (y volver en varias ocasiones) a la Luna. Tres misiones Apolo se cancelaron por recortes presupuestales.

Las cápsulas Apolo, con cohetes Saturno Ib, menos potentes que el Saturno V que las llevó a la luna, se utilizaron en 1973 en tres misiones a la malograda estación espacial Skylab y en 1975 protagonizaron el primer “encuentro orbital” con una cápsula Soyuz de la Unión Soviética.

Por cierto, todas las misiones tripuladas de la URSS hasta 1989 y de Rusia desde entonces, se han realizado con cohetes de etapas y cápsulas Sputnik, y desde 1963 en sucesivas versiones de las cápsulas Soyuz, para un total de más de 110 misiones orbitales.

Desde la década de 1960, sin embargo, la NASA trabajó en el diseño de una nave reutilizable, que en teoría haría menos costosos los vuelos y podría llevar una carga útil mayor. El diseño final fue lo que técnicamente se conoce como Sistema de Transportación Espacial, formado por un enorme tanque de combustible externo, dos cohetes impulsores sólidos y un vehículo orbitador dotado de tres motores propios y de una serie de pequeños motores impulsores que forman el sistema de maniobra orbital.

La secuencia de puesta en órbita es la siguiente: en el lanzamiento vertical de la nave entran en acción tanto los cohetes impulsores sólidos como los motores del orbitador, alimentados por el hidrógeno y el oxígeno que contiene el tanque externo. Unos dos minutos después del despegue, los cohetes impulsores sólidos se desprenden y caen al mar en paracaídas para ser rescatados y reutilizados.

El orbitador y el tanque siguen hasta llegar a la órbita que ocupará la misión. Entonces el tanque se desprende y cae a tierra, y aunque no se quema al reingresar a la atmósfera, no se reutiliza como tal en otra misión, pero sí se recicla para distintos fines.

El orbitador, que es lo que habitualmente conocemos como “transbordador espacial”, puede llevar hasta ocho astronautas, además de contar con un enorme compartimiento de carga de 18 por 4,5 metros dotado de un brazo robótico que se ocupa de manipular la carga. En este compartimiento de carga, por ejemplo, viajó el telescopio espacial Hubble. El brazo robótico del compartimiento puede además “capturar” vehículos para su reparación, como lo ha hecho con el propio telescopio Hubble, primero para repararlo y después para mejorar continuamente sus capacidades de exploración de nuestro universo.

Terminada su misión, el orbitador reingresa en la atmósfera. La parte inferior del vehículo está cubierta de ladrillos de cerámica altamente resistente al calor, que le permite sobrevivir a las elevadísimas temperaturas provocadas por la fricción en el reingreso. Una vez en la atmósfera, el vehículo puede corregir el rumbo con instrumental de vuelo y sus motores, pero esencialmente es un planeador que vuela sin potencia propia hasta aterrizar.

En total se construyeron seis orbitadores. El primero, el Enterprise, no tenía por objeto llgar a ponerse en órbita, y se usó únicamente para las pruebas atmosféricas. Curiosamente, su nombre fue elegido por la presión de los aficionados a la clásica serie de ciencia ficción Star Trek, cuya nave es, precisamente, el Enterprise. Los otros cinco orbitadores fueron el Challenger, el Columbia, el Discovery, el Atlantis y el Endeavour.

Dos de ellos sufrieron accidentes fatales.

El 28 de enero de 1986, podo después de su despegue, el transbordador Challenger se desintegró en vuelo a causa de una junta defeectuosa en uno de los dos cohetes impulsores sólidos, falleciendo los siete miembros de su tripulación.

El 1º de febrero de 2003, al reingresar a la tierra y pocos minutos antes de su aterrizaje, el transbordador Columbia se desintegró a causa de un pequeño trozo del aislante del tanque externo que se desprendió en el lanzamiento y golpeó el ala izquierda, dañando los ladrillos de cerámica térmica. Al reentrar en la atmósfera, las alas llegan a los 1.650 grados centígrados de calor, y en el proceso cayó uno de los ladrillos, lo que desencadenó el desastre en el que perecieron los siete astronautas de a bordo.

Criticado por su diseño, por no haber conseguido la relación costo-beneficio originalmente prometida y por sus problemas de seguridad, causantes de los dos desastres más costosos en vidas humanas de los programas espaciales, el transbordador espacial pasará a la historia sin embargo como la transición de la competitiva carrera lunar al esfuerzo cooperativo de la Estación Espacial Internacional.

Y, con un presupuesto total de 150 mil millones de dólares en su historia de casi treinta años de viajes espaciales, conviene recordar que los beneficios que ha aportado para el conocimiento, la industria y la tecnología es apenas una quinta parte de lo que ha costado la guerra de Irak desde 2001, y bastante menos de lo que han costado únicamente los rescates bancarios de la crisis financiera desde 2008 en todo el mundo, por mencionar dos ejemplos.

En realidad, un dinero bien invertido.

Después del transbordador

Durante al menos cinco años, Estados Unidos dependerá totalmente de las naves soviéticas Soyuz para sus misiones tripuladas, principalmente el envío de su personal a la Estación Espacial Internacional. Después entrará en acción el programa Orión, actualmente en desarrollo, cápsulas impulsadas por un cohete Ares I de dos etapas, la primera de las cuales es totalmente reutilizable. El vehículo Orión, el módulo de tripulación, es un regreso al concepto original de la cápsula espacial cónica, aunque ahora totalmente reutilizable salvo por el escudo térmico que la protege al reingreso. Si la política no dicta otra cosa, su primer vuelo será en 2015.