Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Cuando la tierra se mueve

En un gran terremoto, la sensación es de total indefensión: todo se mueve, incluso el suelo, y las construcciones más orgullosas del ser humano pueden venirse abajo.

Imagen de la NASA mostrando las placas tectónicas y
la actividad sísmica asociada a ellas.
(Imagen D.P. NASA vía Wikimedia Commons)
Los terremotos, impávidos causantes de pérdidas humanas y materiales, no son acontecimientos desusados: diariamente ocurren miles de ellos por todo el planeta, pero salvo unos 280, son imperceptibles para nosotros.

El primer sismo registrado en la historia humana se anotó en los Anales del bambú de la antigua China, y ocurrió en algún momento entre el 1600 y el 2200 antes de la Era Común. Y hubo por lo menos otros dos sismos famosos en Grecia. Uno, ocurrido en Esparta, en el 464 a.E.C., provocó la muerte de varios miles de espartanos y fue uno de los factores que desencadenó la guerra del Peloponeso, y el otro, el terremoto de Rodas del 226 a.E.C., que destruyó una de las grandes maravillas del mundo antiguo, la estatua del coloso de Rodas que guardaba su puerto.

Los terremotos pueden ser causados por la caída de meteoritos, erupciones volcánicas o desprendimientos de tierra. Pero la causa más común es la liberación de tensión en fallas geológicas o fracturas en la roca, especialmente en donde se encuentran las placas tectónicas que conforman la corteza terrestre. Los dos terremotos griegos mencinados ocurrieron en sistemas de fallas que siguen siendo hoy causantes de la sismicidad en la zona.

La corteza terrestre está dividida en decenas de placas, de las cuales siete son las más grandes y forman la mayor parte de la superficie de nuestro planeta. Estas placas se mueven sobre el manto terrestre chocando entre sí, rozando unas contra otras o incluso hundiéndose (o subduciéndose) una debajo de otra. Las colosales fuerzas que se ponen en acción en estas interacciones provocan tensiones que se liberan abrupta e imprevisiblemente en la forma de terremotos.

Es por ello que la mayoría de los terremotos se concentran en determinadas zonas concretas donde la actividad tectónica y volcánica son especialmente intensas, en particular el llamado “anillo de fuego”, un cinturón alrededor del océano Pacífico que sube desde el mar frente a Australia y recorre Japón y la costa oriental del continente Asiático para seguir por el estrecho de Behring y bajar por toda la costa occidental del continente americano, en las zonas más conocidas de actividad sísmica como California, México, Centroamérica, Perú, Bolivia y Chile.

Se calcula que más del 90% de los terremotos del mundo (y más del 80% de los de mayor violencia ocurren en el círculo de fuego, en el que se encuentra casi medio millar de volcanes, más de las tres cuartas partes de los que existen en todo el mundo. Esto se debe al choque y movimientos de al menos seis placas tectónicas.

La segunda zona de mayor sismicidad del mundo es la que se extiende de Java a Sumatra y cruza la cordillera de los Himalayas (creada precisamente por el choque de dos placas tectónicas) para cruzar el Mediterráneo y salir al océano Atlántico.

Una consecuencia especialmente aterradora de los terremotos son los tsunamis, que ocurren cuando un terremoto en alta mar provoca no sólo ondas en la tierra, sino lógicamente también en el agua. Se trata de olas de gran longitud que avanzan a casi 300 kilómetros por hora extendiéndose desde el punto del terremoto. Al llegar el valle de la ola a una costa, el agua baja notablemente de su nivel normal. Esto es una de las más fiables advertencias de que se producirá un tsunami al llegar a tierra la cresta de esa ola, que puede tener 30 metros o más, y en un plazo de alrededor de cinco minutos.

Detectar los terremotos y medirlos fue un desafío que encontró su primera respuesta en el año 132 a.E.C, cuando el mtemático Chen Heng creó su “veleta de sismos”, un recipiente con ocho dragones en el exterior, cada uno sosteniendo una bola de bronce en la boca. Al menor movimiento, un mecanismo de péndulos dentro del recipiente hacía que soltara su bola el dragón en cuya dirección estaba ocurriendo el terremoto. Si bien no podía mediar la intensidad del sismo, sí podía advertir al emperador en qué dirección se habían movido sus dominios.

Pero el estudio serio de los terremotos hubo de esperar a fines del siglo XIX, cuando se desarrollaron los primeros aparatos capaces de medir la intensidad o magnitud de los terremotos, y técnicas para detectar los terremotos ocurridos a gran distancia, cuando en 1899 se pudo registrar en Alemania un terremoto ocurrido en Japón.

A lo largo del siglo XX, el conocimiento de los sismos y de nuestro planeta se retroalimentaron para permitirnos avanzar tanto en la sismología como en la geología. El estudio de las ondas que se producen cuando hay un terremoto permitió que fuéramos sabiendo no sólo qué magnitud tenía, dónde había ocurrido y a qué profundidad de la corteza terrestre, sino que el estudio de sus variaciones permitió saber cuándo esas ondas cruzaban discontinuidades, pasaban por capas rocosas de distinta densidad o composición o se encontraban cavernas, de modo que funcionaban como los rayos X en una radiografía, revelándonos la forma y materiales de las zonas de nuestro planeta que no podemos ver.

La primera escala de magnitud útil para medir los terremotos la desarrolló en 1935 el sismólogo californiano Charles Richter, pero sólo era aplicable a los sismos ocurridos a cierta distancia del sismógrafo que había desarrollado el propio científico.

Actualmente, la magnitud de los sismos se calcula mediante complejas fórmulas que interrelacionan las ondas sísmicas profundas y las superficiales que pueden detectar los modernos aparatos, además de tener en cuenta las características geológicas de la zona donde se produjo el terremoto, su profundidad y su dispersión. Por ello, es inexacto referirse a la magnitud de los sismos como “escala Richter”, pues ésta como tal ya no se utiliza… salvo en California, donde siguen esperando “el gran sismo” resultado de las fuerzas que se acumulan en la falla de San Andrés, donde se encuentran la Placa del Pacífico y la Placa Norteamericana.

Los sismógrafos actuales, por cierto, son tan sensibles que se utilizan para detectar eventos de poca energía (comparados con los terremotos) como las pruebas nucleares que pueda intentar de modo secreto algún país.

Predicción de sismos

El conocimiento actual se puede conocer la probabilidad de que ocurran ciertos sismos de determinada magnitud en ciertas zonas, sigue siendo imposible predecir con exactitud cuándo y dónde va a ocurrir un terremoto, de modo que la única forma de enfrentar el principal desafío humano ante este evento de la naturaleza es realizar construcciones resistentes y capaces de manejar los sismos y, si uno vive en una zona sísmica, estar física y emocionalmente preparados para un acontecimiento a la vez impredecible e inevitable.

¿De dónde viene tu mano?

Podemos conocer muy bien, según la conseja, las palmas de nuestras manos. Pero conocer lo que hay debajo de la piel y su funcionamiento nos permite conocer cómo llegamos a ser humanos.

(Fotografía @ Mauricio-José Schwarz)
Con 29 huesos, 123 ligamentos y 34 músculos (varios de ellos situados en el brazo y conectados a la mano mediante largos tendones) , la mano es uno de los aspectos más distintivamente humanos de nuestra anatomía y, según los descubrimientos de la evolución reunidos en los últimos 150 años, uno de los responsables de nuestra diferenciación de los demás primates.

Lo que diferencia el aspecto de la mano humana del de otros grandes simios es que es más corta, con dedos más chatos, palma casi cuadrada en lugar de la más alargada de sus parientes y un pulgar relativamente más largo. Esta forma está al servicio de una funcionalidad que incluye una gran fuerza y un control mucho más fino de movimientos de los dedos para agarrar, pinzar y hacer otros movimientos enormemente delicados.

Las manos humanas se remontan a las aletas de animales como el Eusthenopteron, ancestros de los primeros seres que salieron del mar para conquistar la tierra hace entre 380 y 400 millones de años. Todos los huesos que hoy conforman nuestros brazos y manos (y nuestras piernas y pies, por supuesto) tienen ya representantes, en formas muy distintas, pero identificables, en las aletas de estos antiguos peces. Sus descendientes en la tierra fueron los tetrápodos, ancestros de todos los reptiles, anfibios, aves y mamíferos.

Bajo la presión evolutiva de muchas y muy diversas exigencias del medio y los nichos ecológicos que iban ocupando los animales, el diseño básico de los huesos de las aletas se fue modificando para cumplir distintas funciones, alargándose, acortándose, uniéndose mediante ligamentos, reforzándose unos con otros o especializándose para distintas funciones, como los dedos, y articulándose para hacer movimientos como los de nuestra muñeca.

Lo que en nosotros son brazos y manos son patas muy variadas: las de los plantígrados como el oso, que se apoyan en las plantas o palmas, las de los animales que se apoyan sobre cuatro dedos, como los felinos o los elefantes, los que usan las puntas de dos dedos, protegidas con pezuñas, como el caballo, las patas con garras que permiten a las ardillas subir por los árboles o las impresionantes patas de geco, capaz de adherirse a cualquier superficie. Son también las alas de las aves y de los murciélagos, y las aletas de los mamíferos que volvieron al medio acuático después de haber sido habitantes de la tierra.

La innovación que condujo a nuestras manos ocurrió hace 60 millones de años cuando la extinción de los dinosaurios favoreció la proliferación de distintos grupos de mamíferos que ocuparon los nichos dejados vacantes por los desaparecidos. Uno de esos grupos es el de los primates, al que pertenecemos los seres humanos, un nuevo modelo de mamíferos con buena vista estereoscópica, pues tienen un rostro plano con los ojos situados al frente, manos y patas muy flexibles y con un primer dedo más o menos oponible.

En los primates, sin embargo, las manos seguían siendo también patas delanteras, pues cumplían una importante función en la locomoción. Hace unos 4 millones de años, una especie llamada Australopitecus afarensis y cuyo más conocido representante es el esqueleto llamado “Lucy”, hizo algo que ninguno de sus parientes había hecho: se pusieron definitivamente de pie, liberando las manos, que así se pudieron desarrollar sin las limitaciones que implicaba tener que servir para la locomoción.

Por ejemplo, los chimpancés, nuestros más cercanos parientes evolutivos, tienen una gran capacidad de manipulación, pero sus manos les siguen siendo necesarias para andar, de modo que deben poder plegarse para apoyarse en los nudillos. El bipedalismo es el responsable de las notables diferencias entre la mano del chimpancé y la nuestra, desarrolladas en los apenas 7 u 8 millones de años desde que tuvimos el último ancestro común con ellos.

La liberación de la mano de sus responsabilidades locomotoras favoreció el uso de este apéndice para otras tareas: cargar, lanzar, aferrar y, sobre todo, empezar a utilizar herramientas. Quizá Lucy y sus parientes ya utilizaban herramientas naturales, como palos y piedras, pero debido a que no las alteraban dejando huella de su manipulación, el debate no está resuelto. Las primeras herramientas creadas a propósito aparecen hace 2,6 millones de años, creadas y utilizadas por nuestro ancestro directo, Homo habilis, que adquiere su nombre precisamente por su habilidad con las manos.

Además de agarrar, lanzar y manipular, algunos antropólogos han sugerido que la capacidad de hacer puños para golpear podría haber tenido también una influencia en la forma y uso de las manos. Todas esas habilidades, claramente, son resultado del surgimiento de una adaptación especialmente importante: el pulgar totalmente oponible. Para los antropólogos, esto significa que la pulpa o almohadilla suave (donde tenemos las huellas dactilares) del pulgar puede entrar en contacto plana o punta con punta con los otros cuatro dedos... que es lo que hacemos a veces cuando contamos hasta cuatro tocándonos las puntas de los dedos con el pulgar.

Para que el pulgar pudiera oponerse a los demás dedos y desarrollar la capacidad fina de movimiento, especialmente cuando forma una delicada pinza con el índice, hubo de crear músculos especiales que no tienen los pulgares de otros primates y que le permiten girar o bascular hasta tocar el otro extremo de la palma de la mano.

Por supuesto, al tiempo que se desarrollaba la peculiar anatomía de la mano iba evolucionando la capacidad de nuestro cerebro para controlar este delicado instrumento a través de una gran zona de la corteza motora.

El resultado lo podemos ver en todo lo que el ser humano ha hecho con sus propias manos: desde la construcción de grandes edificaciones hasta la pintura, desde la cirugía hasta el movimiento de un ratón sobre una pantalla. Hazañas del control fino de movimientos como la capacidad de pintar paisajes sobre un grano de arroz o exhibiciones de fuerza como las que nos ofrecen los escaladores de roca... porque la especie humana es lo que es fundamentalmente gracias a sus manos

Un gen de la aleta a la mano

A fines de 2012, un equipo de la Universidad Pablo de Olavide encabezado por Renata Freitas anunció que al estimular la actividad del gen 5’Hoxd en peces cebra favorecio que en el extremo de las aletas se desarrollara cartílago susceptible de convertirse en hueso. Esto sugiere que las mutaciones que favorecieron la expresión de ese gen fueron probablemente disparadores de la evolución de nuestras manos, sobre una base genética que seguimos compartiendo con otros vertebrados como los peces cebra.

De recursos a compañeros: los animales de servicio

Los animales de servicio son un caso singular en las relaciones que los humanos hemos establecido con otros animales a lo largo de la historia.

El mendigo ciego de Bethnal Green,
balada del siglo XVII ilustrada
con Henry de Monfort y su perro.
La imagen habría sido asombrosa hace pocas décadas. Una persona que por alguna causa no puede usar las manos, le da órdenes a un pequeño mono capuchino que recoge sus llaves, mete su comida al microondas, le lava la cara, abre la puerta o hace una enorme variedad de tareas en la casa. El paciente al que atiende el mono, víctima de amputaciones múltiples, de lesiones de la columna vertebral o de varias formas de degeneración muscular, tiene un compañero que es, al mismo tiempo, sus manos.

Curiosamente, además, se trata de un animal que no está domesticado, es decir, que técnicamente sigue siendo salvaje, aunque en todos los casos en que se han colocado estos monos con personas a las que cuidan, la relación ha sido constante y cordial, incluso durante más de dos décadas.

Esta peculiar relación simbiótica de humanos y monos es el más reciente capítulo de una historia que comenzó cuando el hombre por domesticó por primera vez a un animal, muy probablemente el perro, que se convirtió en un apoyo fundamental para los cazadores de hace más de 10.000 años, aunque hay indicios de que la relación pudo remontarse a 30.000, 80.000 años o más.

Después, el hombre domesticó a otros animales que no eran compañeros, sino presas que se criaron para que el acceso a sus recursos (carne, leche, pieles) no dependiera de las vicisitudes de la cacería.

Los siguientes animales domesticados, hasta donde hemos podido determinar, fue la oveja, que lo fue en el 8500 antes de la Era Común en Asia Occidental. Le siguió la cabra unos 500 años después, y en el 700 a.E.C. vendría el ganado vacuno, domesticado en el Sáhara Oriental y los pollos, originarios de Asia.

La domesticación es un proceso singular que implica que a lo largo del tiempo el ser humano aplica a una especie una cría selectiva que la altera genéticamente para adecuarla a sus deseos o necesidades, para que sea más dócil, más productiva, o se adapte a nuevos climas y alimentos, y que dependa del ser humano para su supervivencia. Es lo que hace al animal doméstico distinto del salvaje, al que se doma para acostumbrarlo a la compañía del ser humano sin alterar su genética, como se puede hacer con grandes felinos o con osos, que pese a la doma siguen siendo salvajes e impredecibles incluso con los humanos más cercanos.

La diferencia la ejemplifica bien el perro y el cerdo, que siguen siendo las mismas especies que el lobo y el jabalí, pero en variedades domésticas. Los perros se pueden cruzar con los lobos y los cerdos con los jabalíes, dando como resultado crías fértiles.

La utilidad de una variedad domesticada puede cambiar con el tiempo. La oveja pasó más de 2000 años como animal doméstico exclusivamente por su leche y carne, pero hacia el año 6000 los pastores empezaron a seleccionarla por su lana, consiguiendo pronto que sus animales tuvieran generosos vellones que eran la materia prima de la actividad textil. El perro, originalmente un animal estrictamente útil, pasó a ser criado como mascota, acompañante y ornamento. Otro ejemplo es la doble función del ganado vacuno, como fuente de carne y leche y también como fuerza motriz del arado desde hace 8 mil años en el antiguo Egipto.

Curiosamente, además, ningún animal importante ha sido domesticado en los últimos dos mil años.

Servicio y apoyo

Existe un documento chino que data del año 1200 y que muestra a un ciego guiado por un perro. En los siglos siguientes se encuentran ocasionales comentarios e imágenes en todo el mundo que hacen referencia a ciegos que se pueden desplazar gracias a la ayuda de perros, hasta el siglo XVIII donde tenemos ejemplos como la balada inglesa de “El mendigo ciego de Bethnal Green”, Henry de Monfort, que al quedar ciego se guiaba con un perro, o pinturas con ese tema de Serge Gainsborough o William Biggs.

Pero la forma en que los perros ayudaban a personas invidentes no estuvo organizada ni estructurada sino hasta que, en 1819, el austriaco Johann Wilhelm Klein, que estableció un instituto para los ciegos en Viena, dejó anotados sus planes para entrenar perros con objeto de que pudieran guiar a sus alumnos. En 1847, el suizo Jakob Birrer escribió acerca de sus experiencias con un perro al que entrenó personalmente y que le sirvió de guía durante cinco años.

Los perros guía se empezaron a hacer realidad con las observaciones del Dr. Gerhard Stalling, que atendía a soldados alemanes que habían quedado ciegos a resultas de heridas sufridas en la Primera Guerra Mundial. Los perros parecían cuidar especialmente de quienes los llevaban si éstos parecían desorientados. Stalling empezó a diseñar formas de entrenar perros para la tarea de guiar a los ciegos y en 1916 inauguró la primera escuela de perros guía en la ciudad de Oldenburg, que durante la siguiente década entrenó a varios miles de perros que sirvieron a invidentes de diversos países de Europa.

La escuela fue visitada por la millonaria estadounidense Dorothy Harrison Eustis quien entrenaba perros para competencia, y que a partir de 1927 empezó también a hacerlo para ciegos en Suiza, de donde la idea llegó a Estados Unidos en 1929 y a Gran Bretaña en 1931.

Si bien la relación entre el ser humano y el perro es especial y distinta de todas las demás del mundo animal, evidentemente la relación entre una persona y un animal que es sus manos, sus ojos o sus piernas (en el caso de los caballos) es aún más singular.

Los monos de servicio tienen una historia mucho más reciente. Fueron idea de Mary Joan Willard, una psicóloga experimental que empezó a trabajar en 1977 con dos monos capuchinos que habían sido utilizados en investigación. Ella y otros psicólogos consiguieron desarrollar un entrenamiento (que puede más de un año) para monos capuchinos que se convierten en las manos y, a veces, los oídos de las personas con las que trabajan. Son animales que pueden dar servicio durante 20 o 30 años y que establecen relaciones muy estrechas con las personas a las que cuidan. Aunque no lo pueden hacer todo y los parapléjicos aún necesitan ayuda humana, los monos vuelven a poner a su alcance muchas tareas cotidianas en las que no solemos pensar. Por ejemplo, rascar a su dueño cuando tiene comezón.

Algo que no parece trivial cuando recordamos aquellos picores que por alguna causa no podemos rascarnos cuando lo deseamos.

Los caballos en miniatura

Los caballos enanos o ponys son el más reciente añadido al grupo de los animales de servicio. Pueden tirar de carretillas o sillas de ruedas, ayudar a caminar a personas con problemas de movilidad e incluso servir como guías para ciegos, una opción que puede ser útil para quienes necesitan un animal guía pero son alérgicos a los perros.

Plutón: el planeta que ya no es

El ajuste en la definición de "planeta" resultó en una discusión popular poco común acerca de un cuerpo celeste.

Fotomapa de Plutón formado a partir de imágenes tomadas
por el telescopio Hubble. (Foto DP de la NASA,
vía Wikimedia Commons)
A fines de la década de 1990, cuando se rediseñó el Planetario Hayden del Museo Estadounidense de Historia Natural de Nueva York, su director el astrofísico Neil deGrasse Tyson, decidió no incluir a Plutón entre los planetas del sistema solar.

¿El motivo? Plutón es demasiado pequeño y demasiado distinto a los otros ocho planetas de nuestro sistema solar. De hecho es más pequeño incluso que nuestra Luna, con sólo el 66% de su diámetro. Al paso de los años se han descubierto otros cuerpos de tamaño similar en la región donde se encuentra Plutón, el llamado “cinturón de Kuiper”. Incluso uno de ellos, Eris, descubierto en 2005, es más masivo que Plutón. Y ninguno de ellos cumple con uno de los requisitos que los científicos han establecido para darle a un cuerpo la categoría de planeta: su atracción gravitacional es tan pequeña que no han “limpiado” la órbita que recorren.

El asunto trascendió a los medios cuando el diario The New York Times publicó, en enero de 2001, el artículo “¿Plutón no es un planeta? Sólo en Nueva York”, desatando un pequeño escándalo. El artículo subrayaba que ya se había propuesto alguna vez a la Unión Astronómica Internacional, con sede en París, retirar a Plutón de la lista de planetas y definirlo como “objeto transneptuniano”.

El problema se complicó cuando en 2006 la misma Unión Astronómica Internacional decidió que quienes opinaban como el Dr. deGrasse Tyson, quien ciertamente no había sido el primero en proponerlo, tenían razón, y reclasificó a Plutón en una nueva categoría, la de “planetas enanos” junto con Eris, Ceres, Haumea y Makemake, los conocidos hasta ahora. El principal proponente del cambio fue, precisamente, uno de los descubridores de Eris, el astrónomo Mike Brown, quien después escribiría un libro relatando la historia con el título de “Por qué maté a Plutón y por qué se lo merecía”.

Sin embargo, para el público estadounidense, Mike Brown no era nadie, mientras que Neil deGrasse Tyson era un personaje conocido como divulgador y educador científico, con frecuente presencia en los medios de comunicación y un estilo imponente y divertido para comunicar asuntos de ciencia al público en general. Así que el público estadounidense en general culpó a Tyson. Siguieron airadas cartas de niños que le reclamaban la degradación de Plutón afimando “Plutón es mi planeta favorito”.

El amor de los estadounidenses por el pequeño explaneta, incluso, dio pie a que Tyson escribiera otro libro: “Los archivos de Plutón: ascenso y caída del planeta favorito de los Estados Unidos”.

El planeta estadounidense

Una de las razones por las cuales Estados Unidos mantenía un cariño especial, así fuera extraño, por Plutón, era que había sido el único planeta descubierto... por un estadounidense. En 1930, el astrónomo autodidacta Clyde Tombaugh, recién empleado en el Observatorio Lowell de Arizona, descubrió a Plutón.

No fue un descubrimiento fortuito. El matemático francés Urbain Le Verrier había predicho su existencia en 1840, basado en sus cálculos sobre las perturbaciones de la órbita de Urano. El fundador del observatorio, Percival Lowell, tenía como uno de sus objetivos hallar ese cuerpo llamado por entonces el “Planeta X”. Tombaugh terminó el trabajo y su historia adquirió un tono aún más romántico cuando la convocatoria mundial para bautizar al nuevo planeta fue ganada por una niña británica de 11 años que propuso precisamente “Plutón”. Ese mismo año, los estudios de Walt Disney presentaron a la mascota del ratón Mickey, el perro “Pluto” (Plutón en inglés).

Y 11 años después, un grupo de químicos de la Universidad de California en Berkeley daba el nombre de “plutonio” a un elemento que habían descubierto.

Pero el planeta ya era problemático. Dado que nos separa de él una enorme distancia (su distancia media del sol es de 40 veces la distancia de la Tierra al Sol), es difícil calcular con exactitud su mada y su tamaño. Originalmente, en la década de 1930, se calculó que tenía una massa equivalente a la de la Tierra, pero conforme avanzaban los estudios, la estimación se fue reduciendo. En 1948 ya se le atribuía una masa similar a la de Marte, y en 1976 se sugirió que podría tener una masa de apenas 1-2% de la de la Tierra.

En 1978, James Christy descubrió que Plutón tenía una luna , Caronte. Esto permitió realizar cálculos más precisos con el resultado de que la masa de Plutón era del 0,24% de la masa de nuestro planeta. Ya por entonces comenzó el debate sobre la clasificación de este cuerpo pues más que un planeta con un satélite parecía un sistema de planetas binario.

Dada su distancia del sol, el año plutoniano (el tiempo que tarda en dar una vuelta completa al sol en su órbita) es de algo más de 247 años terrestres, es decir, que desde su descubrimiento Plutón ha dado apenas un tercio vuelta al sol, mientras que una rotación completa alrededor de su propio eje tarda únicamente algo más de 6 días y 9 horas de la Tierra.

Precisamente por esa distancia, en las placas fotográficas de los observatorios terrestres Plutón es apenas una mancha difusa, y lo que sabemos del planeta es muy escaso. No fue sino hasta que el telescopio espacial Hubble lo observó que pudimos tener una imagen medianamente nítida de él. Además, el Hubble permitió el descubrimiento, en 2005, de dos lunas más de Plutón, añadiendo otra en 2011 y una más en 2012.

Para subsanar esa ignorancia, en enero de 2006, pocos meses antes de que Plutón pasara a ser considerado un planeta enano, la NASA lanzó la sonda robotizada New Horizons (nuevos horizontes) con destino final en el cinturón de Kuiper y en Plutón, llevando a bordo numerosos instrumentos destinados a observar a los objetos de la zona, estudiar sus atmósferas, explorar su geología y medir su interacción con el viento solar, esas partículas que nuestra estrella lanza al espacio continuamente.

Porque para conocer mejor a Plutón y saciar nuestra curiosidad sobre él y sobre todos los demás cuerpos del sistema solar, no hace falta que sean planetas.

Las lunas de Plutón

Además de Caronte, que es el mayor, Plutón tiene otros cuatro satélites, el último descubierto en 2012: Nix, Hidra, Kerberos y Estigia, todos ellos nombres relacionados en la mitología griega con Plutón, el dios del Hades, inframundo donde habitan las sombras de los muertos. Caronte era el barquero que llevaba a las almas de los muertos a los dominios de Plutón cruzando el río Estigia, mientras que Kerberos o Cancerbero era el guardián de las puertas del Hades que impedía que los muertos huyeran, ayudado por Hidra, la serpiente de muchas cabezas. Nix, por cierto, era la madre de Plutón.

La talidomida y la farmacóloga rigurosa

Su compromiso con el método y el rigor de la ciencia llevaron a una revolución que ha beneficiado a todos los consumidores de medicamentos en los últimos 50 años.

La Dra. Frances Oldham Kelsey
(Foto D.P. US FDA, vía Wikimedia Commons)
En 1960, Frances Oldham Kelsey era una de las apenas 7 personas encargadas por la Administración de Alimentos y Medicamentos (FDA) de los Estados Unidos de aprobar las solicitudes para la comercialización de medicamentos. Llevaba sólo una semana en su pequeña oficina cuando le llegó la solicitud de aprobación de un nuevo medicamento, el Kevadon, un tranquilizante y analgésico dirigido a tratar las náuseas matinales de mujeres embarazadas... y se rehusó a aprobar el producto, cuyo nombre técnico era “talidomida”, por falta de estudios y datos.

La canadiense de 46 años no era una simple burócrata. Nacida en Vancouver en 1914, había estudiado farmacología en la Universidad de McGill en Montreal y después entró como estudiante de posgrado al nuevo Departamento de Farmacología de la Universidad de Chicago, donde el investigador E.M.K. Geiling la aceptó pensando que era un hombre que escribía mal su nombre “Francis”.

Frances fue asistente de Geiling cuando éste fue encargado de averiguar las causas de 100 muertes relacionadas con el llamado Elíxir Sulfanilamida. El medicamento pertenecía al grupo de las sulfas o sulfonamidas, descubiertas apenas en 1935 y que eran los primeros antibióticos comercialmente disponibles (la penicilina, ya descubierta por el escocés Alexander Fleming, no llegaría al mercado sino hasta 1945). Geiling descubrió que la causa de las muertes era el glicol dietileno utilizado para disolver la sulfanilamida. Nadie sabía hasta entonces que el glicol dietileno era tóxico.

El resultado fue la primera legislación estricta sobre la autorización de medicamentos, alimentos y cosméticos en los Estados Unidos.

Frances obtuvo su doctorado en farmacología a los 24 años, con un interés especial en los factores responsables de las malformaciones genéticas y se quedó en la universidad como profesora y realizando sus estudios de medicina.

Después fue editora de la Asociación Médica Estadounidense (AMA), evaluando los testimonios que los médicos escribían sobre determinados medicamentos, donde identificó a algunos médicos que hacían de redactores a sueldo de los laboratorios y siempre daban testimonios favorables. Pasó a trabajar a la Universidad de South Dakota de 1954 a 1960, y de allí pasó a la FDA y a su encuentro con la talidomida.

El medicamento había sido desarrollado en 1954 por los laboratorios alemanes Grünenthal GmbH y su uso se había autorizado en Canadá y en más de 20 países de Europa y África. La empresa estadounidense Richardson Merrell deseaba producirlo y comercializarlo en Estados Unidos como tratamiento de las incomodidades del embarazo.

Pero Frances Oldham notó que algunos de los médicos que daban testimoniales favorables eran los redactores a sueldo de algunos laboratorios que había conocido en su trabajo en la AMA. Un análisis más a fondo fue encendiendo las alarmas sucesivas: los estudios de toxicidad crónica del nuevo medicamento no habían durado lo suficiente, no había datos suficientes sobre cómo el cuerpo del paciente lo absorbía y cómo se deshacía de él, los estudios en animales y los estudios clínicos no eran lo bastante detallados y la documentación era insuficiente y contradictoria.

Sólo como un ejemplo, en los estudios con ratas no se había encontrado que hubiera una dosis tan alta que fuera letal, y la sustancia no provocaba sueño en estos animales. Esto podía interpretarse como una alentadora inocuidad del producto, pero también podía significar que el metabolismo de las ratas no podía absorber la talidomida, mientras que el humano claramente lo hacía.

Frances le dijo a la compañía que se necesitaban más datos y marcó la solicitud como incompleta.

La empresa respondió presionándola e intentando intimidarla, llamándola a su casa, pidiéndole que dijera cómo reescribir las instrucciones a los pacientes, ofreciendo darle datos informalmente por teléfono o de modo privado, pero sin documentación de apoyo.

La doctora Oldham se afirmó en su posición y rechazó una segunda solicitud del laboratorio también por estar incompleta.

En febrero de 1961 Kelsey obtuvo los primeros informes de que la talidomida provocaba la inflamación de los nervios del sistema periférico, provocando problemas funcionales y dolor. Y si afectaba los nervios de los adultos, ¿qué riesgo tenía para los fetos en formación?, se preguntó la revisora. Ella había visto, como investigadora, medicamentos capaces de traspasar la barrera placentaria, ¿tenía datos el laboratorio de que la talidomida no pudiera hacerlo? Saberlo exigiría tiempo y dinero que la empresa no quería invertir.

En total, Frances Oldham rechazó la solicitud seis veces entre 1960 y 1961 pese a las presiones de la poderosa compañía. En noviembre de 1961 estalló el escándalo: numerosos defectos congénitos, principalmente graves malformaciones producto del desarrollo incompleto de las extremidades, aparecían vinculados a la talidomida en Europa. El medicamento fue retirado del mercado alemán a fines de 1961 y a principios de 1962 Richardson-Merrel retiró su solicitud de comercialización.

De los más de 10.000 niños afectados en todo el mundo, sólo 72 fueron estadounidenses, debidos a la distribución “experimental” del medicamento por parte de la empresa.

En 1962, Frances Kelsey Oldham recibió de manos de John F. Kennedy la Medalla del Presidente al Servicio Civil Distinguido por su buen juicio y su valor al resistir las presiones corporativas.

Frances siguió trabajando en la FDA hasta 2005, cuando se retiró a los 90 años de edad, diseñando nuevos y mejores mecanismos de autorización de medicamentos, exigiendo que demuestren su seguridad y efectividad, la obtención del consentimiento informado de los pacientes en los estudios clínicos de potenciales medicamentos y que las reacciones adversas se reporten bajo pena de graves sanciones. Sus mecanismos han sido adoptados por prácticamente todo el mundo, mejorando continuamente la seguridad de los medicamentos que consumimos.

Al escribir estas líneas, Frances Oldhan Kelsey sigue vive en su casa de Maryland, con 99 años de edad, un ejemplo del profesionalismo de la ciencia y su compromiso con el bienestar de los seres humanos.

La talidomida hoy

Después de haber sido prohibida en los 60, la talidomida hoy se está explorando como un medicamento útil en el tratamiento de ciertos tipos de cáncer y como coadyuvante en la quimioterapia. También ha demostrado promesa en el tratamiento ciertos efectos que algunas víctimas del VIH sida sufre después de comenzar la terapia antirretroviral. Después de todo, como muchos otros medicamentos de hoy en día, simplemente tiene una importante contraindicación: el embarazo.

La era espacial, parte II

El futuro de la exploración espacial puede estar lejos de los cohetes tradicionales... y más cerca de la empresa privada.

El revolucionario motor Sabre británico.
(Foto CC del Museo de Ciencia de Londres, vía Wikimedia Commons)
El espacio siempre ha sido un sueño costoso. Principalmente por la energía necesaria para arrancar cualquier objeto o ser vivo de la influencia gravitacional de nuestro planeta.

Hoy, poner en órbita un kilogramo de peso cuesta unos 20.000 euros, mucho dinero pero ciertamente una bicoca comparado con los más de 50.000 euros que costaba en el pasado, cuando el dinero valía mucho más. Y poner un kilo de peso en la Luna costó diez veces más.

Como comparación, un kilo de oro cuesta actualmente unos 47.000 euros. Así que es mucho más barato darle a alguien su peso en oro que ponerlo en órbita, aunque sea baja, donde se encuentra la Estación Espacial Internacional. Para llegar a órbitas de mayor altura, como aquéllas donde se encuentran los satélites responsables de nuestras comunicaciones y nuestros GPS, la factura se dispara.

Se necesita mucho combustible para levantar ese kilo. Y más combustible para levantar el peso del propio combustible y los tanques que lo contienen. Para poner en la Luna a 3 astronautas con un peso combinado de 250 kg en un módulo de comando y descenso lunar de 45.000 kg, se requirió un cohete Saturno V con dos millones ochocientos mil kg de peso.

Por ello, la era espacial que se inauguró con el lanzamiento del Sputnik en 1957 está buscando una refundación renovadora... y menos costosa.

Se están desarrollando dos estrategias principales. Una continúa principalmente la inversión pública en la UE, Gran Bretaña, Japón y China, buscando mayor eficiencia. La segunda, promovida principalmente por Estados Unidos, es poner el espacio en manos de empresarios privados... el libre mercado en gravedad cero.

El Sabre británico

Cuando la exploración espacial era sólo un vago proyecto, el presidente estadounidense Dwight D. Eisenhower desarrolló un plan en el cual las fronteras más allá de nuestro planeta serían exploradas primero por naves robóticas a las que seguirían humanos en elegantes espacioplanos o aeroplanos espaciales, que podrían despegar de tierra, ir hasta el espacio y volver sin tener que quemar etapas (como los cohetes tradicionales) o usar tanques y motores externos (como haría el transbordador espacial), que llevan consigo además del combustible (hidrógeno líquido) el agente oxidante que los hace funcionar, el oxígeno.

El gobierno británico apuesta por una versión siglo XXI del espacioplano de Eisenhower, con el nombre “Skylon”, un avión espacial que, dicen sus creadores, podría poner gente en órbita en sólo 15 minutos, bastante menos de lo que se tarda un vuelo Madrid-Barcelona y que sería totalmente reutilizable, un paso adelante de los cohetes de un solo uso y de la reusabilidad limitada del transbordador espacial.

Es lo que técnicamente se conoce como vehículo SSTO, siglas de “una sola etapa para entrar en órbita”.

La clave del Skylon es un innovador motor llamado “Sabre”, que significa “sable”, pero que está formado por las siglas en inglés de “motor cohete sinergético respirador de aire”, lo que hace referencia a que no lleva oxidante, sino que absorbe el aire de la atmósfera para cumplir ese papel... al menos mientras está dentro de la atmósfera. Una vez a cierta altura, utilizaría sus propios suministros para impulsarse, pasando de una función de turbina a la de cohete.

¿Por qué no se han utilizado las turbinas de los aviones tradicionales a reacción para ir al espacio? Básicamente porque no pueden ir más allá de un cierto punto sin sobrecalentarse. Por ello, la gran innovación de la empresa que ha diseñado el Sabre es un sistema de refrigeración que creen que puede permitir el gran salto.

Y la ESA, la agencia espacial europea, también lo cree, después de hacer pruebas de factibilidad de la tecnología fundamental del cohete. Gracias a ello, el gobierno británico ha aportado varias decenas de millones de euros para el desarrollo del proyecto, que se espera entre en período de pruebas en 2019 con la meta de hacer su primera visita a la Estación Espacial Internacional en 2022.

Sólo hay otro proyecto de SSTO en desarrollo en el mundo. Es el de la asociación rumana para la cosmonáutica y la aeronáutica, ARCA, que utiliza un globo aerostático para elevarse hasta el punto en el que puede disparar sus cohetes y lanzarse al espacio.

La empresa que desarrolla el cohete Sabre es una empresa privada que recibe fuerte financiamiento público. ARCA es una ONG. En Estados Unidos, el impulso a los avances del espacio pertenece hoy y desde el vuelo del último transbordador, únicamente a la empresa privada, con mínimo financiamiento gubernamental.

XCOR Aerospace está desarrollando un espacioplano llamado Lynx (lince), pero es de sólo dos plazas (piloto y pasajero), hará sólo vuelos suborbitales y su principal objetivo es hacer negocio con turistas espaciales dispuestos a pagar más de 70.000 euros por viaje. También suborbital y también pensados para el turismo, están los proyectos SpaceShip Two, diseñado por Virgin Galactic, la empresa del peculiar multimillonario Richard Branson, y Armadillo, un cohete de despegue vertical.

En las grandes ligas de los vuelos orbitales que necesita la Estación Espacial para mantenerse operativa y tripulada, además de que son los que ponen en órbita los satélites que utilizamos, están la compañía ATK, cuyo sistema de lanzamiento Liberty (Libertad) empezará a hacer vuelos de prueba en 2014; Blue Origin, del fundador de Amazon Jeff Bezos que constará de una etapa reutilizable y un vehículo para hasta siete pasajeros; Dream Chaser, un pequeño espacioplano que espera entrar en operación para 2016, y la cápsula CST-100 del gigante aeroespacial Boeing, destinada específicamente a atender a la estación espacial.

De momento, la organización que va al frente de la carrera privada por el espacio en lo referente a Estados Unidos es SpaceX, empresa cuya cápsula parcialmente reutilizable llamada Dragon fue la primera nave espacial comercial que llegó a la estación espacial el 25 de mayo de 2012.

Pese a los éxitos, las empresas que han entrado en el negocio espacial en la tierra del rock’n roll siguen dependiendo de contratos gubernamentales y subsidios para poder seguir adelante con sus proyectos. Pero, de una u otra forma, el futuro de la exploración espacial, de la puesta en órbita de nuestros aparatos y de los viajes al espacio, tendrá un rostro muy distinto del que fue habitual en la segunda mitad del siglo XX.

Los otros jugadores

Fuera de Estados Unidos, otras empresas privadas están tratando de hacerse un lugar en la exploración espacial en muchos otros países, aunque con dimensiones y alcances mucho más modestos, en Bélgica, Noruega, Francia, Japón, e, inesperadamente, la Isla de Mann.

Herencia y síndrome de Down

La herencia de todos los seres vivos se logra con un mecanismo asombrosamente preciso, pero que en ocasiones falla, presentando un desafío para investigadores y médicos.

Un cariotipo de un paciente de Down muestra los tres
cromosomas 21 responsables del síndrome.
(Imagen D.P. del gobierno de los EE.UU. vía Wikimedia Commons) 
La reproducción sexual es una delicada maquinaria gracias a la cual se combinan los genes de los padres y se mutiplica la diversidad de las características genéticas mejorando las posibilidades de éxito de la especie.

Los cromosomas que llevan nuestra carga de ADN se presentan en pares. Si nuestras células, normalmente, se dividen duplicando todas sus características, incluidos los 23 pares de cromosomas que nos identifican individualmente, las células reproductoras se desarrollan de otra forma: los óvulos y los espermatozoides no se duplican, sino que en su última etapa separan su carga genética de modo que cada uno tiene uno de cada par de cromosomas. Al unirse las células de dos padres se forma una nueva con 23 pares de cromosomas, la base que, al desarrollarse, dará lugar a un individuo nuevo y diferente de sus padres.

Por ejemplo, en el cromosoma 9 de los 23 que tenemos los seres humanos hay un gen que determina si tenemos tipo de sangre AB, A, B o 0 (cero, no la letra “O”, como suele creerse), según la herencia de cada uno de nuestros padres.

Hay enfermedades, afecciones o trastornos que dependen de las alteraciones de los genes, mutaciones concretas que se pueden heredar.

Pero hay otras afecciones que son producto de fallos al dividirse las células reproductoras, cuando puede haber cromosomas de más trisomías, si son tres, tetrasomías si son cuatro, etc.) o de menos (monosomías).

El ejemplo mejor conocido de las trisomías, que es al mismo tiempo la más común de las anormalidades cromosómicas pues ocurre en 1 de cada 800 nacimientos, es el síndrome de Down, debido a una copia adicional del cromosoma 21, por lo que se le conoce también como “trisomía 21”.

De John Langdon Down a la promesa del tratamiento

No sabemos cuántas personas padecieron el síndrome de Down antes del siglo XIX, ni qué percepción tenía de ellos su sociedad. ¿Eran sólo considerados un poco lentos? ¿Eran violentamente rechazados? ¿Eran aceptados con más o menos recelo?

El motivo de nuestra ignorancia es que hasta el siglo XIX no se habían reconocido como una unidad las características que distinguen a quienes lo padecen. En 1838, el psiquiatra francés Jean Etienne Dominique Esquirol hizo la primera descripción del síndrome o conjunto de signos y síntomas de una afección. En 1844 hubo otra descripción clínica a cargo de Édouard Séguin y, finalmente, John Langdon Down hizo en 1866 la más completa descripción de la trisomía 21, que desde entonces es conocida con su nombre, “síndrome de Down” o, simplemente, “Down”. Tuvo que pasar casi un siglo para que el genetista Jérôme Jean Louis Marie Lejeune descubriera la causa de este trastorno: el cromosoma adicional del par 21.

El cromosoma adicional puede provenir del padre o, en la mayoría de los casos, de la madre, y es más frecuente cuando la madre tiene más de 35 años. Sin embargo, esto no quiere decir que la mayoría de las madres de niños con Down tengan más de 35 años, sino sólo que estadísticamente aumenta la probabilidad. De ahí en fuera, el Down afecta de modo igual a personas de todos los orígenes étnicos, edades y situaciones socioeconómicas. No se puede evitar y ciertamente no es “culpa” de nadie.

Las personas afectadas con síndrome de Down tienen un perfil facial distintivo, con el puente nasal plano, nariz pequeña, ojos almendrados con un pliegue característico en la esquina interior del ojo, boca pequeña, un gran espacio entre el dedo gordo del pie y los demás, manos anchas y una talla y peso inferiores al promedio al momento de nacer. Pero dado que otras personas sin la trisomía 21 pueden presentar estas características, es necesario hacer un estudio de sus cromosomas para confirmar o rechazar el diagnóstico.

Y el diagnóstico es necesario porque las personas con Down son propensas a problemas cardiacos, de oído y de vista, trastornos de la tiroides, deficiencia inmunológica y problemas respiratorios y gastrointestinales.

Los afectados por síndrome de Down además se caracterizan además por una buena disposición emocional, son afables y afectuosos, y muestran deficiencias cognitivas que pueden ir de moderadas a graves. Pero ni ellos ni sus familias, con gran frecuencia, se consideran “enfermos” en sentido estricto, sino únicamente diferentes. Y aunque en el pasado tenían una esperanza de vida menor a la del resto de la población, esto ha cambiado hasta que hoy se aproximan bastante a la esperanza media de vida.

Sin embargo, al ser los representantes más visibles del “retraso mental”, los afectados por Down fueron, a principios del siglo XX, objeto de acciones atroces como la esterilización forzada en países que adoptaron las creencias eugénicas (la idea de mejorar las características de la población eliminando del fondo genético a quienes se percibía como inferiores, una posición política apenas disimulada con malas interpretaciones del conocimiento científico) e, incluso, el exterminio masivo en la Alemania nazi. La denominacion racista “mongoloide” que se impuso a las víctimas de este trastorno desde la descripción de John Langdown Down no fue eliminada sino hasta la década de 1960.

Pese a que las personas con Down pueden vivir vidas plenas, felices y satisfactorias, existe la esperanza de desarrollar tratamientos que puedan paliar esta condición. La más reciente aproximación exitosa implica la utilización de la terapia genética, mediante la cual un equipo de investigadores de la escuela médica de la Universidad de Massachusets insertaron un gen llamado XIST en células madre de una persona con Down. El XIST consiguió, en el laboratorio y con células en cultivo, desactivar o “silenciar” la copia extra del cromosoma 21.

Es apenas un principio, pero es un ejemplo más de cómo la medicina genética va demostrando, paso a paso, que puede combatir incluso las afecciones más profundas, aquéllas que están en nuestra misma composición genética y cromosómica.

Y de paso nos recuerda que esa composición genética no es forzosamente determinante, es sólo la base sobre la cual construimos lo que somos cada uno de nosotros.

El mito XYY

Una trisomía que ha sido objeto de una leyenda negra es la XYY, en la cual existe un cromosoma Y, masculino, adicional. Además de un ritmo de crecimiento acelerado en la adolescencia, no hay ninguna anormalidad detectable en quienes lo padecen (aproximadamente 1 de cada 1.000 hombres). Sin embargo, estudios incompletos mal interpretados por los medios dieron pábulo a la creencia de que los hombres XYY tienden a ser más asociales y violentos que la media de hombres con cromosomas XY. Pese a que el mito se demostró falso en 1969, ha persistido.

De la cerradura a la contraseña y más allá

Proteger nuestras posesiones, físicas o inmateriales es una de nuestras principales preocupaciones e inspiración de los más diversos métodos de garantizar su seguridad.

Llaves romanas de hierro del siglo II-III de la Era Común.
(Foto CC de Matthias Kabel vía Wikimedia Commons)
Todo a nuestro alrededor está salvaguardado con cerraduras, pestillos, combinaciones y contraseñas, todo destinado a mantener a salvo de las personas incorrectas todos nuestros bienes, sean nuestra información personal o los grandes secretos de gobiernos y empresas.

El otro lado de esta preocupación lo conforman, por supuesto, quienes buscan hacerse de nuestros bienes.

Quizá esta guerra comenzó cuando nuestros ancestros quisieron poner a salvo sus bienes, ocultándolos acaso en un agujero o sitio insospechado. Pero bastaba que el ladrón conociera el lugar secreto para que se hiciera con ellos. Se precisaba un sistema más seguro, una combinación de un cierre y algo único que lo pudiera abrir: una llave.

Hay evidencias de cerraduras de hace más de 4.000 años en Egipto, y la primera encontrada hasta ahora, de madera, es del año 700 antes de la Era Común y se halló en lo que hoy es Khorsabad, capital de la antigua Asiria. Su mecanismo es muy similar al de la cerradura de tambor de pines común en la actualidad: unos tacos de madera tenían que alinearse con una enorme llave también de madera para que pudiera girar el pestillo.

Los romanos tomaron los diseños egipcios usando hierro y bronce en lugar de madera para la cerradura y la llave. Estas cerraduras sirvieron para salvaguardar, más o menos, las posesiones humanas hasta que, en 1778, Robert Barron creó una nueva cerradura de cilindro de pines y disparó una serie de innovaciones que siguen sucediéndose hasta llegar a la tarjeta con chip o banda magnética, cuya información es leída para darnos, o negarnos, acceso a lugares o servicios como nuestra cuenta bancaria.

Las cerraduras de combinación, conocidas desde el imperio romano, fueron objeto del interés de ingenieros árabes medievales y estudiosos del Renacimiento, pero no se popularizaron sino hasta el siglo XIX, cuando se dio una plaga de ladrones capaces de abrir con ganzúas las cerraduras de la época y el alemán Joseph Loch le dio a la joyería Tiffany’s de Nueva York una cerradura de combinación segura y eficiente.

Sobre estas bases, en los albores de la informática, se hizo evidente que era necesario tener un sistema llave y cerradura para evitar los accesos no autorizado a programas, datos y demás servicios. Las contraseñas fueron utilizadas por vez primera en el sistema operativo llamado Sistema de Tiempo Compartido Compatible, el primeros que podía ser utilizado por varios usuarios al mismo tiempo, compartiendo su tiempo, y que se puso en marcha en el legendario Massachusets Institute of Technology en 1961.

Este sistema, CTSS por sus siglas en inglés, fue pionero en muchos aspectos que hoy nos resultan familiares: permitía intercambiar correo electrónico, podía tener máquinas virtuales, incluyó el primer sistema de mensajería instantánea y dio a sus usuarios la posibilidad de compartir archivos. Según cuenta la revista Wired, la idea de utilizar como identificación un nombre de usuario y contraseña fue el científico Fernando Corbató, responsable del proyecto, que lo vio como una solución sencilla para controlar el acceso.

De modo cada vez más generalizado, la combinación de nombre de usuario y contraseña se convirtió en el sistema preferido de protección de datos y de acceso a espacios, programas y servicios en máquinas individuales, servidores y sitios o servicios de Internet.

Y así como el siglo XVIII vio el florecimiento de los expertos en apertura de cerraduras tradicionales, el siglo XX y el XXI han asistido a la multiplicación de los hackers que, por diversión o por negocio, se esfuerzan por romper la seguridad de individuos, instituciones, empresas y gobiernos.

En realidad, las contraseñas son relativamente fáciles de romper, si uno cuenta con los programas y la experiencia mínima necesarias. Simplemente ocurre que, como en el caso de muchas cerraduras, el esfuerzo no vale la pena en la mayoría de los casos. Pero en algunas ocasiones la tentación aumenta proporcionalmente a los beneficios de distintos tipos que el hacker puede obtener.

El siguiente paso en las cerraduras que protejan nuestra vida digital, que es cada vez más nuestra vida real, donde ocurren cosas tan delicadas como nuestras comunicaciones de negocios o sentimentales, nuestras operaciones bancarias y nuestra compra de bienes y servicios, es la seguridad llamada “biométrica”, en la cual las “llaves” de acceso pueden ser diversas características biológicas únicas de cada individuo. Entre las más conocidas (sobre todo gracias a las especulaciones del cine de ciencia ficción) son el patrón de vasos sanguíneos de la retina, los pliegues del iris del ojo, las huellas digitales, la voz, el ADN y ciertos patrones electroencefalográficos popularmente conocidos como “contraseñas mentales” captados por electrodos superficiales en nuestra cabeza, similares a un juego de auriculares.

Todos estos sistemas tienen sus lados negativos. Las huellas dactilares, por ejemplo, pueden verse alteradas por cortes, quemaduras o ser difíciles de leer por el desgaste que sufren debido a ciertas actividades (como la interpretación de ciertos instrumentos musicales). Igualmente, el reconocimiento de voz puede verse anulado por un simple resfriado. El reconocimiento del iris depende de la dilatación o contracción de las pupilas y requiere, entre otras cosas, quitarse gafas y lentillas para ser más o menos preciso. Finalmente, el ADN sería un sistema bastante seguro a no ser porque, claro, hacer un reconocimiento personal por ADN es todavía demasiado costoso y tardado (al menos varios días) y porque es muy fácil robar el ADN de otra persona simplemente consiguiendo un cabello todavía con raíz, como saben los espectadores de CSI.

Así que, mientras la tecnología no avance de manera notable, parece que tendremos que convivir con el sistema de seguridad de las contraseñas y números de identificación personal durante muchos años. Y allí, claro, la mejor recomendación es no ser obvio. Esto incluye no usar su cumpleaños, el nombre de su mascota y todas las contraseñas fáciles de adivinar que ha visto en el cine y la televisión.

Cifrado y santo y seña

La seguridad de datos se ha buscado utilizando cifrados o sistemas criptográficos que, en su versión actual, son parte importante de la protección mediante contraseñas. Otro elemento relacionado con ellas era el “santo y seña”, una palabra o frase secreta que demostraba que quien la pronunciaba tenía derecho a conocer una información, franquear un paso o dar una orden, tal como se usaba en el ejército romano y que es el ancestro directo de su contraseña de correo electrónico.

La civilización del fuego... en el siglo XXI

El ser humano ha obtenido su energía quemando combustibles durante 2 millones de años y ha sido totalmente dependiente de ellos. El desafío hoy es obtener energía de otro modo.

La revolución industrial y su quema de carbón vistos
por el pintor Gustave Courbet.
Siempre que se menciona el descubrimiento del fuego es útil recordar que en ese momento comenzó nuestra dependencia de los combustibles, fuentes de energía que hoy siguen siendo uno de los grandes temas sociales, políticos y económicos.

Hay algunas evidencias, en excavaciones arqueológicas en Kenya, de que el Homo erectus ya tenía dominio del fuego hace dos millones de años. Y las primeras pruebas incontrovertibles de uso del fuego se remontan a hace 250.000 años.

El fuego, además de alejar a los depredadores en la noche y dar calor en climas no amables para el ser humano, permitió además cocinar los alimentos, actividad que, según Richard Wrangham, autor de La captura del fuego: Cómo cocinar nos hizo humanos, nos permitió aprovecharlos mejor, en especial la carne, sin exigirnos evolucionar características de los depredadores, como aparatos digestivos más largos y dientes adaptados para desgarrar. Esto nos dio las calorías excedentes necesarias para que creciera y se desarrollara nuestro cerebro, que utiliza casi una cuarta parte de la energía que gastamos.

A partir de ese momento, en todas las culturas humanas una de las actividades fundamentales fue la obtención de combustible para el fuego.

Pero aunque la biomasa o materia orgánica (principalmente leña de madera o bambú) fue el combustible dominante hasta el siglo XVIII, no fue el único. La grasa animal, natural o derretida para convertirla en sebo ya se usaba hace alrededor de 70.000 años, de cuando proceden las primeras lámparas: objetos cóncavos naturales que se llenaban con musgo o paja empapados en sebo. Con estas lámparas se iluminaban en las cuevas los creadores de pinturas rupestres, como lo evidencian las 130 que se han encontrado en Lascaux. El sebo siguió usándose en antorchas, en lámparas y en un invento de los romanos: las velas dotadas con una mecha que servía para ir derritiendo el sebo al mismo tiempo que lo absorbía y lo iba quemando.

Al sebo animal se unió después el aceite vegetal. La primera referencia del aceite de oliva, el primero que se produjo, data del 2400 antes de la Era Común, en unas tablas de arcilla halladas en Siria que enumeran las enormes plantaciones de olivos y las reservas de aceite que tenía la ciudad-estado de Ebla: 4.000 grandes jarras de unos 60 kilogramos de aceite cada una para la familia real y 7.000 para el pueblo. Para llegar aquí, podemos suponer que la producción de aceite de oliva llevaba ya tiempo institucionalizada como actividad. Y los restos de hollín dentro de las tumbas, pirámides y otras edificaciones de Egipto nos dicen que su interior se iluminaba con lámparas de aceite que se colgaban de las paredes.

El carbón mineral tiene también una historia de más de 3.000 años, cuando hay referencias de que los chinos lo utilizaban. Para el siglo IV antes de la Era Común, el científico griego Teofrasto ya escribe sobre el uso del carbón como fuente de calor muy eficiente para el trabajo en metales. Además de su uso en la metalurgia, los romanos los utilizaron para calentar los baños públicos.

Aunque la recolección de miel ya aparece en pinturas rupestres que datan de hace 6.000 años, la cera se generalizó como combustible apenas en la Edad Media como sustituto del sebo en las velas. Pero era escasa y costosa, así que las grasas animales (incluida la de ballenas o focas), los aceites vegetales, el carbón y la biomasa fueron los principales combustibles con los que el ser humano se las arregló hasta el siglo XIX (salvo algunas excepciones, como los documentos que hablan de que en China se llegó a recolectar gas natural en odres para quemarlo).

A mediados del siglo XVIII empezó a desarrollarse en Inglaterra la serie de acontecimientos conocidos como la revolución industrial, alimentada principalmente por el carbón, que aportaba el abundante calor necesario para accionar las nuevas máquinas de vapor. El gas que acompañaba al carbón en sus yacimientos se empezó a utilizar para la iluminación hacia 1792, y muy pronto la mayoría de las ciudades importantes de Estados Unidos y Europa tenían iluminación de gas en sus calles.

El combustible que acciona esencialmente al siglo XXI, el petróleo, era conocido desde la prehistoria, cuando el betún o asfalto ya se utilizaba como adhesivo para fijar puntas de flecha en sus ástiles, y ha sido empleado como adhesivo, material impermeabilizante de barcos y tejados, para conservar momias e incluso como presunto medicamento. Pero ni el asfalto ni el petróleo crudo que ocasionalmente se encontraba a flor de tierra fueron utilizados como combustibles hasta el siglo XIX, cuando empezó a perforarse para buscarlo y aprovechar la popularidad de la lámpara de queroseno lanzada en 1853.

La aparición de la electricidad y los motores a explosión en autos, trenes, barcos, fábricas y aviones disparó la utilización de los combustibles de origen fósil, es decir, producto de la transformación de materia orgánica del pasado de la vida en el planeta. Su predominio es notable pese a que al quemarse emiten sustancias nocivas y además generan grandes cantidades de bióxido de carbono que, según el consenso de los expertos del clima, contribuye claramente al cambio climático.

De ahí que se haya vuelto la vista a otras fuentes de energía no combustibles, todos ellos ya conocidos desde la antigüedad. El agua, empleada en Mesopotamia y Egipto desde el año 4000 a.E.C. para irrigación, y después utilizada para accionar molinos y otras máquinas; el viento, usado desde el año 200 a.E.C. en Mesopotamia para accionar molinos y que se generalizó en Europa en el siglo VIII, y la energía solar, empezaron a utilizarse para generar electricidad todos a fines del siglo XIX: turbinas aerogeneradores y placas solares no son, pues, inventos tan recientes. El siglo XIX vio también los primeros usos de la biomasa para producir otros combustibles. La única fuente de energía nueva del siglo XX fue, en realidad, la nuclear, las reacciones de fisión controlada que producen calor para hacer vapor que mueva turbinas.

Lo que es novedoso, en todo caso, es el aumento en la eficiencia de las fuentes de energía alternativas, y que las convierte en la esperanza para independizar a la humanidad de los combustibles y que, al cabo de dos millones de años, o más, deje de ser la especie que quema cosas para vivir.

Los números del desafío de la energía

En 2009, el 40% de la energía mundial provenía del carbón, 21% del gas, 17% era hidráulica, 14% nuclear, 5% de petróleo y sólo 3% de las llamadas renovables. Y el consumo de energía en el mundo ha crecido casi 50% sólo desde 1990.

Ada Lovelace, de la poesía a las matemáticas

Con una de las más interesantes y ardientes inteligencias del siglo XIX, Ada Lovelace fue no sólo la primera programadora informática, sino una visionaria de las posibilidades de las máquinas que hoy llamamos ordenadores.

Augusta Ada Byron, condesa de Lovelace, a los 17 años
(Imagen D.P. de la Lovelace-Byron Collection, vía Wikimedia Commons)
Era la primera mitad del siglo XIX y los seres humanos se comunicaban escribiendo con plumas de ganso, el telégrafo era un sistema experimental y la electricidad era un misterio asombroso.

Por entonces, una inquieta joven llamada Augusta Ada, nacida en 1815, se negaba a disfrutar la poco estimulante vida social normal y esperada para las chicas inglesas de la época. A cambio, organizaba con sus amigas, las llamadas “bluestockings” o “medias azules”, reuniones de lectura y discusión de temas científicos, así como visitas a científicos y museos.

Éste era el resultado del empeño de su madre por llevarla al camino de las matemáticas, la música y la ciencia, y de reprimir sus posibles inquietudes literarias. La buena señora, Anna Isabella Milbanke, esperaba que una rigurosa educación en estos terrenos contrarrestara en su hija la posible malhadada herencia de su padre, George Gordon, mejor conocido como Lord Byron, notorio poeta y aventurero. Anna Isabella había estado casada apenas poco más de un año con el irascible poeta, que por entonces bebía en exceso, tenía ataques de ira y era notoriamente infiel, así que se separó legalmente a poco de nacer Ada.

Después de haber pasado tutorías de matemáticas y de haber incluso creado el diseño de una máquina voladora cuando sólo tenía 13 años, la joven asistió, el 15 de junio de 1833, a la demostración de un invento del matemático, catedrático, ingeniero e inventor inglés Charles Babbage, por entonces de 42 años de edad.

Lo que mostraba Babbage era una parte de la calculadora mecánica que había diseñado (aunque nunca construyó en su totalidad), la “máquina diferencial”, heredera de las calculadoras mecánicas de Pascal y Leibniz, que podía hacer operaciones matemáticas tales como elevar al cubo o a la cuarta potencia, y trabajar con polinomios. Todo mundo estaba fascinado, pero, según contó después el matemático Augustus De Morgan, “La señorita Byron, pese a su juventud, entendía su funcionamiento y vio la gran belleza del invento”.

Babbage le habló a la joven de 18 años de un proyecto aún más ambicioso, la “máquina analítica”, un portento imaginario capaz de hacer todo tipo de cálculos utilizando un programa externo codificado en tarjetas perforadas del mismo modo en que los telares de Jacquard usaban tarjetas para cambiar los diseños de las telas que tejían.

Ada Byron quedó prendada de la idea, a la que dedicó cuanto pudo en los años siguientes. La máquina que imaginó Babbage y ayudó a desarrollar la joven matemática podía almacenar datos, y programas, y hacer operaciones repetitivas... todo lo que hoy nos parece lo más normal en nuestros equipos informáticos, accionada por un programa.

Ese mismo año, Babbage dejó de interesarse en fabricar la máquina diferencial y empezó a concentrar todos sus esfuerzos en la analítica, con el apoyo de su “encantadora de los números” a la que ayudó a entrar a estudiar matemáticas avanzadas en la Universidad de Londres, precisamente con De Morgan.

En 1835, Ada se casó con William King, poco después Conde de Lovelace, con lo cual ella se hizo también con el título con el que pasaría a la historia además de tener tres hijos. King apoyaba la labor académica de su esposa y ambos mantuvieron estrecha relación con algunas de las personalidades más estimulantes de la Inglaterra del siglo XIX, como el pionero de la electricidad Michael Faraday y al influyente escritor Charles Dickens.

La culminación del trabajo de Ada con Charles Babbage ocurrió en 1842. Babbage había hecho una gira para presentar la idea de su máquina analítica y a su paso por Italia, Federico Luigi Menabrea, un matemático, ingeniero militar y estadista que eventualmente llegaría a ser primer ministro italiano, escribió un boceto sobre la máquina del inventor británico. Se le pidió a Ada que hiciera la traducción del trabajo de Menabrea, pero añadiéndole sus propias notas sobre la máquina que ella tan bien conocía.

Al final, las notas de Ada, que sólo aparecía como traductora con las siglas AAL, acabaron ocupando un espacio tres veces mayor que el escrito original de Menabrea. Son esas notas las que se convertirían en su gran legado intelectual, pues en ellas la matemática especula, imagina, aclara y desarrolla las ideas de la máquina analítica y va matemáticamente mucho más allá que el artículo original.

Asi, por ejemplo, explica detalladamente la diferencia entre la máquina analítica y las calculadoras conocidas hasta entonces y tiene la intuición extraordinaria de que ese tipo de máquinas, que hoy llamamos computadoras, ordenadores o computadores, no tienen que trabajar sólo con números, sino que pueden hacerlo con cualquier cosa que pueda ser representada matemáticamente, como colores, sonidos, texturas, movimientos, luces, etc. Que es precisamente lo que hacen las máquinas de hoy en día. Explica cómo se podría escribir una secuencia de instrucciones utilizando tarjetas, aprovechando el almacén de datos y las tarjetas de control que permitirían a la máquina hacer diversas operaciones, es decir, cómo se escribe lo que hoy llamamos un programa informático.

Porque para Ada Lovelace, que por este trabajo es considerada la primera persona que hizo programas informáticos, lo esencial es la idea de que el programa era tan importante como la máquina, es decir, que la máquina era una forma de hacer efectivas las ideas incorporadas en el programa, pero que sin éste, era totalmente inerte. Y al mismo tiempo, observó que la máquina no podría hacer nada original, sólo aquello para lo cual sabemos programarla. Y lo demostró en la última nota al artículo de Menabrea, donde escribió un programa con el cual la máquina de Babbage podría calcular tablas de números de Bernoulli, una secuencia de números racionales.

De salud frágil y con problemas económicos que la llevaron a intentar conseguir el mítico “sistema” para ganar dinero apostando, Augusta Ada Byron, condesa de Lovelace, murió el 27 de noviembre de 1852, días antes de cumplir los 37 años.

En su memoria, el Departamento de Defensa de los Estados Unidos creó el lenguaje de programación “Ada”.

Sobrevaluar y despreciar

Ada Lovelace dijo en sus notas hablando de la máquina de Babbage: “Al considerar cualquier nuevo tema, hay habitualmente una tendencia, primero, a sobrevaluar lo que hallamos interesante o destacable y, en segundo lugar, por una especie de reacción natural, a infravalorar el verdadero estado del caso, cuando descubrimos efectivamente que nuestras nociones han sobrepasado a aquéllas que eran realmente sostenibles”.

Virus en tu ADN

Los virus que han infectado a nuestra especie durante millones de años han dejado una huella sorprendente en nuestro ADN, un legado ajeno cuya importancia apenas estamos desvelando.

ADN purificado que fluoresce de color naranja bajo una
luz ultravioleta
(Foto D.P. de Mike Mitchell via Wikimedia Commons)
Una buena parte de nuestro ADN no es de origen humano. Ni siquiera vertebrado o mamífero. Ha llegado subrepticiamente como un accidente evolutivo.

El ADN, esa molécula que forma nuestros cromosomas y es responsable de la transmisión de la información genética reunida a lo largo de toda nuestra historia evolutiva y del control de toda la producción de proteínas denuestro cuerpo, ha sufrido a lo largo de su historia numerosos cambios, algunos de ellos causados por la infección de virus que se han integrado en él. Entre el 8 y 10 por ciento de nuestro ADN está formado por numerosas copias de restos de estas infecciones virales, los retrovirus endógenos humanos (HERV por sus siglas en inglés). Y si tenemos en cuenta los productos y derivados de estos fragmentos de ADN, hasta la mitad de todas nuestras cadenas genéticas podrían proceder de virus.

Fue entre principios de la década de 1970 y 1980, cuando los científicos descubrieron que en las cadenas de ADN de algunos animales tenían segmentos que se parecían a algunos retrovirus ya conocidos.

Los virus son estructuras biológicas muy simples formadas por material genético (ADN o ARN) y una capa de proteína que infectan las células y secuestran sus sistemas para crear copias de sí mismos, provocando enfermedades como la rabia, la gripe, el papiloma, el sarampión, la poliomielitis, la hepatitis A y el herpes.

Una clase especial de virus de ARN son los llamados retrovirus, que en vez de crear copias de sí mismos directamente, utilizan un sistema llamado “transcripción inversa” para sintetizar un segmento de ADN e insertarlo en el material genético de la célula infectada. Una vez allí, el ADN produce las proteínas del retrovirus.

Una característica de los retrovirus es que ese proceso de transcripción inversa es tremendamente susceptible a errores. Esto significa que las copias del virus son con gran frecuencia distintas, incluso muy distintas, del original, logrando así una evolución mucho más rápida en su capacidad destructiva que otros agentes infecciosos. Ésta es una de las causas por las que resulta tan difícil combatir las enfermedades provocadas por retrovirus como sería el caso del VIH-SIDA, a diferencia de afecciones virales como la rabia o la gripe, que podemos enseñar a nuestros cuerpos a combatir por medio de vacunas desde hace muchos años.

Sin embargo, en algunos casos, el retrovirus invasor no destruye la célula y acaba integrándose como parte de ella. De hecho, desde su descubrimiento, se ha podido demostrar que los retrovirus endógenos están presentes en las líneas de células reproductoras de todas las especies de vertebrados y se replican como parte integral de la reproducción del organismo, convirtiéndose en parte de la herencia genética para todas las generaciones futuras. En el caso de los seres humanos, hemos acumulado en nuestro material genético retrovirus endógenos debido a invasiones ocurridas a lo largo al menos de los últimos 60 millones de años.

Los científicos pueden reconocer estos fragmentos ajenos gracias a que todos los retrovirus infecciosos contienen al menos tres genes llamados gag, pol y env, encerrados entre secuencias conocidas como repeticiones terminales largas o LTR por sus siglas en inglés, de modo tal que la presencia de estos genes y secuencias en cualquier zona del ADN de nuestros cromosomas nos indica de modo claro que se trata de un fragmento de un retrovirus que infectó a nuestra especie en el pasado.

Para nuestra fortuna, los retrovirus endógenos humanos están fundamentalmente desactivados en cuanto a su capacidad para producir proteínas.

Pero quizás no del todo.

Procesos de control y enfermedad

Diversos estudios indican la posibilidad de que los HERV no sean fragmentos totalmente inactivos, sino que pueden jugar un papel en distintos procesos. Así, por ejemplo, 2 de los 16 genes identificados del retrovirus llamado HERV-W parecen jugar un papel esencial en el proceso de placentación, especialmente en la supresión de la reacción inmune de la madre a los tejidos del feto y la placenta. Es decir, la evolución ha utilizado estos genes “extranjeros” para realizar funciones útiles para nuestro organismo. Después de todo, los procesos evolutivos siempre utilizan los elementos ya existentes, no pueden crearlos desde la nada.

Pero también se han descrito algunos mecanismos mediante los cuales estos segmentos podrían estar relacionados con enfermedades crónicas, incluidas ciertas formas de cáncer, enfermedades del sistema nervioso y afecciones autoinmunes y de los tejidos conjuntivos, e incluso con la esquizofrenia.

Hay varias formas en que los HERV pueden provocar enfermedades. Primero, simplemente produciendo las proteínas de las que tienen el código de ADN y que nuestro sistema inmune reconocería como ajenas o invasoras y contra las que actuaría, generando reacciones complejas con otras proteínas de nuestro cuerpo. Ése podría ser el origen de algunas afecciones autoinmunes (en las cuales reaccionamos contra elementos de nuestro propio cuerpo) como el lupus eritematoso o la artritis reumatoide. Pero también pueden influir en que se activen o desactiven genes adyacentes. Finalmente, hay estudios que indican que pueden activarse (o expresarse, en términos técnicos) debido a algunos elementos del medio ambiente, como ciertas sustancias químicas o incluso la luz ultravioleta.

Esto, sin embargo, no significa que esté demostrado que los HERV produzcan o influyan en algunas enfermedades. El descubrimiento de estas singulares secuencias dentro de nuestro material genético es tan reciente que aún queda mucho por saber sobre su actividad real, y muchos estudios son sólo indicios que sirven como base para especulaciones que a su vez se utilizarán para diseñar nuevas investigaciones que nos permitan comprender cómo estos fragmentos ajenos actúan o dejan de actuar en nuestra fisiología y hasta dónde tienen relevancia en ciertas enfermedades o ciertos subtipos de algunas enfermedades.

Además de estos mecanismos, los HERV han sido exitosamente utilizados por algunos investigadores como una forma de hacer el seguimiento de la evolución de algunas especies e incluso como un indicador o reloj molecular, que nos puede decir cuándo se integraron a nuestro material genético.

Los muchos HERV que nos conforman

El proyecto del genoma humano ha permitido ir identificando a los distintos retrovirus endógenos que tenemos. Los investigadores han identificado al menos a 22 familias de retrovirus que llegaron independientemente a nuestro acervo genético, y se clasifican según su similaridad con uno u otro retrovirus

Izar, levantar, elevar

La capacidad de mover eficazmente objetos de un peso enorme ha sido fundamental en la civilización humana.

Representación de una grúa del siglo XIII en el proceso
de construcción de una fortaleza.
(Via Wikimedia Commons)
La marca mundial de peso levantado por un ser humano podrían ser los 2.840 kilogramos que se dijo que había conseguido el estadounidense Paul Anderson, levantándolos sobre sus hombros (no desde el suelo). Pero hubo dudas y el libro Guinness de récords mundiales decidió borrarlo de sus páginas hace algunos años.

Compárese con los más de 2 millones de kilogramos que puede levantar “Taisun”, que es como se llama a la mayor grúa puente del mundo, utilizada en los astilleros de Yantai, en China para la fabricación de plataformas petroleras semisumergibles y barcos FPSO.

Para la evolución de la civilización humana un requisito fundamental ha sido la capacidad de levantar grandes pesos, mucho mayores que los que puede levantar un grupo grande de seres humanos. A fin de conseguirlo, desde la antigüedad se desarrollaron las llamadas “máquinas simples” o básicas: la palanca, la polea, la rueda con eje, el plano inclinado, la cuña y el tornillo. Lo que consiguen estas máquinas es darnos una ventaja mecánica, multiplicando la fuerza que les aplicamos para hacer un trabajo más fácilmente. No es que “cree” energía, sino que la utiliza de manera más eficiente. Si la fuerza viaja una distancia más larga (por ejemplo, de la palanca de un gato que accionamos), será mayor a una distancia más corta, el pequeño ascenso que tiene el auto a cambio de nuestro amplio movimiento.

El plano inclinado nos permite, por ejemplo, subir un peso más fácilmente que izándolo de modo vertical. Mientras mayor es la inclinación, mayor esfuerzo nos representará negociarlo, algo que ejemplifican muy bien algunas etapas de montaña de las vueltas ciclistas. Es la máquina simple que, según los indicios que tenemos, usaron los egipcios junto con la planca para mover los bloques de piedra utilizados en la construcción no sólo de sus pirámides, sino de sus obeliscos y templos impresionantes como el de Abu Simbel.

La grúa hizo su aparición alrededor del siglo VI antes de la Era Común, en Grecia, basada en las poleas que desde unos 300 años antes se empleaban para sacar agua de los pozos. Las poleas compuestas ofrecen una gran ventaja mecánica y, junto con la palanca, permitieron el desarrollo de las grúas y con él la construcción de edificios de modo más eficiente y rápido.

Si la cuerda utilizada para izar se une a un cabrestante o cilindro al que se de vuelta mediante palancas, se va creando un mecanismo más complejo y capaz de elevar mayores pesos más alto y con menos esfuerzo.

Una consecuencia directa de esta idea fue la creación de cabrestantes accionados por animales o por la fuerza humana. Quizá resulte curioso pensar que ya los antiguos romanos utilizaban grandes ruedas caminadoras, como ruedas para hámsters, con objeto de accionar las grúas con las que construyeron las grandes maravillas de la ingeniería del imperio. Y esas mismas grúas accionadas por seres humanos caminando en su interior fueron las que permitieron construir todas las maravillas de la arquitectura gótica y renacentista, además de cargar y descargar barcos conforme el comercio internacional se iba desarrollando, entre otras muchas aplicaciones. Mezclas de máquinas simples formando mecanismos más complejos pero que, en el fondo, se basan en los mismos principios conocidos desde el inicio de la civilización.

El gran cambio en estas máquinas se dio al aparecer la máquina de vapor. Según los expertos, en teoría no hay límite a la cantidad de peso que puede moverse con una grúa accionada por una rueda movida por la fuerza humana, pero accionarla con una energía como la del vapor o la electricidad permite hacerlo más rápido y usando maquinaria más pequeña.

Con estos elementos se han creado varios tipos de grúas, desde las móviles en diversos tipos de vehículos, las carretillas elevadores, las grúas puente en forma de pórtico que se usan en la construcción naval y naves industriales, las grúas Derrick y las más conocidas en el panorama urbano, las grúas torre utilizadas para la construcción de edificios.

Elevar personas

Construir edificios más altos implica, por supuesto, llevar a seres humanos a los pisos superiores. Se dice que Arquímedes ya construyó el primer ascensor o elevador en el 236 a.E.C. pero estos aparatos empiezan realmente a ser parte de la vida cotidiana de los mineros en el siglo XIX, cuando se usan para llevarlos y traerlos de las plantas, cada vez más profundas, de las minas, especialmente de carbón.

Es en 1852 cuando Elisha Otis desarrolla el diseño de ascensor que, esencialmente, seguimos utilizando hoy en día, con características de seguridad que permitieran la máxima tranquilidad al usuario, y que permite la aparición de lo que se llamaría el “rascacielos”.

Y los rascacielos fueron cada vez más arriba. El ascensor común de un edificio de 10 pisos se mueve a una velocidad de más o menos 100 metros por minuto, una velocidad poco práctica para subir a edificios como la torre Taipei 101, con sus 509 metros de altura, pues tardaríamos 5 minutos en llegar del piso más bajo al más alto, cuando los fabricantes tienen como norma que el recorrido sin paradas entre el piso más bajo y el más alto de un edificio debe ser de unos 30 segundos. En un edificio de más de medio kilómetro de altura esto exige ascensores capaces de una velocidad media de 1 kilómetro por minuto o 60 kilómetros por hora.

Pero no es una velocidad continua. Debe acelerarse y desacelerarse de modo tolerable para los pasajeros. Si uno va del piso 1 de la torre al 101, acelerará de 0 a 60 kilómetros por hora en 14 segundos, viajará a la velocidad máxima durante tan sólo 9 segundos y después desacelerará de regreso hasta detenerse en otros 14 segundos. Y todo ello con una tecnología que reduce al mínimo las vibraciones y el malestar de los viajeros.

Finalmente, la tecnología ha tenido que tener en cuenta el diferencial de presión atmosférica entre el piso inferior y el superior, y usar un original sistema de control de presión como el de los aviones para equilibrarla y darle las menos incomodidades posibles a los pasajeros.

Un largo camino que empezó con un plano inclinado, una polea y la decisión de ir más alto.

En la ciencia ficción

En 1979, el legendario autor de ciencia ficción Arthur C. Clarke publicó Las fuentes del paraíso, una novela en la cual un ingeniero propone crear un ascensor capaz de llevar carga y gente al espacio, situado entre la cima de una montaña y un satélite en órbita (Clarke fue el proponente original del satélite geoestacionario). La trama de la novela gira alrededor del rechazo al ascensor por parte de un monasterio budista que ocupa la montaña. Un clásico que merece relectura.