Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Luces, estrellas, soles

Zona de formación de estrellas en la constelación
del Cisne (D.P. imagen de NASA/ESA)
El surgimiento de la conciencia de sí mismos que experimentaron nuestros antepasados homínidos en algún momento no determinado, y que es en sí uno de los más fascinantes misterios imaginable, fue al mismo tiempo la conciencia sobre todo cuanto los rodeaba.

Cuando atardece, los seres vivos reaccionan de acuerdo a un programa en gran medida genéticamente establecido.

Las plantas pueden cerrar sus flores y aprovechan la ausencia de sol y, por tanto, la suspensión de su actividad de fotosíntesis, para respirar. Los animales diurnos se refugian en sus guaridas, cuevas, ramas de árbol, rincones o nidos que pueden ser diminutos como los del colibrí o gigantescos como los que se hacen día a día los gorilas de lomo plateado. Los nocturnos se desperezan y comienzan la búsqueda de alimento, agua, cópula. Las presas y los depredadores se ubican en el ajedrez de la vida. Por la noche, la presencia o ausencia de la luz lunar también determina los grados de actividad que pueden tener los animales.

Sólo un grupo de seres, sin embargo, ha levantado la vista hacia el cielo y se ha preguntado qué son las luces que lo visten, las pequeñas y titilantes que pueblan la noche, la gran rueda de plata que crece y disminuye en ciclos de alrededor de 28 días y, por supuesto la enorme fuente de luz, calor y vida que domina compeltamante el cielo diurno.

Esos seres son los humanos. Y no sólo nuestra especie, Homo sapiens, sino muy probablemente nuestros menos afortunados parientes humanos que, con todo y sus incipientes civilizaciones, se extinguieron en el pasado, como el Homo erectus y el neandertal.

La primera hipótesis sobre las luces nocturnas, las estrellas, las ubicaban como luces fijas en una esfera que rodeaba a la Tierra, la esfera celeste, aunque para pensadores un poco más audaces se planteaban la posibilidad de que fueran en realidad pequeños agujeros en el manto celeste a través de los cuales se colaba hasta nosotros una mínima muestra de la luz que inundaba el reino de uno u otro dios, el paraíso.

Al observar además que algunas estrellas parecían conservar sus posiciones relativas entre sí al paso del tiempo, distintas culturas se las imaginaron relacionadas en “constelaciones” que, además de integrarse en sus mitologías como deidades, fuentes de profecías o seres míticos, servían para seguir el movimiento de otras luces que sí parecían moverse a su aire, extraños cuerpos errabundos. “Estrella errante” se dice en griego clásico “asteres planetai”, y de allí proviene la palabra “planeta”.

Pero no fue sino hasta 1584 cuando la idea de las esferas celestes y las luces fijas se vio desafiada por una mente singular, la de Giordano Bruno, que sugirió que las estrellas eran en realidad objetos como nuestro sol, posiblemente con planetas como el nuestro, pero muy alejadas de nosotros y que el universo no era una esfera sino un lugar infinito y eterno. Estas opiniones figuraron de manera relevante entre las acusaciones que lo llevaron ante la Inquisición y, finalmente, a ser quemado vivo en el centro de Roma.

Pero la semilla sembrada por Bruno germinó y floreció. Los astrónomos de los tiempos posteriores –viviendo siempre bajo la amenaza de ser considerados herejes por opinar distinto de la iglesia católica– fueron cimentando la idea de que las estrellas eran como nuestro sol. En 1838, el matemático y astrónomo alemán Friedrich Bessell consiguió medir por primera vez la distancia que nos separa de otra estrella, determinando que la conocida como 61 Cygnus está a 11,4 años luz de nosotros.

La explicación final de cómo arden las estrellas tendría que esperar, sin embargo, a que llegara el genio intuitivo y cuestionador de Albert Einstein, cuyos desarrollos teóricos permitieron determinar que las estrellas actúan como colosales hornos de fusión nuclear donde núcleos de hidrógeno se fusionan formando núcleos de helio y, en el proceso, liberando una gran cantidad de energía.

Igualmente, Erwin Hubble nos permitió medir con precisión la distancia que nos separa de estrellas muy lejanas. Si bien la velocidad de la luz es constante en todo el universo, Hubble demostró que mientras más lejos está una estrella su luz nos llega más enrojecida, lo que se conoce como corrimiento al rojo. Calculando cuánto se ha corrido al rojo el espectro de una estrella o galaxia, podemos saber a qué distancia está.

Las estrellas no son inmutables en un universo estático como pensaban nuestros ancestros. Las estrellas nacen, se desarrollan y mueren de muy diversas formas, y no todas son iguales. Son distintas según su masa, desde las hipergigantes que pueden tener hasta 150 veces la masa de nuestro sol, hasta las subenanas que pueden tener la mitad de la masa del Sol. Su masa determina su temperatura, y por tanto su color y su clasificación, así como la duración de sus vidas.

Aunque el telescopio espacial Hubble nos ha asombrado con fotografías sobrecogedoras de auténticos viveros de estrellas en los límites del universo visible, donde nacen espectacularmente millones de estrellas, las que más nos interesan son, sin duda alguna, las más cercanas a nosotros, por el sueño (difícil de conseguir en términos prácticos) de poder viajar hasta ellas.

Nuestra vecina más cercana es Proxima Centauri, una enana roja que está aproximadamente a 4,2 años luz de nosotros, en la constelación de Centauro (un año luz es la distancia que recorre la luz en un año; viajando a unos 300.000 km por segundo los 31.536.000 de segundos del año, es de 9.460.528.400.000 kilómetros, casi 10 billones de kilómetros).

Sin embargo, Alfa Centauri (también conocido como Rigel), un sistema de estrella doble situado a 4.37 años luz, es la estrella más brillante de de la constelación y por tanto una que le ha llamado la atención especialmente a las distintas culturas humanas.

En un radio de 16 años luz desde nuestro sol hay un total de 40 estrellas conocidas. No todas tienen planetas en órbita a su alrededor, de modo que también resulta de especial interés la llamada Estrella de Barnard, a 5,9 años luz de nuestro sol, y que es la más cercana que probablemente tiene uno o más planetas a su alrededor.

Si bien es difícil visitar otras estrellas por las limitaciones que imponen las leyes de la física, siempre tenemos la posibilidad de estudiar a fondo a la estrella más cercana a la tierra, que es el sol, tan fascinante como cualquier estrella del espacio profundo.

Nuestra propia estrella

El sol es una estrella de 1.4 millones de kilómetros de diámetro con una masa de más de 330.000 veces la de la Tierra. Es de color blanco y su clasificación es GV2, una enana amarilla situada en un brazo exterior de la galaxia de la Vía Láctea, en una órbita de unos 250 millones de años de duración, y del que nos separan aproximadamente 150 millones de kilómetros (poco más de 8 minutos-luz).

Cáncer: detección y diagnóstico

Gordon Isaacs, primera persona tratada con
radiación para un cáncer de la retina en
1957. Sobrevive a la fecha.
(D.P. National Cancer Institute, vía
Wikimedia Commons)
Detectar a tiempo el cáncer es fundamental para una recuperación completa, la mítica “cura del cáncer”.

Nuestro cuerpo está formado por entre 50 y 100 billones (millones de millones) de células ampliamente diferenciadas, formando tejidos tan distintos como los huesos y la corteza cerebral. Y nuestras células deben reproducirse constantemente, controladas por un sistema que va eliminando a las células anormales que aparecen. Cuando tales células anormales no son eliminadas y se empiezan a multiplicar desordenadamente, tenemos la enfermedad llamada cáncer.

Hay muchos tipos de cáncer, dependiendo del tipo de células afectadas, que además pueden invadir y ocupar otros tejidos, algo que las células normales no hacen. Las células cancerosas también pueden migrar o trasladarse mediante el torrente sanguíneo o linfático y afincarse en otros lugares del cuerpo, usurpando el espacio físico, los nutrientes y las funciones de distintos tejidos.

Sin embargo, no existe una forma de detectar “el cáncer”, en general. Y, lo más grave, en sus primeras etapas la gran mayoría de las formas de cáncer no produce dolor. Por tanto, echamos mano de ciertas recomendaciones para estar en guardia contra algunos tipos de cáncer especialmente comunes o virulentos y que presentan signos externos o fácilmente distinguibles.

Así, el cáncer del cuello del útero se puede detectar tempranamente mediante la prueba de Papanicolau, tomar una muestra de la mucosa del cérvix del útero para después tintarla y observarla bajo el microscopio. Esto permite identificar células sanas, parásitos como las tricomonas, herpes y células cancerosas. Además, el ginecólogo puede hacer tactos del útero, la vagina, los ovarios, las trompas de falopio, la vejiga y el recto en busca de bultos o tumores sospechosos de ser cancerosos.

El cáncer de mama, por su parte, se detecta mediante el autoexamen, enseñando a la mujer a realizarse una exploración con el tacto en busca de bultos o irregularidades que podrían ser cancerosos. Los médicos y las enfermeras ambién ueden realizar esta exploración, pero cada vez se prefieren más los mamogramas, radiografías de los pechos que pueden mostrar irregularidades peligrosas incluso antes de que se puedan percibir al tacto. Estos métodos son sólo indicativos, pues hay muchos trastornos, afecciones y problemas leves que pueden formar los temidos "bultos" en las glándulas mamarias.

La prevención del cáncer de piel es, sobre todo, un ejercicio de observación atenta en busca de manchas, lunares que cambian de forma o posición, sangran o producen comezón. Otras formas de cáncer, como la de colon o próstata, requieren ciertas pruebas periódicas a partir de cierta edad considerada de riesgo. Pero hay muchos otros síntomas que son señales de alerta de una posible forma de cáncer: ulceraciones que no sanan, indigestión recurrente, sangrado rectal o de la vejiga, etc.

La única forma eficaz de detectar un cáncer es por medio de la observación y las pruebas de laboratorio.

La observación se realiza indirectamente por medio de sistemas de generación de imágenes: radiografías, resonancias magnéticas o tomografías computarizadas, ultrasonidos o escaneos de radionúclidos. En ocasiones, obtener imágenes útiles puede exigir que usted tome alguna sustancia, como un tinte para los tejidos o un medio de contraste que rellene y destaque órganos huecos. Pero también se puede hacer directamente utilizando métodos de endoscopía, en los cuales un tubo iluminado llamado endoscopio se inserta en alguna parte del cuerpo para mirarla, como por ejemplo la colonoscopía, que es este procedimiento realizado en el colon.

Pero incluso pese a estos procedimientos, el diagnóstico no es 100% certero. Por ello se utilizan además diversos análisis de laboratorio de la orina, la sangre y otros, que ayudan al diagnóstico midiendo la presencia de ciertas sustancias en los fluidos corporales, basados en el conocimiento de que ciertos tipos de cáncer provocan la presencia de niveles anormales de ciertas sustancias.

Si todos estos procedimientos indican riesgo, se procede a la única forma de poder determinar con certeza que un problema es, efectivamente, cáncer. Se trata de la extrañamente temida “biopsia”, un procedimiento quirúrgico para obtener una muestra del tejido de la zona afectada. El sistema puede ser tan sencillo como cortar un pequeño trozo de piel bajo anestesia local que realizar una compleja intervención para obtener muestras de tejidos no fácilmente accesibles, como el páncreas o la médula ósea.

Un patólogo especializado examina estas muestras bajoel microscopio y determina si son cancerosas y, con frecuencia, qué tipo de cáncer es y si en el futuro tendrá un desarrollo rápido o lento.

Finalmente, con la certeza de que se trata de un proceso canceroso, el médico puede realizar otras pruebas y exámenes para determinar la etapa en la que se encuentra, si se ha extendido por el cuerpo y en qué medida. Con base en ello, se realiza la cirugía para eliminar el cáncer, retirando con frecuencias los nódulos linfáticos de los alrededores del tumor para analizarlos y ver si han transportado o no células cancerosas a otras partes del cuerpo.

Precisamente por la enorme complejidad del diagnóstico del cáncer, se recomienda habitualmente tener una “segunda opinión”, el punto de vista de otros especialistas que analicen el caso, revisen las muestras de laboratorio y se aseguren de que nada se haya pasado por alto.

Porque, finalmente, algunos cánceres se diagnostican mal, y también, en algunos casos, sin que haya cifras precisas sobre ello, otros cánceres perfectamente certificados se destruyen a sí mismos, en la llamada “remisión espontánea". Es por ello que la detección y diagnóstico de esta compleja clase de enfermedades es, por desgracia, mucho más difícil que la de otras afecciones y trastornos más evidentes.

Y es por ello, también, que hoy en día, el arma principal de lucha contra el cáncer no es solamente el tratamiento, sino sobre todo la detección temprana, oportuna y eficaz que impide que la enfermedad se extienda y sea mortal.

La multiplicación celular

Las células de nuestro cuerpo tienen ciclos vitales muy diversos. Las células de nuestro páncreas pueden vivir un año o más, los glóbulos rojos o eritrocitos de nuestra sangre viven unos 4 meses, las plaquetas (encargadas de la coagulación) sólo unos 10 días, las células del recubrimiento del estómago 2 días y algunos glóbulos blancos encargados de la defensa de nuestro cuerpo pueden vivir apenas unas 10 horas. En el otro extremo están las neuronas de nuestra corteza cerebral, algunas de las cuales viven toda nuestra vida. La vital necesidad de reponer las células que van muriendo para mantener nuestra salud es aprovechada por el cáncer para producirse y crecer.

El médico hereje

Miguel Servet
(Grabado de Christian Fritzsch, D.P.)
“Ni con estos, ni con aquellos estoy conforme ni disiento en todo. Todos tienen parte de verdad y parte de error, y cada cual descubre el error en otro sin ver el suyo”. Esta cita de Miguel Servet, de su libro Diálogos sobre la Trinidad resume el camino que siguió el sabio aragonés en una época de agitadas revoluciones en el pensamiento, las creencias y toda la forma de vida había señalado a la Edad Media. Su inquietud intelectual, duda sistemática e independencia de criterio marcaron su vida y determinaron su muerte.

Nacido en Huesca, el 29 de septiembre de 1511, Miguel de Servet o Serveto era parte de una familia originaria del Pirineo aragonés que había aprovechado las Cartas de Población que concedía la corona de Aragón conforme se desarrollaba la reconquista y asentándose en Villanueva de Sigena. Su padre Antón, noble infanzón, era notario del Monasterio de Sigena, y pudo financiar los estudios de su brillante heredero.

A los 13 años, Servet era pupilo de fray Juan de Quintana, asistiendo a procesos contra herejes mientas aprende griego, latín y hebreo. A los 16 ya está en Toulouse, Francia, estudiando derecho. Por entonces se familiariza con el naciente movimiento de la Reforma, que rechazaba la corrupción y mala conducta de la iglesia católica de Roma.

La pasión de Servet por las nuevas ideas pronto lo puso en el camino de serios problemas. Con apenas 20 años de edad y viviendo en Basilea publica De los errores acerca de la Trinidad, obra en la que defendía que la idea de la Trinidad católica no tenía bases en la Biblia. Igualmente, afirma que Jesús es hombre y no dios, y que el Espíritu Santo no es una persona, sino una manifestación del dios único. Un año después publica Diálogos sobre la Trinidad, en la misma línea. Las dos obras concitan el rechazo de los nacientes reformistas y del bien establecido catolicismo.

En esos momentos, cuando ni siquiera se habían publicado los primeros libros de Calvino, poner en cuestión cualquiera de los dogmas establecidos por la iglesia católica era ponerse en la mira de la Inquisición y de todas las fuerzas empeñadas en evitar el terremoto de pensamiento que se avecinaba.

Pero las ideas de Servet tampoco encontraban buena recepción entre los tempranos reformistas, y se enfrentó agriamente con personajes importantes como el propio Martín Lutero, Ecolampadio, Martín Bucero y Capito. Por entonces comenzó también una larga relación epistolar con Juan Calvino. Con sólo 21 años, debe ocultarse, cambiarse el nombre por el de Miguel Villanovano, una referencia al pueblo familiar de Villanueva, perseguido por la Inquisición Española.

Pese a sus inquietudes teológicas, Servet encuentra tiempo para la ciencia. En realidad, tanto la teología como eso que aún no se llamaba ciencia, se englobaban en la filosofía, por lo que el espíritu del renacimiento era lo que hoy llamaríamos “multidisciplinar”. Entre debates trinitarios y violentos enfrentamientos con otros teólogos, Miguel Servet estudia matemáticas y geografía, con tanto éxito que, trabajando como corrector de pruebas de imprenta se le encarga la publicación de la Geografía de Ptolomeo. Con poco más de 20 años, aborda la labor con pasión, mejorando y actualizando la obra original de modo tan acucioso que por ella se considera hoy que Servet es el fundador de la etnografía y de la geografía comparada.

En 1537, “Miguel Villanovano” marcha a estudiar medicina a París y se gana la vida impartiendo clases de matemáticas. Allí se dedica asiduamente a la disección de cadáveres, y es probable que en estas prácticas se sentaran las bases de su máximo descubrimiento científico, el de la circulación pulmonar (o menor) de la sangre. Pero de nuevo sus inquietudes y su decisión de expresar abiertamente todas sus ideas, le causan problemas.

En 1537 publica un libro sobre jarabes para administrar remedios donde hace gala de conocimientos de farmacología. A éste le sigue otro defendiendo la astrología como auxiliar en el diagnóstico de las enfermedades. Pero en ese libro también Servet denuncia a los médicos que recetan Por esos mismos tiempos comenzó su correspondencia con el que sería el máximo representante y pensador de la Reforma, el propio Calvino.sin contacto con el enfermo, sin atender a las circunstancias ambientales que rodean al paciente.

Ambos libros fueron prohibidos aunque la Inquisición no condenó al estudiante, y Servet se vio obligado a huir nuevamente, ahora a Montpellier, donde finalmente recibe su doctorado en medicina para luego ir a Leuven a estudiar teología.

Servet se inclina por una forma de pensar y enfrentar el mundo que se empezaba a difundir, el método científico: empirismo, exigencia de experimentos y pruebas sólidas. Es un precientífico sin saberlo, y un creyente en la libre expresión, la tolerancia y el libre debate. Por ello dice: "No deben imponerse como verdades conceptos sobre los que existen dudas”.

De 1542 a 1553 practica la medicina en Vienne, Francia, donde fue médico personal del arzobispo Pierre Palmier y, en 1546, envía a Calvino una primera versión de su libro Restitución del Cristianismo, en cuyo libro quinto, Miguel Servet explica por primera vez cómo la sangre es llevada por la arteria pulmonar a la vena pulmonar pasando por los pulmones, cambiando de color y liberándose de lo que Servet llamaría “los vapores fuliginosos”, el bióxido de carbono. Todo para decir que la sangre diseminaba el alma por todo el cuerpo.

El libro agudiza el conflicto con Calvino, al que Servet acabaría llamando acusador, criminal y homicida. Calvino, por su parte, empezó a preparar su venganza. En 1553, al publicarse finalmente el volumen, se desvela la identidad de Servet y la inquisición católica de Lyon detiene al médico. Servet huyó, siendo quemado en efigie.

Su fuga duró poco, sin embargo. Cuatro meses después es reconocido en Ginebra y detenido por las fuerzas calvinistas. Fue quemado vivo como hereje en leña verde el 27 de octubre de 1553. Su labor científica tardaría casi 150 años en ser reconocida, gracias al filósofo y matemático Leibniz, quien inició la recuperación de la obra de Servet, intelecto libre que, incluso, escribió mucho antes de morir: “Es un abuso condenar a muerte a aquellos que se equivocaron en sus interpretaciones de la Biblia”.

Voltaire y Servet

Para el filósofo Voltaire, Servet fue ejemplo clave de libre pensamiento. En sus Memorias habla de Ginebra como la ciudad donde reinó Calvino “y el lugar donde quemó a Servet”, para asegurar que al redactar sus memorias, “casi todos los sacerdotes" aceptan las ideas teológicas de Servet. Más adelante, Voltaire recuerda haber sido atacado por un predicador por haber dicho que Calvino "era de naturaleza cruel y había quemado a Servet sin causa”.

Recambios mecánicos para el ser humano

Prótesis de cadera común
(D.P. vía Wikimedia Commons)
En los últimos años, los avances del mundo de las prótesis están abriendo nuevos horizontes para la resistencia y duración del frágil cuerpo humano.

En la década de 1970 se popularizó una serie de televisión donde un astronauta sufría un terrible accidente y su ojo derecho, su brazo derecho y ambas piernas eran sustituidos por prótesis de tecnología desarrolladísima. La serie llevaba por nombre “El hombre de los sies millones de dólares”, el coste de las reparaciones a las que era sometido el protagonista.

En aquella época, el surtido de piezas de recambio para los miembros humanos ya era variado y empezaba a dejar atrás una tecnología primitiva. Ante la promesa de los ordenadores que apenas iban a salir de empresas y universidades para llegar a los hogares, el asombro de la carrera espacial y los nuevos materiales, la promesa de esta serie era asombrosa: miembros que realmente sirvieran.

Las piernas “biónicas” le permitían al personaje correr a gran velocidad. El ojo le daba visión telescópica e infrarroja y el brazo le permitía levantar pesos tremendos (una hazaña si consideramos que el brazo estaba articulado con una clavícula, sostenida por una columna vertebral apoyada en una pelvis... tres elementos formados de humilde hueso que nunca habrían podido sostener los pesos que levantaba el brazo. Pero vale... es una fantasía.

La historia de las prótesis, que reemplazan artificialmente una parte del cuerpo faltante, se remonta a más de 2000 años. La más antigua evidencia arqueológica de la que disponemos es una pierna artificial hecha con placas de metal martilladas sobre un núcleo de madera que se ataban con cintas al muñón de la pierna faltante.

La ciencia y técnica de las prótesis para amputaciones se vio impulsada, desafortunadamente, por las consecuencias de diversas guerras, y para la época en la que “El hombre de los seis millones de dólares” ocupaba las pantallas caseras, la guerra de Vietnam impulsaba el desarrollo de esta especialidad en los Estados Unidos. Fue por entonces, por ejemplo, que se diseñó la copa moldeada en plásticos de nueva generación que dio a los amputados de piernas una comodidad nunca antes ofrecida. El diseño se ajusta al muñón como un guante, y distribuye correctamente el peso en toda la parte restante, hueso y músculos.

Este principio usado hasta hoy, fija la pierna artificial al muñón y permite hazañas como correr en competiciones oficiales. La fijación suele estar acompañada del llamado “pie de Seattle” o "pie prostético almacenador de energía", que cuenta con un sistema para absorber la energía que recibe al darse un paso para impulsar el siguiente paso. Esto es posible únicamente gracias a nuevos materiales como la fibra de carbono (la misma que se usa en raquetas de tenis o en las carrocerías de los autos de Fórmula Uno) y modernos polímeros, todo ello acompañado de ciencias de reciente nacimiento como la biomecánica y la bioingeniería, que estudian cómo nos movemos y cómo reproducir esos movimientos.

Las manos artificiales, sin embargo, no pueden funcionar de modo únicamente mecánico. En 1964, en la Unión Soviética, comenzó el desarrollo de manos artificiales movidas por pequeños servomotores. Las contracciones de los músculos del muñón del miembro realizadas voluntariamente por el paciente son percibidas e interpretadas por circuitos eléctricos del miembro artificial para abrir y cerrar la mano.

Apenas en 2009 aparecieron los primeros estudios de una mano artificial capaz de sustituir la sensación del tacto. La mano artificial cuenta con sensores táctiles que envían a su vez información para activar pequeños actuadores que tocan el muñón y dan información al poseedor de la prótesis.

Las amputaciones presentan el problema de reproducir el movimiento de las partes perdidas, especialmente cuando ocurren por encima de la rodilla (en las piernas) y por encima del codo (en los brazos). En esos casos, ha sido mucho más difícil desarrollar rodillas y codos artificiales que reproduzcan de modo adecuado los movimientos que ofrecen estas articulaciones.

En estos casos, la opción tecnológica son las rodillas y codos controlados por microprocesadores, que analizan la información sobre la posición y el tipo de movimiento que está realizando el paciente, y procede a enviar señales para que un cilindro hidráulico flexione o extienda la rodilla artificial.

Resulta mucho más sencillo sustituir articulaciones que se hayan desgastado, pero que estén en miembros que cuentan con todos sus músculos, nervios y arterias. Una de las articulaciones que más se sustituye hoy en día es la cadera, sobre todo en personas de edad muy avanzada en cirugías que hace apenas dos décadas se hubiera considerado de altísimo riesgo.

La sustitución de la cadera requiere cambiar los dos elementos de la articulación: la parte superior o cabeza del fémur y el acetábulo o receptáculo que está en la pelvis. La técnica se desarrolló en la década de 1970 y consta de una pieza metálica que se inserta en el fémur, al que se le ha cortado la parte superior, una cabeza de cerámica ultrarresistente y una copa o que se coloca en la pelvis con cemento óseo o tornillos y donde se articula la cabeza.

La existencia de huesos y músculos ha facilitado y permitido un notable éxito para implantes como los de reemplazo de cadera, de codo (con una bisagra simple) y rodilla (donde dos piezas metálicas se colocan en los extremos del fémur y la tibia, y entre ellos un espaciador de un plástico altamente resistente que permite el movimiento del metal sin fricción).

Estos y otros implantes, como los tornillos y placas utilizados para fijar y reparar fracturas, la piel artificial, los implantes cocleares que le han devuelto el oído a muchísimas personas, avanzan continuamente gracias a nuevos materiales, nuevos desarrollos de la microminiaturización y una mejor comprensión de nuestro cuerpo. Quizá nunca lleguen a la ciencia ficción, un tanto ingenua de la TV de 1970, pero cada paso adelante tiene un claro beneficio en vidas de mayor calidad y duración.

El problema del ojo

El ojo artificial solía ser únicamente cosmético, una pieza de vidrio o plástico para ocultar una inquietante cuenca vacía. Actualmente están en desarrollo no menos de 17 proyectos distintos que buscan restituir la función visual a los ciegos, entre ellos el de la Neuroprótesis Visual Cortical, Cortivis, con grupos en seis universidades, todos encabezado por el Dr. Eduardo Fernández del Instituto de Bioingeniería en la Universidad Miguel Hernández, en Alicante. Este proyecto en concreto utiliza una “cámara” o codificador bioinspirado que envía señales a un microprocesador situado en la nuca que estimula a su vez la corteza visual del cerebro, de modo análogo al de los implantes cocleares.

Satélites de comunicaciones y GPS

Satélite GPS-IIRM
(D.P. vía Wikimedia Commons)
Ciertos avances tecnológicos pueden a veces implantarse de modo tan silencioso que no apreciamos el alcance del cambio que producen en nuestras vidas, como los satélites de comunicaciones.

La primera vez que se propuso la posibilidad de utilizar satélites para retransmitir señales de comunicación entre dos puntos de la Tierra ni siquiera había comenzado la era espacial.

Era octubre de 1945, y el especialista e instructor de radar de la Real Fuerza Aérea británica, Arthur Charles Clarke, aficionado a la astronomía y a la lectura de relatos de ciencia ficción desde su niñez, publicaba el artículo “Retransmisores extraterrestres: ¿pueden las estaciones cohete darnos cobertura mundial de radio?” en la revista Wireless World, dedicada a la radio y la naciente rama de la electrónica.

La idea del joven soldado que no había podido pagarse una educación universitaria por los recursos limitados de sus padres era ubicar un satélite artificial en una órbita geoestacionaria, es decir, que se mantuviera siempre sobre el mismo punto de nuestro planeta. Para conseguir esa posición el satélite debe tener una órbita geosincrónica, es decir, dar una vuelta a la Tierra en exactamente el mismo tiempo que tarda la Tierra en girar una vez alrededor de su eje y que esa órbita esté directamente sobre el ecuador terrestre, además de mantener la misma altura todo el tiempo.

Con esas características, el satélite funciona como un punto fijo visto desde nuestro planeta, y puede por tanto recibir comunicaciones con una antena y reenviarlas con otra, consiguiendo unir puntos sumamente distantes de modo muy sencillo. Cualquier otra órbita que no sea una “órbita de Clarke” como se le llama actualmente, exige que el satélite tenga antenas móviles para hacer el rastreo de las señales entrantes con una antena y mantenerse “apuntando” al punto de recepción de la señal.

Unir esos mismos puntos sin los satélites requeriría de una red de estaciones repetidoras o retransmisoras en línea de visión la una de la otra, pues ondas como las de televisión o las microondas viajan en línea recta.

El soldado pasó a convertirse en el autor de ciencia ficción Arthur C. Clarke, creador, entre otras muchas historias, de 2001: una odisea del espacio, mientras que otras personas se acercaban a la idea del satélite de telecomunicaciones para hacerla realidad. Primero, los satélites se utilizaron para almacenar y reenviar mensajes grabados, como el SCORE de 1958, o eran globos aluminizados que reflejaban pasivamente ondas de radio o de radar.

Pero el 10 de julio de 1962 se lanzaba el primer satélite de telecomunicaciones que activamente recibía y retransmitía señales, el Telstar 1, que en su breve vida (dejó de funcionar el 21 de febrero de 1963) retransmitió imágenes de televisión, llamadas telefónicas e imágenes de fax, realizando el primer enlace directo transatlántico entre Estados Unidos y Europa.

Los satélites de comunicaciones de hoy en día no sólo utilizan órbitas Clarke, sino otras varias órbitas en función de las necesidades que sirven. La telefonía, por ejemplo, fue una de las principales aplicaciones hasta que el uso de cables submarinos de fibra óptica empezó a desplazarlos por ser más eficientes y económicos, salvo por los teléfonos que se comunican directamente con los satélites, usados en sitios inaccesibles y sin servicio ordinario.

Uno de los principales usos de los satélites de telecomunicaciones es la televisión, tanto la que se transmite directamente a los hogares “via satélite” hasta los enlaces de grandes emisoras con sus subsidiarias, o de reporteros y unidades remotas hacia las centrales de producción. Así, por ejemplo, las imágenes de un partido de fútbol se envían usando enlaces de satélite desde la central de realización en la unidad remota hasta la central, de donde la señal se reenvía a las televisoras nacionales, o a las emisoras de televisión digital usando otros varios enlaces de satélite en todo el mundo.

Salvo por pequeños retrasos debidos a la gran distancia a la que están los satélites de comunicaciones, la señal de cada jugada del Mundial estará en todos los televisores del mundo prácticamente en el mismo momento en que ocurra.

Otras utilizaciones son la radio por satélite, el servicio de Internet por satélite, las comunicaciones militares de distintos ejércitos o grupos multinacionales como la OTAN y, de manera muy especial, la navegación, y no sólo la que ocurre en embarcaciones, sino todo tipo de navegación u orientación en cualquier vehículo terrestre, aéreo, marítimo o, incluso, a pie.

La navegación con ayuda de satélites se realiza gracias al llamado Sistema de Posicionamiento Global, GPS por sus siglas en inglés. Este sistema proporciona información precisa sobre la ubicación y la hora de cualquier receptor de GPS que pueda “ver” (es decir, que esté en la línea de visión directa) al menos cuatro satélites de los entre 24 y 32 satélites que actualmente forman la red. El primero de ellos se lanzó en 1989, la constelación de 24 satélites se completó en 1994 y se han seguido lanzando satélites más avanzados para reemplazar a los que van saliendo de servicio.

Nuestro receptor GPS, instalado en el automóvil o como parte de nuestro teléfono móvil, ordenador portátil o agenda electrónica, recibe las señales enviadas por los satélites mediante microondas. Estas señales incluyen entre sus datos el momento preciso del envío de la señal, la información orbital precisa del satélite y las condiciones generales del sistema junto con una ubicación general de sus órbitas.

El receptor, verdadero portento informático, realiza a velocidad vertiginosa el cálculo del tiempo de transmisión de cada uno de los cuatro o más mensajes que recibe y computa la distancia a cada uno de los satélites. Mediante un algoritmo matemático, calcula su posición respecto de los satélites, y ésa es la posición que se nos muestra, ya sea simplemente como un conjunto de coordenadas o situándonos en un mapa que nos pone en el contexto de nuestro entorno.

Los mapas de papel, los extravíos tremendos, el tiempo perdido y los problemas para localizar, por ejemplo, a víctimas de deslaves o avalanchas, poco a poco se van sustituyendo por este sistema, originalmente creado para la guerra y que sin embargo hoy ahorra tiempo, facilita la vida y, en muchos casos, salva vidas en tierra, mar y aire.

Del ejército a la vida civil

El sistema GPS nació como un proyecto de la década de 1970 para el ejército de Estados Unidos. El sistema se puso a disposición de los civiles después de que, en 1983, un caza soviético derribara a un avión civil de pasajeros coreano. Debido a un error de navegación, el vuelo KAL 007 entró en espacio aéreo prohibido por la Unión Soviética, y en el ataque resultante murieron sus 269 ocupantes.

La muerte, obsesión de la especie

Fotografía © Mauricio-José Schwarz
Morir es el destino de los hombres, un misterio profundo y un miedo que ha dominado las culturas humanas y grandes preocupaciones científicas

En abril, los diarios dieron la noticia de un estudio de la revista Current Biology (Biología actual) según el cual los chimpancés enfrentan la muerte de modo muy parecido al que lo hacemos los seres humanos. En las filmaciones, se veía a la tropa despiojando y peinando a una hembra anciana que había muerto, como lo hacían cuando estaba viva. Otros investigadores vieron a hembras que llevaban consigo los cuerpos de sus crías muertas durante días y semanas.

Pero aún si la reacción ante la muerte, que también exhiben de modo enternecedor los elefantes y los perros, está extendida entre los seres vivos, hasta donde sabemos sólo el hombre es capaz de mirar saber que morirá como ha visto morir a otros. Somos el único animal consciente de que su vida es limitada.

Es un ejercicio interesante imaginar a los primeros homínidos que por vez primera se hacían conscientes de que uno de los suyos, acaso un ser querido, dejaba de moverse, de reaccionar a los estímulos, que está y es... pero al mismo tiempo ya no está y ya no es. El asombro, el miedo que pudo apoderarse de ellos al percibir la muerte en toda su irreversibilidad deben haber sido enormes. ¿Qué pasaba? ¿El compañero iba a despertar eventualmente? Y cuando no lo hacía y empezaba a descomponerse, ¿qué preguntas surgían?

Ciertamente, el muerto causaba temor, y el contacto con él se consideraba tabú entre muchas culturas, desde los antiguos persas a los hebreos, que en el Libro de los Números de la Biblia ordenan echar del campamento “a todo contaminado con muerto”, desde los zoroastrianos hasta los polinesios. El oficio de enterrador, incluso hoy, ha comportado siempre un estigma social y un temor irracionales.

¿Qué pasaba cuando alguien soñaba a un muerto? ¿Acaso no le parecía que estaba experimentando una visión de otro mundo donde seguía vivo, donde seguía siendo y estando? Porque en esos sueños el muerto caminaba, reía y hablaba, mandando acaso “mensajes desde allá” a los que seguían “aquí”. Más preguntas, más inquietudes.

De allí, creen muchos antropólogos, surgirían las religiones, gran parte de la filosofía, del arte y de las profundas dudas que nos convierten, en cierta medida, en una especie obsesionada por la muerte. Gran cantidad de nuestros monstruos son, precisamente, muertos que vuelven como los zombies o el monstruo de Frankenstein, o seres que quedan a la mitad entre la vida y la muerte, como los vampiros o "no muertos".

Por eso numerosos estudiosos consideran que la civilización comienza al mismo tiempo que los ritos funerarios. Los más antiguos parecen remontarse al menos a 60.000 años de antigüedad entre nuestros cercanos parientes, los neandertales, de los que se han encontrado enterramientos acompañados de cuernos de animales y fragmentos de flores, indicando que algún tipo de rito funerario, del que dejarían amplio testimonio tiempo después nuestros ancestros, al llegar a Europa.

La fisiología de la muerte

Más allá del hecho antropológico de nuestra conciencia sobre el eventual—e inevitable—fin de nuestra vida, está el problema de cómo determinar cuándo una persona ha dejado de vivir, cuándo ha muerto... y saberlo antes de los primeros desagradables signos de la descomposición.

Las primeras definiciones consideraban la interrupción definitiva del latido cardiaco y de la respiración. Pero, como demostró la preocupación por el enterramiento en vida en el siglo XIX, que tan bien plasmó Edgar Allan Poe en su relato “El entierro prematuro”, el latido cardiaco y la respiración no eran indicadores fiables, podían provocar una declaración de muerte en falso si eran poco perceptibles. Las noticias que de cuando en cuando llegan a los diarios sobre personas que “despiertan” durante sus funerales o velatorios, muestran por qué era necesario diagnosticar la muerte de modo claro.

La palidez, el asentamiento de la sangre en parte inferior del cuerpo, el rigor mortis y la caída en la temperatura corporal fueron signos claros de la muerte, pero para entonces el cuerpo ya era inviable. El surgimiento de las técnicas de trasplante llevó a una redefinición, con el consenso en casi todo el mundo de que la muerte de la persona es la muerte cerebral, aunque el cuerpo siguiera fisiológicamente vivo. La implicación filosófica es clara: somos nuestro cerebro, nuestra personalidad está inscrita en la danza electroquímica de comunicación de nuestras neuronas.

Cuando el electroencefalograma es plano, cuando ya no existe actividad electroquímica, dejamos de ser aunque nuestro cuerpo siga vivo, los pulmones respiren y el corazón lata. Y, por otra parte, con un procedimiento adecuado de resucitación cardiorrespiratoria, fármacos y desfibrilación, un paro del corazón y la respiración no es igual a la muerte pues es reversible.

De hecho, algunos estudiosos hoy abogan porque se considere muerto a quien no tiene actividad en la corteza cerebral superior, que es característica de los humanos, aunque siga teniendo actividad en las zonas más antiguas y más inferiores del encéfalo.

El cerebro muere gradualmente. Al detenerse el corazón, se suspende el suministro de oxígeno a las neuronas, que pueden sobrevivir apenas unos cinco o seis minutos. Si en ese plazo no se reanudan la circulación sanguínea y la respiración, muy probablemente la víctima sufrirá daño cerebral, más grave mientras más tiempo pase privado de oxígeno. Las primeras en morir son las neuronas de la corteza superior, primero las de las zonas motoras y después las de las zonas sensoriales.

Cuanto conocemos hoy acerca de la muerte no ha logrado tranquilizar, al menos en la mayoría de las personas, el miedo a morir, la repulsión a los muertos y, como contraparte, el largamente acariciado sueño de la inmortalidad, de vencer a ese enemigo que nos ha aterrorizado desde el inicio de la autoconciencia que nos define como especie.

La granja de los cadáveres

Lo que ocurre después de la muerte no era bien conocido hasta muy recientemente. Partes normales del proceso de descomposición o momificación de los cuerpos fueron confundidas en el pasado con síntomas de vampirismo u otros horrores, pero el estudio científico de los procesos de descomposición se inició con fines forenses. Su máximo exponente es el antropólogo forense Bill Bass, que en 1981 puso en marcha la mundialmente conocida "granja de cadáveres", donde con cuerpos donados de personas y cerdos se estudian los procesos de descomposición en distintas condiciones de enterrramiento, humedad, aislamiento, etc. para conseguir lo que nunca pudieron hacer los médiums: que los muertos cuenten historias importantes y, muchas veces, incluso señalen a sus asesinos.

La ecuación más famosa del mundo

Encontramos E=mc2 en todas partes, desde dibujos animados hasta esculturas. Es la ecuación más famosa, pero... ¿qué significado tiene?

Albert Einstein a los tres años (1882)
(Foto D.P. vía Wikimedia Commons)
Era 1905 cuando el poco conocido físico que trabajaba como examinador de la oficina de patentes de Berna, Suiza, Albert Einstein, presentó cuatro trabajos de física en la reconocida revista científica alemana Annalen der Physik (Anales de la Física).

Estos cuatro trabajos, tan cercanos en el tiempo, son un logro sin paralelo en la ciencia. Los cuatro refundaron la física en los términos en que la entendemos hoy en día, y por ellos se conoce a 1905 como el annus mirabilis o “año maravilloso" de Einstein.

El primero de los artículos decía que la energía se emite en paquetes discretos llamados “cuantos de energía”, lo que explicaba entre otras cosas el efecto fotoeléctrico y sentaba las bases de la mecánica cuántica. El segundo se ocupaba del movimiento browniano de las partículas suspendidas en un líquido. El tercero analizaba la mecánica de los objetos a velocidades cercanas a la de la luz, lo que se conocería después como la “teoría especial de la relatividad”.

El cuarto artículo afirmaba que la materia y la energía eran equivalentes, es decir, que la materia y la energía son dos formas diferentes de lo mismo,.y que esa equivalencia se veía definida por la ecuación E=mc2.

Esta ecuación en apariencia sencilla significa simplemente que el contenido de energía de cualquier trozo de materia es equivalente a su masa (m) multiplicada por la velocidad de la luz (c) elevada al cuadrado.

La ecuación E=mc2 no es, como en ocasiones se cree, la ecuación de la teoría de la relatividad. Es un resultado de dicha teoría, ciertamente, pero nada más. Parte de su encanto, muy probablemente, es su simplicidad: cinco símbolos con significado claro que chocan con los encerados pletóricos de símbolos extraños que suelen representar a los matemáticos y a los físicos.

Para entenderlo, veamos primero cómo medimos la energía La medida de la energía son los joules, o julios, denominados así en memoria del físico inglés James Prescott Joule. 1 joule es la cantidad de energía necesaria para elevar en 1 grado Celsius la temperatura de 1 kilogramo de agua, y se define como 1kg m2/s2, kilogramo por metro al cuadrado entre segundo al cuadrado.

Sabiendo cómo definimos la energía, pensemos ahora qué pasaría si convertimos 1 gramo de materia, un modesto y sencillo gramo de materia, en energía. Es decir, cuánta energía hay contenida en un gramo de cualquier cosa que queramos, un gramo que es igual a 0,001 kg. La energía (E) se obtendría multiplicando 0,001kg por la velocidad de la luz al cuadrado.

La velocidad de la luz es aproximadamente de 300.000 kilómetros por segundo, es decir, 300.000.000 metros por segundo

La operación sería, entonces E=0,001 kg x 300.000.000 m/s x 300.000.000 m/s

Lo que resulta en E=90.000.000.000.000 kg m2/s2 o simplemente joules.

Estos 90 billones de joules equivalen, a su vez, a la explosión de más de 21.000 toneladas de TNT. Para darnos una idea de lo que eso significa, la bomba atómica arrojada sobre Hiroshima liberó una energía explosiva de entre 13 y 18 mil toneladas de TNT, o kilotones.

En la reacción nuclear llevada a cabo en el interior de aquella atroz arma de destrucción masiva, menos de 1 gramo del uranio 235 que la componía se transformó en energía... y ello bastó para arrasar la ciudad y matar a más de 60.000 personas de inmediato. Es decir, la cantidad de energía concentrada en la masa es asombrosamente grande.

Más allá de medir el potencial destructivo, claro, E=mc2 nos dice que si pudiéramos controlar la liberación de energía de un gramo de masa obtendríamos 25.000.000 de kilovatio-horas de energía eléctrica. La energía eléctrica necesaria para encender 25 millones de bombillas de 100 vatios durante 10 horas.

La ecuación de Einstein, por tanto, nos decía que existe una fuente de energía abundantísima en la materia que nos rodea. La pregunta, claro, era cómo obtener esa energía. Desde que Cockroft y Walton ofrecieron la primera confirmación experimental de la equivalencia entre masa y energía, en 1932, gran parte del trabajo técnico se ha orientado a conseguir una buena solución técnica para obtener energía a partir de la masa.

Las centrales nucleares, que utilizan la fisión o división de los núcleos de materiales radiactivos para obtener energía, son una forma de rentabilizar, por así decirlo, la ecuación de Einstein. Pero la gran promesa para resolver las necesidades energéticas de la humanidad se encuentra en la fusión nuclear, el proceso de unión de dos núcleos para formar un elemento más pesado, que también libera una gran cantidad de energía.

El sol es un horno de fusión nuclear. Y es la ecuación E=mc2 la que explica cómo la fusión de átomos de hidrógeno para formar átomos de helio en las estrellas, incluida la nuestra, tiene la capacidad de producir tanta energía. La comprensión científica tanto nuestro sol como de todas las estrellas, e incluso el Big Bang como origen del universo, del espacio y el tiempo, requerían como antecedente fundamental la ecuación de equivalencia de masa y energía de Einstein.

Esta fórmula, además, es clave para explicar uno de los fenómenos más curiosos de la teoría de la relatividad de Einstein, y es el que establece que ningún objeto con masa puede alcanzar la velocidad de la luz: al añadir energía a un objeto, se hace aumentar su masa. Es decir que, por ejemplo, al calentar agua en un microondas, el agua adquiere una cantidad adicional de masa, así sea casi infinitesimal. Y lo mismo ocurre al acelerar cualquier objeto: hacemos crecer su masa.

Si aceleramos un objeto de tal modo que se aproxime a la velocidad de la luz, la aplicación de la energía hará que su masa crezca en consecuencia. A mayor energía, mayor masa y, por tanto, se necesita más energía para seguir acelerando el objeto. Al aproximarse a la velocidad de la luz, la masa de cualquier objeto tiende a infinito.

Dicho de otro modo, si aceleramos cualquier objeto con masa, así sea un grano de café, hasta que llegue a la velocidad de la luz, su masa sería infinita y ocuparía todo el universo.

Así que, aunque podamos buscar la forma de obtener energía abundante, limpia y barata a partir de la ecuación de Einstein, también ella nos dice que los viajes instantáneos por el universo están al parecer condenados a ser, para siempre, cosa de fantasía.

La ecuación y su creador

Sobre E=mc2, Einstein dijo: “De la teoría especial de la relatividad se seguía que la masa y la energía no son sino distintas manifestaciones de una misma cosa... un concepto más bien poco corriente para la mente promedio." Hoy, 105 años después de que enunciara la ecuación, quizá la “mente promedio” se haya acercado un poco a la genialidad del físico del peinado imposible.

Tim Berners-Lee, el señor WWW

Pocos hombres como el inventor de la World Wide Web han visto al mundo transformarse con el impulso de sus ideas.

Tim Berners-Lee en 2009.
(foto CC Silvio Tanaka, via
Wikimedia Commons)
Tim Berners-Lee cumplirá apenas 55 años en junio, pero su rostro es casi desconocido para la mayoría de las personas, y su nombre es apenas un poco más reconocible, aunque sin él no habría redes sociales ni páginas Web, ni buscadores, ni navegadores Web, ni desarrolladores para la Web, ni nuestra puerta a la información, la comunicación, el conocimiento y la diversión. Porque fue este personajequien creó lo que hoy conocemos como la World Wide Web.

Tim Berners-Lee nació en Londres el 8 de junio de 1955, hijo de dos informáticos de gran relevancia. Su padre, Conway Berners-Lee, es un matemático, ingeniero y científico informático que trabajó en la creación del Ferranti Mark 1, el primer ordenador elctrónico comercial con programas almacenados. En la fiesta de Navidad de Ferranti en 1952, Conway conoció a la madre de Tim, Mary Lee Woods, también matemática y una de las programadoras del Ferranti Mark 1.

Con esos antecedentes, no fue extraño que, después del bachillerato, el joven Tim pasara al afamado Queens College de Oxford, donde recibió un título de primera clase en física y se empezara a dedicar a la informática.

El hipertexto

En 1980, Berners-Lee fue contratado como proveedor para la Organización Europea para la Investigación Nuclear, CERN, donde propuso usar el hipertexto inventado por Ted Nelson (texto que incluye referencias o enlaces a otros documentos a los que el lector puede acceder), para que los científicos de CERN pudieran compartir datos. Para ello escribió el programa ENQUIRE, un software de hipertexto muy parecido a lo que hoy conocemos como “wiki”, cuyo ejemplo más conocido es la Wikipedia.

Después de trabajar algunos años en empresas privadas, Berners-Lee volvió a CERN como investigador del centro. CERN era, y sigue siendo ahora con el Gran Colisionador de Hadrones, el LHC, el mayor laboratorio de física de partículas del mundo. Ello implica que genera grandes cantidades de información que deben hacerse accesibles a los investigadores del centro y del mundo, y que tiene una gran relación con los centros de la física en todo el mundo, por lo que en 1989 CERN era el mayor nodo de Internet de toda Europa.

Pero era un Internet donde era difícil encontrar la información, con diversos protocolos o formas de comunicación, y que requería que sus usuarios conocieran lenguaje de programación para usar cosas como la transferencia de archivos por FTP, los grupos de noticias de Usenet e incluso el correo electrónico, todo lo cual ya existía.

Lo que no había era ordenadores comunes, programas comunes ni programas de presentación comunes para intercambiar información. Berners-Lee se planteó unir sus ideas sobre el hipertexto con Internet para enlazar la información y hacerla accesible. Su primera propuesta a CERN fue en marzo de 1989 y le siguió una versión refinada con ayuda de Robert Cailliau en 1990.

En 1990, Tim Berners-Lee creó los elementos esenciales de la red. El HTTP, o "Protocolo de Transferencia de HiperTexto”, las reglas según las cuales la forma se comunican y entienden las máquinas que solicitan algo mediante un enlace de hipertexto y las que lo sirven. El HTML, o “Lenguaje de Marcado de HiperTexto”, para incluir en el texto elementos de formato y enlaces a imágenes, gráficos y documentos que pueden estar en otras máquinas. Finalmente, el navegador interpreta el lenguaje HTML para presentarlo al lector, transmitir las solicitudes de los enlaces y recibir documentos e imágenes.

Había nacido la Web.

Una danza de millones y millones

El 6 de agosto de 1991, Berners-Lee escribió un resumen de su proyecto en el grupo de noticias alt.hypertext. Ese día, la World Wide Web se convirtió en un servicio público y, en el plazo de apenas cinco años, en una gran oportunidad de negocios donde han surgido fortunas fabulosas, como las de los creadores de ICQ, YouTube, FaceBook o Google.

Pero entre ellos no se cuenta Tim Berners-Lee.

En poco tiempo, se convirtió en preocupación principal del inventor que la Web se mantuviera libre, sin patentes ni regalías. Para ello, primero, Tim Berners-Lee regaló su invento al mundo, como lo hicieran en su momento Jonas Salk, creador de la vacuna contra la polio, y Alexander Fleming, descubridor de la penicilina. En segundo lugar, en 1994 fundó en el renombrado MIT (Instituto de Tecnología de Massachusets) el W3C o Consorcio de la World Wide Web, dedicado a crear estándares libres de regalías y recomendaciones para la red, que durante años ha dirigido desde una modesta oficina.

A los 54 años, el innovador británico ha reunido una impresionante cantidad de reconocimientos. En su país natal es Caballero del Reino, Orden del Mérito, miembro de la Royal Society y de varias sociedades más. La revista Time lo nombró entre las 100 personas más influyentes del siglo 20, ha obtenido reconocimientos en Finlandia, Estados Unidos, Holanda y España, donde la Universidad Poltécnica de Madrid lo nombró Doctor Honoris Causa en 2009.

Desde 2009 trabaja en el proyecto británico para hacer los datos de gobierno más accesibles y transparentes para el público en general, lo que se conoce como open government o gobierno abierto. Tal como quiere que sea la red, libre, sin censura, donde los proveedores ni controlen ni monitoricen la actividad de los internautas sin su permiso explícito.

Y, entretanto, se ocupa de lo que será la nueva era de la World Wide Web, según la concibe su creador: la Web Semántica, o Web 3.0, donde los datos no estarán controlados por las aplicaciones que están en red, sino que los propios datos estarán en red, para integrar, combinar y reutilizar los datos, una red de conceptos y no de programas.

Después de todo, Tim Berners-Lee tiene por delante muchos años para volver a sorprender al mundo y ponerlo de cabeza. Y siempre desde una modestia y falta de avaricia de la que tanto podrían aprender tantos.

Los nombres de la red

La World Wide Web (red a nivel mundial), pudo llamarse de muchas formas. Tim Berners-Lee quería destacar que era una forma descentralizada en la que cualquier cosa se podría enlazar a cualquier otra, y entre los nombres que desechó estuvo “Mine of information” (mina de información, cuyas siglas son MOI, "yo" en francés, que le pareció "un poco egoísta"), “The Information Mine” (la mina de información, que desechó porque sus siglas son, precisamente, su nombre, TIM) e “Information mesh” (malla de información, que le parecía que sonaba demasiado parecida a “mess”, confusión). Finalmente, el nombre se eligió porque la red es global, y porque matemáticamente es una red. Además, sentía Berners-Lee, una letra identificativa sería útil. Aunque sea difícil pronunciar WWW en casi todos los idiomas.

Transbordador espacial, fin de ciclo

Primera prueba de vuelo planeador del transbordador
Enterprise, que nunca llegó a ir al espacio.
(foto D.P. NASA, vía Wikimedia Commons)
El 12 de abril de 1981 se lanzó la primera misión del Transbordador Espacial, proyecto destinado a revolucionar la exploración espacial del país que había ganado la carrera a la Luna.

Entre septiembre y diciembre de 2010, a menos que el presidente Obama decida una ampliación, tendrá lugar el último viaje de estas naves, cerrando un ciclo en la exploración del espacio.

El Transbordador Espacial se diferencia de todas las anteriores naves espaciales en que sus principales componentes son reutilizables. Desde el vuelo de su primer astrounauta hasta 1975, las naves habían sido cohetes de varias etapas que se iban desechando conforme ascendían, hasta quedar únicamente la “cápsula” superior del cohete, donde viajaban los tripulantes.

La cápsula volvía a Tierra frenada por paracaídas y caía al mar, sin que se reutilizara tampoco ninguno de sus componentes.

Entre 1959 y 1963 hubo 6 misiones del programa Mercury de un solo tripulante. De 1963 a 1966 se lanzaron 10 misiones del programa Gemini, de dos tripulantes. Y de 1961 a 1972 hubo 17 misiones Apolo, 11 de ellas tripuladas con tres astronautas cada una y cuyo objetivo fue llegar (y volver en varias ocasiones) a la Luna. Tres misiones Apolo se cancelaron por recortes presupuestales.

Las cápsulas Apolo, con cohetes Saturno Ib, menos potentes que el Saturno V que las llevó a la luna, se utilizaron en 1973 en tres misiones a la malograda estación espacial Skylab y en 1975 protagonizaron el primer “encuentro orbital” con una cápsula Soyuz de la Unión Soviética.

Por cierto, todas las misiones tripuladas de la URSS hasta 1989 y de Rusia desde entonces, se han realizado con cohetes de etapas y cápsulas Sputnik, y desde 1963 en sucesivas versiones de las cápsulas Soyuz, para un total de más de 110 misiones orbitales.

Desde la década de 1960, sin embargo, la NASA trabajó en el diseño de una nave reutilizable, que en teoría haría menos costosos los vuelos y podría llevar una carga útil mayor. El diseño final fue lo que técnicamente se conoce como Sistema de Transportación Espacial, formado por un enorme tanque de combustible externo, dos cohetes impulsores sólidos y un vehículo orbitador dotado de tres motores propios y de una serie de pequeños motores impulsores que forman el sistema de maniobra orbital.

La secuencia de puesta en órbita es la siguiente: en el lanzamiento vertical de la nave entran en acción tanto los cohetes impulsores sólidos como los motores del orbitador, alimentados por el hidrógeno y el oxígeno que contiene el tanque externo. Unos dos minutos después del despegue, los cohetes impulsores sólidos se desprenden y caen al mar en paracaídas para ser rescatados y reutilizados.

El orbitador y el tanque siguen hasta llegar a la órbita que ocupará la misión. Entonces el tanque se desprende y cae a tierra, y aunque no se quema al reingresar a la atmósfera, no se reutiliza como tal en otra misión, pero sí se recicla para distintos fines.

El orbitador, que es lo que habitualmente conocemos como “transbordador espacial”, puede llevar hasta ocho astronautas, además de contar con un enorme compartimiento de carga de 18 por 4,5 metros dotado de un brazo robótico que se ocupa de manipular la carga. En este compartimiento de carga, por ejemplo, viajó el telescopio espacial Hubble. El brazo robótico del compartimiento puede además “capturar” vehículos para su reparación, como lo ha hecho con el propio telescopio Hubble, primero para repararlo y después para mejorar continuamente sus capacidades de exploración de nuestro universo.

Terminada su misión, el orbitador reingresa en la atmósfera. La parte inferior del vehículo está cubierta de ladrillos de cerámica altamente resistente al calor, que le permite sobrevivir a las elevadísimas temperaturas provocadas por la fricción en el reingreso. Una vez en la atmósfera, el vehículo puede corregir el rumbo con instrumental de vuelo y sus motores, pero esencialmente es un planeador que vuela sin potencia propia hasta aterrizar.

En total se construyeron seis orbitadores. El primero, el Enterprise, no tenía por objeto llgar a ponerse en órbita, y se usó únicamente para las pruebas atmosféricas. Curiosamente, su nombre fue elegido por la presión de los aficionados a la clásica serie de ciencia ficción Star Trek, cuya nave es, precisamente, el Enterprise. Los otros cinco orbitadores fueron el Challenger, el Columbia, el Discovery, el Atlantis y el Endeavour.

Dos de ellos sufrieron accidentes fatales.

El 28 de enero de 1986, podo después de su despegue, el transbordador Challenger se desintegró en vuelo a causa de una junta defeectuosa en uno de los dos cohetes impulsores sólidos, falleciendo los siete miembros de su tripulación.

El 1º de febrero de 2003, al reingresar a la tierra y pocos minutos antes de su aterrizaje, el transbordador Columbia se desintegró a causa de un pequeño trozo del aislante del tanque externo que se desprendió en el lanzamiento y golpeó el ala izquierda, dañando los ladrillos de cerámica térmica. Al reentrar en la atmósfera, las alas llegan a los 1.650 grados centígrados de calor, y en el proceso cayó uno de los ladrillos, lo que desencadenó el desastre en el que perecieron los siete astronautas de a bordo.

Criticado por su diseño, por no haber conseguido la relación costo-beneficio originalmente prometida y por sus problemas de seguridad, causantes de los dos desastres más costosos en vidas humanas de los programas espaciales, el transbordador espacial pasará a la historia sin embargo como la transición de la competitiva carrera lunar al esfuerzo cooperativo de la Estación Espacial Internacional.

Y, con un presupuesto total de 150 mil millones de dólares en su historia de casi treinta años de viajes espaciales, conviene recordar que los beneficios que ha aportado para el conocimiento, la industria y la tecnología es apenas una quinta parte de lo que ha costado la guerra de Irak desde 2001, y bastante menos de lo que han costado únicamente los rescates bancarios de la crisis financiera desde 2008 en todo el mundo, por mencionar dos ejemplos.

En realidad, un dinero bien invertido.

Después del transbordador

Durante al menos cinco años, Estados Unidos dependerá totalmente de las naves soviéticas Soyuz para sus misiones tripuladas, principalmente el envío de su personal a la Estación Espacial Internacional. Después entrará en acción el programa Orión, actualmente en desarrollo, cápsulas impulsadas por un cohete Ares I de dos etapas, la primera de las cuales es totalmente reutilizable. El vehículo Orión, el módulo de tripulación, es un regreso al concepto original de la cápsula espacial cónica, aunque ahora totalmente reutilizable salvo por el escudo térmico que la protege al reingreso. Si la política no dicta otra cosa, su primer vuelo será en 2015.

Genética no es destino

Dos ratones clonados, genéticamente idénticos,
pero con distinta expresión genética de la cola por
factores epigenéticos.
(foto CC Emma Whitelaw via Wikimedia Commons)
¿Por qué somos como somos?

Durante gran parte de la historia humana, se atribuyó la respuesta a una fuerza más o menos misteriosa llamada “destino”, o a los designios, caprichos y devaneos de los dioses.

Aún entonces se entendía ya que existía una herencia. Los padres rubios o de baja estatura tendían a tener hijos rubios o de baja estatura. Así, incluso en la mitología griega, los hijos de los dioses con seres humanos eran semidioses, y tenían algunas de las características de sus padres divinos.

A partir del siglo XIX, con los trabajos de Darwin y Mendel, empezaron a descubrirse los mecanismos de la herencia. Y pronto supimos que nuestras células albergan largas cadenas de ADN que heredamos de nuestros progenitores, y en las que están presentes los genes, segmentos de esta molécula que producen proteínas.

La herencia genética se convirtió pronto en una pseudoexplicación para casi cualquier rasgo humano. Si los negros o las mujeres tenían calificaciones más bajas en la escuela, no se pensaba que su entorno social, familiar, económico, alimenticio y formativo temprano podría tener la culpa, sino que se echaba mano rápidamente de la “genética” para explicarlo.

La incomprensión de la herencia llevó muy pronto a aberraciones tales como la eugenesia, el racismo con coartada, el darwinismo social y otras ideas sin sustento científico que, sin embargo, marcaron la historia humana, especialmente en el origen y trágicos resultados de la Segunda Guerra Mundial.

Así se empezaron a buscar los “genes de” las más distintas características físicas y conductuales del ser humano, y los medios de comunicación procedieron a informar, no siempre con el rigor y la cautela necesarios, de la existencia de “genes de” la calvicie, el cáncer, el alcoholismo, la esquizofrenia, la capacidad matemática, la genialidad musical y muchos más.

En la percepción pública, nuestros genes marcaban de manera fatal, decisiva e irreversible todo acerca de nosotros. Las compañías de seguros se plantearon rápidamente la discriminación genética, para no venderle seguros de salud a personas genéticamente predestinadas a sufrir tales o cuales afecciones, y no pocas empresas se plantearon más o menos lo mismo

Sin embargo, al finalizarse el proyecto de codificación del genoma humano en 2003 y empezarse a estudiar sus resultados, se descubrió que en nuestro ADN hay únicamente alrededor de 25.000 genes que efectivamente codifican proteínas, entre el 1% y el 2% del ADN.

Evidentemente, eran demasiado pocos genes para explicar la enorme cantidad de rasgos físicos y de comportamiento, emociones, sentimientos y procesos intelectuales del ser humano. Más aún, el nombre dado al ADN restante "junk" o "basura" parecía indicar que el 98% de toda nuestra carga genética era inservible.

Como suele ocurrir en la ciencia, se ha ido demostrando, sin embargo, que las cosas son bastante más complicadas.

Los genes codifican proteínas, que son cadenas más o menos largas formadas a partir de sólo 20 elementos básicos, los aminoácidos. Los 25.000 genes codificadores de nuestro ADN son capaces de sintetizar entre uno y dos millones de proteínas distintas. Para ello, el gen produce una copia de uno de sus lados en ARN mediante el proceso llamado “transcripción”, y el ARN resultante es “editado” (cortado y vuelto a unir) para convertirlo en el ARN mensajero que directamente toma los aminoácidos y “arma” una molécula de proteína que puede contener casi 30.000 aminoácidos en distintas secuencias.

Pero, ¿cómo “sabe” un gen que debe iniciar este proceso? Si existe un elemento que le informa que debe hacerlo, la ausencia de dicho elemento provocaría que el gen nunca actuara, nunca produjera ARN mensajero ni proteínas... dicho de otro modo, el gen nunca se “expresaría”.

Es decir, por encima de nuestra carga genética existen mecanismos y procesos que controlan la actividad de los genes en el tiempo y en el espacio, que “encienden” y “apagan” su actividad y que pueden realizar una gran cantidad de operaciones sobre nuestros genes que van más allá de activarlos o desactivarlos.

Estos mecanismos no son inamovibles como el ADN, que sólo puede alterarse mediante mutaciones o manipulación directa de ingeniería genética, sino que están sometidos las condiciones del medio ambiente y responden a ellas activando y desactivando los genes como un pianista pulsa o no una tecla para producir una melodía.

Los elementos del medio ambiente que actúan sobre estos mecanismos, llamados “epigenoma”, son muy variados: la alimentación, la actividad deportiva, la actividad intelectual, el estrés, los contaminantes, las emociones... todo lo que nos afecta puede afectar a la expresión de nuestros genes mediante el epigenoma.

Además de la enorme complejidad que la epigenética introduce en nuestra comprensión de la herencia y la expresión de los genes, los biólogos moleculares están llegando a la convicción de que el mal llamado “ADN basura” que forma el 98% de nuestra carga de ADN no es un sobrante inútil, sino que forma parte de un complejo entramado químico que regula la activación y desactivación de los genes, su expresión y la forma y momento en la que ésta se realiza.

El biólogo evolutivo y divulgador Richard Dawkins ha escrito que nuestro ADN, nuestra carga genética, no es un plano, sino una receta. Nuestro ADN no indica de modo estricto y preciso las medidas y datos milimétricos del cuerpo que va a construir y hacer funcionar durante varias décadas, lo que sería tremendamente arriesgado pues la falta de un material haría imposible la construcción.

En cambio, el ADN ofrece indicaciones que dejan libertad para utilizar alternativas. Un ingrediente puede ser sustituido, o las cantidades alteradas según su disponibilidad. Así, sujeta a la materia prima y las capacidades del “chef” medioambiental, la tarta saldrá mejor o peor, pero comestible en la mayoría de los casos.

Como suele ocurrir con las explicaciones que parecen “demasiado sencillas”, la historia que nos cuentan los genes y nuestro ADN no está completa. Aún queda mucho por descubrir para poder responder a esa pregunta breve: ¿Por qué somos como somos?

Los gemelos no tan idénticos

Al nacer, y en las primeras etapas de su vida, los gemelos “idénticos”, aquéllos que tienen exactamente la misma carga genética, el mismo ADN, son realmente difíciles de diferenciar. Pero al paso del tiempo, y todos hemos tenido esa experiencia, los gemelos evolucionan de manera distinta, hasta que en su edad madura son relativamente fáciles de diferenciar por sus rasgos físicos y de conducta. Son el testimonio más claro que tenemos de la influencia del medio ambiente sobre nuestros genes. “Genéticamente idéntico” puede dar como resultado dos personas bastante distintas. La herencia no es la totalidad del destino.

Conocimientos e independencias americanas

Estatua de José Quer en el
jardín botánico de Madrid que él fundó
(D.P. vía Wikimedia Commons)
Los procesos de independencia de los países americanos a principios del siglo XIX ocurren ciertamente como culminación del pensamiento ilustrado y el enciclopedismo, durante las guerras napoleónicas, cuando Napoleón Bonaparte domina el accionar político europeo.

Menos evidente es que estos procesos se dan en el entorno de una revolución del conocimiento, cuando la semilla sembrada por los primeros científicos, de Copérnico a Newton, empieza a florecer aceleradamente. El estudio de las reacciones químicas, la electricidad, los fluidos, los gases, la luz, los colores, las matemáticas y demás disciplinas ofrecían un panorama vertiginoso de descubrimientos, revoluciones incesantes, innovación apresurada.

Sólo en 1810, cuando se inicia la independiencia de Venezuela, Colombia, la Nueva España (que incluye a México y a gran parte de Centroamérica), Chile, Florida y Argentina, se aísla el segundo aminoácido conocido, la cisteína, iniciando la comprensión de las proteínas, se publica el primer atlas de anatomía y fisiología del sistema nervioso humano y Humphrey Davy da su nombre al cloro.

El despotismo ilustrado no sólo tuvo una expresión pólítica y social sino que también se orientó hacia la revolución científica y tecnológica que vivía Europa. Así, Carlos III, además de conceder la ciudadanía igualitaria a los gitanos en 1783 y de su reforma de la agricultura y la industria, fue un impulsor del conocimiento científico, sobre todo botánico, y ordenó el establecimiento de las primeras escuelas de cirugía en la América española.

Estudiosos como el historiador Carlos Martínez Shaw señalan que el siglo XVIII fue, en España, el siglo de oro de la botánica, desde que José Quer creó en Madrid el primer jardín botánico y recorrió la península catalogando la flora ibérica.

Varias serían las expediciones científicas emprendidas hacia el Nuevo Mundo en el siglo XVII con el estímulo de Carlos III, como la ambiciosa Real Expedición Botánica a Nueva España, que duraría de 1787 a 1803, dirigida por el oscense Martín Sessé y el novohispano José Mariano Mociño.

A lo largo de diversas campañas, y desde 1788 apoyada por el nuevo monarca, Carlos IV, la expedición recorrió América desde las costas de Canadá hasta las Antillas, y desde Nicaragua hasta California. Habrían de pasar más de 70 años para que sus resultados, debidamente analizados y sistematizados, se publicaran finalmente.

Más prolongada fue, sin embargo, la Real Expedición Botánica del Nuevo Reino de Granada, que transcurriría desde 1782 hasta 1808, donde se estudiarían por primera vez los efectos de la quina, mientras la Expedición Malaspina de 1789 en Argentina también aportó materiales para el jardín botánico español. Tan sólo dos años antes, el fraile dominico Manuel Torres había excavado y descrito el fósil de un megaterio en el río Luján.

Las expediciones científicas solían tener una doble intención, como delimitar la frontera entre las posesiones españolas y portuguesas o identificar posibles recursos valiosos, como la Expedición a Chile y Perú de Conrado y Cristián Heuland, organizada por el director del Real Gabinete de Historia Natural, José Clavijo, y que buscaba minerales valiosos para la corona.

No era el caso de una de las principales expediciones al Nuevo Mundo, la realizada por el naturalista alemán Alexander Von Humboldt a instancias de Mariano Luis de Urquijo, secretario de estado de Carlos IV. De 1799 a 1804, Humboldt, que recorrió el Orinoco y el Amazonas, y lo que hoy son Colombia, Ecuador, Perú y México, una de las expediciones más fructíferas en cuanto a sus descubrimientos, que van desde el hallazgo de las anguilas eléctricas hasta el estudio de las propiedades fertilizantes del guano y el establecimiento de las bases de la geografía física y la meteorología a nivel mundial.

No estando especializado en una disciplina, Humboldt hizo valiosas observaciones y experimentos tanto en astronomía como en arqueología, etnología, botánica, zoología y detalles como las temperaturas, las corrientes marítimas y las variaciones del campo magnético de la Tierra. Le tomaría 21 años poder publicar, aún parcialmente, los resultados de su campaña.

La ciencia y la tecnología española y novohispana fueron, en casi todos los sentidos, una y la misma, resultado de la ilustración y al mismo tiempo sometidas a los caprichos absolutistas posteriores de Carlos IV y Fernando VII.

Un ejemplo del temor a las nuevas ideas que se mantenían pese a las ideas ilustradas lo da el rechazo a las literaturas fantásticas a ambos lados del Atlántico. En 1775, el fraile franciscano Manuel Antonio de Rivas escribía en Yucatán la obra antecesora de la ciencia ficción mexicana, “Sizigias y cuadraturas lunares”, que sería confiscada por la Inquisición y sometida a juicio por defender las ideas de Descartes, Newton y los empíricos. Aunque finalmente absuelto en lo esencial, el fraile vivió huyendo el resto de sus días.

Entretanto, en España, el mismo avanzado Carlos III prohibía, en 1778, la lectura o propiedad del libro Año dos mil cuatrocientos cuarenta, del francés Louis Sébastien Mercier, que en su libro no presentaba tanto la ciencia de ese lejano futuro como la realización de todos los ideales de la revolución francesa.

Ciencia e ilustración, pues, pero no demasiadas.

La vacuna en América

Cuando la infanta María Luisa sufrió de viruela, a instancias del médico alicantino Francisco Javier Balmis el rey inoculó a sus demás hijos con la vacuna desarrollada por Edward Jenner en 1796. Dada la terrible epidemia de viruela que ocasionaba 400.000 muertes en las posesiones españolas de ultramar, la mitad de ellos menores de 5 años, Carlos IV apoyó la ambiciosísima Real Expedición Filantrópica de la Vacuna, encabezada por Balmis, que recorrió los territorios españoles de América y Asia de 1803 hasta 1814, durante los primeros combates independentistas americanos. Este asombroso esfuerzo está considerado aún hoy una de las grandes aportaciones a la erradicación de la viruela en el mundo.

Estirpe canina

(Fotografía © Mauricio-José Schwarz)
Más allá de lo que nos enseña la vida con un perro, su cariño y compañía, su variabilidad física también puede ser la clave de importantes descubrimientos genéticos.

Fue apenas en 2003 cuando se consiguió secuenciar el genoma humano. Esto significa que en ese momento tuvimos un mapa de la composición de nuestro material genético. El lenguaje utilizado para escribir la totalidad del ADN o ácido desoxirribonucleico de todos los seres vivientes de nuestro planeta, utiliza únicamente cuatro letras, AGTC, iniciales de las bases adenina, guanina, timina y citosina, que unidas en pares de timina con adenina o guanina con citosina, forman los peldaños de la escalera retorcida o doble espiral del ADN.

Conocer el genoma de un ser vivo permite conocer su predisposición genética hacia ciertas enfermedades, así como saber la forma en que se desarrollan algunas afecciones y, de manera muy especial, nos permite ir desentrañando los mecanismos y los caminos de la evolución.

Y dado que una de las peculiaridades de la evolución humana ha sido nuestra relación con el perro, no fue extraño así que, sólo tres años después de que se secuenciara el genoma humano, los biólogos moleculares anunciaran la secuenciación del genoma de otro animal, un perro, concretamente uno de la raza boxer.

El anuncio del trazado del mapa genético completo de un perro lo hicieron en 2006 científicos del Instituto de Investigación Genómica en Rockville, Maryland, en los Estados Unidos. El biólogo molecular Ewen Kirkness expresó sus esperanzas de que eventualmente se pudieran identificar los genes responsables no sólo de enfermedades en los perros, sino también de otras características peculiares, tanto físicas como de comportamiento capaces de ayudar a la comprensión de varias enfermedades humanas.

Y es que, quizás por sus años unidos, los perros y los seres humanos comparten una gran cantidad de enfermedades, como la diabetes, la epilepsia o el cáncer. Sin embargo, resulta que es más fácil identificar en los perros algunos genes que, por simplificar la explicación, podríamos llamar causantes de ciertas enfermedades.

Una enfermedad en un ser humano puede ser producida por mutaciones en varios distintos genes, mientras que en el perro, sólo una mutación de un gen puede causar una enfermedad. Y es precisamente el mismo gen mutado el que ocasiona la misma enfermedad en los seres humanos.

Mientras que el genoma humano está formado por 3 mil millones de pares de bases (AT o CG) que forman unos 23.000 genes capaces de codificar proteínas, además de muchos otros genes no codificantes, secuencias regulatorias y grandes tramos de ADN que simplemente no sabemos qué función cumplen, el genoma del perro incluye unos 19.300 genes capaces de codificar proteínas, y la enorme mayoría de ellos son idénticos en el ser humano.

La búsqueda de genes que predisponen a una enfermedad, la ocasionan, la facilitan o la desatan, se facilita gracias a que distintas razas de perros tienen notables tendencias estadísticas a sufrir algunas enfermedades, trastornos o afecciones. Dado que las razas han sido creadas fundamentalmente por el capricho humano, y generalmente atendiendo más al aspecto del animal que a su comportamiento, el estudio de las diferencias genéticas entre razas de perros puede ayudar a identificar más fácilmente a los genes detrás de ciertas enfermedades.

En marzo de este año, investigadores del Instituto Nacional de Investigaciones del Genoma Humano de los Estados Unidos publicaron nuevos estudios sobre la morfología canina analizando las variaciones visibles en la especie buscando, precisamente, la identificación de genes concretos.

Por ejemplo, la comparación genética entre todas las razas que muestran una característica identificativa (como las patas cortas) y las razas que no tienen esta peculiaridad hace un poco más fácil hallar cuáles son las instrucciones genéticas que “ordenan” que las patas crezcan o dejen de hacerlo cuando aún son pequeñas.

Prácticamente ningún científico serio pone en tela de juicio hoy en día de que los perros son simplemente una subespecie domesticada del lobo gris europeo. El lobo es Canis lupus y nuestros perros son Canis lupus familiaris, lobos familiares, genéticamente tan iguales a los lobos que pueden procrear descendencia perfectamente fértil, una de las indicaciones más claras de que dos animales son de una misma especie.

Son animales cuya infancia hemos prolongado al domesticarlos (un proceso llamado neotenia que también experimentó la especie humana) y cuyo aspecto externo hemos moldeado a veceds de modo inexplicablemente caprichosos. Pero dentro del más manso pekinés, del más diminuto yorkshire, del más inteligente border collie o del más confiable cuidador de niños bóxer hay un lobo, nuestro lobo.

Ese lobo entró en la vida de los grupos humanos hace cuando menos 15.000 años, y muy probablemente mucho antes, pues algunos científicos se basan en algunas evidencias para hablar de domesticación ya hace más de 35.000 años.

Parte de esa domesticación se hace evidente en algunos rasgos de comportamiento singulares de estos compañeros para la diversión y el trabajo: su desusada inteligencia. Aunque hacer pruebas fiables para medir la inteligencia canina no es sencillo, está demostrado que el perro tiene disposición a aprender, herramientas cognitivas para resolver problemas y cierto nivel de aparente abstracción (especialmente en situaciones sociales), además de tener una capacidad de imitar al ser humano sólo comparable a la de otros primates.

Esta inteligencia es parte de lo que ha convertido al perro en un ser indispensable para muchas actividades, desde el pastoreo hasta las tareas de lazarillo, guardián, cobrador de presas en cacerías o incluso auxiliares en el diagnóstico de ciertas enfermedades por su capacidad de reconocer por el olfato sustancias relacionadas con enfermedades como la tuberculosis o ciertos tumores.

También en ese terreno, en el de la inteligencia, el conocimiento del genoma del perro ofrece la posibilidad de ayudarnos a entender la genética de nuestro cerebro, de nuestras emociones, de lo que nos hace humanos.

Y, ciertamente, nuestra relación con el perro es una de las cosas que nos hace peculiarmente humanos.

El lobo hogareño

Aunque en el mundo hay más de 300 razas distintas de perros (además de esa enorme población de canes denominados genéricamente “mestizos” por no ajustarse a los arbitrarios parámetros que definen a alguna raza), la genética nos enseña que nuestros compañeros se pueden agrupar en sólo cuatro tipos de perros con diferencias estadísticas significativas: los “perros del viejo mundo” como el malamuy y el sharpei, los mastines, los pastores y la categoría “todos los demás”, también llamada “moderna” o “de tipo cazador”.