Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los medicamentos falsificados

Mucho peor que la piratería, peligrosa y cada vez más difundida, la falsificación de medicamentos está convirtiéndose en un desastre de salud, sobre todo en el Tercer Mundo.

La salud de las sociedades no sólo se ve amenazada por las enfermedades en sí, sino también por el tratamiento inadecuado de las mismas en muy diversas formas. A la prevalencia y difusión de prácticas curanderistas o seudomédicas inútiles y en ocasiones peligrosas, a la administración de medicamentos de modo innecesario (como los antibióticos que tantos pacientes exigen para gripes y otras afecciones que no se ven afectadas por estos fármacos), a la falta de personal médico en lugares donde se le necesita de manera perentoria, se ha añadido en los últimos años la falsificación de medicamentos.

Los medicamentos falsos, en palabras de Jose María Martín del Castillo, consejero técnico de la Agencia Española del Medicamento, "Son aquellos fabricados sin conocimiento del titular, en instalaciones desconocidas y que no llevan el principio activo que se declara o menor cantidad del mismo". Es decir, no se trata de productos con los mismos componentes, sino supuestos medicamentos que tienen los mismos empaques, logotipos, códigos de barras, hologramas e identificación externa de los medicamentos legítimos, pero que no contienen sustancias terapéuticas, las contienen en dosis inadecuadas o peligrosas, e incluso en ocasiones están formulados con sustancias nocivas al alcance de los falsificadores. Así, por ejemplo, se calcula que más de 500 pacientes, principalmente niños, murieron en Haití, Bangladesh, la India y Argentina al consumir un jarabe falso de paracetamol fabricado con glicol dietileno, una sustancia tóxica.

Más alarmante aún es que, según informes divulgados el año pasado, no se ha denunciado el alcance del problema debido a temores de causar pánico y perjudicar las ventas de los medicamentos reales. Los gobiernos tampoco tienen mucho interés en el tema, sobre todo porque al menos algunos funcionarios de los países más afectados se están beneficiando al autorizar los medicamentos falsos suministrados por las mafias. La corrupción, de nuevo, se convierte en uno de los peores enemigos.

Informes tanto periodísticos como de la Organización Mundial de la Salud calculan que hasta el 15% de todos los medicamentos vendidos son falsos, y, lo más grave, que esa cifra supera el 50% en algunas partes de Asia y África. Esto representa, para los falsificadores, un ingreso de entre 15 y 30 mil millones de euros cada año en un negocio ilícito que se ha disparado desde el principio del nuevo siglo. Esto se traduce en resultados como los 192.000 pacientes fallecidos en China, en 2001, a causa de los medicamentos falsificados.

Para combatir estas mortales falsificaciones se ha creado el Instituto de Seguridad Farmacéutica (Pharmaceutical Security Institute, PSI), una organización sin fines de lucro formada por los directores de seguridad de 21 de las principales empresas farmacéuticas del mundo y la Asociación para los Medicamentos Seguros, una coalición de organizaciones de pacientes, médicos, farmacéuticos, universidades, sectoriales y profesionales. Por desgracia, tales organizaciones actúan principalmente en los Estados Unidos y, en menor medida, en Europa, que es donde menos se necesita una acción urgente, y donde la falsificación de medicamentos se concentra principalmente en las llamadas "medicinas de estilo de vida", como las que se ocupan de la impotencia, la depresión, el insomnio, el crecimiento corporal, el control del peso y el aumento de masa muscular.

Pero en África, por ejemplo, se han detectado casos de alarma extrema, como una partida de vacunas falsas contra la meningitis durante la epidemia de 1995 en Níger, la presencia de medicamentos falsos contra la malaria y, más recientemente, antirretrovirales falsos que pueden incidir de manera extremadamente negativa en la lucha contra la epidemia de SIDA que padece el continente más pobre del mundo. Y, de nuevo en China, la venta de fórmula falsa para alimentación de bebés ocasionó la muerte de 50 niños y secuelas de desnutrición en muchos otros, causando el arresto de 22 fabricantes fraudulentos.

Por supuesto, la globalización económica y la caída de las barreras arancelarias son aprovechadas por las mafias para trasladar, exportar y reexportar sus mortales productos, borrando con frecuencia sus huellas de manera muy eficaz. Así, a principios de 2006 se dio a conocer un estudio realizado en Irlanda levantó además la alarma contra los numerosos medicamentos que se adquieren actualmente por Internet en el mundo desarrollado, y que son con frecuencia también falsificados.

Algunos intereses creados pretenden equiparar la falsificación de medicamentos a la "piratería" en sus distintas formas, ya sea de ropa, de complementos de marca, de perfumes o de discos y películas. Pero la "piratería" ofrece artículos que no tienen diferencias esenciales con los originales (aunque esto, claramente, no los legitima), mientras que los medicamentos falsificados son productos diferentes disfrazados de originales, que pueden causar daños graves directa o indirectamente.

Según algunos informes, en 2004 se incautó cerca de un millón de medicamentos falsificados dentro de la Unión Europea, cada uno de ellos con un potencial dañino enorme. Apenas el 3 de marzo de este año, el Ministerio de Industria, Turismo y Comercio, advirtió que ha empezado a aflorar la existencia de medicamentos falsificados en España. El problema está en aumento y la conciencia de que existe es el primer paso para luchar contra él y los efectos nocivos que conlleva.

Cómo protegerse


No pretenda "ahorrar" adquiriendo medicamentos fuera de los canales institucionales seguros. Las "farmacias de Internet" sin autorización ni dirección postal comprobable, las ofertas particulares o "sin necesidad de receta", así como los distribuidores en países a los que no puede tener acceso son elementos de riesgo.

Desconfíe de los "medicamentos genéricos" que afirman proceder de "laboratorios" en países como Canadá. No es que las mafias estén en Canadá, sólo usan a ese país como cortina de humo por ser una nación del G-7. Las mismas mafias venden sus productos falsificados en Canadá afirmando que proceden de "laboratorios de genéricos europeos".

Suspenda el uso de cualquier medicamento al que esté habituado y que le ocasione reacciones imprevistas, efectos desusados, o tenga un sabor o consistencia radicalmente distintos a aquéllos que usted conoce bien, y consulte inmediatamente a su médico.

La pata del geco

Un misterio animal aparentemente simple desafía al conocimiento y asombra con una respuesta que se encuentra en los confines del átomo

Fue en el 350 a.n.e. cuando Aristóteles describió por primera vez la enorme capacidad del geco para trepar por todo tipo de superficies y correr cabeza abajo, desafiando la gravedad. Su asombro ha sido compartido por los seres humanos en todas las regiones cálidas del mundo, donde esta familia de pequeñas lagartijas (Geckonidae) está presente a través de numerosas especies. La voracidad de los gecos por diversos tipos de insectos hace que sean una presencia bienvenida. Los gecos blancos llamados "cuijas", por ejemplo, son un regalo indispensable en Chiapas, México, para quienes compran una casa o piso nuevos, pobres o muy ricos, como control natural de insectos.

Cómo trepa el geco, qué lo sostiene cabeza abajo, ha sido un verdadero misterio de la ciencia hasta hace muy poco tiempo. Las hipótesis referentes a su adherencia han sido muchas y muy diversas, pero todas fueron refutadas en experimentos: ni garras, ni púas, ni sustancias adhesivas, ni cargas electrostáticas ni sistemas de succión como los que emplea la salamandra.

Los largos dedos del geco tienen varias peculiaridades visibles a simple vista. Para quitar una pata de la superficie en la que está posado, el geco dobla los dedos hacia arriba, rizándolos. La suave parte inferior de la pata, por su parte, se aprecia cubierta de una serie de capas superpuestas lobulares llamadas lamelae, y una inspección más minuciosa y cercana nos muestra que estas lamelae están formadas por pelos queratinosos microscópicos llamados setae, presentes por millones en las patas del animal. Pero esta descripción no explica cómo esa pata se adhiere a todo tipo de superficies. Si acaso, profundiza el misterio. Después de todo, el geco sube con igual gracia (y tremenda agilidad, corriendo a una velocidad de un metro por segundo) en materiales como el vidrio cuidadosamente pulido. La fuerza de su adhesividad es también asombrosa. Los científicos descubrieron que una sola seta era capaz de levantar a una hormiga (20 miligramos). Un millón de setas, que caben fácilmente en una moneda de diez céntimos de euro, podrían sostener a un bebé de 20 kilogramos de peso. Cuatro millones de setas, un número normal en las patas de un geco, podrían sostener entre 45 y 80 kilogramos. Y el geco se puede sostener colgado de un solo dedo sin mostrar inquietud.

En la física subatómica
Fue hasta el año 2000 cuando un equipo científico encabezado por Robert Full informó de la respuesta, que yacía en el área de la física subatómica, más precisamente en las Fuerzas de Van der Walls. Estas fuerzas, descritas por el holandés Johannes Diderik van der Waals, Premio Nobel de Física en 1910, ocurren a nivel intramolecular, y surgen como resultado de la polarización de las moléculas en dipolos alterando la nube de los electrones. Estas interacciones débiles son las que aprovecha el geco, usándolas en gran escala para convertirlas en su desafío a la gravedad.

La pata del geco puede interactuar a nivel intramolecular porque, según descubrieron Autumn y su equipo, cada seta o pelo microscópico se subdivide en su extremo en miles de terminaciones llamadas espátulas. Esas espátulas son tan pequeñas, dos milmillonésimas de metro de ancho, que están por debajo de la longitud de onda de la luz, por lo que fue necesario echar mano de la más avanzada tecnología para medirlas y detectar su interacción con las superficies. A nivel de las moléculas de la superficie, las espátulas crean uniones químicas que reorganizan temporalmente los electrones del material para crear una atracción electrodinámica. Para conseguirlo, las setas deben ajustarse perfectamente a la superficie del material, de modo que las espátulas interactúen con los átomos del material. Y en tal interacción da exactamente igual que el material sea o no pulido, que esté o no mojado, porque ocurre entre las moléculas. Y, lo más interesante, esta atracción electrodinámica se puede anular simplemente cambiando el ángulo de contacto de las espátulas con las moléculas de la superficie, con lo que la pata no se "despega" de la superficie como podría despegarse una cinta adhesiva, superando la fuerza que la mantiene unida a una superficie, sino simplemente la atracción deja de existir cuando las espátulas superan un ángulo de 30 grados respecto de la superficie, lo cual además explica esa curiosa forma de rizar los dedos hacia arriba que emplean los gecos para dar un paso.

Las aplicaciones de este descubrimiento han empezado a aparecer. A mediados de 2003, una "cinta adhesiva geco" experimental confirmó que efectivamente las fuerzas de Van der Waals eran responsables de la adhesividad del geco, pero no resultaba comercialmente viable por su costo. Hacia fines de 2005, investigadores de la Universidad de Akron y del Instituto Politécnico Rensselaer anunciaron la creación de nanotubos de carbono de paredes múltiples capaces de generar una adhesividad 200 veces mayor que la de la pata del geco. Y para mayo de este año se ha anunciado ya la publicación de The Gecko's Foot, libro de Peter Forbes que precisamente se ocupa de la llamada "bioinspiración", el uso de fenómenos de la naturaleza para inspirar avances tecnológicos.

La solución del acertijo de la pata del geco resultó, sin duda alguna, muchísimo más compleja de lo que se hubiera podido imaginar hace algunos años. Y su promesa es, sin duda, muchísimo mayor que la de simplemente tener notas autoadhesivas para olvidarlas a un lado del monitor.

La pata autolimpiadora


La resolución del misterio de la pata del geco presentó otro desafío a los investigadores: ¿por qué las patas de estos animales no están cubiertas de suciedad, adherida a ellas precisamente por las mismas fuerzas que emplea para sostenerse en los techos?

Kellar Autumn, miembro del equipo original que explicó la adhesividad del geco en 2000, anunció en 2005 que las patas del geco no necesitaban limpieza, ni se llenaban de basura, por tener además una interesante propiedad: la de autolimpiarse.

Al estar separadas de una superficie, las setas, dice Autumn, se limpian por su propia geometría, rechazando la suciedad, cosa que se explica mediante un complejo modelo matemático pero se demuestra simplemente ensuciando las patas de un geco y viendo cómo quedan limpias al cabo de unos cuantos pasos.

Los adhesivos que podrían surgir del conocimiento del geco, por tanto, podrían no sólo ser de gran fuerza y fáciles de pegar y despegar, sino que también podrían ser autolimpiables, ideales para la nanocirugía, los robots que recorran Marte o aplicaciones en entornos como la Estación Espacial Alfa, donde lo menos bienvenido es la basura.

Los códigos verdaderos

Máquina "Enigma" de la Alemania
nazi en el Museo Imperial de Guerra
británico. El desciframiento de su código
fue clave para el triunfo aliado.
(Foto D.P. de Karsten Sperling,
vía Wikimedia Commons)
Son los verdaderos códigos que cifran las comunicaciones, los que usamos cotidianamente, sabiéndolo o no, y de los que ha dependido también el devenir histórico.

Transmitir información de modo que sólo pueda acceder a ella el destinatario y resulte incomprensible para los demás, ha sido una necesidad constante en las sociedades humanas, y no sólo en casos evidentes como las guerras, sino en los terrenos de la religión, la transmisión del conocimiento y la oposición política.

El primer cifrado conocido se encuentra en la tumba del faraón egipcio Khnumhotep II, de alrededor del año 1900 a.n.e., donde un escriba utilizó jeroglíficos no estándares con un objetivo desconocido, que claramente no era la ocultación, pues la traducción del código se escribió junto a éste. Julio César, por su parte, sí utilizó un cifrado para su labor de guerra, un sencillo sistema donde cada letra se sustituía por la que estaba tres lugares más adelante (las últimas tres se sustituían por A, B y C), de modo que la palabra "papá" se escribiría "sdsd", y el descifrado de este código se realizaría restando tres a las letras recibidas. Por supuesto, el procedimiento de cifrado, la clave, debía mantenerse en secreto o el sistema sería inútil. La salvaguarda de las claves es desde entonces uno de los problemas clave de la criptografía.

Un código es una representación, más o menos compleja, del idioma. Por ello, la criptología estuvo tan ligada a los lingüistas, ya que ellos tenían la misión de descifrar idiomas antiguos de los que únicamente quedaba la representación gráfica. Así, los jeroglíficos egipcios no pudieron ser descifrados sino hasta el hallazgo de la piedra Rosetta, que tiene el mismo pasaje escrito en jeroglíficos, en demótico y en griego antiguo, estos dos últimos idiomas conocidos. Dado que cada jeroglífico se correspondía a una letra determinada, la piedra Rosetta funcionó como clave bastante para descifrar el idioma egipcio. Mucho más compleja es la tarea de descifrar jeroglíficos que no son fonéticos, sino ideográficos, es decir, donde cada símbolo representa no una letra, sino una idea o concepto. Tal es el caso de la escritura maya antigua, que apenas ahora empieza a ser decodificada por los expertos.

El paso del tiempo, el desarrollo de las matemáticas y las crecientes necesidades industriales y militares fueron refinando los procedimientos de codificación y cifrado, demandando de los profesionales criptográficos mejores herramientas para su labor de romper los códigos y descubrir los mensajes que otros deseaban mantener en secreto. Adicionalmente, no todos los códigos se realizan mediante la sustitución de letras, ya sea de manera constante o variable, pues hay otras muchas formas de cifrado. Por ejemplo, uno en el que cada palabra conste de dos números, el primero de los cuales sería el número de una página de cierta edición de El Quijote y el segundo el número de aparición de la palabra en el texto sería muchísimo más difícil de romper, máxime cuando cada palabra podría tener numerosísimas representaciones si aparece varias veces en el libro. Todo lo cual daría un código que no se podría romper fácilmente sin la clave.

Es bastante conocida la historia de la guerra criptográfica en la Segunda Guerra Mundial, que entre otras cosas dio especial impulso al desarrollo de los ordenadores por a la necesidad que tenían los servicios de inteligencia británicos de automatizar el análisis de los códigos nazis. Por ello tuvieron entre sus especialistas al matemático Alan Turing, uno de los padres de la informática moderna, que consiguió romper los códigos del ejército alemán, generados mediante una máquina (llamada "Enigma") que, por medio de ruedas que agregaban variaciones sucesivas a cada letra, generaba un código sólido. Para descifrarlo se necesitaba no sólo la máquina, sino la posición inicial de todas las ruedas giratorias, que debía conocerse para poder descifrar los mensajes incluso disponiendo de la máquina. Aún así, desde 1941 hasta el fin de la guerra, los aliados pudieron leer todos los mensajes alemanes.

En la actualidad, la generación de códigos más común y su descifrado correspondiente se realizan por medio de algoritmos matemáticos dentro de nuestros ordenadores. Se trata de códigos que efectivamente pueden romperse por el sistema de "fuerza bruta", es decir, probando billones y billones de combinaciones hasta dar con la clave correcta. Por eso, la fortaleza de un código se mide en el número de opciones mediante las cuales puede representarse cualquier elemento del mensaje original. Así, cuando se habla de un cifrado de 40 bits, cada carácter cifrado puede tener 1.099.511.627.776 valores distintos. En el número de una tarjeta de crédito cifrado en 40 bits, cada uno de los 16 dígitos puede tener uno de esos más de mil billones de valores, de modo que si no se tiene la clave, todo es asunto de probar esos valores combinados de todas las formas posibles en los 16 dígitos hasta dar con el número correcto.

Resultó que los 40 bits no eran tan difíciles de manejar para los ordenadores modernos, de modo que actualmente se emplea un cifrado de 128 bits, con lo que cada dígito de una tarjeta de crédito, o cada letra de una palabra, puede tener 309 billones de billones de valores (309 seguido de 24 ceros). Con un cifrado de esa fortaleza, el uso de la aproximación de "fuerza bruta" estaría reservado sólo a superordenadores que puedan trabajar durante muy largo tiempo en cada labor de descifrado, lo cual los pone fuera del alcance del descifrador común que busca robar números de tarjeta de crédito, y según los expertos seguirá siendo útil unos 8 o 10 años. Los cifrados militares, por su parte, son aún más fuertes.

Códigos verdaderos como éstos hoy rigen parte de nuestra vida y posibilitan el desarrollo de transacciones comerciales grandes y pequeñas por medios electrónicos, además de proteger nuestra información de quienes no tienen derecho a disponer de ella. El cifrado, al fin y al cabo, es una búsqueda de seguridad… con una historia genuina al menos tan interesante como la de las novelas que algunos confunden con realidad histórica.

Estadística y literatura

La criptografía fue un popular interés en el siglo XIX y fue una de las disciplinas que dio origen a la estadística, como lo demuestra el relato "El escarabajo de oro" de Edgar Allan Poe, en el cual se presenta un código cifrado que el protagonista resuelve por medio de la estadística, determinando qué símbolo se repetía con más frecuencia en el código y correlacionándolo con la letra más frecuente en el idioma inglés (y, curiosamente, en el castellano), la "e". El autor, el relato y su desarrollo criptográfico fueron homenajeados seis décadas después por Arthur Conan Doyle en el cuento de Sherlock Holmes "La aventura de los danzarines".

El cirujano y el unicornio

"Prefiero estar en lo correcto totalmente solo a estar equivocado, no sólo en compañía de los sabios, sino incluso de todo el resto del mundo" - Ambroise Paré

Ambroise Paré
(retrato D.P. de William Holl, vía Wikimedia Commons)
Lo que hoy conocemos como "método científico" es, en realidad, un recién llegado a la historia del pensamiento humano como cuerpo integrado de procedimientos y aproximaciones para adquirir conocimientos. Si bien hay jirones del método presentes en toda la historia humana, no fue sino hasta 1650 que se aceptó, en la Real Sociedad de Londres, la idea de que la evidencia experimental es el árbitro principal de la verdad, y aún hubieron de pasar 300 años para que en 1950 se hiciera el primer estudio de doble ciego, considerado hoy esencial para evaluar medicamentos y prácticas terapéuticas en general.

En ese lento y desigual desarrollo del método científico, que con frecuencia tenía que enfrentarse al dogma de una u otra religión, o a silogismos y argumentos bien o mal construidos, pero falsos, así como a esa "sabiduría popular" que en muchas ocasiones no es sino ignorancia glorificada por la conveniencia de algunos, hay momentos especialmente luminosos. Uno de ellos nos lo legó Ambroise Paré (1510-1590), barbero cirujano francés considerado como uno de los padres de la cirugía moderna, que fue especialista en lesiones por armas de fuego y flechas, probablemente el primer hombre que aprendió a ligar una arteria y que, cuando no estaba en la guerra, alternaba su experiencia entre la atención a reyes y nobles y la que prestaba a los pobres de París.

A mediados del siglo XVI, el cuerno de unicornio se vendía como carísima panacea, curalotodo como hubo muchos antes y como siguen existiendo hoy. Era buscado por los poderosos, ante todo, porque supuestamente neutralizaba todos los venenos en años en los que el veneno era frecuente mediador en las disputas por el poder. Y pese a que el unicornio no existía, numerosos médicos lo ofrecían a sus pacientes, ya sea con ánimo de engaño o bien engañados a su vez por mercaderes que, sincera o chapuceramente, juraban tener la potente materia prima, en realidad dientes de narval, cuernos de rinoceronte o marfil tallado. Descrito por primera vez por Ctesias y retomado por Aristóteles, el unicornio adquirió vida propia como leyenda en la Edad Media, asumiendo distintas connotaciones simbólicas, pero también se aferró a sobrevivir en las obras de historia natural.

Quizá, podríamos pensar, el unicornio era demasiado bueno como para no ser cierto.

El demoledor del mito fue Paré, que tuvo acceso a "cuernos de unicornio" como médico, entre otros reyes, de Enrique II de Francia y de su esposa, Catalina de Médicis, recordada como inventora de los tacones altos del zapato femenino y, de manera menos inocua, como envenenadora política en sus años tardíos. Como regalo por la boda de la pareja real, el propio Papa Clemente VII regaló al padre del rey un trozo de cuerno de unicornio.

Como los ricos y famosos temen a timadores y estafadores, circulaba entre ellos una serie de pruebas que recomendaban diversos autores para comprobar la "genuinidad" del cuerno de unicornio antes de entregar oro a cambio de él. Por ejemplo, poner el cuerno con varios escorpiones en un recipiente y esperar cuatro horas; si los escorpiones estaban muertos o moribundos, el cuerno era legítimo. O bien, poner una araña en una superficie y dibujar a su alrededor un círculo con el cuerno o bien poner el cuerno en agua, mojar el dedo en ella y dibujar el círculo con dicha "agua de unicornio"; en cualquiera de los casos, la araña no cruzaba el mágico límite. Pero nadie parecía llevar a cabo tales pruebas, conformes con su existencia o con testimonios de terceros de que se habían realizado con éxito.

Paré simplemente puso a prueba tales demostraciones con diversos trozos de cuernos de unicornio supuestamente genuinos. Sus pruebas no dieron resultado alguno: cuando se acercaban al cuerno plantas venenosas, éstas no se marchitaban y estallaban; cuando se remojaba el cuerno en agua, ésta no entraba en ebullición; cuando se ponía con escorpiones o arañas, los artrópodos no parecían impresionarse.

Los resultados de su exploración sobre el cuerno del unicornio fueron publicados por Ambroise Paré en El Discurso del Unicornio, donde resume los problemas que implica el mítico ser, empezando por las tremendamente diversas descripciones que pretenden retratarlo, y siguiendo con las muy distintas prácticas terapéuticas contradictorioas recomendadas para su uso, desde consumirlo en polvo o en agua en la que se hubiera remojado hasta colocarlo "cerca" del punto de entrada del veneno. Los relatos sobre príncipes indios que vivían sin enfermedad alguna por beber en copas de cuerno de unicornio lo hacen denunciar lo que llama "promesas imposibles". La variedad de afirmaciones a su alrededor lo hace sospechar de todas ellas.

Así, además de hacer una valiosa historia natural del unicornio y un acucioso análisis de los muchos animales que podrían haber contribuido a la leyenda (incluidos el narval, el rinoceronte y el pez sierra), así como presentar los argumentos de autoridad indispensables en las obras de la época, Paré ofrece lo esencial: "aseguro, después de haberlo probado varias veces, no haber conocido jamás ningún efecto del cuerno pretendidamente de unicornio". Y, por supuesto, se guarda de los que puedan dudar de él: "Si alguno no desea creerme, que haga los experimentos como yo, y conocerá la verdad contra la mentira".

Lo que no era poco en el siglo XVI, sobre todo porque el cuerno de unicornio no desaparecería de la farmacopea europea sino hasta doscientos años después.

¿El placebo de Paré?


Incluso hoy en día, con los avances de la investigación, es difícil determinar con certeza cuál es el elemento curativo en un proceso patológico. ¿Cuántas veces el enfermo se cura solo y el médico o el curandero se cuelgan la medalla del triunfo contra el mal? ¿Cuántas enfermedades mal diagnosticadas se curan y parecen un milagro? ¿Cómo es el efecto placebo y cómo lo podemos controlar? Paré recuerda un caso en el que todas estas dudas ya están presentes.

Hace poco tiempo, una mujer pobre pidió agua de unicornio. Resultó que (la mercader) la había dado toda, pero no quería hacer esperar a esta pobre mujer que, con las manos entrelazadas, le rogaba que se lo diera para detener el eczema que cubría todo el rostro de su pequeño infante. En lugar del agua de unicornio, la mercader le dio agua de río en la que no había remojado el cuerno del unicornio. Sin embargo, esta agua de río tuvo éxito en curar la enfermedad del bebé, y durante los diez o doce días siguientes, la pobre mujer vino a darle las gracias a Madam la Mercader por su agua de unicornio, diciéndole que su niño estaba totalmente curado.

Ambroise Paré, El Discurso del Unicornio

La velocidad del cambio

Durante la mayor parte de la historia humana no era de esperar que el mañana trajera algo nuevo a la vida cotidiana.

Quizá uno de los momentos más trascendentes del pensamiento humano se encuentra en algún momento de la segunda parte del siglo VI antes de Cristo (a. C.), en Éfeso, durante la época de surgimiento de la filosofía griega. Fue entonces cuando Heráclito, un pensador de cuya vida sabemos poco, observó de manera sistemática por primera vez que el cambio es una constante del universo.

Heráclito no dijo que todo se transforma, como suele creerse, sino que el cambio es constante y que es esencial para algunas cosas. El agua del río cambia constantemente, decía Heráclito, pero el río es el mismo. De hecho, si el agua no cambiara continuamente, no habría río, sino un estanque o un lago.

La observación del cambio, el darse cuenta de cuán omnipresente es, resulta una hazaña del pensamiento precisamente porque en la sociedad de Heráclito, el cambio no era algo visible, ni siquiera esperable. Se hablaba de un pasado en el que algunas cosas eran ligeramente distintas, pero la idea misma de un futuro que alterara radicalmente el orden conocido por los griegos, no estaba presente. Los cambios que podían ocurrir eran pocos y se conocían bien: una sequía, una hambruna, un año de abundancia, una guerra de la que se podía salir derrotado o triunfador, alguna desgracia o logro personal, pero era de esperarse que los hijos, los nietos y los descendientes todos vivieran esencialmente de la misma manera que sus ancestros, cultivarían igual, harían la guerra con las mismas armas, cabalgarían, sufrirían las mismas enfermedades, tendrían esclavos o serían esclavos, y la marcha del mundo seguiría siendo relativamente predecible.

El hombre, por ejemplo, tuvo una velocidad máxima de unos 25 kilómetros por hora desde que apareció como especie hasta algún momento entre el 4500 y el 2500 a.n.e., cuando en las estepas eurasiáticas el caballo pasó de ser fuente de alimento a medio de transporte. Por supuesto, la gran mayoría de los seres humanos siguieron andando a pie, pues el invento no se generalizó en Europa, Asia y el Norte de África hasta el 1000 a.n.e. La velocidad máxima posible saltó a más de 70 km/h y se mantuvo así hasta principios del siglo XIX, cuando aparecieron locomotoras capaces de viajar a 90 km/h, mientras que para fines de siglo habían roto la barrera de los 150. Sin rieles, la velocidad máxima en tierra pasó de 63 km/h a fines del siglo XIX a 150, en 1904, a 200 en 1907, a más de 300 para 1929, a más de 500 en 1937, a 1.000 en 1970 y está hoy en 1.200 km/h, velocidad superior a la del sonido, conseguida en 1997.

Por supuesto, a estos autos superrápidos es necesario diseñarlos de modo que no despeguen, porque sus velocidades son las de un avión caza. Porque el cambio nos llevó al transporte aéreo a velocidades que también crecieron vertiginosamente, desde los modestos 10 km/h del primer vuelo de los hermanos Wright, en 1903, a los imponentes 39.500 km/h que alcanzaban los cohetes que impulsaron a las cápsulas ‘Apolo’ a la Luna a fines de los años 60 y principios de los 70.

Esta rapidez cada vez mayor para alcanzar velocidades asombrosamente más altas es un buen ejemplo de lo que ha sido la curva de aceleración del cambio.

Fenómeno social

El cambio, y su percepción como fenómeno social, es uno de los más notables productos de los avances científicos y tecnológicos, de la acumulación del conocimiento y de la divulgación de un método que nos permite conocer la realidad con mucha más precisión y fiabilidad que los anteriores.

El método científico tuvo su origen en la búsqueda de la verdad de los filósofos griegos, pero cristalizó con la explosión del conocimiento de las ciencias físicas en el siglo XVII y XVIII. Este inicio del cambio fue resultado de numerosos hechos entretejidos. A fines del siglo XVI, Roger Bacon hizo el primer experimento controlado de la historia. René Descartes propuso un método del conocimiento. La Real Sociedad de Londres para la Mejora del Cono- cimiento Natural determinó en 1650 que la evidencia experimental era la mejor forma de juzgar la verdad de una proposición. Robert Boyle estableció en 1665 que la repetibilidad de los experimentos era condición esencial para aceptar sus resultados y, a fines de ese siglo, Isaac Newton establece que las hipótesis deben poder predecir los acontecimientos a los que se refieren.

Por supuesto, el método científico ha cambiado, evolucionando y refinándose, pero ha sido ese método en su esencia el impulsor de todos los cambios a partir del siglo XVIII y de su acelerada aparición, y no sólo en lo científico. La ilustración y el enciclopedismo francés nacieron con la convicción de que el progreso, es decir, el cambio en sentido positivo, acumulativo y de perfeccionamiento, era posible. El conocimiento era la herramienta para luchar contra la superstición, las creencias irracionales y las tiranías, y así, el avance del conocimiento se convirtió en el motor de nuevas formas de organización política y social. Los filósofos de la ilustración demostraron que el solo hecho de saber que el cambio es posible puede hacernos buscarlo, provocarlo e intentar dirigirlo (generalmente esto último con bastante poca fortuna).

La velocidad del cambio en nuestros días es asunto de preocupación no sólo filosófica, sino social. El cambio, junto con sus promesas, trae incertidumbre y dudas. La incapacidad de ‘estar al día’ representa para muchas personas una inquietud permanente. Como animales, quizá no estamos preparados para un cambio a la velocidad que nos hemos impuesto. Pero no parece haber opción, y descontando a quienes prefieren sumirse en alguna superstición cómoda, quizá una secta, la única opción que nos queda es seguir en la cresta de la ola, tratando de mantenernos a flote y de sacar el mejor partido posible de un mundo que mañana, eso es seguro, será totalmente distinto al de hoy. No somos sólo las víctimas del cambio, después de todo. Lo hicimos nosotros.

Algunas citas sobre el cambio


Nos asusta el cambio, pero, ¿algo puede llegar a ser sin él? ~Marco Aurelio

No es el más fuerte de la especie el que sobrevive, ni el más inteligente, sino el que mejor responde al cambio. ~Charles Darwin

El ayer del hombre nunca puede ser como su mañana / Nada permanece sino la Mutabilidad. ~Percy Bysshe Shelley

Porque las cosas son como son, las cosas no permanecerán como están. ~Bertolt Brecht

El progreso es imposible sin el cambio, y quienes no están dispuestos a cambiar de idea, no pueden cambiar nada. ~George Bernard Shaw

Todo conservadurismo se basa en la idea de que si se dejan las cosas en paz, las deja como están. Pero no es así, si uno deja algo en paz, lo deja a un torrente de cambios. ~G.K. Chesterton

Sin bombo

El 2005 fue el año internacional de la física. ¿Qué significado tuvo esta celebración? ¿Ha tenido alguna repercusión?..

Entre 1665 y principios de 1666, en solo 18 meses, Isaac Newton inventó el cálculo, desarrolló su teoría de la óptica, explicó la gravedad y descubrió las leyes del movimiento. La breve época de innovaciones de Newton, después de la cual el mundo no volvió a verse igual, fue conocida como el annus mirabilis del genio británico, y el salto más asombroso del conocimiento registrado hasta entonces.

En 1905 se alcanzó, si no se superó, el logro de Newton. En ese año, se demostró la existencia de los fotones, se probó que los átomos eran entidades reales, se presentó la teoría cuántica y se formuló la ley de la relatividad especial, todo ello en una sucesión de cinco brillantes artículos científicos publicados por el físico de 26 años, Albert Einstein.

La obra de Einstein publicada en esos breves meses, pero producto de un largo trabajo previo, cambió la visión del mundo tanto o más que el año maravilloso de Newton, estableciendo el rumbo que seguiría la física hasta nuestros días. Gracias a esos artículos, el hombre pudo por primera vez responder preguntas tan enormemente trascendentes como la de cuándo y cómo se originó el universo, asunto hasta entonces exclusivamente abordado por la filosofía y la teología; qué es el tiempo o cuál es la composición esencial de la materia. Einstein también nos enseñó que el único absoluto del universo es la velocidad de la luz, y todo lo demás, incluso el tiempo, es relativo o, para ser precisos, depende del marco de referencia desde el cual realicemos las observaciones. Gracias a Einstein se pudieron explicar observaciones tan asombrosas como la expansión del universo, descubierta por el astrónomo Edwin Hubble en 1929.

Por todo ello, diversas asociaciones de físicos propusieron 2005 como ‘Año Mundial de la Física’, propuesta que fue retomada como resolución por la Unesco, con objeto de incrementar en todo el mundo la conciencia acerca de lo que es la física en particular y las ciencias físicas en general. Una meta que, sin embargo, no parece haberse logrado.

En España, quizá el acto más popular, en el sentido de atracción de la opinión pública, fue la conferencia que dictó Stephen Hawking en Oviedo el 12 de abril, donde pudimos disfrutar la enorme capacidad del científico británico para poner los más complejos conceptos de la cosmología en palabras comprensibles para el público en general.

Pero fuera de los espacios académicos, el año mundial de la física pasó desapercibido para la mayoría de las personas, como lo reconoció la propia Sociedad Europea de Física, al señalar que en gran medida los actos de 2005 fueron más orientados a homenajear a Einstein o a dar una visión histórica de la física, antes que a presentar su investigación actual, y la importancia que reviste.

A ello se debe que ahora, en 2006, diversas asociaciones se haya propuesto potenciar las metas del Año Mundial de la Física, reuniendo, por ejemplo, a físicos con responsables de la toma de decisiones de los gobiernos de la Europa de los 25, en el primer ‘Foro de física y sociedad’, en Graz, Austria, la tercera semana de abril de 2006.

Este diálogo ciencia-política es fundamental porque los emprendimientos actuales de la física son de capital importancia para el futuro de todas las sociedades humanas. Por ejemplo, la promesa del hidrógeno como fuente de energía limpia y abundante sólo podrá hacerse realidad si los físicos encuentran formas de producir hidrógeno de manera barata y confiable. Para ello, la Unión Europea, con el apoyo de Rusia y Turquía, ha emprendido el proyecto Hyvolution, una planta piloto para generar hidrógeno mediante la fermentación de biomasa procedente de desperdicios, como la materia orgánica no aprovechable en los cultivos después de la cosecha, uniendo las preocupaciones medioambientales a la necesidad de sustituir los combustibles fósiles.

La solución del creciente problema del almacenamiento de datos informatizados depende de los avances de la física en terrenos como la luz láser y los materiales. Para este año aparecerá en el mercado el DVD de láser azul que podrá almacenar entre 5 y 10 veces más información en un disco del tamaño del DVD actual. Pero es necesario seguir avanzando. Otra área clave de la informática en la que trabaja la física es en la creación de procesadores que generen menos calor que los actuales y en la electrónica molecular para crear la formas nuevas de microminiaturización, pues los procesadores creados sobre fichas de silicio están llegando, o ya han llegado, a su límite físico.

Tan sólo en 2005 se abrieron varios campos de gran importancia, como la ‘bioquímica cuántica’, cuando físicos de la Universidad de Purdue determinaron que la interacción de grandes moléculas orgánicas puede predecirse con precisión utilizando los principios de la cuántica. Igualmente, el año pasado se planteó por primera vez que todos los animales tienen el mismo sello físico en su diseño, y que la teoría unificada de la física podría ayudar a explicar la locomoción animal en tierra, aire y agua. También fue el año en que las imágenes de fluorescencia de rayos X se utilizaron por primera vez para recuperar inscripciones en piedras antiguas, un gran apoyo a la arqueo logía y la historia. Se descubrió el principio de la respuesta a por qué y cómo se funden los sólidos (la fusión comienza en fallas de la estructura cristalina del sólido), se creó por primera vez un superfluido de fermiones que ayudará a explicar fenómenos como la superconductividad.

La física no se limita, pues, a los aspectos teóricos de la cuántica o la cosmología, donde sin embargo aún hay grandes desafíos y descubrimientos por hacer. Es parte de nuestra cotidianidad, y sería deseable que la sociedad estuviera al tanto de este hecho… sin tener que esperar otros cien años.

Física y medicina en Aragón


El Instituto de Ciencia de Materiales de Aragón se encuentra trabajando en varias áreas de importante aplicación médica, como la investigación sobre aleaciones metálicas con memoria de forma biocompatibles.

La memoria de forma es la característica que permite a un material deformarse y, posteriormente, ya sea por sí mismo o al calentarse o recibir otro tipo de influencia, volver a su forma original. Una peculiar aleación de níquel y titanio con esta característica está siendo usada en la Universidad de Aragón para investigar prototipos de tacos para la fijación de tejidos blandos en cirugía, así como en férulas y stents, pequeños tubos que se insertan en los vasos sanguíneos bloqueados o colapsados para eliminar el bloqueo o mantenerlos abiertos, de creciente aplicación en la cirugía cardiológica.

El canto del dinosaurio


Reconstrucción de un dromaeosaurus
en el Museo Jurásico de Asturias.
Fotografía: Mauricio-José Schwarz

Estamos más cerca que nunca de poder decir que los dinosaurios no se extinguieron, sino que viven y prosperan junto a nosotros.

¿Nos fascina el canto de los dinosaurios? ¿Comemos dinosaurios asados? ¿Nos entretiene criar dinosaurios parlantes? ¿Contemplamos fascinados las migraciones de dinosaurios voladores?

Cada vez hay más evidencias que nos permiten responder "Sí" a esas preguntas, indicando que todo el grupo de las aves se origina no en reptiles similares al cocodrilo, como se sostuvo durante el siglo XIX y la primera mitad del XX, sino de los dinosaurios. O, más claramente, que las aves son dinosaurios, del grupo de los terópodos, al que también pertenecían el tiranosaurio y el velociraptor (no confundir con los terápodos), pero que no se extinguieron hace 65 millones de años como sus parientes más grandes.

Las crecientes evidencias no son, sin embargo, decisivas. Pero son sin duda sumamente importantes, y se espera que nuevos hallazgos fósiles nos enseñen si las aves y los dinosaurios se separaron independientemente de los reptiles, si las aves son dinosaurios o, incluso, si la explicación se encuentra en otra serie de relaciones aún desconocida.

En la ciencia, cosa con frecuencia mal entendida, prácticamente todo conocimiento es provisional, es decir, se obtiene a partir de los hechos conocidos en el momento, pero puede revisarse, alterarse, afinarse, delimitarse o incluso desecharse completamente a la luz de nuevos descubrimientos y hechos antes no conocidos.

Cambios de idea

La teoría de la gravitación universal de Newton se vio delimitada cuando la cuántica y la relatividad establecieron que sus ecuaciones dejaban de describir la realidad en los niveles microscópico y macroscópico, los de lo muy pequeño y lo muy grande. Las leyes enunciadas por Newton siguen siendo válidas y nos sirven para calcular edificios, aviones, barcos, grúas, etc., a niveles donde no es necesario tener en cuenta aspectos relativistas ni cuánticos. La teoría de Newton y sus leyes se delimitaron como un caso especial de un comportamiento más complejo de la materia.

Pero, ¿por qué los paleontólogos, los taxónomos, los biólogos evolutivos o los anatomistas consideran que tienen numerosos datos para rechazar la hipótesis anterior y aceptar como "mejor hipótesis provisional" la que coloca a las aves dentro de la gran familia de los dinosaurios?

El famoso "bulldog de Darwin", el biólogo Thomas H. Huxley ya había sugerido parecidos entre los esqueletos de las aves y el coelurosaurio, pero su observación fue olvidada a favor de teorías basadas en descubrimientos posteriores. A fines de la década de 1960, John Ostrom, de la universidad de Yale, identificó 22 similitudes en estructuras óseas, las que mejor se fosilizan, como la fúrcula o clavícula peculiar de las aves, que está también presente en los terópodos y en ningún otro grupo. Hoy, los biólogos evolutivos cuentan en total 85 similitudes esqueléticas ave-dinosaurio, demasiadas para no llamar la atención. La ocasional fosilización de otros tejidos ha dado fuerza a la hipótesis, en particular la presencia de plumas en diversos restos de dinosaurios y, por supuesto, en el Archaeopteryx, una de los más antiguas aves, de 145 millones de años de antigüedad.

Sangre caliente

Otros estudios apuntan a la posibilidad de que los dinosaurios fueran animales de sangre caliente, homeotérmicos, lo que facilitaría que dieran lugar a un grupo como las aves, que necesitan tener sangre caliente para poder volar, y que los dinosaurios terópodos más pequeños se parecen más a las aves que los mayores, sugiriendo que la miniaturización fue una condición para la aparición de las aves en la tierra.

Estos descubrimientos han llevado a quienes hacen las reconstrucciones de dinosaurios a repensar la tradición, carente de bases científicas, de representar a los dinosaurios con piel escamosa y poco colorida, semejante a la de los reptiles, y que se originó en el siglo XIX, cuando se pensaba que los dinosaurios eran precisamente reptiles, y que no se abandonó cuando se demostró que estos animales eran un grupo totalmente nuevo e independiente de los reptiles que le dieron origen. Por eso hoy, en cada vez más museos, podemos ver reconstrucciones de dinosaurios cubiertos de pluma y plumón, siguiendo lo que nos van enseñando los fósiles.

Sin embargo, pese a estas similitudes, otros científicos, como Alan Feduccia y Larry Martin, destacan aparentes diferencias entre los dinosaurios y las aves, señalando que ponen en duda la hipótesis dinosáurica. Han mencionado el aparato respiratorio de los terópodos y las aves, y los huesos que dieron origen a las alas de las aves, distintos de los que dieron lugar a las extremidades de los terópodos, observaciones que por su parte han rebatido los proponentes del origen dinosáurico. La hipótesis de Feduccia y Martin es que las aves proceden de un reptil más antiguo aún desconocido.

Mientras ese ancestro no aparezca en el registro fósil, no será posible confrontar esa teoría con los hechos. El registro fósil, en general, es sumamente incompleto, cosa fácil de explicar si calculamos la superficie de nuestro planeta y el porcentaje, verdaderamente minúsculo, que se ha excavado en busca del pasado. Entretanto, hoy en día la mayoría de los paleontólogos y biólogos evolutivos aceptan la hipótesis provisional del origen dinosáurico de las aves.

En el fondo, en el mundo de la poesía que no está tan lejos de la ciencia como suponen algunos, tiene un peculiar encanto pensar que el gorrión de ciudad, la paloma, la gallina, el cisne, el ruiseñor y el avestruz sean dinosaurios, testimoniando la capacidad de la vida para sobrevivir a un desastre como el que acabó con la dominación de los dinosaurios sobre la tierra y abrió las puertas para que los mamíferos tuviéramos turno para jugar en la ruleta de la evolución.

La degradación de un depredador


El Tirannosaurus rex acercándose al vehículo en Parque Jurásico, haciendo temblar el agua en el vaso, dejó honda impresión en el público. Sin embargo, podría no ser precisa, como no lo era el tamaño de los velociraptores del filme, animales que en realidad apenas tenían el tamaño de un pavo grande.

Uno de los asesores de esa película, el paleontólogo Jack Horner, propone enérgicamente que los tiranosaurios no eran feroces depredadores como gusta verlos la cultura popular, sino simples carroñeros que se ocupaban de robarle sus presas a otros dinosaurios. Para Horner, los datos paleontológicos dicen que el gran tiranosaurio rey era, en realidad, poco más que una poderosa hiena, y ni siquiera acepta el acuerdo salomónico de que fuera un carroñero que a veces cazaba o un cazador que a veces comía carroña. De ser cierto, sería sin duda el ocaso de una estrella de cine.

Y, además, emplumado.

Epidemia, pandemia

Imaginemos un imperio razonablemente grande y anterior a la era de la medicina con bases científicas, con grandes núcleos de población y constante intercambio comercial con sus alrededores, donde, repentinamente y sin causa aparente, los ciudadanos empiezan a enfermar, con los mismos síntomas, y se empieza a extender una ola de muerte indetenible.

Si la enfermedad provoca temor incluso conociendo su origen, sus causas, y disponiendo de un arsenal cada vez mayor para combatirla, la enfermedad colectiva en un medio en el que no se conoce nada de los orígenes de la afección ni de la forma de controlarla, es fuente de un verdadero terror masivo, y en general solía mover a las víctimas a buscar un culpable a modo.

En la epidemia de peste bubónica de la Europa medieval, los judíos fueron frecuentemente señalados como "culpables", ya fuera como castigo divino a las sociedades que los toleraban o, directamente, señalando que ellos envenenaban el agua de algunas poblaciones ocasionando la enfermedad.

Por supuesto, el hecho de que los judíos enfermaran y murieran en la misma proporción que el resto de la población no se consideraba un hecho relevante. Culpables fueron considerados, en diversos momentos, los extranjeros, las brujas o los dioses enfurecidos, desde la primera epidemia registrada históricamente con cierta fidelidad, la que sufrieron los atenienses entre el 430 y el 426 antes de nuestra era, durante la Guerra del Peloponeso, responsable de la muerte de Pericles, el creador de la era de oro griega, y que fue cronicada puntualmente por Tucídides, que la sufrió y sobrevivió a ella.

Desde el punto de vista médico, una epidemia es la alta incidencia de una enfermedad, conocida o desconocida, en un área geográfica importante, como un continente. Cuando la enfermedad ocupa más de un área así, se considera una "pandemia", o epidemia generalizada, que es lo que hoy ocurre con el sida, presente en todo el mundo aunque sus mayor incidencia se ha concentrado en África por una desafortunada superposición de elementos, desde la falta de información y medios preventivos hasta el accionar de grupos que desalientan la prevención por motivos religiosos.

Entre las epidemias memorables, la de peste bubónica o "muerte negra" en Europa durante el siglo XIV (1347-51) provocada por la bacteria Yersinia pestis es quizá la más conocida, y sus efectos al causar la muerte de un tercio de la población europea se cuentan entre los más dramáticos. Menos difundido está el hecho de que la primera erupción de esta enfermedad se dio entre el 541 y el 542 de nuestra era. Conocida como la "Plaga Justiniana" y que padeció el propio emperador Justiniano en Constantinopla, recorrió Europa mortalmente. Igualmente poco conocido es el hecho de que esa misma epidemia causó estragos en el Oriente Medio y en Asia Central.

Las epidemias más relevantes en este siglo han sido la de influenza de 1918, que, según los expertos, causó más hospitalizaciones que las de todos los heridos en la Primera Guerra Mundial, la de la poliomielitis de los años 50 y la de sida. Menos conocidas, pero no menos letales, son epidemias como la de poliomielitis que hoy mismo está asolando África Central y Occidental.

Toda epidemia, desde las de la antigüedad hasta las actuales, tiene una serie de requisitos para poderse extender, entre ellos la falta de medidas preventivas, la existencia de grandes centros urbanos que le permitan a la enfermedad perdurar en el tiempo ya que la población susceptible de ser infectada no está expuesta simultáneamente a ella; el intercambio comercial intenso, que permite su difusión geográfica, y la incapacidad científica, médica o gubernamental para responder con la rapidez suficiente. "Medidas preventivas" y "responder a una epidemia" son acciones que el hombre no pudo emprender durante la mayor parte de su historia. Aunque ya Hipócrates recomendaba, en el 350 a.N.E., hervir el agua para "filtrarla de impurezas", no fue posible pensar en prevenciones y curaciones sino hasta fines del siglo XIX, cuando Louis Pasteur formula la teoría de la enfermedad provocada por seres vivos microscópicos, de los cuales identificó a varios como el estafilococo (causante de la osteomielitis y muchas infecciones de la piel), el estreptococo (causante de enfermedades olvidadas en el mundo desarrollado como la fiebre puerperal, la fiebre escarlata y la erisipela, y de muchas infecciones de garganta) y el neumococo (responsable de ciertos tipos de neumonía).

Tener identificada la causa y comprender el proceso de las enfermedades permitieron la producción de medicamentos capaces de curar a las víctimas de algunas epidemias, y la creación de formas de prevención del contagio que van desde la vacuna hasta medios físicos como el condón.

Pero la capacidad de respuesta ante afecciones no conocidas previamente, como el sida, cuyas víctimas hace apenas 20 años estaban irremediablemente condenadas a una muerte pronta y certera, y hoy tienen mucho mejores oportunidades de supervivencia, no ha impedido que se busquen "culpables" (como la homosexualidad) o que se hable de "castigo divino", como sigue haciéndose entre algunos grupos religiosos al tratar el tema del VIH.

Sin embargo, la lucha contra la mayoría las epidemias ya no es hoy esencialmente un problema médico o farmacológico, sino que se ha convertido en un tema esencialmente político y económico. Acelerar la investigación para erradicar el sida o aplicar las vacunas necesarias para detener la epidemia de poliomielitis en África son acciones que dependen de la voluntad política y de los cálculos del costo monetario que tendría emprender las acciones necesarias. Y, por desgracia, sigue sin haber un antídoto eficaz contra la epidemia de insensibilidad ante el dolor ajeno tan frecuente en las altas esferas del poder.

¿Un imperio por una epidemia?


Al salir las escasas tropas de Hernán Cortés de la capital del imperio azteca, México-Tenochtitlán durante la que se conoce como "Noche triste", los europeos dejaron atrás un aliado inesperado: la viruela. Esta enfermedad, inexistente en el nuevo mundo y ante la cual no tenían ninguna defensa los indígenas, diezmó a la población durante la epidemia que se desató en noviembre de ese año. Los efectos de la epidemia ayudaron en gran medida a que las fuerzas de Cortés, españoles e indígenas que buscaban liberarse del yugo de los aztecas, consiguieran la toma de la ciudad en agosto de 1521, iniciando los trescientos años del gran imperio colonial español en América. Y esa misma epidemia de viruela viajaría entonces por Centroamérica y llegaría al imperio inca hacia 1525, a tiempo para ser, también, aliada de Pizarro en su conquista del Perú.

Las piezas que faltan de Egipto

Lo mucho que sabemos de la cultura de este país es lo que hace aún más enigmático e interesante lo que seguimos ignorando.

Sabemos con certeza la secuencia de hechos importantes en la historia de Egipto desde el 3000 antes de nuestra era (A.N.E.), y hay bastante información acerca de al menos 200 años antes, hasta su fin como reino independiente con la muerte de Cleopatra en el 32 A.N.E. y hasta nuestros días, lo que convierte a esa civilización en la más duradera de forma ininterrumpida en la historia humana. Por contraste, la civilización mesopotámica, origen de la escritura y de la historia misma, tiene una existencia más agitada, con divisiones y subdivisiones, y desaparece como tal seiscientos años antes que la egipcia.

Egipto, quizá gracias a su continuidad lingüística, religiosa y cultural de tres mil años, alcanzó logros que han cautivado a quienes los han conocido, desde Herodoto hasta Napoleón y esos "cuarenta siglos" que, decía, contemplaban a sus soldados (un cálculo bastante preciso), pasando por Alejandro Magno, cuyo general Ptolomeo fundó la última dinastía egipcia. En esa fascinación es esencial la preservación que hacen los egipcios de su realidad, ese primer concepto del devenir colectivo humano, tan claro que la egiptología moderna aún acude a la división en dinastías establecida por el sacerdote Menatón, en la historia de Egipto que escribió poco después del 300 A.N.E.

Sobre este país, pese a su dispersión a lo largo de más de 1.500 kilómetros bordeando el Nilo, contamos con información que no tenemos de culturas de otras más recientes y localizadas, como la de los etruscos, igualmente víctima de la Roma conquistadora. El reciente descubrimiento de una nueva tumba en el Valle de los Reyes, llamada KV 63, la primera desde el hallazgo de la de Tutankamón en 1922, con cinco momias al parecer intactas en su interior, pertenecientes a la realeza, aunque no a reyes o reinas, invita a un repaso a lo que aún se espera averiguar gracias a las excavaciones y estudios que continúan.

Así, sabemos que hubo un intenso intercambio cultural entre Egipto y Mesopotamia, pero aún no hay datos suficientes para saber si los egipcios desarrollaron su propio sistema de escritura independiente o tomaron la idea de los babilonios. Cualquiera que fuera la respuesta, no sólo arrojaría luz sobre los primeros siglos de la cultura faraónica, sino que daría material a los lingüistas para seguir desentrañando el proceso mediante el cual el hombre generó el peculiar sistema de escribir. Sabemos, sin lugar a dudas, que lo que conocemos como Egipto estuvo habitado durante cientos de miles de años, gracias al descubrimiento de hachas de mano y poblados paleolíticos de 300.000 años de antigüedad, así como vestigios de comunidades de cazadores y recolectores anteriores al año 5.000 A.N.E., pero aún no sabemos si la cultura egipcia surgió de tales comunidades o bien éstas fueron invadidas por otras civilizaciones procedentes de Mesopotamia. También sabemos que Akhenatón, padre de Tutankamón, fue un hereje monoteísta que provocó una grave conmoción durante su reinado, y que a su muerte muchas de las inscripciones referidas a él fueron borradas o mutiladas tratando de ocultar a la posteridad la existencia del faraón y de negarle la inmortalidad, incluso el destino final de su cuerpo es desconocido. Muchos datos indican la posibilidad de que se trate de un cuerpo encontrado en la tumba KV 55, pero esta cuestión no está del todo comprobada. Quizá algún día podamos ver el rostro del faraón que, como dijera algún estudioso, «quiso cambiar el curso de la historia y la religión humanas».

El relato bíblico de la esclavitud de los israelitas en Egipto no parece corresponder a la realidad, y cada vez más estudiosos, incluso bíblicos, están dispuestos a aceptar que el relato del Éxodo es una alegoría o un mito cohesionador de la tribu de Israel, por otro lado nada infrecuente en las culturas humanas. Lo que no sabemos es por qué fue Egipto el elegido para la historia moralizante y unificadora de Moisés, qué elementos de la influencia del imperio de los faraones alcanzaron a la modesta población israelita situada en Palestina para fijarse en el faraón (nunca se aclara cuál) como el más importante enemigo al cual vencer para su historia fundacional como cultura. Pero los grandes monumentos, la omnipresencia de los faraones, hombres y mujeres que eran dioses, la obsesión por lo preternatural y la vida después de la vida, dejan acaso el más importante hueco en nuestro conocimiento del antiguo Egipto, el de la vida cotidiana de su gente.

Pocas obras literarias, como la historia de Sinhué, nos permiten profundizar en la realidad de los egipcios comunes, de los hombres y mujeres de vidas anónimas y duras y de modestas tumbas, apenas recordados por los suyos. El hecho de que la escritura estuviera reservada a los cortesanos dictaba en gran medida su temática, y aunque existe literatura y poesía que nos permiten algunos atisbos de la vida diaria de los habitantes del imperio, seguimos sabiendo muy poco sobre el pueblo que hizo posibles los logros que hoy sobreviven del antiguo Egipto.

Quizá la microhistoria, las recetas de cocina, las costumbres educativas, las conversaciones al anochecer, sean un interés reciente en el registro del devenir humano. Sin embargo, no es difícil imaginar que para cualquiera de nosotros sería más fácil identificarnos con un trabajador de las pirámides de Giza que con un dios rey adolescente con máscara de oro.

Las pirámides


Desde la primera pirámide escalonada de Dyoser hasta las grandes pirámides de Giza hay una línea ininterrumpida de construcciones cada vez más altas y complejas que dejan de construirse al cambiar las costumbres funerarias de los faraones, y que dejan pocas dudas sobre la autoría de estos monumentos.

Los estudios probarán o refutarán las diversas hipótesis sobre cómo se realizó la construcción, pero el descubrimiento de una ciudad de trabajadores al este de la pirámide de Keops en 1980 sí permitió demostrar sin duda que sus constructores no fueron esclavos, como escribió Herodoto en un mito que se perpetuó, sino trabajadores libres que se trasladaron con sus familias desde muchos puntos de Egipto. Esto ha llevado a su descubridor, el encargado de la arqueología egipcia, Zahi Hawass, a sugerir la posibilidad de que no sólo los egipcios construyeron las pirámides, sino que las pirámides, al darle un objetivo compartido a gente venida de todo el reino, sirvieron para construir la permanencia e identidad de Egipto. De ser cierta, esta hipótesis multiplicaría la importancia histórica y social de estos monumentos, como una de esas grandes obras humana que cambian, para siempre, a sus creadores.


(Publicado el 15 de marzo de 2006)

Células madre, investigación y promesas

Trasplantes sin rechazo o tratamientos para afecciones degenerativas y crónicas, son algunas promesas de la biomedicina a comienzos del siglo XXI.

En 2004, seis pacientes ciegos debido a retinitis pigmentosa o degeneración macular -dos afecciones hasta entonces incurables- recuperaron parcialmente la vista gracias al trasplante de células de la retina obtenidas en el laboratorio. En abril de 2005, se anunció que, gracias a intervenciones experimentales en el hospital británico Queen Victoria, cuarenta pacientes dejaron de ser ciegos gracias a la regeneración de sus córneas con terapia celular. El elemento clave de estas curaciones, y de cada vez más historias similares, son las células madre, células no diferenciadas que al reproducirse pueden dar como resultado células de distintos tejidos del cuerpo.

Todo ser vivo comienza, en realidad, como una sola célula madre, un óvulo fecundado que se subdivide en otras células que, a lo largo del desarrollo del individuo y como respuesta a diversas señales, comienzan a diferenciarse en los distintos órganos y tejidos que conforman el cuerpo. El control de esta nos permitirá desarrollar tecnologías para reemplazar células enfermas o inútiles por células nuevas sanas y funcionales, algo que ya se aplica a afecciones como ciertos tipos de cáncer o la enfermedad de Parkinson, y es una gran promesa para la diabetes, las lesiones de la médula espinal y otras afecciones. Incluso sería posible crear en el laboratorio órganos completos para trasplantes, con lo que los pacientes que los necesitan dejarían de estar a expensas de los donantes.

Las células madre son de distintos tipos según pueden o no convertirse en otras: totipotentes (se convierten en cualquier tejido), pluripotentes (se convierten en cualquier célula excepto una totipotente), multipotentes (se convierten en células de un grupo relacionado de tejidos, como distintos tipos de células de la piel) y unipotentes (que pueden producir sólo un tipo de células además de renovarse a sí mismas). Estas células también se diferencian por su origen. Las que proceden de seres ya formados, o somáticas, suelen ser multipotentes. Otras proceden de la sangre de la placenta y del cordón umbilical de bebés recién nacidos. Finalmente, las embrionarias se obtienen de la masa celular interna de embriones de 4 o 5 días de edad.

Las células madre somáticas se emplean ya para tratar más de un centenar de enfermedades, muchas veces sin que sepamos que son células madre. Por ejemplo, la médula ósea está formada por células madre multipotentes que pueden producir distintos tipos de células sanguíneas. La médula se trasplanta desde hace décadas para tratar la leucemia o ayudar a la recuperación de pacientes sometidos a quimioterapia. La sangre umbilical contiene células madre que ya se usan sobre todo en el tratamiento de enfermedades infantiles, como los síndromes de Hunter y de Hurler, la enfermedad de Gunther y, especialmente, la leucemia linfocítica aguda. En estos tratamientos, lo ideal es usar sangre del propio paciente, pues al no haber rechazo del tejido, el tratamiento tiene más posibilidades de éxito.

En el centro del debate

Pero son las células madre embrionarias, que son las totipotentes, las que se encuentran en el centro del debate bioético, religioso y político, ya que se obtienen de embriones creados en el laboratorio, con sistemas de fertilización in vitro. Éstas son las que encierran más promesas de extraordinarios avances en el tratamiento de muy diversas afecciones, desde el cáncer hasta la recuperación de daños a la médula de la columna vertebral y usos tan importantes como la prueba de los efectos de ciertos medicamentos o procedimientos diagnósticos en el laboratorio, disminuyendo el uso de animales en la experimentación, así como las fases más arriesgadas de tales estudios en voluntarios humanos. Al tratarse de un área de estudio joven, es imposible predecir con certeza hacia dónde nos llevará y todo lo que puede ofrecer al ser humano.

El debate incluye también el uso de la clonación terapéutica para obtener células madre, técnica en la que se sustituye el material genético de un óvulo por el del donante o paciente, activándolo para que se comporte como un óvulo fecundado y dando como resultado un blastocisto con células totipotentes que pueden usarse para recrear cualquier parte del organismo del donante sin que se produzca un rechazo al trasplantarlas.

Hacer realidad todo el potencial de la terapia celular a partir de células madre requiere todavía de una intensa experimentación para poder determinar no sólo cómo se puede causar que se conviertan en células sanas de uno u otro tejido, camino que apenas se ha empezado a andar, sino también para determinar sus riesgos y cómo evitarlos. La inyección de células en un ser vivo no es asunto trivial, y sólo debe hacerse con una certeza razonable de que el proceso está bajo control. Esta investigación inicial es la que hoy se enfrenta a la oposición de grupos e individuos con intereses no relacionados con la ciencia.

Tan sólo aprender a cultivar y hacer que se reprodujeran las células madre en el laboratorio sin que se diferenciaran espontáneamente requirió veinte años de trabajo. Se necesitarán muchos años más, el acceso a cantidades suficientes de tejido y un apoyo sólido de la sociedad y los gobiernos del mundo para que esta área de la investigación avance tan rápidamente como sea posible. El precio de no hacerlo así se paga diariamente en la disminución de la calidad y cantidad de vida de miles y miles de personas.

Células madre y clonación


La clonación no es nueva en la naturaleza. Hay insectos que se reproducen por clonación, y al comer patatas o cebollas estamos con frecuencia comiendo clones, ya que ésta es una forma de reproducción asexuada común en el mundo vegetal.

El tratamiento de la clonación en la literatura y en el cine, desde Los niños de Brasil de Ira Levin, así como casos como el de la oveja Dolly, han creado la percepción popular de que el objetivo de la clonación es producir a un ser humano, la llamada clonación reproductiva.

Pero hoy sabemos que la clonación reproductiva tiene serias desventajas, demostradas por la vejez y muerte prematura de Dolly, y sabemos que dos células idénticas no dan como resultado personas idénticas, ni siquiera lo son los gemelos univitelinos, con los mismos genes. Todos somos irrepetibles.

Los genes, en la atinada metáfora de Richard Dawkins, no son un "plano" del ser a crear, donde cada elemento se corresponde uno a uno con el resultado. Es más bien como una receta: los genes indican qué se debe hacer, y el medio ambiente determina qué se hará finalmente, según los elementos disponibles, como la alimentación de la madre, el medio químico, la temperatura, etc. Así, el método de reproducción tradicional lleva ventaja en la creación de nuevos seres, dejando a la clonación el espacio terapéutico donde tanto puede aportar.

(Publicado el 15 de marzo de 2006.)

El espejo del chimpancé

Nuestro pariente más cercano, el chimpancé, es un maestro, a veces incómodo, que nos enseña mucho sobre la conducta y genética humanas.

Chimpancé (Pan troglodytes)
(Foto GFDL de Thomas Lersch
vía Wikimedia Commons)
El paleoantropólogo Louis Leakey, que ayudó a establecer el origen africano del ser humano, llevó en 1957 como asistente en un viaje a Kenya a la joven secretaria Jane Goodall, interesada en el estudio de los primates. Con el apoyo del científico, la joven empezó a observar a los chimpancés de Gombe, en 1965 obtuvo su doctorado en etología (ciencia del comportamiento) en Cambridge y, para la década de los 70, se convirtió en la máxima experta en chimpancés del mundo, lo que sigue siendo hasta hoy, a los 72 años.

Desde 1957, Jane Goodall ha demolido, sin proponérselo, muchos grandes mitos sobre el ser humano y sus parientes, los simios. No, el ser humano no era el único que usaba herramientas. No, no era el único que comía carne o cazaba. Y no, tampoco era el único en hacer la guerra contra sus congéneres. Los estudios de Jane Goodall, así como su fundación, tienen propósitos científicos y conservacionistas, pero también se han convertido en elemento clave de varios debates filosóficos sobre lo que realmente significa la palabra "humano" y han obligado a muchos a aceptar una posición bastante más humilde que la de "cumbre de la creación" que con tanta alegría algunos han adjudicado a nuestra especie.

El interés del ser humano por los primates, en especial los monos y muy especialmente los grandes simios, tiene una explicación sencilla: es imposible cerrar los ojos a las similitudes que tienen con nosotros. Simplemente la presencia en estos animales de manos capaces de realizar manipulaciones finas, con uñas en lugar de garras, resulta tremendamente llamativa. Hubo quien quiso ver en el pasado a los chimpancés como "humanos degenerados", pero el estudio de la evolución estableció con enorme certeza que el chimpancé y el ser humano proceden de un ancestro común que vivió hace unos 6 millones de años. A partir de ese momento, las dos especies tomaron caminos evolutivos distintos. La especie del chimpancé se dividió además hace 2,5 millones de años en dos especies: los chimpancés "verdaderos", Pan troglodytes y los "chimpancés pigmeos" o bonobos, Pan paniscus, conocidos por su pasión por el sexo.

Asombro y conocimiento

Los estudios del genoma humano han permitido probar definitivamente esta cercanía al determinar que el ser humano y el chimpancé comparten más del 99% de su material genético. Para ser precisos, los cromosomas 1, 4, 5, 9,12, 15, 16, 17 y 18 de los humanos tienen invertidos grandes tramos de código si los comparamos con los cromosomas homólogos de los chimpancés, y el cromosoma humano 2 es el resultado de la fusión de dos cromosomas que siguen separados en todos los demás grandes antropoides, por lo que los humanos tenemos 23 pares de cromosomas, mientras que los chimpancés y otros grandes primates tienen 24.

Esta cercanía genética ha sido clave para que los estudios con chimpancés ofrezcan grandes avances en áreas de estudio como el VIH-SIDA -los chimpancés son los únicos animales, aparte de nosotros, que pueden ser infectados por el VIH-, y al desarrollo de la vacuna contra la hepatitis B, así como en la profundización de nuestro conocimiento sobre patrones sociales, conductuales y sexuales que compartimos con estos simios. Además, el estrecho parentesco del ser humano y el chimpancé se ha convertido en tema de gran preocupación entre los grupos integristas que promueven el creacionismo. El que un tramo de código genético se invierta no es poco habitual, y se ha podido observar en animales de la misma especie, donde una línea de descendencia tiene un tramo de código invertido respecto de otra. Hay indicaciones de que la fertilidad es menor entre los individuos que tienen esa diferencia y entre los que no la tienen, y por ello algunos científicos consideran que la inversión de código es parte del proceso de separación de las especies.

Las diferencias genéticas son una forma de confirmar lo que el registro fósil nos va desvelando, pues la alteración genética por mutaciones, inversiones, y otros elementos tiene una velocidad de aparición constante en el tiempo. A mayor diferencia en la constitución genética de dos especies, mayor es el tiempo transcurrido desde que se separaron a partir de un ancestro común. Si el tiempo de separación que nos indica la diferencia genética coincide con lo que indica el registro fósil y sus numerosos métodos de datación, hay razones muy sólidas para aceptar que hubo un ancestro común y, por tanto, una evolución de las dos especies que explicaría cómo cada una tomó su propio rumbo evolutivo en función de sus necesidades de supervivencia.

Si somos, como sugiere Jared Diamond, el "tercer chimpancé", formando una misma familia con chimpancés y bonobos, no cambiaría en nada la realidad de nuestra especie; pero puede cambiar nuestra percepción de nosotros mismos tanto como los chimpancés han permitido que mejore nuestra salud y nuestro bienestar. Es quizá por ello que muchos temen verse reflejados en el espejo del chimpancé, aunque otros muchos encuentren en ello motivo de asombro y conocimiento, además de recordarnos lo que puede hacer una secretaria decidida a conocer el mundo en el que vive.

Pablo Picasso y el pintor chimpancé

En 1957, el Instituto de Artes Contemporáneas de Londres presentó una exposición de pintura abstracta que asombró e inquietó a más de uno, pues los autores de las obras eran chimpancés y las habían realizado como parte de un estudio del científico inglés Desmond Morris.

Ese mismo Desmond Morris, estudioso del comportamiento animal y pintor, protagonizaría en años posteriores un escándalo menor con su libro de divulgación El mono desnudo, que decía abiertamente que el ser humano era esencialmente un primate sin pelo, y nos asombraría en 1981 con El deporte rey (The soccer tribe), donde analiza el fútbol y cuanto lo rodea en términos de tribalismo esencial.

El orgullo de algunos se vio herido nuevamente por esos chimpancés capaces de pintar obras que no desagradaban a muchos críticos, mismos que resaltaron los trabajos de uno de los artistas en particular, llamado Congo, el favorito de Morris. La situación fue a peor cuando Morris publicó sus experiencias indicando, entre otras cosas, que los chimpancés pintores eran todos jóvenes, pues perdían el interés por el lienzo y las pinturas al dejar la adolescencia.

El gran avalista de Congo fue, sin embargo, Pablo Picasso. Cuando un reportero le sugirió al genio malagueño que el trabajo del chimpancé no era "arte", Picasso respondió mordiendo al periodista. Después de todo, no pocos encontraron ingenioso decir lo mismo de la obra de Picasso muchas veces.

Se dice, y no es descabellado, que Picasso adquirió una de las pinturas de Congo y la colgó en su estudio, que no es poco elogio para Congo… y para Pablo Picasso.

(Publicado el 8 de marzo de 2006.)

Presentación

Los artículos aquí reunidos han sido escritos especialmente para el suplemento Territorios del diario El Correo.

Después de su publicación, cada articulo se reproduce en este blog con la amable autorización del diario.

El nombre Los expedientes Occam pretende ser, primero, un guiño a los falsos misterios que se promueven como Expedientes X, Y o Z al tiempo que se aparta la vista de los verdaderos grandes misterios del universo y de la forma en que unos mamíferos bastante peculiares los han ido resolviendo realmente.

Pero es ante todo un mínimo homenaje al brillante lógico y filósofo inglés William of Occam (u Ockham), monje franciscano que en el siglo XIV utilizó y expresó un principio que hoy es esencial para la actividad científica y el método científico que se desarrollaría posteriormente, el Principio de la parsimonia, que indica que "no se deben multiplicar las entidades sin necesidad" o, dicho de otro modo, en la explicación de cualquier fenómeno debemos hacer cuantas menos suposiciones sea posible, eliminando aquéllas que no marquen una diferencia en las predicciones observables que haga una hipótesis o teoría. Este principio se conoce también como "La navaja de Occam", pues corta de raíz las fantasías innecesarias para el conocimiento certero, y está considerado una de las máximas de la heurística o forma en que se realizan los descubrimientos.

La ciencia ha sido en gran medida, el proceso de abandono paulatino de "entidades" o elementos explicatorios innecesarios y que sólo enturbiaban la capacidad humana de comprender efectivamente el universo a su alrededor. El flogisto, el horror al vacío, el éter, la fuerza vital o vis vitalis y otras muchas propuestas similares han caído bajo el filo certero de la navaja.

William of Occam, por cierto, dio su primer nombre al personaje central de El nombre de la rosa de Umberto Eco, William of Baskerville (el segundo nombre es un homenaje a Sherlock Holmes), y mucho del personaje se debe a este pensador medieval.