Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los Premios Ig Nobel: después toca pensar

Los premios Ig Nobel: más allá de lo jocoso y lo aparentemente absurdo, estos premios nos invitan a pensar sobre la ciencia y sus posibilidades.

Desde 1991, un grupo de periodistas e investigadores científicos, entre los que hay actualmente unos 50 científicos, varios de ellos ganadores del Premio Nobel, entregan los premios que llaman Ig Nobel en un teatro de la prestigiosa Universidad de Harvard (antes la sede era una sala de conferencias del famoso MIT). Estos premios, que originalmente se daban a investigaciones que “no podían o no debían ser reproducidas” hoy son, según sus organizadores, para “honrar logros que primero hacen a la gente reír, y luego los hacen pensar”. Adicionalmente, explican que los premios tienen por objeto “celebrar lo desusado, rendir honores a lo imaginativo y promover el interés de la gente por la ciencia, la medicina y la tecnología”.

Los premios son, en ocasiones, críticas abiertas, como los que se han dado a supuestas investigaciones homeopáticas o a los consejos educativos estadounidenses que han sido objeto de ataques por parte de grupos creacionistas fundamentalistas. En otros casos, se otorgan a investigaciones desusadas, inesperadas o extrañas, como el famoso experimento que consiguió hacer levitar a una rana magnéticamente utilizando un campo magnético muy poderoso y las propiedades diamagnéticas del agua, no perceptibles ante campos menos potentes.

Los premios en sí están patrocinados por la Sociedad Informática de Harvard, la Asociación de Ciencia Ficción Harvard-Radcliffe y la Sociedad de Alumnos de Física de Harvard-Radcliffe. Estos premios paródicos pero con su lado serio, son sumamente apreciados por la comunidad científica mundial en general. En marzo de todos los años, la Sociedad Británica para el Avance de la Ciencia y el dario The Guardian patrocinan el Tour Ig Nobel del Reino Unido, donde se aprovechan los Ig Nobel para celebrar la Semana Nacional de la Ciencia con charlas de algunos de los ganadores.

Desafortunadamente, los medios no especializados parecen no haber entendido la broma, y se limitan a usar descripciones imprecisas como "los anti-nobel", "lo irrelevante de la ciencia" y “el ridículo científico", cosa que ciertamente no son.

Por ejemplo, los medios destacaron notablemente este año uno de los premios, otorgado a un investigador por medir cuánto puede alterar un armadillo el contenido de un sitio arqueológico. Extraño es, pero si lo pensamos un poco más a fondo, lo que hizo el arqueólogo brasileño Astolfo G. Mello Araujo, de la Universidad de Sao Paulo, puede tener importantes consecuencias. En arqueología, son muy importantes la ubicación u orientación de algunos restos o elementos, como los que se encuentran en los enterramientos.

Si aplicamos el mismo tratamiento de “después pensar” a otros de los premios Ig Nobel de este año, y nos planteamos preguntas en serio, podemos ver cuán relevante puede ser algo que a primera vista no lo parece.

La Coca-Cola es importante como producto y elemento cultural. Por ello llamó la atención el premio Ig Nobel de química otorgado a los científicos estadounidenses que demostraron que esta bebida es un espermicida efectivo y, ex aequo a los investigadores taiwaneses cuya investigación concluyó exactamente lo contrario. Quizá los ersultados distintos se deben a una diferencia en los protocolos experimentales. Quizá la bebida no es igual en Estados Unidos y en Taiwán. O incluso podría ser que haya diferencias genéticas concretas entre las poblaciones en las que se hizo el estudio. Y en todo ello hay que identificar cuál o cuáles de todos los componentes de la bebida tiene o no propiedades espermicidas, y descubrir por qué los estudios dan resultados distintos. Al menos sabemos que, en muchos casos, los resultados en principio contradictorios son un aviso de por dónde deben realizarse investigaciones ulteriores.

El Premio Ig Nobel de la Paz de este año se entregó a un comité suizo biotecnológico y a todos los ciudadanos de Suiza por declarar legalmente que "las plantas tienen dignidad". Ciertamente suena absurdo, pero llama la atención sobre un problema bioético de primera importancia. Los promotores del Proyecto Gran Simio buscan que se conceda a los grandes simios derechos iguales a los humanos. Sin embargo, en buena medida se pueden aplicar sus mismos argumentos para conceder derechos a otros primates, a todos los mamíferos, a los vertebrados, incluso a todas las plantas, aunque esto implicaría que preparar una ensalada fuera asesinato múltiple. Los seres humanos, tenemos que fijar una línea de demarcación ética, pero aún no es claro dónde y por qué debemos hacerlo. El que el tema se pueda reducir al absurdo y llevar hasta la "dignidad de las plantas" pone de manifiesto que aún no tenemos una aproximación adecuada al conflicto ético en el cual se ubican los defensores de los derechos de los animales y de los entornos ecológicos.

Es muy fácil ver por qué es importante una investigación que sugiera que los placebos caros son más efectivos que los placebos baratos. Tal investigación se llevó el Ig Nobel de medicina este año. Sabíamos que si un paciente espera que algo sea efectivo, su creencia influye en dicha efectividad, por lo menos en cuanto a los síntomas. Es esto lo que hace que parezan efectivas varias formas de curanderismo y brujería. Ahora sabemos también que el precio es un componente, y ello podría explicar la preferencia de algunas personas por medicamentos más costosos (como los “de marca”) frente a los genéricos.

Un último premio especialmente interesante fue para la demostración matemática de que montones de cuerda, o pelo, o casi cualquier otra cosa inevitablemente formarán nudos. La teoría de nudos es, precisamente, una rama de la topología, y los nudos como fenómeno han fascinado a muchos personajes a lo largo de la historia, como el propio Da Vinci, e incluso a culturas enteras, como la celta, cuyos nudos sobrevivieron cuando su idioma no lo pudo hacer. La inevitabilidad de que algo se ate en un nudo puede tener importantes consecuencias en las matemáticas, algo mucho más allá de un simple chiste entre señores de bata blanca.

Cantando el Ig Nobel


Entre los premios más divertidos destaca, sin duda, el Ig Nobel de la Paz concedido al baterista japonés Daisuke Inoue por haber inventado la máquina de karaoke (que en japonés significa “orquesta vacía”) en 1971. Habiendo sido considerado por la revista Time como uno de los personajes asiáticos más influyentes en el mundo, en el año 2000 recibió el premio por “proporcionar una forma totalmente nueva para que las personas aprendan a tolerarse unas a otras”. Como detalle curioso, Inoue nunca patentó su invento y no obtiene beneficios de los miles y miles de karaokes que suenan en el mundo.

Los mecanismos de las drogas

Los efectos fisiológicos y químicos de las drogas que el hombre utiliza desde tiempo inmemorial nos permiten averiguar muchos secretos del funcionamiento de nuestro cerebro.


El alcohol, una de las drogas más populares,
y de las pocas legales en muchos países
(Foto CC-BY-2.0  de Payton Chung,
vía Wikimedia Commons)
Llamamos "drogas" a sustancias con actividad neurológica que provoca estados o sensaciones que el usuario halla agradables y que se consumen sin necesidad médica. Así, una sustancia se considera droga no por lo que es, sino por la forma en que la usamos, aunque las drogas no sean exclusivamente de uso humano. Algunos lemures de Madagascar mordisquean a enormes milpiés para que exuden una sustancia venenosa que provoca al lemur un estado alterado que parecen disfrutar. Diversas aves comen fruta fermentada, al parecer por los efectos del alcohol. Los monos verdes, llevados a Bermudas desde Etiopía en el siglo XVII, se aficionaron a la caña de azúcar que fermentaba en las plantaciones, y cuando islas como San Kitt y Nevis se convirtieron en paraíso turístico, descubrieron el mundo del cóctel y se convirtieron en plaga para los dueños de chiringuitos en la playa y al mismo tiempo en una lamentable atracción turística. Esto atrago a investigadores de la Universidad McGill de Canadá, que descubrieron en 2002 que el comportamiento de los monos era muy parecido al de los humanos: de mil monos a los que se les dió alcohol, el 15% bebía de modo frecuente y abusivo, otro 15% bebía muy poco o nada, 5% tenía graves problemas con al abuso del alcohol. Es decir, los monos usan el alcohol como droga del mismo modo que los seres humanos. Eso se debe a que las drogas actúan sobre nuestro organismo de modo predecible y por afinidades químicas en ocasiones asombrosas, alterando la percepción, el humor, la consciencia y el comportamiento, dividiéndose en cuatro clasificaciones generales por sus sustancias más activas: estimulantes, analgésicos, hipnóticos y alucinógenos o psicodélicos.

Las drogas estimulantes aumentan la actividad del sistema nervioso simpático o del central, o de ambos, siendo los más conocidos las anfetaminas y la cocaína, que actúa principalmente bloqueando una proteína responsable del transporte de la dopamina para su reabsorción. Al acumularse la dopamina entre las neuronas, estimula a éstas de modo más prolongado, causando directamente el aumento del ritmo cardiaco y la presión arterial, además de servir como un anestésico local al bloquear los canales de sodio de las neuronas. Otros estimulantes populares son la cafeína y la nicotina del tabaco, y resulta curioso comprobar que la cafeína, considerada la droga de uso más extendido en el mundo, tiene mecanismos químicos de acción tan complejos que se sabe aún muy poco de ellos, y están bajo intensa investigación.

Por su parte, entre los analgésicos utilizados comúnmente como drogas destacan la morfina, la ketamina y la más popular droga de entre las perseguidas por las leyes, el tetrahidrocannabinol o THC, la sustancia activa del cannabis o mariguana. La planta usa esta sustancia para protegerse de los herbívoros y algunos organismos patógenos, porque actúa directamente en el cerebro, en unos receptores especializados de las neuronas llamados precisamente "receptores cannabinoides", que son sensibles a sustancias muy parecidas al THC producidas por nuestro propio organismo, llamadas endocannabinoides. Al activarse, estos receptores ocasionan hipotensión arterial, analgesia o supresión del dolor, relajación y euforia, y alteraciones en la percepción, desorientación, fatiga y aumento del apetito.

Los hipnóticos o productores de sueño más comúnes son los barbitúricos, los opiáceos y las benzodiazepinas. Los tres tipos de sustancias, al igual que el alcohol y algunos cannabinoides, se unen al receptor del neurotransmisor conocido como GABA, aumentando la acción de éste y ocasionando efectos relajantes, reductores de la ansiedad y anticonvulsivos, además de que algunos pueden provocar amnesia. Estos efectos explican las "lagunas mentales" y la somnolencia que ocasiona el consumo excesivo de alcohol, así como la similitud con las sensaciones del alcohol que experimentan quienes abusan de los barbitúricos. Los opiáceos son llamados así por su similitud química con el opio, del que se obtienen tanto la morfina como la heorína, y actúan sobre el cuerpo uniéndose a receptores en el sistema nervioso y en otros tejidos que están específicamente dedicados a este tipo de sustancias, ya que nuestro propio cuerpo produce sustancias opiáceas, como las llamadas "endorfinas", sustancias endógenas similares a la morfina y producidos por la glándula pituitaria que mitigan el dolor y producen una sensación general de bienestar. Por último, las benzodiazepinas, como el diazepam, el lorazepan y el bromazepam, también actúan sobre los receptores del GABA, aumentando los efectos de éste, provocando distintos efectos que van desde la disminución de la ansiedad hasta la sedación.

Finalmente tenemos los alucinógenos, que alteran radicalmente la percepción, emociones y pensamientos, provocando alucinaciones, e incluyen los psicodélicos como el LSD o ácido lisérgico, la psilocibina de los hongos alucinógenos o la mescalina que se encuentra en el peyote, y se popularizaron en la contracultura hippie. El LSD, como ejemplo, afecta a numerosos receptores en el sistema nervioso, en especial los de la serotonina, uno de los cuales controla la corteza visual, y es por tanto responsable de las alucinaciones relacionadas con el LSD que hicieron que se prohibiera incluso para uso terapéutico, pese a que llegó a ser muy prometedor. Otros alucinógenos son los disociativos como la ketamina o el PCP, y los delirantes o causantes de delirio que bloquean los receptores de acetilcolina, los más potentes alucinógenos, entre ellos el beleño o belladona y la mandrágora,

Entender qué hacen las drogas en nuestro organismo y cómo lo hacen es una forma de averiguar sus beneficios y cómo aprovecharlas, y también de comprender sus lados negativos y saber el precio que se puede pagar por la sensación placentera que mueve al consumo de tales sustancias.

El cornezuelo y las brujas

El LSD se deriva de la ergotamina, sustancia producida por el cornezuelo del centeno, una plaga de este cereal y que puede provocar convulsiones, alucinaciones, ardor y gangrena por la constricción de los vasos sanguíneos. Las curanderas antiguas utilizaban el cornezuelo para producir abortos y detener la hemorragia postparto. Pero, también, ciertas investigaciones históricas sugieren que quizá algunos casos de cacería de brujas como el de Salem en 1692, fueron producto de las alucinaciones inducidas por el cornezuelo del centeno entre quienes afirmaban estar embrujados o haber visto mujeres volar. Un viaje de ácido podría haber sido el origen de un triste capítulo de la historia.

Pasteur: un revolucionario silencioso

Distintas disciplinas científicas y filosóficas guardan diversas deudas con Louis Pasteur, el químico francés que a fines del siglo XIX hizo para el mundo viviente en gran medida lo que Copérnico hizo con nuestra imagen del cosmos, derribando uno de los más antiguos mitos sobre la vida y estableciendo, por primera vez en toda la historia humana, unos cimientos sólidos de saber demostrable sobre los cuales erigir el edificio de una nueva medicina basada en hechos y no en creencias.

Louis Pasteur en 1878
(Foto D.P. de Félix Nadar)
La carrera científica de Louis Pasteur, sin embargo, comenzó en un área muy alejada de la bioquímica, las vacunas y la pasteurización por las cuales se le conoce hoy en día, estudiando los efectos del ácido tartárico sobre la luz polarizada. En 1848, Pasteur descubrió que los cristales de tartarato de sodio y amonio venían en dos formas asimétricas, de hecho, eran la imagen de espejo unos de los otros. Separó los cristales de las dos formas y vio que la solución de una de ellas giraba la luz polarizada en sentido de las manecillas del reloj, mientras que la solución de la otra la giraba en sentido contrario a las agujas del reloj. Se trataba de dos formas de la misma molécula, una invertida respecto de la otra como una mano izquierda lo está de la derecha. Con este descubrimiento, el joven Jean-Louis Pasteur de apenas 26 años había fundado toda una rama de la química: la estereoquímica, que estudia la disposición espacial de las moléculas de toda sustancia y los efectos biológicos, químicos y físicos que tiene tal disposición.

Este descubrimiento hizo también que el joven Pasteur llamara la atención del mundo, concediéndole la Legión de Honor francesa con sólo 26 años, y fue su pasaporte para obtener el nombramiento de profesor de química en la Faculté de Estrasburgo, lo que impulsó su capacidad para investigar con libertad.

En 1864, el emperador Napoleón III llamó al ya reconocido Louis Pasteur para encargarle la investigación de los motivos por los que la cerveza y el vino se agriaban al paso del tiempo, lo que invariablemente representaba pérdidas para las empresas francesas. Si Pasteur conseguía aumentar lo que hoy llamaríamos la “vida de anaquel” de vinos y cervezas, los beneficios económicos serían cuantiosos. Pasteur utilizó un microscopio para determinar con certeza que en la fermentación intervenían dos variedades de levaduras, una que producía el alcohol al fermentar el caldo y la otra que producía ácido láctico, convirtiendo el vino en vinagre. La solución al problema fue el calentamiento breve del líquido hasta una temperatura de alrededor de 44ºC, con lo que casi se eliminaba la totalidad de las levaduras. Pronto, el vino francés se pasteurizaba después de fermentar para aumentar su vida útil, como hoy se hace con una gran cantidad de productos alimenticios.

Pasteur había demostrado, a diferencia de lo que creían muchos químicos de la época, que la fermentación y la descomposición se debían a la acción de organismos vivos y no era un proceso meramente químico. El paso siguiente fue realizar un experimento que demostrara que los microorganismos en un caldo de cultivo era resultado de la presencia de organismos vivos que se reproducían y no debido a la generación espontánea, doctrina que había sobrevivido más de dos mil años, un elemento restante del aristotelismo que había recibido tan duros golpes a raíz de la aparición del método científico. Aristóteles afirmaba que los organismos vivos son generados por sustancias orgánicas en descomposición, por ejemplo, los ratones surgían espontáneamente de la paja húmeda. Esta idea ya había sido atacada con argumentos, pero fue Pasteur quien desarrolló los elegantes experimentos que clavaron el último clavo en el ataúd de la escolástica y la autoridad aristotélica.

El filósofo Ernesto Renán dijo del método de investigación de Pasteur: “Este maravilloso método experimental elimina ciertos hechos, resalta otros, interroga a la naturaleza, la fuerza a responder y se detiene sólo cuando la mente está totalmente satisfecha. El encanto de nuestros estudios, el poder de atracción de la ciencia es que, en todo lugar y en todo momento, podemos dar justificación de nuestros principios y la prueba de nuestros descubrimientos”.

Pasteur utilizaría su afinada capacidad de diseñar experimentos elegantes y contundentes para probar otra hipótesis sobre el origen de las enfermedades. Habiendo descubierto al parásito responsable de la muerte de gusanos de la seda en Francia, con lo cual salvó a la industria de la seda, Pasteur conjeturó que los microorganismos podrían ser también responsables de las enfermedades contagiosas. A través de cuidadosos experimentos pudo determinar que tal era el caso en enfermedades de las patatas y de los seres humanos, en especial el ántrax.

Hasta ese momento, se intentaba curar con base en distintas creencias, ninguna demostrada experimentalmente. La teoría de los cuatro humores, prevaleciente desde Empédocles (siglo V antes de nuestra era) hasta la Europa del siglo XIX, dominó la práctica médica, con algunos tratamientos letales, como el desangramiento para eliminar el “exceso de humor sanguíneo”. En oriente, la idea de que la salud dependía de fuerzas mágicas como el “chi” o el “prana” llevó a prácticas igualmente poco sanas pero, sobre todo, ineficaces para enfrentar a la gran mayoría de las enfermedades. La teoría de los gérmenes patógenos propuesta por Pasteur terminó, de un golpe, con milenios de incertidumbre e inauguró la medicina con bases científicas, la medicina que dependía de evidencias y no de suposiciones. Con esas bases, además, Pasteur recomendó a los médicos, igual que Líster, medidas higiénicas en cuanto a sus personas, materiales y herramientas que evitaron innumerables muertes por infecciones transmitidas por los propios médicos.

En los últimos años de su vida, Pasteur se ocupó del desarrollo de vacunas usando formas debilitadas de los microorganismos patógenos para inocular a los pacientes y provocar que produjeran anticuerpos para defenderse de la enfermedad en caso de ser atacados por los microorganismos no debilitados. Produjo una vacuna contra el ántrax y otra contra el cólera, y en 1885 administró la primera vacuna contra la rabia. Diez años después, en 1895, moría siendo uno de los seres humanos que más vidas han salvado y que más profundos cambios provocaron en la historia de nuestras civilizaciones.

Un científico comprometido

Cuando se le festejaron sus 70 años en la Sorbona, en 1892, Pasteur se definió como “un hombre cuya creencia invencible es que la ciencia y la paz triunfarán sobre la ignorancia y la guerra, que las naciones se unirán no para destruir, sino para edificar, y que el futuro pertenecerá a aquéllos que han hecho más en bien de la humanidad que sufre”.

Planeta desconocido

Explorar un planeta desconocido es una de las principales tareas de la ciencia que han creado los seres humanos. Nuestra vida puede depender de ello.

Constantemente pensamos en mundos nuevos. Cyrano de Bergerac se imaginó imperios en el Sol y en la Luna. Ray Bradbury nos relató estremecedoras historias de una civilización agonizante en Marte. La ciencia ficción ha llenado nuestras inquietudes con planetas desconocidos de todo tipo, gigantes y enanos, ardientes y helados, lejanos y cercanos, con habitantes extraños y asombrosos. Multitud de relatos, novelas y obras cinematográficas han estimulado nuestra imaginación mientras que la ciencia empieza a encontrar planetas en otros lugares del universo. Todo esto a veces parece ocultar el hecho de que no tenemos ningún planeta conocido. Es decir, que no conocemos realmente nuestro propio planeta, apenas hemos arañado su superficie... literalmente.

El agujero más profundo que ha perforado el ser humano es el de la península de Kola, al norte de Rusia, abierto entre 1970 y 1994 con propósitos científicos, de 12,2 kilómetros de profundidad. Con un radio medio de 6.731 kilómetros de profundidad, esto significa que faltarían 6.719 kilómetros para llegar al centro de nuestro planeta. Todo lo que hay debajo de esos 12 kilómetros lo sabemos indirectamente: los primeros 35 kilómetros forman la corteza terrestre, y por debajo están el manto superior, el manto, la astenósfera, el núcleo exterior y, ocupando más de 1200 kilómetros de radio, el núcleo interno, sumamente denso y con una elevadísima temperatura. Se piensa que el calor del centro de nuestro planeta se debe a la desintegración radiactiva de elementos tales como el potasio-40, el uranio-238 y el torio-232. La geología, la vulcanología, el estudio de la deriva continental o tectónica de placas y otras disciplinas nos han permitido tener una idea bastante clara, una buena aproximación, de cómo es el interior de nuestro planeta.

Pero igualmente es cierto que profundizar, de nuevo literalmente, en nuestro planeta, nos deparará muchas sorpresas, porque el conocimiento indirecto nunca es tan completo y detallado como el directo, del que aún carecemos no sólo respecto de la parte sólida de nuestro planeta, sino también de su cubierta líquida.

El planeta Tierra, decía el explorador e inventor del buceo autónomo Jacques-Yves Cousteau, debía llamarse “Agua”, considerando que, al menos superficialmente, es la característica más notable que exhibe. Poco más del 70% de su superficie está cubierto de agua, y casi toda ella es el agua salada de los océanos. La profundidad media de los océanos es de 3.794, más de cinco veces la altura media de los continentes sobre el nivel del mar.

De esa vastedad líquida sabemos, en realidad, muy poco. Se trata de un ambiente sumamente hostil para el ser humano no sólo por la falta de aire, sino porque es en su mayoría un sitio oscuro, a donde no llega la luz del sol. El buceo comenzó alrededor del 4500 antes de nuestra era, principalmente en China y Grecia para obtener alimentos preciados e incluso para algunas acciones de guerra. Pero durante miles de años el hombre se desplazó principalmente sobre la superficie de las aguas de la Tierra, suponiendo que las profundidades marinas albergaban diversos seres fantásticos, amenazas atroces y tesoros fabulosos. La edad de la exploración, entre el primer viaje de Colón y el siglo XIX, permitió finalmente al hombre hacer un mapa de la superficie de nuestro mundo.

Las profundidades son otra cosa. Desde la escafandra diseñada por Leonardo Da Vinci hasta los submarinos y los sistemas de buceo, apenas hemos explorado una mínima parte de los océanos, enfrentando sus profundidades con máquinas capaces de resistir las atroces presiones que se experimentan a grandes profundidades. Así, en los últimos años el ser humano ha hecho importantes descubrimientos en las profundidades, seres singulares más extraños que los imaginados por la ciencia ficción, ya sea por su extraño aspecto, sus capacidades de generar luz mediante distintas formas de bioluminiscencia o, muy especialmente, las bacterias que viven alrededor de los chorros hidrotermales del océano profundo y que obtienen su energía de la reducción de los sulfuros de su medio ambiente y no del sol. Estas bacterias nos han permitido plantear nuevas posibilidades para la vida en otros planetas.

Queda, también, la capa gaseosa de la Tierra, el aire sin el cual no vivimos. Pero tampoco la conocemos a fondo. Nuestros globos aerostáticos y cohetes nos han enseñado mucho acerca de sus capas, cuya composición conocemos con gran precisión, pero su dinámica, valga decir, su comportamiento, sigue siendo una enorme colección de misterios. Más de 200 años después de que Benjamín Franklin demostrara que los relámpagos son descargas de electricidad estática, sabemos mucho sobre cómo son los relámpagos, pero aún no sabemos con exactitud cómo se da el fenómeno de separación de las cargas que producirán el relámpago, y hay varias hipótesis al respecto aún por someter a prueba. No sabemos, tampoco, cuál es el elemento clave para que se desencadene la descarga. Apenas en los últimos años se ha podido observar, gracias al vídeo de alta velocidad, que cada relámpago está formado de un grupo de descargas, 3, 4 o más.

Igualmente, ha sido sólo en los últimos años cuando se ha podido confirmar la existencia de los llamados “eventos luminosos efímeros”, descargas eléctricas de varios tipos que ocurren en las zonas superiores de la atmósfera. Los “sprites”, chorros y ELVES son algunos de estos fenómenos que apenas se están estudiando y que podrían estar implicados en accidentes de aviones e incluso en los transbordadores espaciales.

Los sistemas dinámicos de tormentas, vientos, huracanes y otros fenómenos atmosféricos siguen siendo colecciones de grandes misterios, cuyo comportamiento sigue siendo impredecible, trayendo consigo igual lluvias que sequía, destrucción o buenos tiempos para los pescadores.

El nuestro sigue siendo el planeta más apasionante, y es el que más debemos conocer para poder aprovechar sus recursos sin destruirlos, crecer con él y prevenir desastres, así como encontrar nuevas fuentes de energía y materia primas para la aventura humana en éste que sigue siendo un planeta desconocido.

Nuevas especies


Día tras día, los biólogos descubren nuevas especies animales, vegetales y unicelulares, algunas veces con gran cobertura mediática, pero las más de las veces pasando casi desapercibidos. Tenemos identificadas alrededor de 1,8 millones de especies animales, lo cual no quiere decir que ya las hayamos estudiado todas a fondo, pero los cálculos indican que puede haber entre 30 y 50 millones de especies animales en nuestro planeta, literalmente ante nuestros ojos, esperando ser descubiertas.

Las enfermedades infrecuentes

Algunas afecciones son padecidas por un número tan pequeño de pacientes que sus esperanzas de cura, o incluso de mejora, es pequeña debido a que pocos estudiosos y pocos recursos se dedican a ellos.

En los orígenes de la civilización humana, se creía que las enfermedades eran pocas y sus causas igualmente limitadas. La consecuencia lógica de tal pensamiento fue con frecuencia la búsqueda de unas pocas terapias que pudieran encargarse de todas las enfermedades o, incluso, de una sola fuente de curación para todo, la “panacea”, nombre que proviene de Panakeia, la diosa griega de la curación, hija de Esculapio, dios de la medicina y nieta de Apolo, dios, entre otras cosas, de la cicatrización. En la edad media, los alquimistas buscaron una sustancia u objeto prodigioso que lo curara todo y prolongara la vida indefinidamente, la “panacea” o “curalotodo”. Aún en nuestros días es sencillo encontrar en el mundo de la pseudomedicina afirmaciones sobre sustancias o prácticas que “sirven para todo”.

Cuando se imaginaba que toda la enfermedad era producto de algo tan sencillo como un desequilibrio entre los cuatro humores que, se creía, conformaban el cuerpo (sangre, flema, bilis negra y bilis amarilla), las solución parecía bastante evidentes. Si el sanador dictaminaba que el paciente tenía “exceso de sangre”, se le provocaban hemorragias o se le aplicaban sanguijuelas hasta que se curara o muriera. Pero desde la aparición de la medicina con base en evidencias a partir del trabajo de Louis Pasteur y teorías de la enfermedad contrastables y verificables, el conocimiento cada vez más detallado de los numerosísimos procesos de nuestro cuerpo nos ha enseñado los alcances de nuestra complejidad, a veces apabullante. Miles de genes, miles de sustancias en delicado equilibrio, y como consecuencia muchos distintos problemas y enfermedades que pueden presentarse, algunos tan altamente especializados que nuestro arsenal de medicamentos y procedimientos terapéuticos, incluida la cirugía, crece sin cesar.

En este panorama de gran complejidad hay una gran cantidad de afecciones que sólo tienen un puñado de víctimas y un arsenal terapéutico mucho más limitado. Hay desarreglos autoinmunes, de la sangre, del cerebro y el sistema nervioso, cánceres desusados, problemas en los cromosoma, desórdenes inmunes, infecciones y otros varios tipos de enfermedades infrecuentes.

Algunas de estas afecciones, como el síndrome de Apert, son producto de mutaciones genéticas. Esta enfermedad provoca graves malformaciones en sus víctimas: el cráneo se fusiona prematuramente, el tercio medio de la cara da un aspecto de hundimiento y los dedos de manos y pies están fusionados. En casos así, la ciencia se empeña, en lo posible, en la detección temprana del problema en el feto y en paliar los efectos del desarreglo genético.

Otras enfermedades como el síndrome de Klippel-Feil, son de origen aún desconocido. En esta afección, la víctima tiene algunas vérteberas cervicales fusionadas, muestra la línea de nacimiento del cabello muy baja y un cuello corto. La enfermedad es congénita, pero no se ha demostrado que sea genética, sólo que aparece en etapas tempranas del desarrollo fetal. En los casos graves, las víctimas pueden requerir una aproximación quirúrgica. Otra afección congénita poco frecuente es el síndrome de Moebius, en el que los nervios craneales 6 y 7 no están bien desarrollados, por lo que los pacientes carecen de expresión facial y tienen los movimientos oculares laterales limitados. Su origen es desconocido y el tratamiento ataca los principales problemas resultado de la enfermedad, con variadas terapias y cirugía.

Las organizaciones especializadas en enfermedades infrecuentes como NORD en los Estados Unidos, cuentan con bases de datos de más de 1.500 enfermedades distintas, entre las cuales las más angustiantes son las que atacan a los niños, avanzan de modo constante y carecen de tratamiento todavía. Son las llamadas “enfermedades huérfanas”, las que no tienen la atención de universidades o laboratorios farmacéuticos, ya que las pocas víctimas que tienen no ameritan, a sus ojos, la inversión en el estudio de las enfermedades, sobre todo cuando el financiamiento para la investigación médica es limitado, cosa por demás frecuente. NORD mantiene un programa de subsidios para investigar enfermedades tan extrañas como el síndrome APECED, una afección genética llamada también síndrome poliglandular autoinmuine de tipo 1, que afecta a niños y adultos menores de 35 años con una letal combinación de síntomas, desde el funcionamiento insuficiente de las glándulas paratiroideas hasta insuficiencia de las glándulas renales, fácil infección de hongos en las membranas mucosas y las uñas, anormalidades en el sistema inmune y baja producción de algunas hormonas, que puede poner en riesgo la vida de las víctimas.

En general, se considera que una enfermedad es infrecuente o huérfana en los Estados Unidos si tiene menos de 200.000 víctimas. En la Unión Europea, el criterio es de menos de 5 víctimas por cada 100.000 personas. Los expertos estiman que hay un total de entre 5.000 y 8.000 enfermedades huérfanas, algunas con una sola víctima. En gran medida gracias a las movilizaciones de padres y familiares de pacientes con enfermedades desusadas, la Agencia Medicinal Europea estableció en el año 2000 el Comité sobre Productos Medicinales Huérfanos, dedicado a supervisar el desarrollo de medicamentos para enfermedades huérfanas en la UE. El Consejo Europeo ofrece además incentivos diversos para el desarrollo de medicamentos para estas afeccioens, como el perdón de las cuotas relacioandas con el proceso de aprobación del marketing, la garantía de un monopolio de 10 años para los pioneros de medicamentos huérfanos, autorización de comercialización en toda la UE y asistencia en el desarrollo de protocolos de investigación. Estas disposiciones, igual que otras en los Estados Unidos, ofrecen nuevas esperanzas a las víctimas de estas afecciones y han incrementado notablemente el desarrollo y comercialización de medicamentos para enfermedades huérfanas, aunque aún queda mucho por hacer.

La gente azul


Una de las más peculiares afecciones es la de las personas cuya piel adquiere una tonalidad gris-azulada debido al consumo de plata coloidal, una sustancia a la que algunas formas del curanderismo o seudomedicinas alternativas le adjudican propiedades de panacea. El consumo continuado de esta sustancia provoca la llamada “argiria”, dando a sus víctimas una notable coloración, pero además causa daños cerebrales, convulsiones y la muerte o un estado vegetativo persistente. Una horrenda paradoja en la busca de la salud.

La sabiduría científica de la antigua China

En China surgieron muchos de los avances tecnológicos clave de la humanidad, más de los que tradicionalmente conocemos. Avances cuyo origen olvidó durante mucho tiempo todo el mundo, incluidos los chinos.

El que llamamos "triángulo de Pascal" en un
libro de Chu Shih-Chieh (o Zhu Shijie) de 1303.
(Imagen D.P. vía Wikimedia Commons)
Uno de los productos más longevos del colonialismo de las naciones de occidente sobre Asia, África y América ha sido una visión que niega a las culturas originarias de esas áreas geográficas la posibilidad de haber realizado avances y logros en su propio desarrollo. Incluso, ciertas formas de seudoarqueología pretenden asignar la responsabilidad de las grandes construcciones del mundo no occidental a civilizaciones míticas como la de la Atlántida o incluso a supuestos extraterrestres, negando así a los pueblos de lo que hoy es el tercer mundo la paternidad de las pirámides de Egipto y Mesoamérica, Macchu Pichu, los geoglifos sudamericanos, los moais de la Isla de Pascua o la ciudadela de Angkor Wat, por señalar algunas creaciones humanas víctimas de la supuesta disciplina llamada “astroarqueología”.

Esta visión un tanto paternalista, condescendiente e incrédula la ha sufrido también China, pese a que fue indudablemente la sociedad con mayor avance tecnológico del mundo desde el año 600 de nuestra era hasta el 1500, cuando la revolución científica recorrió Europa. Y es que las tecnologías, en muchas ocasiones, no dependen del conocimiento preciso de sus fundamentos, ni siquiera de un pensamiento científico y crítico. La brújula funciona igual si uno cree que la mueve la mágica fuerza del chi, indetectable y misteriosa, o si uno sabe que se mueve debido a las leyes físicas de nuestro universo. Tecnología no es ciencia.

Sin embargo, para algunos estudiosos incluso la revolución industrial que dio a nuestro mundo su forma actual fue, en cierto modo, producto de la tecnología china. El arado chino, con orígenes que se remontan a cuatrocientos años antes de nuestra era se introdujo en Holanda e Inglaterra en el siglo XVII, ayudando a desencadenar la revolución agrícola europea que, a su vez, desembocaría en la revolución industrial.

Más allá de los logros ya conocidos de la tecnología china, el papel (inventado el siglo II a.n.e.), la brújula (siglo XI), la pólvora (siglo IX) o el puente colgante (285 a.n.e.), la nómina de inventos originales chinos es abundante. A continuación señalamos algunos de los que podríamos considerar más asombrosos.

El hierro colado fue obtenido primero en China gracias a que esta civilización consiguió hace unos 2300 años crear un fuelle que dispensaba un flujo constante de aire con el cual pudieron hacer los primeros altos hornos capaces de fundir el hierro hasta que fluyera como agua.

Los chinos fueron la primera civilización que utilizó el gas natural como combustible además de haber desarrollado complejos sistemas de perforación a gran profundidad. Ya en el siglo I de nuestra era podían perforar hasta a 1500 metros de profundidad. Fue su búsqueda de depósitos de sal que los llevó a conocer el gas y aprender a guardarlo en barriles y quemarlo para evaporar agua marina y producir sal.

Las matemáticas chinas se desarrollaron con total independencia de las europeas. Un ejemplo de ellas es el llamado “triángulo de Pascal”, que lleva el nombre del matemático francés Blas Pascal que lo formuló en el siglo XVII. En este triángulo, cada número es la suma de los dos que están sobre él, y sirve para demostrar muchas propiedades matemáticas. Sin embargo, este triángulo ya había sido descrito ya en 1303 por Chu Shih-Chieh, en su libro Espejo precioso de los cuatro elementos, pero no deja de ser relevante que se le llame “el método antiguo”, pues se le conocía desde el 1100, cuando apareció en un libro hoy perdido del matemático Kiu Ju-Hsieh.

El uso del álgebra para la expresión de la geometría es también un logro chino independiente, como la la presentaba el libro Manual matemático isla del mar, que data del siglo III a.n.e. A partir de entonces, a lo largo de la historia china la geometría se consideró por medio del álgebra, con técnicas que se desplazaron a occidente donde fueron retomadas y perfeccionadas por famosos matemáticos árabes como Al-Juarismi, considerado el padre del álgebra y de cuyo nombre derivamos las palabras guarismo y algoritmo, y de allí pasaron a Europa.

Muchos otros logros, más o menos relevantes, distinguieron a China durante más de 1.500 años. Sin embargo, el proceso se detuvo y China no sólo no pasó por una revolución industrial ni científica, sino que llegó a olvidar que había sido la fuente de muchos grandes logros del pasado, algunos de los cuales volvieron a China como productos occidentales (por ejemplo, el reloj mecánico) sin que nadie estuviera consciente de que había llegado a Europa primero desde China.

Se han aducido motivos históricos, culturales, filosóficos y económicos para intentar entender por qué hubo el estancamiento y retroceso científico y tecnológico de China: la influencia de los jesuitas, la cerrazón de los mandarines, el marco filosófico no adecuado para el pensamiento crítico y la experimentación y la abundante mano de obra son algunas de las causas que pueden haber ocasionado este fenómeno. En lugar de los avances del conocimiento, en China sobrevivieron prácticas supersticiosas como el feng-shui, la acupuntura, la herbolaria y el qi-gong, disciplinas que no han podido demostrar que sus postulados sean válidos, ni la existencia de las fuerzas mágicas que, aseguran, mueven al universo y a los seres humanos. Hoy, en más de un sentido, China vive una segunda oportunidad de ser parte de la ciencia y la tecnología que, después de todo, se originó en su país, un imperio que se unificó hace dos mil años.

Antes de Leonardo, Shen Kuo

Shen Kuo, cortesano nacido en 1031, fue un temprano hombre del renacimiento que trabajó en campos que iban desde las matemáticas, la anatomía y la astronomía hasta la diplomacia, la poesía y la música, además de ser general del ejército, ministro de finanzas, jefe de la oficina de astronomía de la corte y prolífico escritor. Fue el primero en describir la brújula magnética, descubrió el concepto de “norte verdadero”, midiendo con precisión la distancia entre la estrella polar y el norte verdadero, esencial para una navegación precisa. Hizo el mapa de las rutas orbitales de la luna y los planetas describiendo el movimiento retrógrado, diseñó un reloj de agua, propuso una teoría de la formación de la tierra a partir del estudio de los fósiles marinos hallados tierra adentro y su conocimiento de la erosión y los sedimentos, convirtiéndose en pionero de la geomorfología, además de postular un cambio climático gradual, como pionero también de la paleoclimatología. Murió en 1095 pudiendo decir, como Terencio, “nada humano me es ajeno”.

El reloj de la vida

Los ciclos que conforman el gigantesco círculo de la vida y la muerte están regidos por nuestro entorno, pero también por un asombroso mecanismo interno: el reloj biológico de todos los seres vivos.

Nos despertamos y dormimos, igual que muchos animales con un sistema nervioso complejo, siguiendo un ciclo de 24 horas. Nuestra temperatura asciende y desciende en ciclos a lo largo del día. Seguimos patrones claros. Por ello, muchos científicos empezaron a cuestionarse si nuestro cuerpo únicamente respondía a los estímulos externos, al ciclo de luz y oscuridad, a las variaciones de temperatura durante el día, o si tenía un sistema propio para regular esos ciclos los llamados "circadianos", cercanos a la duración del día, los que son más cortos, como el de la respiración o el de la alternación de sueño profundo y sueño REM en una noche, llamados ultradianos, y los que son más prolongados, los infradianos, como el ciclo menstrual de las mujeres o el de la hibernación en algunos mamíferos.

En 1938, el padre del estudio científico del cerebro, Nathaniel Kleitman y su compañero investigador Bruce Richardson se internaron en la Cueva del Mamut en Kentucky, con el objetivo de cambiar su ciclo circadiano de 24 a 48 horas. Permanecieron aislados durante 32 días sin lograrlo, pero algunos problemas con el diseño experimental hicieron que los resultados no se consideraran concluyentes.

Por entonces, sin embargo, el fisiólogo y psicólogo alemán Jürgen Aschoff ya estudiaba la regulación de la temperatura en el ser humano, descubriendo que seguía un ciclo de variaciones de 24 horas. Estudiando en sí mismo, en sujetos aislados en un búnker subterráneo, en aves y en ratones, concluyó que el ritmo circadiano es innato, que no requiere la exposición a estímulos externos para darse. En otras palabras, los seres vivos tienen —tenemos— un ciclo circadiano interno, un reloj biológico interconstruido como parte de nuestra fisiología. Había fundado la disciplina de la cronobiología, el estudio de los ritmos cíclicos de los organismos.

El campeón de los experimentos de aislamiento de estímulos externos es, sin duda, Michel Siffre, un geólogo francés que decidió experimentar qué pasaría si se aislaba totalmente de los estímulos externos (temperatura, luz, ruido) que pudieran actuar como indicadores de tiempo, denotados en psicología por el término alemán zeitgebers. En 1962, a los 23 años, Siffre pasó dos meses en un glaciar subterráneo en los Alpes marítimos franceses. En 1972 estuvo más de seis meses viviendo en una cueva en Texas y, finalmente, en 2000, a los 61 años, estuvo 73 días aislado bajo tierra.

La idea de estos experimentos era que la temperatura constante y la falta de otros estímulos externos (Siffre informaba a la gente de la superficie de su hora de dormir, de despertarse, sus horas de alimentos, etc., pero no recibía a cambio ninguna comunicación) harían que se expresara o no la regulación interna de los ritmos. En 1962, cuando salió, Siffre creía que era el 20 de agosto, cuando en realidad era el 17 de septiembre. El ciclo natural de Siffre se fue ampliando, llegando a ser de más de 25 horas. En los experimentos de 1972 y 2000 ocurrió lo mismo. Hoy sabemos que nuestro reloj natural o biológico tiene un ciclo de poco más de 24 horas, aunque algunas personas se han acomodado a ritmos de hasta 32 horas por cada “día”, manteniéndose despiertos durante 20 horas y durmiendo 12.

Los estudios relacionados con estos ciclos nos han permitido saber, por ejemplo, que la hormona del crecimiento humano, esencial para el desarrollo de los niños, se secreta principalmente durante las fases de sueño profundo, que la somnolencia de alrededor de las 3 de la tarde no depende del calor ni de la comida, sino que la siesta es un fenómeno natural del ciclo de vigilia-sueño, o que alrededor de las 5 de la tarde experimentamos la máxima fortaleza muscular del día.

Evidentemente, al igual que cualquier otro reloj, nuestro reloj biológico requiere sincronizarse o "ponerse en hora”, para lo cual utiliza los estímulos externos. Unas células especiales sensibles a la luz en la retina registran la alternación del día y la noche, e informan de ello a osciladores moleculares de las neuronas situadas en los puntos de nuestro cerebro conocidos como el núcleos supraquiasmáticos del hipotálamo, diminutas estructuras que yacen exactamente sobre el quiasma óptico, el punto en el que los nervios ópticos procedentes de ambos ojos se cruzan e intercambian la mitad de sus fibras nerviosas. Los núcleos supraquiasmáticos a su vez envían información a la glándula pineal, responsable de producir la melatonina, hormona que predispone al sueño, al caer la noche. Así, día a día nuestro reloj interno se pone en hora y se ajusta a la realidad de nuestro entorno.

Sin embargo, cuando estos estímulos externos entran en contradicción con nuestra actividad biológica (como en los cambios de horario al principio y al final del verano, cuando trabajamos a turnos o cuando hacemos viajes que nos llevan a zonas horarias muy distintas de la de origen), podemos sentir niveles importantes de malestar, desorientación e incapacidad para funcionar correctamente. Lo que un tiempo se consideró una exageración o imaginación de los viajeros, el jet lag hoy se conoce como una afección real que incluye entre sus síntomas la falta de apetito, dolores de cabeza, sinusitis, fatiga, desorientación, insomnio, irritabilidad, irracionalidad y depresión leve... nada que sea lo ideal para alguien que viaja por motivos importantes de trabajo o de cuestiones diplomáticas o de estado. Por ello, cada vez más las empresas y gobiernos buscan que sus enviados tengan un tiempo adecuado de adaptación en viajes a zonas horarias lejanas. Se calcula que se requiere un día por cada zona horaria de cambio.

Nuestra vida está regida por relojes biológicos que son el resultado de millones de años de evolución en los que el medio ambiente y el movimiento de la Tierra alrededor del Sol y la Luna alrededor de la Tierra nos han moldeado con gran eficacia para estar idealmente adaptados a nuestro entorno, algo que no deja de ser una notable hazaña.

Los medicamentos y nuestro reloj


El conocimiento cada vez más detallado de nuestros ciclos vitales y su expresión en todo nuestro cuerpo ha llevado al desarrollo de la cronofarmacología, una disciplina aún poco conocida que estudia cómo cambia el efecto de los medicamentos con respecto de los ciclos internos del cuerpo. Hoy sabemos que la hora a la que se administra una sustancia determinada puede ser de enorme importancia en cuanto a su efectividad... o falta de ella, no sólo por el ciclo de nuestros relojes, expresado en secreción de hormonas, temperatura, etc., sino también por los ciclos de los causantes de la enfermedad, como bacterias y protozoarios.

El doctor Lorenz y el rey Salomón

Fascinado por los animales y su comportamiento desde su niñez, Konrad Lorenz se dedicó a estudiarlos hasta convertirse en el último de los naturalistas al estilo antiguo y uno de los primeros en obtener el Premio Nobel por estudiar la conducta científicamente.

Fue, para muchos la imagen de esa nueva ciencia llamada “etología”, la figura de un robusto profesor austríaco, de barba y cabello blancos, que fumaba pipa mientras iba de su casa al lago seguido por una tropa de gansos que creían que ese caballero era, ni más ni menos, su madre. Konrad Lorenz apareció fotografiado así en revistas, libros y documentales que hablaban de importantes descubrimientos en la conducta, de los cuales los gansos que lo seguían parpando estridentemente eran parte fundamental.

La etología, de las raíces griegas “ethos”, carácter o costumbre, y “logos”, estudio, es la rama de la zoología que estudia científicamente el comportamiento animal, sobre todo manteniendo presentes la vida de los animales en la naturaleza y aspectos como la evolución, la genética, la fisiología y la anatomía. Nació como especialidad de la biología alrededor de la década de 1960, cuando diversos biólogos se aproximaron al estudio de la conducta animal dotados de herramientas muy distintas a las de los psicólogos tradicionales y de los por entonces dominantes psicólogos “conductistas” y de la psicología comparativa. Mientras los psicólogos estudiaban la conducta animal a la luz de lo que sabemos del comportamiento humano, la etología trabajaba con la anatomía, fisiología, neurobiología e historial filogenético de los organismos. Ambas disciplinas se acercan más, sin duda, conforme pasa el tiempo.

El que Konrad Lorenz fuera uno de los fundadores de esta disciplina en su forma actual no es extraño. Nacido en 1903 en Viena, desde muy niño mostró un amor extraordinario por los animales, y siempre agradeció que sus padres le toleraran cualquier cantidad y variedad de mascotas, y no sólo animales domésticos, sino diversos volátiles más o menos salvajes. Empezó estudiando medicina, se especializó en biología y empezó a dar clases de psicología en la Universidad de Königsberg. En 1936 conoció al biólogo holandés Nikolaas Tinbergen, el otro fundador de la etología, y juntos empezaron a estudiar, entre otros animales, a los gansos salvajes, comparándolos con los domésticos y observando que los impulsos de alimentación y cópula eran mucho mayores en los animales domésticos, mientras que se reducía la expresión de sus instintos sociales más diferenciados.

La brillante carrera científica de Lorenz se vio interrumpida cuando en 1941 fue enlistado en la Wehrmacht, el ejército regular alemán, como médico. Prisionero de guerra de los soviéticos de 1942 a 1948, consiguió seguir trabajando como médico y desarrollar una buena relación con sus captores, que al liberarlo le permitieron conservar el manuscrito de lo que sería su libro Detrás del espejo. Una de las principales ideas que desarrolló Lorenz y fue demostrada por él y otros investigadores, fue la de que ciertos comportamientos instintivos, es decir, patrones fijos no aprendidos y dependientes únicamente de la herencia de los animales, tienen igualmente mecanismos innatos de desencadenamiento o disparo. Esta idea se explica claramente al ver a un gato doméstico adulto jugar con un ratón de juguete o una bola de estambre.

El gato, genéticamente dispuesto para cazar, ya no necesita la cacería para satisfacer el hambre. La cacería es serie de patrones de conducta instintivos que es disparada por el hambre y la presencia de la presa previamente buscada. Si no hay hambre ni presas, el umbral de los estímulos necesarios para desencadenar la conducta de cazar va bajando hasta que un estímulo que apenas comparte características con el estímulo desencadenante original (como una bola de estambre que se mueve evocando una presa, aunque no lo parezca) basta para disparar o desencadenar la conducta. Lo que podemos interpretar como un simple juego es una liberación de tensión acumulada por la predisposición innata del organismo a un comportamiento determinado.

La carrera de Konrad Lorenz no se limitó a los espacios de la academia, sino que buscó dirigirse a un público más extenso en algunos de sus libros como El anillo del rey Salomón (1959), donde con un estilo agradable y cautivador relata sus experiencias divertidas con numerosos animales y las observaciones científicas que se derivaban de ellas, hasta darle al autor la capacidad de comunicarse con los animales como el rey Salomón con su legendario anillo. Otras obras populares fueron su libro sobre las relaciones entre el hombre y el perro y Sobre la agresión, el pretendido mal, un libro ampliamente mal comprendido y a veces atacado por el solo título. Este libro, muy vendido en la década de 1970 en todo el mundo, explicaba las raíces evolutivas de la agresión y, sobre todo, analizaba el asombroso hecho de que, con excepción de los seres humanos, los animales tienden a solventar sus enfrentamientos con otros de la misma especie sin llegar a la muerte de ninguno de los dos, algo que indica que nuestros instintos se han visto reprimidos o superados por fenómenos culturales y tecnológicos que van mucho más rápido que la selección natural darwinista.

Konrad Lorenz ganó el Premio Nobel de Medicina y Fisiología en 1973 de modo conjunto con Niko Tinbergen, quien desarrolló y demostró la idea de que la conducta, como los órganos, evoluciona para adaptar a los organismos (y en última instancia a las especies) a su medio ambiente, y el etólogo austríaco Karl Von Frisch, quien estudió las feromonas y desentrañó el significado de la “danza de las abejas” que comunica a la colmena la ubicación y distancia a la cual se puede encontrar una fuente de alimentación.

La popularidad que le dio el premio fue utilizada intensamente por Lorenz para escribir y hablar sobre filosofía y sobre temas que le preocuparon hasta el fin de su vida, como la protección del medio ambiente (fue en sus últimos años miembro de un partido “verde” originario) y el peligro de la autoaniquilación humana en una guerra nuclear. Murió en 1989. Parte esencial de su legado son los tres institutos que llevan su nombre en Austria, centros de estudio de la conducta.

La impronta


Lorenz descubrió que algunas aves “saben” al nacer cómo es su especie, y tienen la predisposición de considerar “su madre” cualquier cosa o ser que se mueva cerca durante un tiempo determinado, quedando “improntados” o “troquelados” con ese reconocimiento de especie. En condiciones naturales, lo único que se moverá cerca del polluelo es su madre, de modo que el sistema funciona en general. De allí todos los dibujos animados donde diversos polluelos “creen” que diversas cosas o seres son “mamá”.

Lejos del fin del Alzheimer

Una de las afecciones más crueles que padecen los seres humanos, le roba a su víctima la personalidad, la autoidentidad y lo que le da sustancia a su vida: sus memorias. La lucha contra el síndrome o mal de Alzheimer representa una promesa para millones hoy y en el futuro.

En 1901, el doctor Aloysius Alzheimer, conocido familiarmente como “Alois”, trabajaba en el asilo para enfermos mentales de Frankfurt cuando conoció a una paciente a la que llamó “Auguste Deter”, de 51 años de edad, y quien mostraba una serie de síntomas conductuales peculiares. El doctor Alzheimer no tenía elementos para diagnosticar el mal de la señora Deter, pese a su educación com,o psiquiatra y neuropatólogo en las universidades de Aschaffenburg, Tübingen, Berlin y Wurzburg.

Alzheimer prácticamente se obsesionó con la paciente, según sus biógrafos, observándola atentamente durante los años siguientes y denominando su afección “demencia presenil”. Cuando la señora Deter falleció finalmente en 1906, Alzheimer hizo que el expediente fuera enviado junto con el cerebro a Munich, al laboratorio del reconocido psiquiatra Emil Kraepelin, descubridor de la esquizofrenia y lo que hoy conocemos como “trastorno bipolar”, y propugnador de la teoría de que detrás de todo desorden psiquiátrico hay una patología biológica. Allí, con otros neurocientíficos, entre ellos el propio Kraepelin, se identificaron dos características físicas relacionadas con los problemas de conducta: las placas amiloides en el cerebro, depósitos de compuestos de almidón, y los que llamó “ovillos neurofibrilares”, acumulaciones patológicas de proteínas que se encuentran dentro de algunas neuronas.

En un discurso que pronunció el 3 de noviembre de 1906, presentó por primera vez unidos los síntomas clínicos y la neuropatología de la demencia presenil. Poco después, Kraepelin se refirió en una publicación a esa enfermedad dándole el nombre de su colega, y la afección quedó bautizada para siempre. Alois Alzheimer Murió a los 51 años de complicaciones e infecciones a resultas de una caída de un tren.

La enfermedad que ha inmortalizado a este médico es la forma más común de demencia, es decir, de la degradación de las funciones cognitivas, entre ellas la memoria, la atención, el idioma y la resolución de problemas. Se trata de una enfermedad degenerativa que avanza incesantemente, es, al menos hasta hoy, incurable, y eventualmente resulta fatal para el paciente. Pese a la relativa juventud de la paciente del doctor Alzheimer, esta afección se diagnostica habitualmente en personas mayores de 65 años. Evidentemente, en tiempos en que muy pocas personas llegaban a esta edad, la enfermedad era prácticamente desconocida. Pero el aumento en las expectativas de vida que ha ido produciendo sin cesar la medicina con bases científicas ha convertido a esta enfermedad en un problema no sólo de salud, sino también social.

La enfermedad comienza habitualmente (aunque esto no es una regla general) con pérdidas de memoria a corto plazo, y en su avance incluye confusión, irritabilidad, agresión, cambios de humor, disminución de las capacidades lingüísticas, pérdida de la memoria a largo plazo y la “retirada” del paciente de su vida, sus seres queridos, su mundo. Desafortunadamente, y a diferencia de otras afecciones, el Alzheimer no sigue un patrón definido, varía de persona a persona tanto en sus manifestaciones clínicas como en su duración, aunque la muerte suele sobrevenir en promedio siete años después del diagnóstico. En etapas avanzadas, sin embargo, la enfermedad se convierte habitualmente en una pesada carga para las personas que cuidan al paciente. La imprevisibilidad y los peligros a los que se enfrenta una persona que olvida su domicilio, o que no recuerda si dejó o no encendida la estufa, demandan una atención constante y desgastante en lo social, lo psicológico y lo económico.

Lo más desesperante y cruel es que, hasta hoy, no conocemos con precisión las causas de la enfermedad, si tienen o no bases genéticas (aunque hay datos que indican que los hijos de personas que llegan a padecer la enfermedad tienen tendencia a desarrollarla ellos mismos) y no sabemos todo acerca de su fisiología. En consecuencia, no existe ningún tratamiento efectivo ya no para curar, sino ni siquiera para ralentizar el avance del mal, o para paliar sus efectos, aunque algunos medicamentos ya aprobados que tienen resultados prometedores. En total, los Institutos Nacionales de la Salud de Estados Unidos informan que en este momento, y sólo en los Estados Unidos, se están llevando a cabo 522 pruebas clínicas de tratamientos orientados a atender a los más de 26 millones de pacientes de Alzheimer que viven hoy en día en todo el planeta.

La importancia social de la enfermedad no sólo la hace destinataria de grandes cantidades de esfuerzos e inversión económica y de talento para mejorar su diagnóstico y tratamiento, sino que también, y de modo ciertamente desafortunado, es objeto de continuos anuncios más o menos exagerados sobre tratamientos que podrian ser “milagrosos”, o relacionando con ella de modo caprichoso estudios poco relevantes, e incluso tratando de vender remedios milagrosos o de moda. Sin embargo, como el en caso de otras afecciones emocionalmente demandantes para los pacientes y sus familias, como el cáncer, muchos expertos consideran que los avances no serán espectaculares, sino lentos y modestos, y sólo serán útiles en su conjunto, como lo han sido los muchos y silenciosos avances sobre el cáncer.

Actualmente, los mejores medicamentos sustituyen algunos neurotransmisores que se pierden con la masiva muerte de neuronas característica del mal de Alzheimer, pero dejan de ser efectivos de seis a doce meses después de que empiezan a administrarse. Entre los nuevos medicamentos los hay que pretenden bloquear los procesos moleculares responsables de las placas amiloides y los ovillos neurofibrilares, suponiendo que éstos son la causa real de la muerte de neuronas, con resultados prometedores. También se trabaja en una vacuna que dispara las capacidades del cuerpo para evitar la formación de placas amiloides, con resultados prometedores hasta hoy... en ratones.

Factores de riesgo


La inactividad, la obesidad, la depresión, el alcohol, la falta de ejercicio físico o intelectual... la lista de factores que parecen aumentar el riesgo de sufrir Alzheimer incluye numerosos aspectos. Pero es en la genética donde parece haber datos más precisos. Los científicos han identificado un gen del cromosoma 19 que parece ser un importante factor de riesgo para el Alzheimer tardío. Otros candidatos son un gen del cromosoma 12 y otro del cromosoma 10. No existe pues, “el gen” del Alzheimer, lo que contribuye a la complejidad que nos presenta la enfermedad.

Representar al mundo en 3D

El sueño de crear la ilusión de tridimensionalidad ha recorrido un largo camino desde las primeras ilusiones estereoscópicas y, sin embargo, sigue siendo un concepto que sigue eludiendo nuestros esfuerzos.

Siempre hemos querido representar al mundo tridimensional más allá de la copia que significa la maqueta o la escultura. Conseguir la ilusión de realidad a partir de dos dimensiones fue el motor que llevó a maestros como Anaxágoras y Demócrito, en la antigua Grecia, a estudiar teorías geométricas de la perspectiva en las escenografías del teatro griego, con objeto de simular la profundidad. En la pintura, la perspectiva recibió su gran impulso de Filippo Bruneleschi, que demostró alrededor de 1415 el método geométrico usado hasta la actualidad por los artistas plásticos. Antes de él, la pintura usaba el tamaño relativo de personajes, edificios y objetos como forma de destacar su importancia histórica o espiritual, sin respetar la forma en que el ojo percibe la profundidad. A partir de entonces, el arte y la ciencia consolidaron su comprensión de la perspectiva.

Pero pronto se hizo evidente que el uso de la perspectiva tenía limitaciones, por cuanto representaba el mundo tridimensional desde un solo punto de vista, y un punto de vista, además, tuerto. ¿Por qué tuerto? Porque efectivamente la perspectiva geométrica del arte no tiene, ni puede tener en consideración, el paralaje, que es la base de la visión estereoscópica y, por tanto, de la forma en que nosotros vemos al mundo en 3 dimensiones.

El paralaje es una diferencia aparente de la orientación de un objeto a lo largo de dos líneas de visión distintas. Dado que nuestros ojos están en sitios ligeramente distintos, separados entre sí, nos muestran imágenes igualmente diferentes, sobre todo de los objetos que están relativamente cerca de nosotros, esto se llama estereopsis, palabra de etimología griega que significa literalmente “visión de la solidez” . La variación en las posiciones relativas de los objetos las que nos informan nuestros ojos es lo que genera en nuestro cerebro la sensación de profundidad y el conocimiento de la posición de los objetos en tres dimensiones o direcciones: alto, bajo y profundo.

La estereopsis no fue descrita sino hasta 1838 por el prolífico científico e inventor británico Charles Wheatstone, el primero que describió la visión binocular, lo que le ganó la Medalla real de la Real Sociedad británica. Siendo el primero en comprender cómo vemos la profundidad, fue también el primero en intentar simularla por medio de la presentación de imágenes distintas a cada ojo, inventando así el estereoscopio, que es la base de la gran mayoría de los intentos por producir la ilusión de 3 dimensiones o 3D. La ilusión del estereoscopio comienza con la toma de dos fotografías desde dos puntos de vista que simulan la separación de los ojos (existen actualmente cámaras de fotografía y vídeo con dos lentes situados en posiciones similares a las de los ojos para facilitar la toma de imágenes estereoscópicas), y después se utilizan lentes y un dispositivo para que cada ojo vea una de dichas imágenes, con lo cual se consigue una ilusión muy efectiva.

Hace años fueron famosos aparatos de diversión como el View-Master y productos similares, estereoscopios que usaban imágenes insertadas en círculos de cartón y que ofrecían una excelente ilusión de profundidad. A lo largo de la historia, diversos sistemas (algunos de los cuales implicaban hacer un pronunciado bizco) ofrecieron al público la oportunidad de ver imágenes en 3D, pero ninguno resultó realmente viable más allá de breves momentos de asombro. Lo que el estereoscopio lograba era darnos una perspectiva binocular, sí, pero totalmente estática, cuando lo más interesante del mundo que vemos en tres dimensiones es, precisamente, que cambia al movernos, los objetos parecen pasar unos frente a otros aunque no se muevan, sólo al cambiar nosotros de posición, al caminar a su alrededor.

Esa tercera dimensión dinámica se puede conseguir de dos formas. La primera es un holograma, una imagen fotográfica tomada con rayos láser (y, ahora, otros tipos de ondas) que reconstruye la forma en que la luz incidió en el objeto holografiado, por lo que al moverse el espectador puede ver un efecto real de tres dimensiones, con profundidad y cambios de estereopsis. Los hologramas son generalmente estáticos o al menos no se ha podido desarrollar un sistema adecuado para hacer hologramas en movimiento, digamos, para una película o programa de TV, en tanto que la holografía ha encontrado muchos otros usos en la ciencia y la tecnología, como lo revelan los hologramas presentes en muchos billetes de banco y tarjetas de crédito.

Las imágenes en movimiento y en 3D se consiguen proyectando una serie de imágenes estereoscópicas a los ojos, y por tanto necesita un filtro para que un ojo no vea lo que ve el otro. Así, se han creado películas en 3D en las que las imágenes están procesadas por un filtro de color, o polarización, para que el público, dotado de gafas con los filtros de color o los vidrios polarizados correspondientes, puedan ver la ilusión de 3D. Otras gafas más complejas usan cristal líquido que funciona como obturador, abriendo y cerrando el paso de imágenes alterntivamente a ambos ojos a gran velocidad. Los sistemas se multiplican sin que se haya conseguido un estándar satisfactorio por cuanto a la producción, proyección y visionado de las películas en 3D, todas tomadas con cámaras binoculares de cine o video. El extremo de aspecto más futurista son las gafas de realidad virtual, que contienen dos pantallas de vídeo en su interior, una para cada ojo, y que pueden ofrecer ilusiones muy convincentes, aunque el aparato en sí sigue siendo bastante incómodo por sus dimensiones y peso.

Por su parte, se han desarrollado numerosos sistemas sin gafas especiales, llamados de “autoestereoscopía”, para hacer más fácil el visionado de las películas. Desafortunadamente, estos sistemas suelen producir en los espectadores mareos y dolores de cabeza, algo que tampoco es ideal para este objetivo. La investigación seguirá adelante porque, finalmente, el premio para quien desarrolle un sistema viable, cómodo y de fácil difusión, será colosal.

Televisión tridimensional en el salón


La televisión en tres dimensiones soñada por la ciencia ficción y con frecuencia presente en películas y cómics referentes al futuro tampoco se ha hecho realidad, al menos de modo viable. Los intentos más recientes se han dado en series como la exitosa “Cosas de marcianos”, en la que se dio a los televidentes gafas especiales y se les indicaba cuándo usarlas para ver en tres dimensiones los sueños del personaje. La serie “Médium” lo intentó hace poco, pero sigue siendo poco práctico. De momento, claro.

Las fuentes alternativas de energía

Las fuentes de energía alternativas que pueden sustituir al petróleo como impulsor de prácticamente toda la economía del planeta se mueven entre los terrenos de la ingeniería, la fantasía y, a veces, el simple embuste.

El petróleo es nuestro principal combustible, pues de él obtenemos 38% de toda la energía que consumimos. Sumándolo al 26% de energía procedente del carbón y el 23% del gas, los combustibles fósiles dan cuenta del 87% de la energía, desde combustible para diversos medios de transporte de personas y mercancías hasta aceite para calentarnos en invierno y la generación de la mayor parte de la electricidad en todos los países, todo procedente de una fuente que, tarde o temprano, se agotará.

En 2006 los reactores nucleares sólo daban cuenta del 6% de la energía mundial, y los materiales fisionables, los elementos radiactivos que podemos usar para generar energía nuclear, también pueden agotarse. Las fuentes renovables de energía apenas cargan con el 7% restante: 6% procede de la energía hidráulica, mientras que todas las demás fuentes, como el calor solar, el viento, la energía geotérmica, los biocombustibles y la energía solar fotovoltaica (la que se recoge con celdillas solares) sumadas son responsables de menos del 1% del consumo mundial de energía.

El eventual agotamiento de los combustibles fósiles demanda una mayor eficiencia de las fuentes existentes y la investigación de otras que funcionan en teoría, como la fusión nuclear. Los reactores actuales utilizan elementos pesados cuyos núcleos se fisionan en núcleos más ligeros liberando gran cantidad de calor, que se utiliza para convertir agua en vapor y mover turbinas eléctricas. Es un proceso ineficiente, que genera desechos contaminantes, presenta riesgos de averías y temores en la población. El proceso inverso, la fusión o unión de dos núcleos ligeros en uno más pesado, es mucho más eficiente como generador de energía y es totalmente limpio, tanto que nuestra estrella, el sol, es un gigantesco reactor de fusión donde átomos de hidrógeno se unen como helio liberando luz y calor. Sin embargo, la ciencia y la técnica aún no han podido lograr la fusión artificial continuada y controlada, y la investigación continúa con sistemas altamente complejos para contener el plasma de hidrógeno necesario para la reacción.

La percepción general de una crisis energética y los incesantes aumentos de precios de los hidrocarburos no sólo impulsan la investigación científica, son también campo fértil para ilusos o embusteros que ofrecen “energía libre”, energía gratuita producida por máquinas más o menos ingeniosas o procedimientos más o menos fantasiosos. Así, en 1989 dos químicos, Stanley Pons y Martin Fleischmann, anunciaron una fusión nuclear en frío que generaba energía sin grandes problemas técnicos. El tipo de anuncio que cambia al mundo y gana premios Nobel... pero ningún otro científico consiguió replicar los resultados, y se determinó que los resultados habían sido reportados de modo impreciso, voluntaria o involuntariamente. Pons y Fleischmann pasaron a trabajar para Toyota donde gastaron unos 18 millones de euros en 9 años sin poder reproducir sus resultados originales.

En 2006 reseñábamos, en esta misma página, que Sean McCarthy, dueño de la empresa irlandesa Steorn Research, se había anunciado en la prestigiosa revista The Economist "invitando" científicos para poner a prueba un motor magnético que, decía, producía energía de la nada. Seleccionó a 12 científicos con los cuales estableció un contrato con una severa cláusula de confidencialidad y salió de escena. Un ejemplo de su motor debió ponerse en exhibición ante el público el 4 de juio de 2007, pero la demostración se suspendió y la empresa no ha vuelto a hablar con la prensa, ni ha dado informes de los científicos que “validarían” este, el enésimo motor magnético del que se afirma que puede generar energía de la nada. Ninguno de tales motores ha funcionado jamás, pero han sido fuente de ingresos para muchos que solicitan financiamiento para “desarrollar” sus mágicas máquinas. El dinero siempre “se acaba” sin que consigan su objetivo.

Las máquinas de movimiento perpetuo han adquirido gran impulso en los últimos años a resultas de su asociación con las creencias del New Age y con ciertas visiones ecológicas simplistas que les dan cierta legitimidad ideológica. Pero sin importar su supuesto mecanismo, nunca funcionan. Y eso que, si funcionaran, tendríamos que reescribir la totalidad de la física tal como la conocemos. Ciertamente esto se ha hecho muchas veces en el pasado, pero sólo ante evidencias claras, extraordinarias e incontrovertibles de fenómenos que el modelo anterior no podía explicar, algo que pondría a los inventores de una máquina así a la altura de Newton o Einstein. Estas fantasiosas máquinas tienen el enorme atractivo de presentarse como algo que ya está a nuestro alcance, a no ser porque está siendo reprimido por (por científicos y compañías petroleras, por ejemplo), y nos ofrece una energía gratuita que cambiaría la vida humana radicalmente. La tentación de creer es, sin duda, grande.

Pero lo más probable es que las energías alternativas que sustituyan al petróleo no sean mágicas, sino que representarán costes y problemas, cosa que por otra parte no debería sorprendernos. Los hidrocarburos nos dieron, en poco más de 150 años, grandes beneficios, pero a costa de contaminación, problemas de salud, guerras por el control del oro negro y problemas de precios. La energía alternativa, sea nuclear, de biocombustibles, de viento, solar, de las mareas o de otro tipo, traerá sus propios problemas, desde los cosméticos, como la preocupación que ciertos grupos expresan por lo poco estético de las granjas eólicas, hasta los de manejo de desechos nucleares.

La cantidad de petróleo que debemos reemplazar con alguna mezcla de energías alternativas es, hay que tenerlo presente, enorme, y sustituirlo de modo deficiente afectará sobre todo a quienes más necesitan una solución ecológica, accesible y limpia de energía para impulsar sus economías, los países del llamado tercer mundo.

Más allá del biodiesel


El interés en los biocombustibles producidos con plantas comestibles, como el maíz, ha alentado un debate “alimentación contra biocombustibles”, fuertemente teñido de intereses e ideas políticas. Sin embargo, existen opciones como el biocombustible de segunda generación (producido a partir de desechos vegetales no usualmente comestibles, en particular la celulosa), el de tercera generación, producido con base en algas cultivadas al efecto, e incluso el de cuarta generación, que podrían producir directamente a partir del bióxido de carbono microorganismos genéticamente modificados que hoy están desarrollándose en laboratorio. Las opciones están más abiertas de lo que parece.

LHC: el mayor experimento de física

El Gran Colisionador de Hadrones (LHC por sus siglas en inglés) es el más ambicioso proyecto europeo para confirmar o replantear el modelo estándar de la física y situar a Europa a la vanguardia de la investigación del universo.

Desde 1931, una de las más importantes herramientas de los físicos en sus investigaciones sobre las partículas que forman nuestro universo han sido los llamados “aceleradores de partículas”. Estos aparatos, inventados por el físico estadounidense Ernest Lawrence en 1929, utilizan campos eléctricos para acelerar partículas cargadas eléctricamente hasta que alcanzan grandes velocidades y son lanzadas contra distintos “blancos”, que pueden ser otras partículas, trozos de materia, etc. Estos aceleradores pueden ser circulares o lineales, permitieron el descubrimiento de la antimateria, los quarks y la creación de elementos no existentes en la naturaleza.

El elemento esencial de un acelerador de partículas es la energía a la que puede llevar dichas partículas, sobre todo cuando se trata de replicar las condiciones de ciertos fenómenos cósmicos como las supernovas o el Big Bang, la explosión que dio origen a nuestro universo. Esto significa que los físicos requieren de aceleradores más grandes y potentes para continuar sus descubrimientos.

Sin embargo, los aspectos más complejos de la física de partículas no suelen ser fácilmente comprendidos por quienes toman las decisiones en los gobiernos. Esto dio como resultado un gran retraso en el avance de la física por causa de una decisión presupuestaria del Congreso de los Estados Unidos. En 1983, un grupo de físicos analizó la viabilidad técnica y económica de un acelerador circular capaz de acelerar dos haces de partículas cada uno a 20 TeV (tera electronvoltios, un electronvoltio es la energía que adquiere un electrón al caer en un diferencial de 1 voltio; una molécula común a temperatura ambiente tiene una energía de aproximadamente 1/40 de eV, y la fisión nuclear de un átomo de uranio 235 libera 200 millones de electronvoltios; un tera electronvoltio es un millón de millones de electronvoltios). En 1991, comenzó la construcción del que llamaron “Supercolisionador Superconductor”, con un coste estimado original de 4.400 millones de dólares que pronto se convirtieron en 12.000 millones, el aumento en costes aunado al colapso de la Unión Soviética llevaron a que el Congreso estadounidense decidiera, en 1993, cancelar el proyecto cuando ya se había excavado un túnel de 22,5 kilómetros de largo en el sur de Texas.

El lugar se vendió a una empresa privada que planea instalar un centro de datos en el colosal túnel, hoy desierto.

El retraso en los avances de la física de partículas que representó esta decisión apenas se recupera ahora que está por entrar en acción el Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear (CERN). La energía a la que acelerará los dos haces de partículas es de 7 TeV, para un total combinado de 14 TeV, alojado en un túnel de 27 kilómetros de circunferencia en la frontera franco-suiza. En su diseño, financiamiento y construcción participan dos mil físicos de treinta y cuatro países, así como cientos de universidades y laboratorios. Y, con un retraso de dos años ocasionado en parte por problemas de fondos, hoy se está enfriando lentamente el sistema criogénico que permitirá que los imanes responsables de acelerar los haces de partículas actúen con máxima eficiencia como superconductores.

Todo esto, sin embargo, sólo es importante por lo que se puede aprender con el uso del LHC en seis experimentos que utilizarán los datos obtenidos de su funcionamiento. Al hacer chocar dos haces opuestos de protones o de iones de plomo (según el experimento) con energías similares a las alcanzadas en los primeros segundos posteriores al Big Bang, los físicos intentarán, entre otras cosas, producir el esquivo “bosón de Higgs”. Según el “modelo estándar” de la física de partículas que hasta hoy parece explicar todos los fenómenos, es decir, que parece ser correcto, predice la existencia de doce partículas elementales, de las cuales conocemos actualmente once. Los bosones son las partículas que fungen como mediadoras de las distintas fuerzas del universo, mientras que el bosón de Higgs, que aún no se ha observado, sería la partícula responsable de que otras partículas tengan masa. Esto permitirá igualmente determinar si el llamado “mecanismo de Higgs” para generar las masas de las partículas elementales se hace realidad en la naturaleza.

Igualmente, los físicos esperan poder hacer mediciones más precisas de las masas de los quarks, que son las partículas que conforman los protones y neutrones, para determinar si se confirma la Teoría Estándar o es necesario replantearla en alguna forma. Igualmente, pretenden empezar a averiguar por qué la gravedad es una fuerza tan tremendamente débil en comparación con las otras tres fuerzas fundamentales del universo (el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil).

Pero la más ambiciosa posibilidad que ofrece el LHC e es la de responder a una de las más profundas cuestiones de la física actual: ¿cuál es la naturaleza de la materia oscura y la energía oscura? En realidad, cuando miramos al cielo con los ojos o con telescopios de radio, de rayos X, de radiación ultravioleta, etc., vemos únicamente un 4% de la masa que nuestros cálculos dicen que tiene el universo. La materia oscura, que no podemos ver pero cuya existencia conocemos por las relaciones gravitacionales del universo, compone el 22% del universo, mientras que los expertos calculan que un 74% de la masa del universo está formado por energía oscura. Llamamos “oscuras” a esta materia y energía como forma de destacar nuestra ignorancia, únicamente por darle nombre a algo de lo que desconocemos todo salvo su existencia.

Si el LHC pudiera, efectivamente, empezar a darnos respuestas sobre estos temas, su coste en términos de dinero sería el menos importante de los temas. Confirmar o transformar el paradigma de la física que nos explica todo cuanto existe en el universo, después de todo, es algo a lo que difícilmente se le puede poner precio.

Los números del LHC


El Gran Colisionador de Hadrones utiliza 1.232 imanes para guiar la trayectoria circular de los haces de partículas, 392 imanes de enfoque para mantener el haz enfocado y más de 6.000 imanes superconductores para acelerarlo en el anillo de 27 kilómetros de circunferencia en condiciones de vacío. Los imanes superconductores están enfriados a una temperatura de 1,9 grados Kelvin (es decir, a menos de dos grados del cero absoluto, más frío que el espacio exterior). El coste inicial presupuestado fue de 1.600 millones de euros y su coste final oscilará entre los 3.200 y los 6.400 millones de euros.