Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

El auto eléctrico: realidad y sueño

Auto eléctrico cargando su batería en 1919
(DP via Wikimedia Commons)
Los autos eléctricos siempre han existido junto a los de gasolina. El reto es conseguir que sean tan eficientes, atractivos y convenientes que sus contaminantes alternativas.

Los automóviles eléctricos son defendidos como una solución, así fuera parcial, a los problemas que implica la contaminación ambiental producto de la combustión de derivados del petróleo, sobre todo en zonas urbanas, así como ayudar a evitar el agotamiento de los combustibles fósiles y aliviar los problemas poíticos que rodean al tópico oro negro.

Incluso, hay quienes creen, con cierta paranoia, que los fabricantes de autos y las petroleras actúan de modo directo para obstaculizar el desarrollo de estos vehículos. Afirmaciones que suelen tener mucha difusión y ninguna prueba, menos ahora que la industria automovilística está apostando por vez primera cantidades serias al desarrollo del auto eléctrico ideal.

Los autos eléctricos han estado entre nosotros desde los inicios mismos del automovilismo. El motor eléctrico fue concebido en 1827 por el ingeniero, físico y monje benedictino Ányos Jedlik, que lo llamaba “autorrotor electromagnético”. Presentó su invento públicamente en 1828, y en ese mismo año presentó un modelo de auto que usaba su motor eléctrico. Lo siguieron de cerca en 1834 el herrero estadounidense Thomas Davenport, que creó un motor de corriente continua, y en 1837 el inventor escocés Robert Davidson que construyó la primera locomotora eléctrica.

Esta historia fue paralela a la del motor de combustión interna, que se desarrolló entre fines del siglo XVIII y 1823, cuando Samuel Brown patentó el primer motor de combustión interna utilizado industrialmente. Los primeros automóviles prácticos con motores de combustión interna se desarrollaron en Alemania gracias a los trabajos de varios ingenieros que permitieron a Karl Benz crear el primer automóvil en 1885 y empezar a venderlo comercialmente en 1888.

Uno de los problemas del auto eléctrico fue, y sigue siendo, que no puede estar conectado a la red de alimentación eléctrica, de modo que necesita un almacenamiento confiable y económicamente viable de la cantidad suficiente de energía eléctrica para sus necesidades. Los trenes, el metro y los casi olvidados tranvías han sido prácticos por estar conectados a la red eléctrica. Un automóvil, con las características de independencia, movilidad y libertad que le asignamos, necesita en cambio llevar consigo su electricidad.

Los primeros autos eléctricos viables aparecieron a partir de que Gastón Planté inventó, en 1885,  la batería de plomo-ácido, una batería recargable de gran eficiencia y capacidad de suministrar grandes picos de corriente en un momento. Esta batería es esencialmente la que utilizan todavía la mayoría de los automóviles de gasolina y muchos de los diseños de autos eléctricos que almacenan su energía en conjuntos dde baterías de plomo-ácido.

El invento de Planté promovió la aparición de muy diversos automóviles eléctricos, especialmente en Francia y el Reino Unido. Estados Unidos, por su parte, donde en 1859 nació la moderna industria petrolera, no mostró interés por los autos eléctricos sino hasta 1895, y dos años después Nueva York contaba con una foltilla completa de taxis eléctricos, el sueño de cualquier ambientalista del siglo XXI.

Para darnos una idea, al comenzar el siglo XX el 40% de los autos de Estados Unidos eran de vapor, el 38% eléctricos y sólo el 22% de gasolina.

Pero la abundancia del petróleo, la sencillez del motor de combustión y la posibilidad de alcanzar grandes velocidades en autos de gasolina sobre las redes de carreteras y autopistas que de pronto surgieron por todo el mundo, así como la producción en masa de Henry Ford que ofreció autos razonablemente baratos a sus compatriotas, dejaron atrás a los lentos, silenciosos, mansos y nobles autos eléctricos, que salieron de escena.

Pero desde 1990 se reanimó el interés por los autos eléctricos. La tecnología estaba allí. Lo que hacía falta eran mejores baterías, sistemas que permitieran alcanzar velocidades aceptables en los autos eléctricos, posibilidad de recargar más rápidamente las baterías en un mercado acostumbrado a llenar el tanque de combustible en unos minutos y, sobre todo, conjuntar todo esto en un vehículo con precios similares a los de los autos de gasolina. En ese esfuerzo participaron, y participan, desde los fabricantes de autos tradicionales con marcas mundialmente conocidas, hasta pequeñas empresas visionarias.

Una de las soluciones más equilibradas al auto eléctrico fue la de la empresa japonesa Honda: un vehículo híbrido que pueda usar electricidad o gasolina según sea necesario. Honda lanzó el primer híbrido hace apenas 10 años, en 1999.

Sin embargo, debemos tener presente que nuestra tecnología emplea la electricidad como una forma de energia intermedia, no obtenida directamente de la naturaleza. El movimiento de los ríos controlado en las presas hidroeléctricas, las turbinas accionadas por el vapor de agua calentada mediante la fusión controlada en un reactor nuclear, o directamente al quemar petróleo o  carbón, generan la electricidad que después se reconvierte en fuerza motriz para el auto.

Si para generar la electricidad tenemos que quemar carbón o petróleo, dicha energía no es realmente limpia, sólo lo parece porque la contaminación generada por su producción queda lejos del lugar donde se utiliza la electricidad, y en tal caso se plantea como fundamental el problema de la fuente de donde se obtiene la electricidad.

Los autos eléctricos que hoy son candidatos a poder competir realmente con los de gasolina utilizan formas novedosas de almacenamiento de energía, como los sistemas de recuperación de la energía cinética del frenado que en la Fórmula 1 ya se utilizan con el nombre de KERS, las células de energía que utilizan el hidrógeno para generar electricidad y la siempre elusiva presa que es la energía solar.

Mientras tanto, con sus baterías recargables de níquel e hidruro metálico (NiMH), sus opciones híbridas y el apoyo de distintos gobiernos para tener centros de reabastecimiento eléctrico en los mismos puntos de expendio de gasolina, las empresas siguen compitiendo por llegar a tener el auto eléctrico que los consumidores preferirán de modo entusiasta por encima de los de combustión interna. El premio, desde el punto de vista empresarial, podría ser inmenso.

Y además sería un paso hacia adelante en la lucha contra los contaminantes que son, sin duda alguna, amenazas para nuestra salud.

El auto eléctrico en la Luna

El vagabundo o explorador, el automóvil similar a un sand buggy que utilizaron en la Luna los astronautas de la misión Apolo 15, era eléctrico, en un ambiente sin el oxígeno necesario para la combustión de la gasolina, alimentado por baterías no recargables.

Los insectos nos cuentan historias

Cynomya mortuorum, uno de los insectos que
emplea la entomología forense para determinar
el momento de la muerte.
(foto CC James K. Lindsey via Wikimedia Commons)
Los procesos que se desarrollan a partir del momento de la muerte son elemento fundamental para que los científicos forenses puedan decir cuándo y dónde murió alguien, e incluso quién fue el culpable.

La naturaleza muestra poca piedad por los sentimientos de quienes sobreviven a la muerte de un ser vivo. No deja tiempo para el duelo: en el instante mismo en que se apaga la vida, y con ella los sistemas de defensa y protección del organismo, entran en acción multitud de mecanismos diseñados para que la materia orgánica se recicle en el mundo de los vivos.

Así, a los pocos momentos de la muerte, una serie de bacterias que vivían pacíficamente en el organismo, comienzan a devorarlo. La descomposición produce sustancias aromáticas que informan que allí hay proteína disponible, y a ellas responden carroñeros y comensales varios, especialmente insectos.

Para el ser humano, la muerte es otra cosa. La tememos, y mucho. Hemos creado complejos edificios culturales, ritos y sistemas de creencias para enfrentar el temor – y la furia – que nos provoca el hecho de la muerte, perder a los seres queridos, quedarnos solos el saber, como no lo sabe ningún otro ser vivo en este planeta, que ése es precisamente el destino que nos espera.

Quizás por ello, la investigación de los procesos de la muerte quedó postergada hasta tiempos muy recientes, cuando las necesidades de la investigación policiaca de diversos delitos y de la identificación de cuerpos impulsaron los avances de ciencias como la patología, la antropología y la entomología forenses.

La excepción fue el trabajo singular del estudioso chino Sun Tz’u, para muchos uno de los primeros detectives de la humanidad. En el libro El lavado de los males que escribió en 1235, este “investigador de muertes” relata un asesinato ocurrido en una pequeña aldea, en el cual la víctima sufrió numerosas cuchilladas. El juez pensó que las heridas podían haber sido infligidas con una hoz. Como los interrogatorios no sirvieron para identificar al asesino, el juez utilizó el ingenioso procedimiento de ordenar que todos los hombres de la aldea se reunieran en la plaza, un cálido día de verano, cada uno con su hoz. Pronto empezaron a arremolinarse moscas azules alrededor de una hoz en concreto, la que tenía restos de sangre y pequeños trozos invisibles de tejido en la hoja y el mango. El dueño de la hoz confesó el asesinato.

En el libro de Sun Tz’u se narran además observaciones sobre la actividad de las moscas en las heridas y los orificios naturales del cuerpo, una explicación de la relación entre las larvas y las moscas adultas y el tiempo que tardan en invadir un cuerpo muerto. En occidente, por ejemplo, no fue sino hasta 1668 cuando Francesco Redi demostró que las larvas y las moscas son el mismo organismo, dándole un golpe mortal a la teoría de la generación espontánea.

Pero fue en el siglo XX cuando todos los estudios de la entomología, con frecuencia minuciosos y poco apasionantes, se conjuntaron con la investigación criminal para crear lo que hoy conocemos como entomología forense en su aspecto más conocido: el médico legal. La entomología forense utiliza el conocimiento sobre los insectos y otros artrópodos, y sus subproductos, como evidencia en investigaciones criminales.

El aspecto más conocido es la ayuda que ofrece la entomología forense en la determinación de la hora de la muerte y del lugar donde ésta ocurrió. Lee Goff nos relata el primer caso de uso de la entomología forense en occidente se remonta a 1855, cuando durante una serie de trabajos de restauración en una casa parisina se encontró en una chimenea el cuerpecito momificado de un bebé. Los sospechosos de inmediato fueron una joven pareja que por entonces habitaba la casa. El médico forense que hizo la autopsia determinó que el bebé había muerto en 1848, obervando que una mosca de la carne, la Sarcophaga carnaria se había alimentado del cuerpo durante el primer año, y los ácaros habían puesto huevos en el cadáver seco al año siguiente. Estas pruebas revelaban que la muerte había ocurrido bastante antes de 1855, con lo cual se identificó como responsables a los anteriores habitantes de la casa.

Estudiando las larvas, huevos, restos de pupa o insectos con desarrollo incompleto en un cuerpo, el entomólogo puede leer la sucesión de una serie de hechos que han acontecido de modo previsible en el cadáver. Al momento de la muerte, un organismo atrae a una serie de insectos que lo modifican y alteran, donde depositan sus huevos y sus desperdicios; esas modificaciones atraen a otro grupo de insectos totalmente distinto, y así se va desarrollando una sucesión de habitantes, cada uno de ellos indicando una etapa posterior a la muerte.

Los insectos son la forma de vida con mayor variedad del planeta. Conocemos alrededor de 900.000 especies distintas, pero los expertos nos dicen que esto es sólo una pequeña fracción del número real de especies. Debido a esta variedad, cada tipo de animal en cada lugar del mundo atrae a una sucesión única de insectos. Un cadáver en el campo con infestación de insectos sólo presentes en las ciudades le dice al entomólogo que su muerte ocurrió en la ciudad, y que su traslado al campo es, probablemente, un intento por despistar a la policía.

El desarrollo de la entomología forense, sin embargo, no es siempre tan glamuroso como quisieran presentárnoslo los creadores de series de televisión. El entomólogo y acarólogo forense Lee Goff, por ejemplo, ha realizado una serie de poco atractivos experimentos colocando cuerpos de cerdos en distintos puntos de Hawai, donde trabaja, para determinar qué sucesión de qué especies de insectos hay en cada distinto punto de las islas, y los tiempos que tardan en darse las infestaciones (las moscas, por ejemplo, siempre llegan mucho más rápido que los escarabajos). Los entomólogos forenses también trabajan en la famosa “granja de cadáveres” que fundó el antropólogo forense Bill Bass en Tennessee para estudiar los procesos de la descomposición del cuerpo humano.

Sin estos conocimientos como marco de referencia, obtenidos con duro trabajo científico con frecuencia poco agradecido y lejos de los reflectores, los entomólogos forenses del espectáculo no podrían hacer ninguna de sus asombrosas actuaciones.

Más allá de la descomposición

La entomología forense no sólo se ocupa de los insectos que atacan un cuerpo muerto, tiene otros muchos usos en la investigación. En ese sentido, se recuerda a un grupo de policías atónitos ante una serie de manchas de sangre de aspecto totalmente desusado en la escena de un asesinato, hasta que un entomólogo explicó que esos rasgos eran rastros de las muchas cucarachas que infestaban el sitio y que habían pasado por encima de las manchas nomrlaes de sangre, alterándolas.

Mendel, el monje que entendió la herencia

Monumento a Gregor Mendel
en la ciudad de Brno
(Wikimedia Commons)
Entre 1865 y 1866 ocurrió un hecho fundamental para la historia de la ciencia, un descubrimiento que afectó de modo profundo e irreversible la forma en que entendemos la vida, y cómo nos vemos a nosotros mismos en relación con el resto del reino animal.

Y sin embargo, pasaron casi cuatro décadas para que el mundo celebrara este logro singular y revolucionario que se había logrado en lo que aún era el Imperio Austrohúngaro, en la ciudad de Brno o Brünn. Allí, el fraille agustino Gregor Mendel realizó una serie de experimentos sobre la herencia de ciertas características en los guisantes comunes (Pisum sativum). En 1865, presentó los resultados de sus experimentos ante la Sociedad de Historia Natural de Brünn y un año después los publicó en los anales de la proopia sociedad bajo el poco sugerente nombre de Experimentos sobre híbridos de plantas.

Era el primer trabajo experimental que demostraba que la herencia no era cuestión de azar, de o de magia y misterio, sino que respondía a leyes claras, como se había ido descubriendo que pasaba con el resto de la realidad en el proceso de la revolución científica.

Gregor Mendel no trabajaba a partir de cero. Conocía los trabajos de hibridación que granjeros, agricultores y ganaderos hacían a ciegas y de modo empírico, con experiencias de ensayo y error, pues precisamente no conocían cómo se daba la herencia.

La inquietud científica y los conocimientos de Mendel respecto de la tierra tienen su origen en la infancia de Mendel. Sus padres eran granjeros que trabajaban las tierras de la Condesa María Truchsess-Ziel, y su padre conocía los secretos de los injertos de distintos tipos de árboles, y se los enseñó al joven Mendel. La brillantez del joven hizo que sus padres se esforzaran por educarlo, hasta llevarlo a una carrera eclesiástica donde podía estudiar sin ser una carga para sus padres y para él mismo.

Mendel expresó su amor a la naturaleza interesándose en diversas disciplinas que lo llevaron a un puesto como profesor de ciencias naturales para chicos de educación secundaria. Lo apasionaban por igual la meteorología, la biología y, en particular, la evolución de la vida, en momentos en que el debate sobre la evolución estaba en un momento de gran agitación. Mendel realizó un experimento para determinar si era válida la teoría de Lamarck que sostenían que los esfuerzos realizados por un ser vivo a lo largo de su vida producían, de alguna manera, caracteres que podían heredar sus descendientes.

Al ver que el medio ambiente y los esfuerzos de un ser vivo no cambiaban a su descendencia, Mendel empezó a germinar la idea de la herencia. Realizó una serie de cruces de guisantes, por un lado, y de ratones, por otro, simplemente por curiosidad, pero los resultados fueron singulares y le indicaron el camino a seguir. Al parecer, los rasgos se heredaban en determinadas proporciones numéricas. Sus observaciones le llevaron a postular la idea de que algunos rasgos son dominantes mientras que otros son, en cambio, recesivos. Igualmente, se planteó que los genes estaban aislados unos de otros. Todos estos hechos lo llevaron a emprender un singular experimento científico.

Durante siete largos años, Mendel hizo estudios de cruces de la planta del guisante común, determinando que algunas características heredadas no eran una mezcla o resultado a medio camino entre las características de los padres, como lo proponían por entonces la mayoría de los científicos, sino que se presentaban de una u otra forma. Por ejemplo, las flores de la planta del guisante pueden ser moradas o blancas, pero al hacer una polinización cruzada entre plantas de flores de ambos colores, no se obtiene una flor color morado claro. Todas las plantas resultantes tendrán flores blancas o moradas.

Para sus experimentos, Mendel identificó primero siete características de los guisantes que fueran fácilmente observables y que sólo se presentaran en una de dos formas posibles: el color de la flor, la posición de la flor en la planta (en el eje del tallo o en su extremo), el tallo (largo o corto), la forma de la semilla (lisa o rugosa), el color del guisante (verde o amarillo), la forma de la vaina (inflada o constreñida) y el color de la vaina (amarillo o verde).

A lo largo de sus experimentos, Mendel pudo determinar cuáles de esas características eran dominantes (es decir, que se presentaban aunque sólo las tuviera uno de los padres) y cuáles eran recesivas (es decir, que sólo se presentaban si las tuvieran ambos padres), lo cual dio como resultado una proporción aritmética clara de cuántos de los descendientes, en promedio, exhibirían uno u otro de estos rasgos heredados.

Su larga y minuciosa experiencia lo llevó a tres conclusiones. Primero, que la herencia de estos rasgos está determinada por “unidades” o “factores” que se transmiten sin cambios de padres a hijos, lo que hoy llamamos “genes”. Segundo, que cada individuo hereda una de tales unidades de cada uno de los padres. Y, tercero, que un rasgo puede no hacerse presente en un individuo pero aún así puede transmitirse a la siguiente generación.

Esto le permitió enunciar dos principios o leyes de la herencia, los primeros intentos exitosos de describir el misterio de la transmisión de características de los padres a sus descendientes.

En primer lugar, estableció la “ley de la uniformidad”, según la cual al cruzarse dos variedades puras respecto de un determinado rasgo, los descendientes de la primera generación serán todos iguales en ese rasgo. La segunda, “de segregación de las características”, dice que de un par de características sólo una de ellas puede estar representada por un gene en un gameto (espermatozoide u óvulo). La segunda ley es la de la segregación, que dice que los dos genes que contiene cada célula no reproductora se segregan o separan al formar un espermatozoide o un óvulo. Finalmente, enunció que diferentes rasgos son heredados independientemente unos de otros, sin que haya relación entre ellos.

Dos años después de publicar sus resultados, Mendel fue ascendido a la categoría de abad en 1868, con responsabilidades tales que dejó de realizar trabajos científicos.

Mendel murió el 6 de enero de 1884 en la misma ciudad en la que había nacido, en el modesto silencio de un abad trabajador, y no como uno de los grandes científicos de la historia.



El jardinero complejo


Además de su actividad científica, Mendel fue en distintos momentos de su vida titular de la prelatura de la Imperial y Real Orden Austriaca del emperador Francisco José I, director emérito del Banco Hipotecario de Moravia, fundador de la Asociación Meteorológica Austriaca, miembro de la Real e Imperial Sociedad Morava y Silesia para la Mejora de la Agricultura, Ciencias Naturales y Conocimientos del País, y jardinero.


Perros agresivos: mitos y hechos

¿Por qué ataca un perro a una persona? Como en los ataques de cualquier mamífero superior, la respuesta no parece ser tan sencilla como nos gustaría.

Hellen Keller y su pitbull
(Fotografía D.P. vía Wikimedia Commons)
Un experto adiestrador de perros me decía recientemente que los perros pequeños tienden a ser muy agresivos, no debido a su raza, sino porque su tamaño transmite la idea de que son inofensivos y frágiles, y en consecuencia sus propietarios le ponen menos limitaciones a su comportamiento en casa, con pocas reglas demasiado flexibles. Y, acaso conscientes de su inferioridad física, estos animales parecen esforzarse mucho por destacar actuando de modo ostentoso.

La imagen de un perro de talla diminuta ladrándole altanero a otro perro de talla sensiblemente más grande es algo común en nuestras calles, y da fe de lo que comentaba el adiestrador.

Pero, señalaba también este especialista que compite internacionalmente en pruebas de obediencia con sus perros, la gente no suele denunciar el bocado de un caniche, un westy, un chihuahua o un Yorkshire terrier, y esos ataques no entran en las estadísticas. Un ataque proporcionalmente igual de un perro grande y de aspecto feroz no sólo es denunciado, sino que lo retoman los medios de comunicación, y se llega a convertir en arma política y motivo de alarma social.

Y es que, piensa uno, si hay “razas peligrosas”, ¿no es lógico restringir a esas razas y evitarnos molestias o, incluso, tragedias?

Ciertamente sí, si hubiera pruebas de que la “raza” o la herencia genética es la causa del comportamiento agresivo. Pero los datos estadísticos no son sólidos. Hay un total de alrededor de cuatro milloes de perros en España, y los ataques reportados no pasan de 500 al año. Los ataques de perros son fenómenos realmente infrecuentes, y no hay estadísticas fiables que nos digan en cuántos casos el perro actuó por dominancia, o en defensa de su integridad o de su territorio, o por haber sido entrenado para atacar, todo ello independientemente de su raza.

El pitbull se identifica frecuentemente con la agresividad. Se trata de una mezcla entre terriers pequeños y ágiles utilizados como ratoneros y para controlar poblaciones de conejos, con el bulldog inglés. Su fuerza, valor y sobre todo su disponibilidad en los Estados Unidos, hizo que se utilizaran para peleas de perros. Pero no porque tuvieran una agresividad especialmente acusada. Este tipo de perros, entrenados para pelear, enseñados a morder, desgarrar y atacar, son peligrosos no no por su genética, sino por el entrenamiento al que se han visto sujetos. Además, dado que los medios como el cine y la televisión han recogido y fortalecido el estereotipo, mucha gente espera que todo perro con aspecto de pitbull, actúe como si estuviera entrenado para atacar, y actúa inadecuadamente o a la defensiva ante estos perros, provocándolos.

Los dueños de perros supuestamente peligrosos pero que nunca han sido entrenados para pelear, han respondido a las acusaciones, por ejemplo con vídeos que se encuentran en YouTube con sólo teclear “pitbull baby” o “rottweiler baby” o “doberman baby” en la barra de búsqueda de ese sitio, para ver videos de perros supuestamente peligrosos jugando con bebés, conviviendo con ellos e, incluso, soportando con paciencia de santo los tirones, saltos y pellizcos del pequeño de casa.

La aparente contradicción entre la idea de que hay “razas peligrosas” y la experiencia diaria de los dueños de estos perros que no tienen comportamientos inadecuados encontró su respuesta en una investigación realizada en la Universidad de Córdoba y publicada en abril de este año en la revista Journal of Animal and Veterinary Advances.

Un grupo de investigadores encabezados por el Dr. Joaquín Álvarez-Guisado estudió a un total de 711 perros mayores de un año, 354 de ellos machos y 357 hembras, de los cuales 594 eran de “pura raza” y el resto mestizos. Se ocuparon de observar a variedades supuestamente agresivas como el bull terrier, el american pitbull, el pastor aleman, el rottweiler o el dóberman, así como a otras consideradas más dóciles, como los dálmatas, el setter irlandés, el labrador o el chihuahua.

El resultado de la investigación indicó que el factor más importante en la agresividad de un perro es la educación que sus dueños le den... o no le den. En cambio, los factores de menos peso son que el perro sea macho, que sea de tamaño pequeño, que tenga entre 5 y 7 años de edad o que pertenezca a alguna raza en concreto.

Este estudio se concentró en la agresividad surgida de la dominancia del perro, de su lucha por imponerse a todos a su alrededor, y determinó así que entre los factores importantes que provocan agresividad está el que los dueños no hayan tenido perro antes y no conozcan el comportamiento adecuado del amo con su perro, no someterlo a un entrenamiento básico de obediencia, consentir o mimar en exceso a la mascota, no emplear el castigo físico cuando es necesario, dejarle la comida en forma indefinida para que fije sus propias horas de comer y dedicarle poco tiempo y atención en casa además de pasearlo poco. Pérez-Guisado llama a esto simplemente “mala educación” del perro.

En resumen, cerca del 40% de las agresiones por dominancia o competencia de los perros está vinculado a que sus dueños son poco autoritarios y no han establecido la simple regla de que en ese grupo familiar, que el perro ve como su manada, los amos son los dirigentes, los dominantes, los “alfa” de la manada, como les llaman los etólogos.

En resumen, para Pérez-Guisado, “no es normal que los perros que reciben una educación adecuada mantengan comportamientos agresivos de dominancia”.

Conforme más aprendemos de genética, más claro es que salvo excepciones no existen genes “de” ciertas enfermedades o comportamientos, y que las instrucciones de nuestra herencia genética, más que un plano como el de un edificio, son, en metáfora de Richard Dawkins, más como una receta de cocina, donde el medio ambiente y la disponibilidad de ciertos materiales, el desarrollo y las experiencias que vivimos pueden hacer que ciertas características genéticas se expresen o no en la realidad. Y al culpar a la herencia genética del comportamiento de un perro muchas veces sólo estamos justificando a propietarios peligrosos.

La legislación

En España existen individuos y grupos que pretenden utilizar las evidencias científicas para que se derogue la ley de perros potencialmente peligrosos, como la Asociación Internacional de Defensa Canina y sus Dueños Responsables, bajo el lema “Castiga los hechos, no la raza”, con datos tanto del estudio de la Universidad de Córdoba como de los trabajos de expertos en etología y psicología canina. Tienen un antecedente relevante: en Holanda e Italia se han derogado leyes similares al demostrarse su falta de bases científicas.

Los secretos de la casualidad

23 granos de arroz lanzados al azar en 23 cuadros,
mostrando clústeres o agrupaciones d 4 y 5 granos.
(Imagen CC vía Wikimedia Commons)
Muchas coincidencias nos asombran y nos invitan a buscar explicaciones a esos acontecimientos, cuando en ocasiones deberíamos preguntar antes si nuestro asombro está justificado.

Ocurre a veces que recibimos una llamada de una persona cuando estamos pensando sobre ella. Muchos creen, y esto lo promueven quienes sostienen creencias paranormales, que es un hecho altamente extraordinario, algo tan poco probable que sin duda se trata de “telepatía” por algún medio extraño y misterioso.

Pero, si pensamos en el número relativamente limitado de personas que conocemos, en cuántas de ellas pensamos ocasionalmente y cuántas nos pueden llamar por teléfono, junto con el número de llamadas que recibimos al día, las probabilidades resultan lo bastante altas como para explicar el hecho sin necesidad de acudir a poderes sobrenaturales. A ello debemos añadir que en muchos casos sabemos inconscientemente cuándo suelen llamarnos algunas personas. Y tener presente que hay miles y miles de llamadas telefónicas que recibimos sin pensar correctamente en el interlocutor.

De hecho, lo que sería extraño es que pudiéramos pasar la vida sin que en algunas ocasiones nos llamara alguien en quien estuviéramos pensando. Tan extraño como si supiéramos quién nos llama, digamos, el 50% de las ocasiones.

Las coincidencias no sólo son mucho más comunes de lo que creemos, sino que son inevitables, y por tanto el que un hecho parezca curioso no significan nada si no sabemos cuáles son las probabilidades de que ocurra.

Veamos otro ejemplo: en una partida de póker, usted recibe sus cinco cartas y no tiene ni una sola pareja, lo cual le parece un desastre y una clara falta de suerte, una casualidad indeseable. Pero, en realidad, sólo hay una probabilidad contra más de 1.302.540 de que reciba usted precisamente esa mano sin una pareja.

Pero 1.302.540 son el número de manos que puede haber sin una sola pareja. Contando todas las posibilidades de reparto de las cartas, incluidas parejas, escaleras, colores y otras variantes, el número de manos posibles de 5 cartas con una baraja americana estándar de 52 cartas es de 2.598.960. La que usted tiene, por inútil que sea para ganarle a sus adversarios, es altamente improbable. ¿Ello tiene un significado singular o trascendente? Ciertamente, no. Y es que todos los días nos ocurren cosas altamente improbables, vivimos coincidencias y estamos sometidos a casualidades que pueden llamarnos la atención, pero que no tienen significado.

Y con frecuencia le atribuímos significado a cosas que no lo tienen.

Éstos son ejemplos de la forma en que, nos dicen, las personas comunes y corrientes calculamos mal las probabilidades, las coincidencias y la casualidad. Somos, según el matemático y divulgador John Allen Paulos, “anuméricos” en el sentido de “analfabetas”, y no porque no podamos resolver ecuaciones diferenciales (después de todo, muy pocas personas alfabetizadas pueden escribir novelas y sonetos), sino porque tenemos una percepción equivocada de lo que significan los números en principio, y de ese modo quedamos a merced de otras personas que, creemos, saben lo que están diciendo cuando utilizan los números, y aceptamos ciegamente lo que nos dicen, sin poderlo analizar críticamente.

Para entender el azar, las probabilidades y la casualidad, podemos hacer un sencillo experimento: tomemos un paquete de arroz en un espacio que tenga una alfombra o moqueta, abrámoslo y lancemos con fuerza todo el contenido de un solo golpe hacia el techo, de modo que “llueva arroz” a nuestro alrededor.

Las posiciones de los granos de arroz forman lo que se conoce como “azarograma”, o representación de un hecho azaroso. La posición de cada grano de arroz es casual, pero tiene muchas causas claras: el lugar del grano en el paquete al empezar el experimento, las corrientes de aire, sus choques con otros granos, etc. Son muchísimas variables muy difíciles de desentrañar y calcular, pero sabemos que influyen.

Mirando los granos de arroz en la moqueta veremos que algunos forman grupos de dos, tres o más, y hay por otro lado espacios más o menos grandes donde no hay ningún grano de arroz. En ciertas zonas parecen estar distribuidos uniformemente, y en otras no hay un patrón distinguible. Los grupos de granos de arroz se conocen como “clústers” y ocurren en toda distribución al azar.

La probabilidad de que haya un grano de arroz en un área específica se calcula fácilmente teniendo el número de granos de arroz y la superficie en que los hemos dispersado con nuestro lanzamiento. Redondeando, hay 60.000 granos de arroz de grano largo en un kilo. Si hacemos nuestro experimento lanzando todos los granos con fuerza uniforme y eliminando algunas variables que puedan afectar el resultado (como tirar más hacia un lado que hacia otro) sobre un área de 3 metros por 3 (9 metros cuadrados o 90.000 centímetros cuadrados), podemos calcular que hay una probabilidad de 60.000/90.000 ó 2/3 de que haya un grano en un centímetro cuadrado cualquiera de nuestra superficie.

Pero esto no significa que haya dos granos en cada tres centímetros cuadrados individuales, por supuesto. Es por ello que los clústers de granos y los espacios vacíos son parte normal de esta distribución. La probabilidad de 2/3 se aplica sólo a la totalidad de los elementos que estamos calculando, pero no a sus partes. Así, por ejemplo, cuando hay un clúster de casos de cáncer que superan las probabilidades, es frecuente que busquemos una causa evidente: un río, antenas de móviles o torres de alta tensión.

Pero para que nuestra asignación de culpas no sea como la de nuestros antepasados, que culparon de la peste a ciertas mujeres consideradas brujas, debemos ver todas las poblaciones por donde pasa el río, todas las viviendas cercanas a torres de alta tensión o antenas de móviles. Si nuestro caso es excepcional, puede que la causa sea otra... o puede que se trate simplemente de un clúster probabilístico. Dicho de otro modo, si algunos casos están por debajo de la media, otros estarán forzosamente por encima de la media, y los que estarán justamente en la media serán, por extraño que parezca, muy pocos.

Quizá valga la pena recordar que los filósofos entendieron el problema antes de que existieran las herramientas matemáticas para explicarlo. Plutarco el ensayista grecorromano del siglo I-II de nuestra era, ya advirtió: “No es ninguna gran maravilla si, en el largo proceso del tiempo, mientras Fortuna sigue su curso aquí y allá, ocurran espontáneamente numerosas coincidencias”

Para combatir el anumerismo

Dos libros esenciales para combatir nuestro anumerismo (y sin tener que aprender matemáticas): El hombre anumérico, de John Allen Paulos, y El tigre que no está, de Michael Blastland y Andrew Dilnot, ambos actualmente en las librerías.

Al otro lado de las tormentas

Recientes descubrimientos en meteorología nos indican cuánto nos falta aún por saber acerca de nuestra atmósfera, y los grandes campos abiertos a los nuevos investigadores.

Un sprite rojo surgiendo por encima de las nubes durante una
tormenta eléctrica. (Fotografía DP del Global Hydrology and
Climate Center, vía Wikimedia Commons) 
Sería razonable pensar que nuestra atmósfera, esa capa sobre la superficie de nuestro planeta donde se encuentra el aire que respiramos, de donde procede la lluvia que recicla el agua del planeta, que nos protege de las radiaciones más potentes del sol, estaría ya suficientemente descrita. Los gases que la componen han sido identificados y estudiados entre los siglos XVIII y XX. Las tormentas eléctricas fueron identificadas como tales por Benjamin Franklin también en el siglo XVIII, al demostrar que los rayos eran electricidad. Su contaminación y problemas son gran preocupación desde el siglo XX.

Viajamos a través de ella, la observamos desde distintas alturas, estudiamos su composición y presión, es la tenue envoltura que permite la vida en este planeta. Y sin embargo, hay mucho que desconocemos sobre los fenómenos que ocurren en la atmósfera, y una serie de descubrimientos realizados desde 1989 nos hablan de un mundo asombroso y hasta entonces casi desconocido, de asombrosos y colosales fenómenos que ocurren por encima de las nubes de tormenta.

No se puede saber desde cuándo el hombre vio, tenuemente, cierta luminosidad roja durante las tormentas eléctricas, encima de las nubes del tipo cumulonimbus. Sabemos, sí, que ya desde 1886 diversos científicos informaron de ella, aunque nunca con certeza, y no pudieron capturarla en las cámaras debido, como sabemos hoy, a su corta duración.

En 1925, dos años antes de recibir el premio Nobel de Física, el escocés Charles Thomson Rees Wilson predijo que las descargas de rayos positivos entre una nube y el suelo debería crear grandes descargas eléctricas muy por encima de las nubes. Finalmente, en 1989, un grupo de científicos de la Universidad de Minnesota capturaron por accidente en una cámara de vídeo de bajo nivel de iluminación este fenómeno, que algunos años después fueron bautizados como sprites, o espíritus del aire, por inspiración de Puck, personaje de la obra Sueño de una noche de verano de William Shakespeare.

Como suele ocurrir con muchos descubrimientos, una vez que se supo dónde había que buscar y con qué instrumentos, a partir de ese momento se han grabado decenas de miles de sprites. Estos fenómenos son de un tamaño colosal, con alturas que llegan a superar los 60 kilómetros, y diámetros de decenas de kilómetros, y se caracterizan por ser manchas alargadas o redondeadas de plasma frío, con color rojo o anaranjado y estructuras filamentosas azules en la parte inferior. Sin embargo, los procesos eléctricos y atmosféricos que ocurren exactamente en el interior de un sprite aún están bajo investigación.

A principios de la década de 1990, un grupo de científicos de la Universidad de Stanford predijeron la existencia de un fenómeno al que llamaron “elve”, una forma de decir “duende” en inglés. En ciertas descargas de rayos especialmente fuertes, se genera un pulso de radiación electromagnética tremendamente potente cuando la energía pasa por la base de la ionósfera, provocando que sus gases resplandezcan durante unas pocas milésimas de segundo, lo que hace que sean imposibles de verse a simple vista. Las imágenes que tenemos nos indican que es como un gigantesco donut en expansión, que puede alcanzar varios cientos de kilómetros de diámetro.

En 1994, y también por accidente, un equipo de la Universidad de Alaska-Fairbanks capturó otro fenómeno óptico que ocurre por encima de las tormentas eléctricas: una eyección de color azul lanzada desde la parte superior de las regiones centrales eléctricamente activas de las tormentas eléctricas y llamada “chorro azul” o “blue jet”. Una vez que salen de la parte superior de las nubes de tormenta, se propagan hacia arriba en estrechos conos de unos 15 grados a velocidades de unos 100 kilómetros por segundo hasta alcanzar varias decenas de kilómetros de altura. Los chorros azules, a diferencia de los sprites, no parecen estar correlacionados con descargas de rayos entre las nubes y la tierra. Con los chorros azules están los iniciadores azules o “blue starters”, más cortos y menos luminosos, como chorros azules que murieron sin desarrollarse.

Finalmente, por el momento, en 2001 los científicos del observatorio de Arecibo fotografiaron un gigantesco chorro del doble de tamaño que los anteriormente observados. Este chorro tuvo una duración de algo menos de un segundo, y luego de subir como un chorro azul se dividió en dos. En 2002, sobre el mar del Sur de China, se observaron otros cinco chorros gigantes.

Todos estos fenómenos ocurren en las capas superiores de la atmósfera. La vida se desarrolla en la capa llamada tropósfera, que es donde ocurren las tormentas. Los chorros azules son fenómenos de la estratósfera, más o menos entre 10 y 60 kilómetros de altura. De los 60 a los 100 kilómetros está la mesósfera, donde se producen los elves y los sprites, quedando por encima de los 100 kilómetros la termósfera, nuestra frontera con el vacío del espacio. Sin embargo, esa gran zona de la mesósfera es en ocasiones llamada por los científicos la “ignorósfera”, porque fue ignorada debido a que era imposible observarla, demasiado alta para ser estudiada con globos meteorológicos, y demasiado baja para ser accesible a las observaciones por satélite.

Pero hoy tenemos herramientas que permiten estudiar más precisamente esta zona, como el propio transbordador espacial y satélites más eficientes, y con ello se abre la posibilidad de descubrir muchos otros fenómenos que pueden ayuda a explicar el comportamiento de la atmósfera, y entender más claramente cuestiones como el agujero de ozono, la actividad electroquímica de la mesósfera y el circuito eléctrico de toda la atmósfera.

Esto no anula que sigan existiendo fenómenos que seguimos estudiando en la zona más visible de nuestra atmósfera, como los relámpagos bola, la producción de rayos X debida a un relámpago (que no se observó sino hasta el año 2001), el magnetismo inducido por rayos y todo el mundo de la predicción meteorológica

Ciertamente no conocemos bien ni el aire que nos rodea, y hay maravillas por descubrir en todas partes, incluso al otro lado de las tormentas.

Fenómenos que podrían existir

En los últimos años se han reportado varios fenómenos que podrían ser simples variantes de los ya conocidos o ser entidades totalmente nuevas. Con nombres relacionados con la mitología de las hadas, hoy los meteorólogos hablan de trolls, formas similares a los chorros azules, pero de color rojo; gnomos, que parecen iniciadores azules, pero más compactos, y pixies, puntos de luz en la superficie de los domos de convexión de las tormentas. Todo un campo de juegos para la ciencia.

Envejecer: demasiado rápido o nunca


La vida eterna, la eterna juventud, son inquietudes filosóficas que, cada vez más, son tema de la ciencia y la medicina, y no sólo especulaciones.

Los seres unicelulares pueden inmortales. Al reproducirse por subdivisión, todos los seres unicelulares han vivido en cierto modo durante millones de años. Una célula individual, una bacteria o un protozoario, pueden morir individualmente, pero, con la misma certeza, existen gemelos suyos que siguen viviendo, renovándose a sí mismos cada vez que se subdividen.

Pero los organismos más complejos o sufrimos la llamada senescencia o envejecimiento biológico, mediante el cual experimentamos una serie de cambios que aumentan nuestra vulnerabilidad y que conduce a nuestras muertes.

El envejecimiento es uno de los grandes misterios de la biología y una de las principales preocupaciones humanas, pues prolongar su vida, de ser posible indefinidamente y con buena calidad, ha sido una aspiración que ha llevado por igual a la búsqueda de Ponce de León, que al pacto diabólico de Fausto o al sueño de la piedra filosofal.

La medicina, al conseguir aumentar la duración de la vida humana en condiciones de calidad, de modo que, diríamos, “merece ser vivida”, y al vencer o postergar eficazmente muchas causas de muerte, necesita una mejor comprensión de los procesos del envejecimiento para poder atacarlos e, idealmente, impedirlos, retardarlos o revertirlos. Y algunas afecciones humanas nos sirven para entender qué pasa cuando envejecemos.

Fue en 1886 cuando el médico y cirujano británico jonathan Hutchinson, quien describió una gran cantidad de enfermedades y afecciones, describió por primera vez una condición conocida hoy como enfermedad de Hutchinson-Gilford, pues Hastings Gilford la describió también independientemente 11 años después.

Esencialmente, se trata de una enfermedad en la cual los niños envejecen prematuramente, desarrollando al pasar la infancia una serie de síntomas como crecimiento limitado, falta de cabello, un aspecto singular con rostros y mandíbulas pequeños en relación con el cráneo, cuerpos pequeños de gran fragilidad, arrugas, ateroesclerosos y problemas cardiovasculares     que llevan a que estos niños mueran de vejez o de complicaciones relacionadas con ella a edad muy temprana, generalmente alrededor de los 13 años aunque hay casos excepcionales de supervivencia hasta cumplir más de 20 años. Desde la descripción de Hutchinson, se ha detectado únicamente un centenar de casos, de los cuales hay actualmente entre 35 y 45 en todo el mundo.

Esta afección es más conocida como “progeria”, y se ha dado a conocer en los últimos años mediante una serie de documentales donde los propios niños afectados de progeria han dado cuenta de susa alegrías y sufrimientos, en muchos casos cautivando a la opinón pública de sus países. La progeria es causada por una mutación que ocurre en la posición 1824 del gen conocido como LMNA. En el sencillo idioma de cuatro letras de nuestra herencia biológica, AGCT (adenina, guanina, citosina y timina), esta mutación provoca que una molécula de citosina (C) se vea sustituida por una de timina (T), lo que basta para causar esta cruel enfermedad.

Pero la progeria no es la única forma de envejecimiento prematuro que conocemos. Al menos otra enfermedad, la disqueratosis congénita, provoca síntomas similares entre las pocas víctimas que conocemos. En este caso, la afección parece ser producto también de una mutación, así como de alteraciones en los telómeros, series repetitivas de ADN que están en los extremos de los cromosomas y que funcionan, en palabras de una investigadora, como las puntas rígidas de las cintas de los zapatos, que impiden que se destejan. El desgaste de los telómeros al paso del tiempo se considera una de las varias causas del envejecimiento.

En el otro extremo del espectro se encontraría un caso que se dio a conocer al mundo mediante la revista científica “Mecanismos del envejecimiento y el desarrollo”, donde el doctor Richard Walker, del Colegio de Medicina de la Universidad de Florida del Sur, presentó a Brooke Greenberg, una chica que a los 16 años de edad sigue teniendo las características físicas y mentales de un bebé, con una edad mental de alrededor de un año, una estructura ósea similar a la de un niño de 10 años, y conserva sus dientes de leche.

La pregunta pertinente es por qué no envejece esta niña, que por otro lado parece un bebé feliz, que se comunica sonriendo, protestando y en general comportándose de una forma que consideraríamos normal en un niño que aún no ha aprendido a hablar. En su infancia, los médicos le administraron hormona del crecimiento, sin saber que estaban ante un caso único en la historia de la medicina, pero este tratamiento, habitualmente efectivo, no dio resultado alguno.

Los especialistas del equipo del Dr. Walker esperan poder identificar el gen, o el grupo de genes, que hacen a Brooke diferente de todos nosotros. Es una oportunidad única, dice Walker, de “responder a la pregunta de por qué somos mortales”.

Los datos que nos ofrezcan niños como los pacientes de progeria y Brooke Greenberg podrían, efectivamente, darnos la clave (o las claves) de cómo y por qué envejecemos, y qué podemos hacer para evitarlo.

La ciencia ficción ha abordado el problema del envejecimiento. Robert Heinlein creó al personaje “Lazarus Long” (Lázaro Largo) como resultado inesperado y súbito de un programa de selección artificial a largo plazo en el cual un grupo de familias emprende un proyecto para reproducir sólo a los más longevos de sus miembros.

Esto permitió a Heinlein, principalmente en su obra maestra Tiempo para amar, una de las que llevaron como protagonista a Lazarus Long, plantear qué podría significar “vivir para siempre”. Podríamos vivir muchas vidas, tener muchas familias, saborear muchos placeres y acumular enormes cantidades de conocimientos y experiencias... pero quizás, como Lazarus Long, después de uno o dos mil años de recorrer el mundo o, idealmente, el universo, vida ya no tendrá nada nuevo qué ofrecernos, y optemos por darle fin.

Tal vez no es buena idea vivir para siempre, pero sin duda, vivir nuestros 70-80 años esperados sin dejar de ser jóvenes, no es una posibilidad despreciable. Es ser “joven para siempre” o “Forever young” que cantara Bob Dylan allá por 1974, cuando era joven.


El síndrome Peter Pan


Quienes no aceptan la idea de envejecer, pese a su inevitabilidad, y pretenden ser jóvenes e inmaduros para siempre tienen lo que la cultura popular conoce como el Síndrome de Peter Pan, el personaje creado por el escritor escocés James W. Barrie en su novela Peter Pan, o el niño que no quería crecer. Quizás el “Peter Pan” más famoso haya sido, hasta ahora, el recientemente fallecido ídolo musical Michael Jackson, niño eterno.


La estrella de rock y las estrellas del cosmos

La guitarra eléctrica y el telescopio, el rock y la ciencia, pueden estar más cerca de lo que tradicionalmente podríamos pensar.

Brian May, doctor en astrofísica y
leyenda del rock.
(Foto CC de "Supermac1961"
vía Wikimedia Commons)
En octubre de 2007, los diarios dedicaban titulares a Brian May, legendario guitarrista del grupo de rock Queen, que dominó la escena musical durante casi 20 años. Pero la noticia no era sobre sus notables habilidades como guitarrista, su pasión por crear complejos arreglos vocales o sus composiciones clave en la historia del rock, sino que Brian May había obtenido el doctorado en astrofísica con una tesis sobre la nube de polvo interplanetario que tiene nuestro sistema solar en el plano de la órbita de los planetas.

El doctor Brian Harold May, comandante de la Orden del Imperio Británico, nació el 19 de julio de 1947 en Hampton, suburbio de Londres. Interesado desde niño por la música, a los 16 años, con su padre, diseñó y construyó una guitarra eléctrica que sería la que más utilizaría toda su vida, conocida como “Red Special”.

Terminó el bachillerato con notas dentro del promedio en diez asignaturas y notas altas en física, matemáticas, matemáticas aplicadas y matemáticas adicionales. Era evidente que el joven tenía talento para la ciencia, y resultó lógico que entrara a estudiar física al famoso Imperial College de Londres, la tercera universidad de Gran Bretaña después de Oxford y Cambridge. Allí, obtuvo su licenciatura en física con honores y procedió a su trabajo doctoral, orientado a la astronomía infrarroja.

Sin embargo, tenía otra pasión, la música. A los 21 años, en 1968, había formado la banda Smile, que en 1970 se convirtió en Queen. Cuando llegó el éxito, Brian May decidió suspender temporalmente sus estudios doctorales, pensando siempre que el éxito en un mundo como el de la música rock podía ser sumamente efímero.

Todavía tendría tiempo, sin embargo, para ser coautor de dos artículos de investigación científica basados en sus observaciones realizadas en el observatorio de El Teide, en Tenerife en 1971 y 1972. El primero, "Emisión de MgI en el espectro del cielo nocturno", se publicó en la notable revista Nature el 15 de diciembre de 1972, mientras que la "Investigación sobre el movimiento de las partículas de polvo zodiacal", apareció en la revista mensual de la Real Sociedad Astronómica inglesa en 1974, el mismo año en que Queen lanzaba su tercer álbum, Sheer Heart Attack, con el que se lanzó a la fama mundial, confirmada en 1975 por el histórico álbum A Night at the Opera.

El éxito y la agitada vida de la estrella de rock dominaron la vida de Brian May hasta la muerte de su amigo Freddie Mercury, el vocalista de Queen, en 1991 y un tiempo después, con proyectos diversos del grupo. Pero ya durante la época de oro del grupo, May retomó sus estudios e interés por la astronomía, y al disminuir su actividad musical se encontró colaborando con el programa de televisión más longevo de la venerable BBC: “El cielo de noche”... el programa que disparó su interés por la astronomía cuando tenía 7 u 8 años de edad, en sus propias palabras, además de asombrarlo con su tema musical, una pieza de Sibelius.

Esta legendaria emisión era presentada desde 1957 por Sir Patrick Moore, astrónomo aficionado, músico autodidacta, ajedrecista y autor de más de 70 libros sobre astronomía. Desde el año 2000 llevó como copresentador a Chris Lintott, doctor en astrofísica y apasionado de la música que produjo la ópera cómica Galileo. La colaboración de los tres en televisión dio un fruto singular en 2003, cuando Moore le propuso escribir un libro conjunto que se publicó en 2006: ¡Bang! La historia completa del universo, reeditado desde entonces en 20 idiomas.

Brian May había recibido títulos honorarios en las universidades de Hertfordshire, Exeter y John Moore de Liverpool, además de ser miembro de la Real Sociedad de Ciencias. Pero faltaba el doctorado.

Cuando el musical We Will Rock You se estrenó en Madrid en 2003, Brian May invitó a asistir a su amigo y supervisor en el observatorio de Tenerife, Francisco Sánchez, fundador del Instituto de Astrofísica de Canarias. Fue este astrofísico toledano quien le preguntó a Brian May si algún día terminaría su doctorado”. May recuerda que respondió que sí, y sintió que en ese momento su vida se reorientaba. El doctor Sánchez le ofreció además que presentara su tesis en la Universidad de La Laguna. Cuatro años después, en 2007, May volvíó al Imperial College, presentó su disertación, fue nombrado Canciller de la Universidad poco después y en 2008 se graduó y fue nombrado investigador visitante de la universidad.

“He disfrutado totalmente mis años como guitarrista y grabando con Queen”, dijo Brian May, poco después de recibir su doctorado a los 61 años de edad, “pero es extremadamente gratificante ver la publicación de mi tesis. He estado fascinado con la astronomía durante años y años.” La tesis probó por vez primera que las nubes de polvo interplanetario giran en órbita alrededor del sol en el mismo sentido que los planetas, elemento importante para entender la formación de los planetas al comienzo de la historia de nuestro sistema solar.

Sin duda alguna, para muchos, la mezcla de guitarrista de rock y astrofísico sonará extraña. Pero no tanto para quienes viven en el mundo de la física, donde las inquietudes artísticas en general, y musicales en particular, no son tan desusadas. Como no lo es la implicación en numerosas causas sociales y políticas. Brian May participa en la lucha contra el SIDA (motivada por la muerte de Freddy Mercury), contra el cáncer, por la prohibición de las trampas para animales y en favor de los niños desfavorecidos. Y aún tiene tiempo para considerar la posibilidad de que al menos una parte del polvo que invade nuestras casas sea, sí, polvo estelar.

En palabras de Brian Cox, profesor de física de la Universidad de Manchester, el doctorado de Brian May “muestra que no hay nada de nerd en la gente que estudia astronomía y física. De hecho, la motivación para hacer música y para estudiar ciencia vienen de lo mismo: una especie de curiosidad emocional sobre el mundo y lo que hace que éste, y nosotros, funcionemos”. Brian Cox lo sabe bien... como tecladista que fue del grupo D:ream.

La lección es que las fronteras no son tan rígidas como esperamos que sean, o como se nos imponen. No es necesario elegir entre la guitarra eléctrica y el telescopio. Quizá lo ideal es que en cada casa haya ambos instrumentos, pues ambos permiten a cualquiera alcanzar las estrellas.


El legado continúa

Apenas el 3 de julio de este año, Brian May comentaba en su sitio Web su orgullo de padre porque “su bebé”, su hija Emmy, había obtenido la licenciatura en biología con honores de primera clase en el propio Imperial College donde May se doctoró hace dos años.

Ciencia día a día

¿Se puede desfreír un huevo? ¿Cómo se rompe el espagueti seco? ¿Cómo funciona una pompa de jabón? Hay ciencia en donde quiera que miremos, si sabemos ser observadores.

La ciencia ocurre, ciertamente, en aparatos como el gran colisionador de hadrones, o LHC, majestuoso túnel para buscar respuestas a los más tremendos misterios de la física. Y se da en poderosos telescopios, algunos de ellos en órbita, como el Hubble que nos ha traído asombrosas visiones del universo. Y en las abstrusas, tópicas pizarras cubiertas de ecuaciones de los matemáticos.

Ciertamente también, los medios de comunicación nos traen la emoción, la curiosidad y el misterio de lo que se hace en estos lugares alejados de nuestra rutina cotidiana.

Pero conviene recordar que cuanto nos rodea es producto de la ciencia en mayor o menor medida, además de tener una explicación científica que muchas veces no es tan trivial como parece.

Un ejemplo de misterios científicos curiosos es por qué los espaguetis crudos no se rompen en dos pedazos cuando los doblamos, sino en tres o más trozos. Esto, que no parece demasiado trascendente, ha ocupado la mente de físicos como Richard Feynman, ganador del Nobel de Física de 1965. Usted puede probarlo: tome un espagueti sin cocinar, dóblelo tomándolo por los extremos y verá que en vez de romperse en dos como una rama, un lápiz o una galleta, se partirá en tres o más trozos en la gran mayoría de las ocasiones.

En 1998, los lectores de la revista New Scientist observaron que el espagueti no se rompe por la mitad, sino que, dependiendo de los defectos y diferencias dentro de la pasta, la primera rotura suele darse en el punto de menor resistencia, produciendo un trozo largo y otro corto. A continuación, el trozo largo vuelve o “latiguea” hacia atrás con tanta fuerza que se rompe nuevamente, ahora en dirección contraria a la primera rotura.

La explicación científica del fenómeno observado implica el movimiento de una onda de flexión a lo largo de los primeros dos trozos rotos y la sucesión en cascada de una serie de grietas en la pasta. Este descubrimiento fue objeto de un muy serio artículo de los físicos Basile Audoly y Sebastien Neukirch en 2006, en la prestigiosa revista Physical review letters.

Nuestra primera idea de que quizá el misterio no sería para tanto y “seguramente” su respuesta era un asunto trivial queda superada por los hechos. No sólo tardó muchos años en resolverse el enigma, sino que el trabajo de estos dos físicos ha demostrado tener relevancia para darnos información sobre cómo se rompen otras estructuras alargadas, como los huesos humanos y los arcos de los puentes, según relata Mick O’Hare en su muy recomendable libro Cómo fosilizar a tu hámster y otros experimentos asombrosos para científicos de butaca (RBA, Barcelona 2009).

Entusiasmarnos con el proceso de adquisición del conocimiento (el método científico) y sus resultados, ese cuerpo de conocimientos que llamamos ciencia es más fácil cuando observamos cómo los hechos a nuestro alrededor se explican (o no) por medio de la ciencia.

El detergente común, como su antecesor, el jabón, es fundamentalmente un agente surfactante, es decir, que actúa sobre la tensión superficial de un líquido disminuyéndola y permitiendo que se disuelvan en él sustancias comúnmente no solubles. Este ingenioso truco se consigue produciendo una molécula de dos extremos, uno de ellos que se une fácilmente al agua y se llama por ello hidrofílico, y otro extremo que rechaza el agua, o hidrofóbico y que puede disolver las moléculas de grasa. El resultado de poner este surfactante en agua es que el detergente atrapa la grasa y permite que se disuelva en agua, limpiando la superficie donde la grasa se encontraba, como un mantel o una camisa. Los detergentes biológicos contienen además enzimas que disuelven proteínas como, por ejemplo, las manchas de huevo o tomate.

La propiedad de disminuir la tensión superficial del agua no sólo sirve para limpiar objetos o prendas, sino que además es lo que permite que se hagan las pompas de jabón, inflándose sin romperse, a veces con resultados asombrosos como los de los expertos en pompología (o como se le pudiera llamar a esta disciplina). Por otra parte, la tensión superficial del agua es la que permite que algunos insectos corran sobre ella sin hundirse, pues distribuyen su peso de modo que no rompa lo que Dalí llamaría “la piel del agua”. Finalmente, la tensión superficial del agua es la responsable de que una caída al agua en posición paralela a su superficie pueda lastimarnos enormemente y, en palabras de la sabiduría popular “el agua sea como hormigón”.

Otro fenómeno aparentemente trivial que tiene una explicación compleja y que mantiene la atención de algunos científicos es el proceso de freír un humilde huevo. Las proteínas que forman la clara del huevo están formadas por largas cadenas de aminoácidos que se doblan en formas globulares tridimensionales fijadas por uniones químicas. Al calentarse, estas uniones se rompen, permitiendo que las proteínas se “desenreden”. Ya libres, las proteínas empiezan a unirse entre sí formando una gran red de proteínas interconectadas que se vuelven duras y toman un color blanco.

Hasta ahora se ha pensado que estas proteínas no pueden volver a su forma original o, en lenguaje de los físicos, “no se puede desfreír un huevo”. Pero una afirmación así es un desafío para cualquier científico curioso, y apenas este mes, los doctores Susan Linquist y John Glover, de la Universidad de Chicago informan de que han encontrado una proteína de choque de calor llamada Hsp104 que puede invertir este proceso. No se cree que haya un gran mercado para un desfreidor de huevos, siempre es más fácil sacar uno fresco de la nevera, pero el curioso desafío puede ser clave para entender muchos procesos en los que las proteínas se pliegan sobre sí mismas o se desenredan, como son el Alzheimer y la enfermedad de las vacas locas.

La explicación científica de lo que nos rodea, y los innumerables misterios que aún están esperando resolución, muchos de ellos ocultos en nuestra cocina o nuestra bañera, nos recuerda que la ciencia es una actividad eminentemente humana, que nos afecta en todo y que está, indudablemente, al alcance de cualquiera de nosotros.

Aprovechar la divulgación

En los últimos tiempos, los anaqueles de las librerías se han visto engalanados de modo creciente con títulos de divulgación científica de lo más diversos, escritos por matemáticos como John Allen Paulos o biólogos evolutivos como Richard Dawkins, o por periodistas especializados en la ciencia. Los 150 años de El origen de las especies de Darwin y los 400 años del telescopio de Galileo son una gran oportunidad para saber más sobre lo que erróneamente algunos piensan que no es para ellos.

La resistencia a los antibióticos

La aparición de las sustancias que combatían a diversos gémenes patógenos a principios del siglo XX fue una revolución de primer orden en la medicina, que hasta entonces era una práctica empírica, basada en teorías de la enfermedad nunca comprobadas.

Hasta el siglo XIX, en occidente y el mundo islámico prevalecía la teoría de Hipócrates de que el cuerpo estaba lleno de cuatro humores o  sustancias básicas, la sangre, la flema, la bilis amarilla y la bilis negra, y que la enfermedad era causada por “desequilibrios” en los humores. El objetivo del médico implicaba restablecer el equilibrio de los humores. De allí que la medicina precientífica recomendara con frecuencia extraer sangre a los pacientes, práctica que causó innumerables problemas y muertes.

Pasteur, al proponer que las enfermedades infecciosas son causadas por pequeños organismos, dio a la medicina su primera base científica, una teoría que podía comprobarse. Los organismos podían verse en el microscopio, se podía experimentar con ellos, se podían detectar en los pacientes y, finalmente, se les podía atacar. Esta teoría permitía además determinar cómo y por qué funcionaban algunos remedios tradicionales y empíricos, y por qué la mayoría de ellos no lo hacían.

La aparición de los antibióticos para combatir a los organismos causantes de enfermedades marcó la primera posibilidad de atacar enfermedades que habían sido un azote incesante. El primer antibiótico, la arsfenamina, lanzada en 1910 con el nombre de Salvarsán, se usaba contra la sífilis y la tripanosomiasis o “enfermedad del sueño”. En 1936 aparecieron las sulfonamidas o “sulfas”, más potentes, y en 1942 Alexander Fleming cambió el mundo con su descubrimiento de la penicilina.

Los antibióticos empezaron a ser utilizados intensamente por todas las personas que podían tener acceso a ellos, en ocasiones de modo excesivo y con gran frecuencia para intentar tratar enfermedades que no eran producidas por bacterias, en particular las afecciones respiratorias como las gripes, alergias y brotes de asma.

Esa utilización era, sin que nadie lo viera en el momento, una forma de provocar que las bacterias se adaptaran. Un cambio en el medio se convierte en lo que los biólogos evolutivos llaman una “presión de selección”, que favorece la reproducción de los individuos naturalmente más resistentes o mejor adaptados al cambio.

Cuando el medio se mantiene estable, las poblaciones adaptadas a él pueden vivir durante generaciones sin sufrir cambios de consideración. Cada individuo tiene, por su herencia o por la mutación de sus genes, predisposición a adaptarse mejor a distintas circunstancias. Pero si el medio no convierte esa predisposición en un beneficio para el individuo, éste no tendrá ventajar para sobrevivir. Es cuando cambia el medio que los organismos evolucionan... o desaparecen.

Así, lo que ha ocurrido es, ni más ni menos, un proceso de selección genética como el que hemos utilizado para crear, a partir de ancestros salvajes, a animales y cultivos domésticos como los cerdos, las ovejas, el trigo, el tomate, los caballos, las reses y los perros. Nosotros impusimos una regla de presión arbitraria (por ejemplo, hacemos que las vacas que dan más y mejor leche se reproduzcan y le negamos esa posibilidad a las malas productoras) y conseguimos animales especializados para sobrevivir y reproducirse en función de esas reglas: más leche, más carne, más huevos, más lana, más granos de mayor tamaño y más nutritivos, mejor sabor o compañía y lealtad.

Cuando el factor causante de la presión de selección también puede evolucionar, se establece lo que los biólogos llaman una “carrera armamentista”, una competencia donde el objetivo es mantenerse un paso por delante del adversario. El mejor ejemplo de esta carrera armamentista es la añeja competencia entre la gacela y el guepardo.

El guepardo ejerce presión para que sobrevivan mejor las gacelas más rápidas. Por ello mismo, las gacelas cada vez más rápidas ejercen presión para que el guepardo más veloz tenga mejores posibilidades de alimentarse que sus congéneres menos ágiles. Incesantemente tenemos gacelas y guepardos más rápidos, conviviendo en un delicado equilibrio.

Es lo que nos ha pasado con los organismos infecciosos.

Las primeras sustancias antibióticas como la penicilina, arrasaban las poblaciones de bacterias con enorme eficiencia, como siempre que un ejército cuenta con un arma revolucionaria. Pero al paso del tiempo, las bacterias que se salvaron y reprodujeron fueron siendo cada vez más y más resistentes a esas primeras sustancias. Uno de los patógenos más comunes, el estafilococo dorado, uno de los principales agentes de las infecciones hospitalarias tan temidas, fue el primero en el que se detectó la resistencia, apenas cuatro años después de empezar a utilizarse la penicilina.

La resistencia de los organismos patógenos nos presionó para producir antibióticos más potentes y eficaces. El estafilococo dorado ha sido atacado sucesivamente con distintas generaciones de antibióticos: meticilina, tetraciclina, eritromicina y, en la década de 1990, oxazolidinonas. En 2003 se encontraron las primeras cepas de estafilococo dorado resistentes a estos últimos antibióticos, y la carrera sigue.

Enfermedades que ya parecían erradicadas, como la tuberculosis, resurgen ahora fortalecidas con resistencia a diversos antibióticos. Las neumonías causadas por estreptococos, la salmonelosis y otras enfermedades nos exigen creatividad cada vez mayor para superar su resistencia a las armas que hemos creado contra sus causantes y salvar a sus víctimas.

Es imposible detener esta carrera entre nosotros y los microorganismos que nos enferman. Sólo podemos disminuir su vertiginoso ritmo. La recomendación continua de los médicos de llevar a su término los tratamientos con antibióticos (para eliminar a todos los agentes patógenos posibles) y de no tomar antibióticos sin necesidad (para no crear en nuestro sano organismo cepas resistentes de patógenos que viven en nosotros sin atacarnos) son las únicas formas que tenemos de aliviar las exigencias sobre los laboratorios donde se crean los antibióticos que salvarán vidas mañana.

Creacionismo y bacterias

Curiosamente, la resistencia inducida en los patógenos por la presión selectiva que imponen los antibióticos es una prueba más de las muchísimas existentes de que la evolución no sólo existe, sino que se comporta según lo descubrió Darwin hace 200 años. Por eso, dice el chiste, nadie es creacionista al usar antibióticos, pues sabe que las bacterias han evolucionado y lo recomendable es usar los antibióticos nuevos, no los antiguos.

Ver el universo visible e invisible

Telescopios del observatorio de Roque de los
Muchachos en La Palma de Gran Canaria.
(Foto de Bob Tubbs, Wikimedia Commons)
Hace 400 años, Galileo Galilei utilizó el telescopio, inventado un año antes probablemente por Hans Lippershey, para mirar a los cielos sobre Venecia, y cambió no sólo el mundo, sino todo el universo, al menos desde el punto de vista de la humanidad.

Los conceptos que el ser humano había desarrollado respecto del cosmos que lo rodea habían estado hasta entonces limitados únicamente por lo que se podía ver con el ojo desnudo en una noche despejada, lo que dejaba una enorme libertad para crear conceptos filosóficos que pudieran explicar las observaciones.

Las descripciones del cosmos cambiaban según la cultura y la época. Por ejemplo, para los indostanos, según el antiguo Rigveda, el universo vivía una eterna alternancia cíclica en la que se expandía y contraía, latiendo como un corazón. Esta idea se ajustaba a la creencia de que todo en el universo vive un ciclo permanente de nacimiento, muerte y renacimiento. Para los estoicos griegos, sin embargo, era una isla finita rodeada de un vacío infinito que sufría cambios constantes. Y para el filósofo griego Aristarco, la Tierra giraba sobre sí misma y alrededor del sol, conjunto rodeado por esferas celestiales que tienen como centro el sol, una visión heliocéntrica.

La cosmología que se había declarado oficialmente aceptada por el occidente cristiano era la de Claudio Ptolomeo, basada en el modelo de Aristóteles. En esta visión, el universo tiene como centro a nuestro planeta, inmóvil, rodeado por cuerpos celestiales perfectos que giran a su alrededor, y existe sin cambios para toda la eternidad.

Este modelo se ajustaba bien a la visión cristiana de la creación y el orden divino, y fue asumido como el aceptado en la Europa a la que Galileo sacudiría con su telescopio mediante el sencillísimo procedimiento de mirar hacia los cielos con el telescopio.

El telescopio de Galileo constaba simplemente de un tubo con dos lentes, una convexa en un extremo y una lente ocular cóncava por la que se miraba. Este telescopio se llamó “de refracción” precisamente porque refracta o redirige la luz para intensificarla y magnificarla. 59 años después, Newton erplanteaba el telescopio por medio de la reflexión de la luz, consiguiendo así un instrumento mucho más preciso.

Los telescopios de reflexión, o newtonianos, fueron la principal herramienta que tuvo la humanidad para la exploración del universo durante siglos. Permitió conocer mejor el sistema solar, ver más allá de él y comprender que ni la Tierra ni el Sol eran el centro del cosmos. La tecnología se ocupó de crear espejos cada vez más grandes y precisos para ver mejor y más lejos.

Pero hasta 1937, solamente podíamos percibir la luz visible del universo, un fragmento muy pequeño de lo que conocemos como el espectro electromagnético. En las longitudes de onda más pequeñas y de mayor frecuencia que el color violeta tenemos los rayos UV, los rayos X y los rayos gamma. En longitudes de onda más grandes que el color rojo y a frecuencias más bajas están la radiación infrarroja, las microondas y las ondas de radio.

En 1931, el físico estadounidense Karl Guthe Jansky descubrió que la Vía Láctea emitía ondas de radio, y en 1937 Grote Reber construyó el primer radiotelescopio, que era en realidad una gigantesca antena parabólica diseñada para recibir y amplificar ondas de radio provenientes del cosmos.

Lo que sobrevino entonces fue un estallido de información. El universo estaba animadamente activo en diversas frecuencias de radio, con fuentes de emisión hasta entonces desconocidas por todas partes. Surgían numerosísimos hechos que la cosmología tenía que estudiar para poder explicar.

Al descubrirse en 1964 la radiación de fondo de microondas cósmicas, empezaron a utilizarse los radiotelescopios para explorar el universo en esta frecuencia y longitud de onda. Si miramos el universo visible, el fondo es negro, sin luz, pero si lo miramos en la frecuencia de las microondas, hay un “resplandor” de microondas que es igual en todas direcciones y a cualquier distancia, asunto que resultó sorprendente.

El estudio del comportamiento del universo a nivel de microondas nos permitió saber que la radiación cósmica de fondo descubierta por Amo Penzias y Robert Wilson en 1964 era en realidad el “eco” del Big Bang, la gran explosión que dio origen al universo, y es una de las evidencias más convincentes de que nuestro cosmos tuvo un inicio hace alrededor de 13.800 millones de años.

Sin embargo, las microondas más cortas no pudieron ser estudiadas a fondo sino hasta 1989, cuando se puso en órbita el telescopio orbital Background Explorer. Las microondas más cortas son absorbidas por nuestra atmósfera, debilitándolas enormemente, mientras que en el espacio se las puede percibir y registrar con mucha mayor claridad.

La exploración espacial también permitió poner en órbita otros telescopios que detectaran niveles de radiación de los que nuestra atmósfera nos protege. Tal es el caso de los telescopios de rayos Gamma, que nos han permitido detectar misteriosas explosiones de rayos gamma que podrían ser indicación del surgimiento de agujeros negros por todo el universo.

Por su parte, los telescopios de rayos X también deben funcionar fuera de la atmósfera terrestre y nos informan de la actividad de numerosos cuerpos, como los agujeros negros, las estrellas binarias, y los restos de estrellas que hayan estallado formando una supernova.

El estudio del universo a nivel de rayos ultravioleta también debe hacerse desde órbita, mientras que los telescopios que estudian los rayos infrarrojos sí se pueden ubicar en la superficie del planeta, muchas veces utilizando los telescopios ópticos que siguen siendo utilizados por astrónomos profesionales y aficionados para conocer el universo visible.

Sin embargo, pese a la gran cantidad de información que los astrónomos obtienen de todo el espectro electromagnético, es lo visible lo que sigue capturando la atención del público en general. Cualquier explicación del universo palidece ante las extraordinarias imágenes que nos ha ofrecido el Hubble, que además de ver en frecuencia ultravioleta es, ante todo, un telescopio óptico. Liberado de la interferencia de la atmósfera, el Hubble nos ha dado no sólo información cosmológica de gran importancia para entender el universo... nos ha dado experiencias estéticas y emocionales profundas al mostrarnos cómo es nuestra gran casa cósmica.

Los telescopios espaciales europeos

Aunque el telescopio espacial Hubble es en realidad una colaboración entre la NASA y la agencia espacial europea ESA, Europa también tiene un programa propio de telescopios espaciales. Apenas en mayo, se lanzaron dos telescopios orbitales que pronto empezarán a ofrecer resultados, el Herschel, de infrarrojos, y el Planck, dedicado a las microondas de la radiación cósmica.

La barrera entre “las dos culturas”


Los medios de comunicación, la publicidad y el boca a boca de nuestros tiempos en ocasiones consagran supuestos peligros contra la salud que tal vez no merecen tanta atención.

El 7 de mayo de 1959, la tradicional “Conferencia Rede” iniciada en el siglo XVIII fue dictada en la Universidad de Cambridge por Charles Percy Snow, más conocido simplemente como C.P. Snow, novelista y físico, además de tener el título nobiliario de barón y declararse socialista.

Pese a que la Conferencia Rede había sido dictada por destacadísimas personalidades a lo largo de los años, entre ellos Richard Owen, Thomas Henry Huxley (que la utilizó para promover la teoría de la evolución de las especies) o Francis Galton, la conferencia de Snow disparó una controversia que, medio siglo después, sigue en vigor. Su título fue “Las dos culturas” y posteriormente se publicó en forma de libro como Las dos culturas y la revolución científica.

La idea esencial de la conferencia de Snow fue que existía una brecha relativamente nueva entre la cultura de la ciencia y la cultura humanística de la literatura y el arte. Para Snow, los intelectuales provenientes de las humanidades se rehúsan, en general, a entender la revolución industrial y la explosión de la ciencia, a la que temen y sobre la cual albergan graves sospechas. Por su parte, los científicos tendían a no preocuparse demasiado por la cultura literaria y el legado histórico.

Al reunir a personas de ambos mundos en actos sociales o de trabajo, lo que Snow observaba era una profunda incomprensión por ambos lados, como si los participantes fueran, en realidad, miembros de culturas humanas distintas, con distintos conjuntos de valores e, incluso, idiomas. Y esta división, en última instancia, no beneficia a nadie. Un ejemplo que Snow hallaba especialmente relevante era que no conocía a ningún escritor capaz de enunciar la segunda ley de la termodinámica (la que establece que la entropía en el universo va en aumento constante, lo que hace imposibles las máquinas de movimiento perpetuo). Como miembro de ambos mundos, científico y novelista, consideró que era su responsabilidad levantar la voz de alarma.

Y la voz de alarma disparó un debate que aún continúa sobre la exactitud de la visión de Snow, que probablemente pretendía más generar un debate que pusiera en acción las ideas que dar una visión acabada y dogmática. Y su triunfo se hace evidente en la perdurabilidad de su conferencia.

La mayoría de los escritores siguieron adelante creando novelas donde los avances científicos y tecnológicos se hacían presentes mucho más tarde que en el mundo real, generalmente mediante caricaturas imprecisas que popularizaron y eternizaron figuras como el “científico loco”, el “sabio distraído” y el “arrogante científico que se cree dios”. Como ejemplo, el primer ordenador interesante de la literatura de “corriente principal” fue Abulafia, propiedad del protagonista de la novela El péndulo de Foucault, de Umberto Eco.

Al paso de medio siglo, las dos culturas parecen no sólo seguir existiendo por separado, sino que a veces dan la idea de estar más alejadas entre sí de lo que estaban cuando C.P. Snow les puso nombre. Se espera que así como la gente se define (o es definida) como “católica o musulmana”, “europea o estadounidense”, o “del Madrid o del Barça”, sean “de ciencias o de letras”. La idea de una persona multidisciplinaria, que pueda comprender aspectos esenciales de la ciencia, así sea a nivel de divulgación, y que al mismo tiempo pueda disfrutar y crear en el mundo de las letras y las humanidades no está claramente contemplada en nuestro esquema educativo y nuestro mundo laboral. Es como si fuera impensable siquiera que alguien pueda vivir en esto que apreciamos como dos mundos cuando unidos son una sola cultura, la humana.

Quienes no tienen formación científica siguen desconfiando profundamente de la ciencia, de sus conocimientos y su método. Baste señalar la furia que muestran ciertos activistas cuando la ciencia no les da la razón. Por ejemplo, un estudio tras otro sobre la telefonía móvil determina que no parece haber efectos notables graves y estadísticamente significativos de las ondas de la telefonía móvil en las personas. Quienes creen que las antenas aumentan los casos de cáncer en una comunidad, no suelen preocuparse por realizar estudios estadísticos que demuestren si realmente han aumentado tales casos, pero sí exigen que los científicos les den la razón y, de no ser así, proceden a acusarlos de actuar no en nombre de los hechos, sino por dinero o malevolencia.

Lo mismo ocurre con algunas otras percepciones de grupos políticos, organizaciones de consumidores y otros colectivos, y con los periodistas y creadores artísticos que suelen apoyarlos con toda buena fe, aunque desencaminada.

La postura anticientífica y antitecnológica de ciertos sectores (no todos) del humanismo ha tenido como consecuencia algunas posiciones posmodernistas que pretenden que toda afirmación es un simple “discurso” social, y que todos los “discursos” son igualmente válidos, cerrando los ojos a la evidencia de que algunas afirmaciones se pueden probar objetivamente con independencia de quien las haga, como las leyes de la termodinámica.

Porque a la realidad le importan poco nuestras ideas y percepciones.

Y el hecho es que nuestro mundo está dominado por la ciencia y la tecnología. Los materiales que usamos, los diseños de los productos que consumimos, la medicina que incrementa nuestra calidad y cantidad de vida, incluso las soluciones a los problemas de destrucción del medio ambiente y alteración del equilibrio ecológico pasan por la aplicación humana, racional y ética del conocimiento científico y su método. No parece justo, ni razonable, que la mayor parte de la humanidad viva sin tener una idea de cómo se hace cuanto la rodea.

La forma de unir las dos culturas en una sola pasa por la reestructuración de nuestro sistema educativo, del concepto mismo de educación. Más allá de formar para el mercado laboral, la tarea de educar para vivir exige que enseñemos ciencia a los futuros periodistas, escritores y abogados con el mismo entusiasmo que dedicamos a intentar que nuestros futuros físicos y biomédicos sepan apreciar a Cervantes y a Velázquez, y escribir sin faltas de ortografía.

El precio a pagar, si no lo hacemos, puede ser elevadísimo.


La ciencia ficción y Snow


Los escritores de ciencia ficción en todo el mundo sintieron que la conferencia de Snow era la gran reivindicación de sus esfuerzos por utilizar el conocimiento y el método científico en la creación de ficciones literarias, especialmente en la década de 1960, cuando la exclusión de la ciencia ficción de la idea de “gran literatura” y “gran cine” era aún más acusada que en la actualidad.