Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

diciembre 22, 2014

De curiosidad a promesa de vida

Cuando la tecnología se pone al servicio no sólo de la industria y de la diversión, sino de la felicidad, podemos hablar, inequívocamente, de progreso.

Impresora en 3D, 2014
(Foto CC via Wikimedia Commons)
En 2013 comenzaron a aparecer en las noticias pacientes, principalmente niños, con prótesis de manos funcionales e incluso divertidas, de colores vivos o que imitaban a algún superhéroe como “Ironman”.

Y, lo más sorprendente, estas prótesis costaban decenas o cientos de euros, comparadas con las prótesis habituales de hasta decenas de miles de euros.

Los responsables: unos dispositivos que prometen convertirse en una presencia tan común en el hogar como la impresora y el ordenador: la impresora en 3D. Se trata de máquinas capaz de usar un archivo de instrucciones para crear con ellas un objeto físico, como una impresora en papel plasma los trazos o fotografías de un programa de manipulación de imágenes o diseño.

La impresión en 3D no esculpe, retirando material de un bloque, sino que va depositando material en capas sucesivas para dar forma al objeto, por lo que se conoce también como “fabricación aditiva”.

Esta idea la llevó a la práctica en 1984 Charles, “Chuck” Hull, al patentar la estereolitografía. Esta forma de impresión usa un cabezal de luz ultravioleta que “dibuja” cada capa en un depósito lleno de un fotopolímero que se “cura” o endurece en presencia de la luz. Una plataforma hace descender la capa para que se haga la segunda sobre ella y así sucesivamente. Poco después se empezarían a utilizar otros materiales, desde resinas y plásticos hasta metales y cerámicas, otros medios, como el láser o el calor, y otros procedimientos para lograr la impresión, como boquillas que depositan directamente materiales que se solidifican.

El primer uso de las impresoras de Hull fue la creación rápida de prototipos para las más diversas industrias, un proceso que, al ahorrar el largo tiempo necesario para producir esos prototipos a mano, compensaba el enorme coste, de cientos de miles de euros, de las primeras impresoras.

Los dispositivos dispararon la especulación creativa. En 1999, un equipo del instituto de medicina regenerativa Wake Forest utilizó la impresión en 3D para crear el andamiaje de una vejiga urinaria que se usó como base para cultivar células de la vejiga de un joven, que así pudo recibir un trasplante con sus propias células. Este instituto está desarrollando técnicas de bioimpresión capaces de ir colocando células en disposiciones tridimensionales, “imprimiendo” con ellas. En el año 2000 lograron crear un riñón funcional en miniatura, mientras que otra empresa consiguió imprimir por primera vez vasos sanguíneos en 2009.

El arte, la moda, el diseño y otras muchas disciplinas han ido acudiendo a la impresión 3D para proyectos cada vez más ambiciosos, como el primer avión robótico o el primer automóvil íntegramente impresos en 3D, que ya han sido una realidad.

Los precios de las impresoras en 3D van en picado y su accesibilidad aumenta exponencialmente. Uno de los sistemas para lograr esto han sido las impresoras en 3D diseñadas para producir, precisamente, las piezas de otras impresoras en 3D, formando una cadena de máquinas capaces de autoclonar sus componentes plásticos. Tal es el caso del proyecto RepRap del Dr. Adrian Bowyer de la Universidad de Bath, que lanzó la primera impresora autorreplicable, llamada Darwin, en 2008.

La explosión de este tipo de aparatos significa, también, que el consumidor tiene cada vez más la posibilidad de hacerse de modo accesible con productos que de otra forma serían demasiado costosos o, simplemente, serían difíciles de encontrar. Cada día más sitios web ofrecen la posibilidad de descargar archivos gratuitos para impresión, desde piezas de ajedrez con formas y personajes distintos hasta parasoles para objetivos fotográficos, floreros o carcasas para teléfonos móviles. Es sólo el principio.

Las impresoras en 3D empezaron a ser realmente accesibles para el consumidor apenas en 2011, al aparecer las primeras máquinas de menos de mil euros y formas de que uno, si lo desea, haga su propia impresora en 3D, ya sea adquiriendo los planos o directamente por medio de kits para armar.

Las impresoras para el consumidor constan, generalmente de una base con el ordenador que recibe e interpreta los planos o instrucciones y controla el proceso, y un cabezal impresor dispuesto en barras que le confieren movimiento en 3 dimensiones, que funde y deposita plástico suministrado en forma de filamento por una bobina. Como en el caso de las impresoras en 2D, el elemento clave de la calidad de una impresora es su resolución, en este caso, el grosor de cada capa, que afecta la calidad final del producto. En teoría, pueden producir cualquier pequeño objeto de plástico con el archivo correspondiente.

En 2008 año se consiguió imprimir una pierna prostética totalmente en 3D, sin siquiera necesidad de ensamblar sus piesas, que permitió a un paciente caminar sin problemas. Era el primer paso para abatir el coste y tiempo necesarios para la adaptación de miembros artificiales.

Las prótesis de manos son especialmente costosas por su complejidad. O lo eran. Ahora, como parte de los modelos que pueden descargarse de Internet para imprimirse en casa se encuentran manos prostéticas que utilizan electrónica accesible para que el usuario las mueva, servomotores más baratos y una estructura de plástico. Los pacientes tienen a su alcance una prótesis de calidad, de última tecnología… y a un precio que incluso les permite tener varias, según la ocasión, lo cual resulta atractivo, de nuevo, más para los niños. De hecho, las prótesis no intentan asemejarse a las manos originales, sino que gritan su peculiaridad orgullosamente.

Las manos son sólo un principio. Conforme haya mejores materiales y tecnología más barata, las posibilidades en la prostética pueden ser tan asombrosas como imprimir un rostro desfigurado usando el hueso, cartílago y piel que permitan la reconstrucción del aspecto de personas desfiguradas. O, en un terreno más mundano, esta tecnología también puede resolver problemas en apariencia más triviales, como el reemplazo de una válvula de una bomba de agua que de otro modo requeriría mucho más tiempo y dinero.

Lo que se podría llamar un futuro en gran medida impreso en 3D.

Las armas impresas

Toda tecnología es susceptible de ser utilizada para la destrucción, como lo descubrió Alfred Nobel cuando sus explosivos para hacer túneles pasaron al mundo bélico. En 2013 se distribuyeron los archivos de la primera pistola en 3D de un solo tiro, que fueron descargados miles de veces de inmediato. Aunque hasta la fecha nunca se ha usado para dañar a nadie, los expertos advierten que este mal uso inevitable no debe ser, en modo alguno, pretexto para ponerle trabas a la tecnología.

diciembre 21, 2014

Karl Landsteiner, los tipos sanguíneos y el virus de la polio

Nuestro sistema inmune nos defiende de amenazas externas, pero puede volverse contra nosotros. El conocimiento de nuestra sangre, inmunidad y enfermedades fue la pasión de un médico austríaco.

Karl Landsteiner en la década de 1920.
(Foto de la National Sciences Academy
via Wikimedia Commons)
En 1628, William Harvey describió por primera vez la circulación sanguínea completa, basado en antecedentes como el de Miguel Servet, que había descubierto la circulación pulmonar en 80 años antes. Poco después se intentó por primera vez transfundir la sangre de una persona a otra. La idea era reponer la sangre perdida con la de otra persona. Los intentos fueron terribles fracasos que provocaban la muerte del paciente.

Fue en 1655 cuando Richard Lower realizó la primera transfusión exitosa entre perros: desangró a uno casi hasta la muerte y lo revivió con sangre de otro. En 1667, el francés Jean-Baptiste Denis logró transfundir sangre de una oveja a dos personas, logrando que los tres sobrevivieran.

Qué era la sangre y por qué las transfusiones podían ser mortales resultaba un misterio en ese momento. Apenas se habían descubierto, poco después de Harvey, los glóbulos rojos o eritrocitos por parte de Jan Swammerdam, un pionero holandés de la microscopía. Ante los fracasos, la idea se olvidó hasta el siglo XIX, donde hubo experimentos, incluso escalofriantes como el intento de hacer una transfusión de leche de cabra al aparato circulatorio de un ser humano. Sólo hubo un caso exitoso registrado, cuando el ginecólogo inglés James Blundell, en 1818, salvó la vida a una paciente después de parir con una transfusión.

¿Qué determinaba que una transfusión fuera exitosa o resultara mortal para el receptor? La respuesta llegó hasta 1901 de la mano de un médico austríaco que trabajaba en el Instituto de Patología de Viena, Karl Landsteiner.

Landsteiner abordó el problema mediante un experimento. Tomó muestras de sangre de quienes trabajaban con él y procedió a mezclarlas. En algunos casos, la sangre de una persona provocaba que la de otra se aglutinara, y en otros no. Sistematizando las mezclas de sangre y los resultados que arrojaban, concluyó que la sangre se podía clasificar en tres grupos A, B y O (que originalmente llamó C). Según su tipología, una sangre de tipo A, por ejemplo, provocaría una aglutinación mortal en las de alguien que tuviera el tipo B o el tipo O, pero no en alguien que también fuera del tipo A. El descubrimiento le valió el Premio Nobel de Medicina o Fisiología de 1930.

Sus colaboradores pronto describieron un cuarto tipo sanguíneo, AB, que tenía las características de A y B y podía recibir transfusiones de sangre tipo A, B, O o AB. La tipología sanguínea y transfusiones dependían de que los eritrocitos tuvieran o no, en su superficie, los antígenos A o B, o ambos (AB), o ninguno (O).

Este descubrimiento fue interpretado en 1907 por el estadounidense Reuben Ottenberg como indicador de las posibilidades de éxito de una transfusión. Si se sabía el tipo sanguíneo de donante y receptor, se podría evitar que una transfusión provocara reacciones indeseables y la muerte.

A partir de ese momento, la pérdida de sangre por heridas, úlceras, partos difíciles y otras causas dejaba de ser necesariamente una sentencia de muerte.

Al virus de la polio y de vuelta a la sangre

Karl Landsteiner había nacido en Viena en 1868. Su padre, un famoso periodista, murió cuando Karl tenía sólo 6 años y fue criado sólo por su madre y parientes. A los 17 años consiguió entrar a estudiar medicina en la Universidad de Viena, donde encontró su verdadero tema de interés: la química orgánica. Por desgracia, no había suficientes puestos para investigadores y muchas veces Landsteiner tuvo que realizar su trabajo de investigación pasando de uno a otro instituto desde 1891, trabajando con algunos de los más influyentes científicos de su época, como el Emil Fischer, que llegaría a ganar el Premio Nobel. Su matrimonio, celebrado en 1916 duró hasta su muerte.

A partir de entonces, Landsteiner destacó publicando trabajos de bacteriología, anatomía patológica e inmunidad serológica, desarrollando algunos procesos que en aún hoy se siguen utilizando para trabajos de inmunología, y realizó importantes aportaciones al estudio de la sífilis, mortal enfermedad venérea que fue devastadora y muy temida hasta la aparición de los primeros medicamentos eficaces en 1910.

En 1908 se interesó por la poliomielitis, cuando logró inocularle la enfermedad a un mono, permitiendo así tener un modelo animal. En los años siguientes, trabajando en el Instituto Pasteur de Francia con Constantin Levaditi, logró demostrar que la polio era causada por un virus, describió su transmisión y su ciclo de vida y en 1912 demostró que era posible, aunque difícil, desarrollar una vacuna contra esta aterradora enfermedad. Tendrían que pasar más de cuatro décadas para que Jonas Salk desarrollara la primera vacuna contra la polio en 1955.

Sin quedar satisfecho con sus grandes aportaciones, hacia el final de su vida Karl Landsteiner volvió al tejido que le dio un Nobel: la sangre. Pese a haberse retirado oficialmente en 1939, siguió investigando y en 1940, trabajando en Estados Unidos junto con Alexander Wiener, publicó su descubrimiento de otro factor sanguíneo, el Rh, nombre que se le dio por haber sido estudiado en monos rhesus. El factor Rh se tiene (+) o no se tiene (-) dando como resultado la tipología que conocemos actualmente, que son los tipos descubiertos en 1901 y un signo positivo o negativo: A+, A-, B+, B-, etc.

Los dos científicos descubrieron que este factor era el responsable de una aterradora enfermedad infantil producida cuando la madre y el feto tienen tipos sanguíneos no compatibles, y el bebé se ve atacado por el sistema inmune de su madre. El descubrimiento permitió detectar y tratar estos casos, precisamente con transfusiones sanguíneas al bebé, evitando así que nazca con daños que en el pasado eran relativamente comunes.

Pese a su relevancia como fundador de la inmunología y la hematología, Landsteiner nunca disfrutó de los reflectores y raras veces dio entrevistas o habló en público. Su pasión era su laboratorio y trabajando en él sufrió en 1943 un infarto cardíaco que terminó con su vida.

La prueba de paternidad

Antes de que se pudiera secuenciar el ADN, la prueba de paternidad por excelencia era la tipología sanguínea. No podía demostrar que un hombre fuera con certeza padre de un hijo, sólo que podía serlo o, contundentemente, en algunos casos, que NO podía serlo. Por ejemplo, dos padres de tipo A, sólo pueden tener hijos A u O (si los dos tienen un cromosoma dominante A y uno recesivo O). En tal caso, un hijo con tipo AB o B no podría ser hijo del padre, que tendría forzosamente que tener sangre de tipo B. Una herramienta imprecisa, pero la única que se tuvo durante años.

diciembre 20, 2014

La muerte de las estrellas

Las estrellas, como los seres vivos, nacen, se desarrollan y mueren. Pero sólo se reproducen después de su muerte, dando origen a otros cuerpos estelares.

La nebulosa de la hélice es lo que queda de la muerte de una
estrella similar a nuestro sol, con una enana blanca en su
centro. (Foto CC Spitzer Space Telescope NASA vía
Wikimedia Commons) 
Uno de los acontecimientos más emocionantes para la comunidad de astrónomos es la aparición de una supernova en los cielos, una explosión cósmica colosal que es el más espectacular final que puede tener una de una estrella. En la historia humana se habrán podido ver quizá unas mil supernovas, nada más, la primera de ellas registrada por los astrónomos chinos en el año 184 de la era común.

La fuerza de una supernova es suficiente para crear todos los elementos naturales que tienen más protones que el hierro, ya que consigue que se fusionen los núcleos de los elementos que se forman en el interior de las estrellas dando lugar a otros más pesados. Todos los elementos con más de 26 protones han sido creados en supernovas.

Lo que resulta sorprendente en un principio es que las estrellas no sean eternas o, al menos, que no todas hayan surgido en los inicios del universo hace unos 13.800 millones de años. Ciertamente hay algunas estrellas que se calcula que tienen esa edad, pero la mayoría de las que podemos observar y cuyas edades podemos estimar tienen entre mil y diez mil millones de años.

Las estrellas, entonces, existen a lo largo de un ciclo que va desde su nacimiento hasta su muerte. Y todo el ciclo depende de la cantidad de masa que tenga cada una de ellas.

Todo comienza en una nube de materia. Y la materia más abundante del universo, como descubrió la cosmóloga Cecilia Payne-Gaposchkin, es el hidrógeno, de modo que es el principal componente de las nebulosas, junto con helio y polvo estelar.

Toda la materia que existe atrae a todo el resto de la materia con la fuerza más omnipresente del universo, la gravedad, que es a la vez la más débil pero la que actúa a más distancia. Debido a la atracción gravitacional, se van formando nubes que al aumentar su masa ejercen una mayor atracción y sumando más materia. Finalmente, la estrella es tan masiva que su propia gravedad es lo bastante intensa para provocar que los núcleos de hidrógeno se fusionen formando núcleos de helio. Esa fusión libera una enorme cantidad de energía y provoca que se dispare y se ponga en marcha, en toda la estrella, un proceso de fusión en cadena que la convierte en un horno nuclear colosal.

Toda la energía que sale de la estrella en forma de luz, de calor, de radiaciones electromagnéticas, etc., es producto de esa fusión. A lo largo de la vida de la estrella, lo que los astrónomos llaman su “secuencia principal”, el hidrógeno se agota y pueden darse procesos de fusión del helio creando otros elementos mientras el núcleo de la estrella se va contrayendo lentamente como resultado de la pérdida de la energía que irradia, aumentando la presión y la temperatura de la propia estrella.

De hecho, cuando vemos una estrella en su secuencia principal, como el caso de nuestro Sol, estamos viendo también una lucha de equilibrio entre la gravedad de la estrella, que atrae la materia hacia su centro, y la presión del gas que la impulsa hacia afuera.

Pero, eventualmente, el combustible se agota y la estrella muere.

Esa muerte puede darse de distintas maneras.

Un fenómeno que participa en el final de muchas estrellas es lo que se conoce como “presión de degeneración” de los electrones o neutrones. Se trata de un principio de la mecánica cuántica que impide que estas partículas elementales ocupen los mismos niveles de energía.

Si la estrella tiene menos de 0,4 veces la masa del Sol (el Sol equivale a 333.000 veces la masa de la Tierra), es una enana roja. Nunca hemos visto la muerte de una enana roja porque sus vidas son de varios billones de años, más que la edad del universo, de modo que sólo podemos especular que su muerte se produce convirtiéndose en una enana blanca con el combustible agotado que irradia la energía que le queda de su época activa y, eventualmente, una enana negra fría, o bien podría estallar como una supernova.

Cuando la estrella tiene una masa mayor, de hasta 1,44 veces la del Sol, puede pasar varios miles de millones de años en su secuencia principal hasta que, por el agotamiento de su combustible, los gases de su exterior se expanden como una gigante roja, fusionando helio, antes de perder sus capas externas. Lo que queda entonces es una enana blanca, como en el caso de las estrellas más pequeñas, que no se contrae más debido a la presión de degeneración de los electrones, que actúan contra la gravedad.

Pero una estrella puede ser mucho más masiva que nuestro Sol. si tiene entre 1,44 y 3 veces la masa solar, esta cantidad de materia hará que al agotarse el combustible nuclear de la estrella colapse, se comprima debido a su propia atracción gravitacional, hasta formar una estrella de neutrones, un cuerpo extremadamente masivo. La masa de estas estrellas vence la presión de degeneración de los electrones, pero no la de los neutrones. Las estrellas de neutrones pueden emitir ondas de radio si giran a gran velocidad por lo que se les conoce como pulsares.

Si una estrella tiene una masa de aproximadamente 5 veces la del sol o mayor, cuando termina la fusión de hidrógeno lo que ocurrirá es la explosión de una supernova, y la materia restante después de esa colosal liberación de energía formará un agujero negro, una estrella tan densa que su atracción gravitacional impide incluso que la luz salga de ella. La enorme masa de del agujero negro vence a los fenómenos de presión de degeneración permitiendo un colapso total de la estrella. Lo que ocurre dentro de un agujero negro es uno de los grandes misterios de la cosmología, pero hoy sabemos que muchas galaxias tienen uno de ellos en su centro.

Esto quiere decir que muchas galaxias que conocemos hoy son producto de la explosión de supernovas cuya materia ha formado otras nubes que se han condensado en estrellas, planetas, sistemas solares y galaxias. Y estas mismas estrellas y galaxias tendrán también un ciclo de vida y un final.

Sabemos que el universo mismo tuvo un principio, o al menos es lo que nos dicen todas las observaciones y cálculos de la cosmología. ¿Tendrá un final? Ésa es una pregunta cuya respuesta aún está a la espera de nuevos descubrimientos.

El fin de nuestro sol

Hemos visto que nuestro sol eventualmente se convertirá en una gigante roja. De hecho, se prevé que se expandirá tanto que abarcará la órbita de la Tierra dentro de alrededor de 6 o 7 mil millones de años. Pero el aumento de su temperatura acabará previsiblemente con la vida en la Tierra dentro de algo menos de dos mil millones de años. A menos que los seres humanos sobrevivamos y colonicemos otros planetas, no podremos ser testigos de los últimos capítulos de la estrella que nos dio la vida.

diciembre 19, 2014

Que invente Unamuno

Miguel de Unamuno en 1930. (Foto D.P.
anónima vía Wikimedia Commons)
Todo el pensamiento de Unamuno respecto de la ciencia, el progreso y el conocimiento se ha resumido en una sola frase tomada de su vasta obra: “¡Que inventen ellos!”

La frase así, por sí misma, se puede interpretar de varias formas.

“Me da pereza inventar, que inventen ellos.”

“Carezco de los medios necesarios para inventar, que inventen ellos.”

“No creo en los beneficios de la invención, que inventen ellos.”

“Yo cumplo mi función en el mundo, y no es la de inventar, que inventen ellos.”

Estos ejemplos bastan para ver que sin un contexto mayor, la frase en sí misma no significa demasiado. Y quizás por eso ha sido utilizada y citada en apoyo de afirmaciones incluso contradictorias.

La primera pregunta que habría que responder para determinar cuál es el sentido que probablemente Unamuno quiso darle a su frase es la que nos sugiere precisamente la diversidad de interpretaciones que tiene: ¿era Unamuno enemigo de la ciencia y la técnica?

Curiosamente, la respuesta depende del momento al que hagamos referencia, acudiendo a la definición del contemporáneo y frecuente adversario de Unamuno, Ortega y Gasset, “yo soy yo y mi circunstancia”, Unamuno fue distinto en distintas circunstancias.

Antes de 1897, Unamuno era radicalmente favorable a la ciencia. Según cuenta Josep Eladi Baños en su ensayo de 2007 “Cien años de ¡Que inventen ellos!”, hasta entonces el filósofo era un positivista, un convencido de que la ciencia lo podía todo, tenía todas las respuesta, físicas y metafísicas, que el hombre pudiera plantear, sin pensar en que hay preguntas que según como se formulen son simplemente imposibles de responder. La profunda crisis religiosa que sufrió Unamuno en 1897 y que lo llevó a abandonar también a su partido, el PSOE, transformó su visión y se fue orientando progresivamente más hacia la espiritualidad como fuente de respuestas. A partir de 1897, Unamuno fue cada vez más anticientífico, pero más como postura filosófica que le permitía cimentar su visión mística que como un rechazo en la práctica a los avances que la ciencia iba ofreciendo a la sociedad y que le resultaban fascinantes.

La segunda pregunta es precisamente cuál es el contexto en el que escribió la frase y qué implicaba en su visión general de la realidad. Aquí hay también dos respuestas. La primera vez que aparece la frase es en su ensayo “El pórtico del templo” de 1906, y se produce en una conversación entre dos amigos, Román y Sabino, en los que se puede ver el espíritu del debate ciencia-religión que mantuvieron Ortega y Gasset y Unamuno, Ortega del lado de la razón y Unamuno de la mística. Román defiende que el español inventa “otras cosas” aunque no sean tan evidentemente útiles como las de la ciencia.

ROMÁN – ¡Ah! ¿Y quién te dice que no hemos inventado otras cosas?
SABINO – ¡Cosas inútiles!
ROMÁN – Y ¿quién es juez de su utilidad? Desengáñate: cuando no nos ponemos a inventar cosas de esas, es que no sentimos la necesidad de ellas.
SABINO – Pero así que otros las inventan, las tomamos de ellos, nos las apropiamos y de ellas nos servimos; ¡eso sí!
ROMÁN – Inventen, pues, ellos y nosotros nos aprovecharemos de sus invenciones. Pues confío y espero en que estarás convencido, como yo lo estoy, de que la luz eléctrica alumbra aquí tan bien como allí donde se inventó.
Unamuno parecía estar tomando la posición de la última de las interpretaciones sugeridas: los españoles tienen una función literaria, espiritual, filosófica, y ésa es su aportación a la división del trabajo entre los seres humanos, así que la invención científica les queda a “ellos” sin renunciar a la posibilidad de beneficiarnos de ella, como ellos se beneficiarían del trabajo artístico y espiritual español.

La impresión que deja es que encuentra necesario el rechazo filosófico de la ciencia aunque no lo lleve a la práctica, como si fuera un requisito de su espiritualidad tardíamente descubierta. Pero al mismo tiempo es un enamorado del progreso en muchas otras facetas.

En su obra magna de 1912, El sentimiento trágico de la vida, Unamuno retomaría la frase para responder a quien se escandalizaba por ella. Y se reafirmaba: “Expresión paradójica a que no renuncio” para luego explicarse: “ ¿Que no tenemos espíritu científico? ¿Y qué, si tenemos algún espíritu? ¿Y se sabe si el que tenemos es o no compatible con ese otro?” Y continuaba “Mas al decir, ¡que inventen ellos!, no quise decir que hayamos de contentarnos con un papel pasivo, no. Ellos a la ciencia de que nos aprovecharemos; nosotros, a lo nuestro”.

En otra ocasión, Unamuno insistiría “Es inútil darle vueltas, nuestro don es ante todo un don literario, y todo aquí, incluso la filosofía, se convierte en literatura.”
Su separación de su postura filosófica originaria comenzó con un rechazo a lo que entiende como “cientificismo” (“fe ciega en la ciencia”) al que separa de la “verdadera ciencia” en su ensayo llamado precisamente “Cientificismo” de 1902 cuando dice: “el cientificismo es la fe, no de los hombres de ciencia, sino de esa burguesía intelectual, ensoberbecida y envidiosa” a la cual acusa de no entender la ciencia pero al mismo tiempo de no poder negar “los efectos del ferrocarril, del telégrafo, del teléfono, del fonógrafo, de las ciencias aplicadas en general” que mencionaría después.

Y esto parecía darle cierta tranquilidad. No era necesario resolver ese problema porque como español lo suyo no era la ciencia. Y además, si la ciencia combatía la fe, un hombre de fe debía combatir a la ciencia.

Pero al paso del tiempo, parece irse radicalizando hasta declararse enemigo de la ciencia. Da la impresión de que su desilusión porque la ciencia no puede responder a preguntas trascendentes lo lleva a concluir que debe rechazarla, hasta que llega a escribirle a su amigo Pedro Jiménez Ilundain: “Yo no le oculto que hago votos por la derrota de la técnica y hasta de la ciencia”.

El problema de Unamuno es un conflicto que aún no se resuelve. Tal vez quien ha dado la mejor explicación al respecto fue su amigo Enrique de Areilza, en carta también a Jiménez Ilundain. Según Areilza, como la ciencia no le ha traído a Unamuno gloria ni tranquilidad de espíritu, “la odia a muerte; la odia tanto o más cuanto la tiene dentro; es la espina dolorosa que mortifica su fe, pero de la cual no podrá desprenderse porque constituye el fondo de su gran saber y su valía”.

Si tal es la explicación correcta a la relación de Unamuno con la ciencia, es también reflejo del conflicto que muchos siguen teniendo. No, ciertamente, los científicos españoles para quienes el “¡que inventen ellos!” es parte de una circunstancia pasada que, por fortuna, ha cambiado.

diciembre 18, 2014

Invisibilidad, engaño y simulación naturales

El sueño de la invisibilidad es una realidad para numerosas especies animales y vegetales que, por distintos métodos, se aseguran de pasar tan desapercibidos como si no estuvieran allí.

Búho nevado aterrizando en Canadá. (Foto CC David
Hemmings via Wikimedia Commons)
Para las presas y los depredadores, una forma de mantenerse vivo es ser más rápido, más temible o más astuto que sus adversario. Pero esas opciones representan un gasto enorme de recursos, de esfuerzo y de riesgo, como lo demuestra la carrera armamentística que mantienen especies como los guepardos y las gacelas, donde cada uno de ellos ha creado una presión de selección para el otro, al favorecer la supervivencia y reproducción precisamente de los más rápidos de cada una de ambas especies, poniendo a la larga a ambas en peligro.

Pero hay una opción de ahorro de recursos que con frecuencia se ha desarrollado en el mundo vivo: no hacer nada. Mimetizarnos con el entorno, desaparecer o fingir lo que no somos.

Especialmente si nuestros depredadores o presas son reptiles, el mecanismo de su visión suele depender de la detección del movimiento contra un fondo, de modo que si un animal queda inmóvil (incluso dejando de respirar), se vuelve invisible. La inmovilidad es la forma más sencilla del mimetismo que los biólogos llaman “cripsis”: adaptaciones de conducta y aspecto que hacen que los animales pasen inadvertidos, un vocablo que procede del griego “kryptos” que significa “secreto” y que encontramos en otras palabras como ”cripta” o “criptografía”, el arte del cifrado.

Otra opción frecuente es adoptar (evolutivamente, se entiende, no de modo voluntario) un aspecto que no nos obligue a hacer demasiado, sino que baste para confundir, ahuyentar, distraer o repeler a los posibles depredadores. La cripsis homocromática o de color igual implica que el ser vivo adopte un color similar al fondo contra el que habitualmente lo vemos, como ocurre con los animales que mudan su pelaje de verano por uno blanco durante el invierno para ser menos detectables al estar en la nieve. Lo mismo pasa con el color verde de algunas ranas, el color tostado de muchos animales del desierto o de la sabana, como el león, o el color cenizo de algunas polillas y lagartijas que las disimula contra los troncos de los árboles.

Pero también puede ser un mimetismo mucho más completo, que resulte un completo disfraz, asumiendo el aspecto de partes de su entorno. Los insectos palo y los insectos hoja, así como las orugas que simulan ser ramitas verdes se benefician de esta característica. Muchos insectos hoja subrayan la ilusión con su comportamiento, agitándose cuando hay viento para no llamar la atención por su inmovilidad, precisamente.

Otros animales se caracterizan por utilizar patrones más o menos repetitivos que sirven de elementos disruptivos para no resaltar contra el fondo en el que habitualmente se mueven o para hacer menos identificable visualmente al individuo, como es el caso de las cebras, los tigres o los leopardos. En el mar, el maestro del camuflaje o cripsis entre los depredadores es el llamado pez piedra (Synanceia verrucosa), común en los océanos Índico y Pacífico, que se confunde con el fondo marino gracias a su aspecto pedregoso y accidentado, acechando hasta que pasa una presa cerca para saltar y devorarla. Como añadido tiene la característica de tener espinas venenosas en la aleta dorsal que lo convierten en el pez más tóxico del mundo para los humanos.

Existe además una forma de mimetismo distinta de la cripsis en la cual un ser vivo, en vez de camuflarse para disimular su presencia, cambia ésta adoptando la forma de otro animal o algún rasgo de éste para ofrecer un aspecto temible, tóxico o simplemente de mal sabor.

Un ejemplo de esta transformación es la imitación de la serpiente coralillo, que vive a lo largo del continente americano y es mortalmente venenosa. Se distingue por una sucesión de bandas rojas y negras separadas por anillos amarillos, coloración brillante que advierte que se trata de un animal tóxico. La falsa coralillo, absolutamente inocua, ha adoptado una coloración de bandas rojas separadas por tres anillos sucesivos: negro, amarillo y negro. Aunque la imitación no es precisa, basta para engañar a los depredadores y al hombre, que ha creado incluso rimas para identificar el peligro. En español se dice: “si el rojo toca amarillo, es coralillo”. Otros ejemplos son las mariposas y orugas que tienen ocelos o falsos ojos que hacen que parezcan la cabeza de grandes animales o serpientes igualmente peligrosas.

Una de las formas más curiosas de la cripsis o camuflaje es directamente la invisibilidad parcial. Es una opción útil si uno no vive en el fondo del mar, donde las distintas texturas y colores permiten que evolucione un camuflaje efectivo. Viviendo lejos del fondo, no existe esa opción. Algunos seres vivos en el mar, como las larvas de la anguila o los calamares del género Chiroteuthis, pulpos, moluscos y caracoles, han desarrollado tejidos transparentes que los hacen invisibles a menos que uno los esté buscando con detenimiento.

De hecho, cuentan los expertos, el océano está habitado por enormes cantidades de organismos que han desarrollado la transparencia como mecanismo de supervivencia, y solemos nadar entre ellos sin siquiera darnos cuenta de que están allí. Pero esto también provoca su propia carrera armamentística, presionando para que los depredadores vayan desarrollando la capacidad de ver la porción ultravioleta del espectro electromagnético para detectar a sus presas.
El campeón del mimetismo, sin embargo, son los cefalópodos: calamares, pulpos y sepias, que han desarrollado órganos de pigmentación llamados “cromatóforos” que les permiten cambiar de aspecto casi instantáneamente. Su capacidad de cambiar de aspecto está tan desarrollada que se utiliza también como método de comunicación entre sepias y como parte del cortejo.

Hablando de cortejo, el mimetismo es utilizado de forma muy eficaz para la reproducción por muchísimas plantas, entre las que las más evidentes son las orquídeas, que simulan los órganos reproductivos de hembras de distintos insectos para conseguir que el macho intente copular con ellas y como resultado se convierta en el diseminador de su polen.

La mentira verbal puede ser privativa del ser humano, pero la capacidad de engañar es, claramente, una necesidad vital para la supervivencia.

Interferencia de señales

El engaño o camuflaje no es necesariamente siempre visual. Los depredadores pueden utilizar otros sentidos para detectar a sus presas, y por ello hay también mimetismos olfativos o, incluso, auditivos. La polilla tigre, por ejemplo, es capaz de emitir ultrasonidos que, creen los investigadores, sirven para interferir con las señales que usa para detectar a sus presas por sonar su principal depredador: el murciélago.

diciembre 17, 2014

El inesperado mundo de los hongos

Ni animales ni vegetales, los hongos son una forma de vida que interviene, casi sigilosamente, en muchísimos aspectos de la cotidianidad humana.

(Foro CC Orest, vía Wikimedia Commons)
Nuestras principales interacciones con el mundo de los hongos se dan al usarlos como alimentos y al sufrirlos como plagas.

Las setas son muy apreciadas en distintas culturas, ya sea el boletus en España, el champiñón en Francia, la trufa en la cocina europea o el shitake en Asia oriental, además de ser utilizados para preparar alimentos como fermentos y colorantes del vino, el queso, la salsa de soja y el pan.

Como plagas, pueden afectar las cosechas o atacarnos a nosotros y a nuestros animales. Entre las más comunes de estas infecciones, llamadas “micosis”, están el pie de atleta, la candidiasis (vaginal y oral) y la onicomicosis o infestación de las uñas de los pies.

Pero, más allá de estos casos, fuera de los espacios del conocimiento especializado, los hongos son bastante poco conocidos y aún sorprende que se trate de todo un reino de la vida, como lo son los reinos animal, vegetal, protista (algas y protozoarios), bacteria y arqueobacterias. Es decir, los hongos no son vegetales. Son otra forma de vida distinta.

Las plantas producen su propio alimento utilizando la energía del sol en la fotosíntesis para sintetizar el agua, el bióxido de carbono y los nutrientes del suelo. Los hongos como los animales, consumen alimento ya producido, sea directamente por las plantas o de tejidos animales, y no hacen la fotosíntesis.

Además, las paredes celulares de las plantas son de celulosa, polisacárido que reconocemos en la madera y en productos como el papel, mientras que las paredes de las células de los hongos son de quitina, polisacárido que no existe en el mundo vegetal pero sí en el animal, como componente fundamental del exoesqueleto de insectos y crustáceos como las gambas. Finalmente, las plantas almacenan su energía en forma de almidón y los hongos la almacenan en forma de trehalosa, , igual que los animales.

Así, los hongos son una forma de vida entre la animal y la vegetal, que se estima que surgió hace 1.500 millones de años, aunque no hay fósiles de hongos sino hasta hace apenas 500-600 millones, entre otras cosas por lo fácil que se degradan los cuerpos de los hongos macroscópicos y lo mucho que se parecen los hongos microscópicos a otros organismos.

Microscópicos o macroscópicos, los hongos son organismos celulares relativamente sencillos de los cuales se conocen más de 100.000 especies.
Ya que todos los hongos necesitan alimento ya existente para sobrevivir, se les encuentra jugando el papel de agentes de la descomposición de los organismos muertos, vegetales o animales. Los hongos son unos de los más grandes mecanismos de reciclaje de la naturaleza, ya que toman los restos orgánicos y los devuelven al entorno en formas que otros organismos pueden digerir.

Esta misma capacidad de descomponer restos orgánicos hace que casi todas las plantas establezcan relaciones de simbiosis (una relación mutuamente beneficiosa) con diversos hongos en sus raíces para ayudarles a absorber minerales y agua de la tierra, aportándoles a cambio carbohidratos para la alimentación de los hongos.

Otra asociación que establecen con frecuencia los hongos es con algas o con cianobacterias, formando los líquenes, que tienen la capacidad de sobrevivir en algunos de los entornos más inhóspitos de nuestro planeta: la tundra del ártico, los desiertos más extremos, las costas rocosas y en pilas de escoria producto del beneficio de minerales. La enorme capacidad de resistencia de los líquenes se debe precisamente a cómo se apoyan sus componentes (o “simbiontes”). El hongo le da a las algas o bacterias protección contra el sol y contra la deshidratación, permitiendo que éstas desarrollen su fotosíntesis proporcionando alimento para ambos socios.

Y gracias a esta resistencia, los líquenes son con frecuencia el único alimento en zonas como la tundra, donde el 90% del alimento de caribús y ciervos son los líquenes que encuentran adheridos a las piedras bajo la nieve.

Es indispensable, para tener un retrato rápido de este reino desconocido, mencionar la toxicidad de muchos hongos, especialmente las setas, de las cuales más de 20 genus y docenas de sus especies pueden presentar un peligro de graves trastornos, aunque sólo unas 30 especies son altamente mortales para los seres humanos o para los animales que los consumen. Distintos hongos en distintas geografías pueden contener distintas toxinas, muy especialmente la llamada alfa-amanitina, que contiene la más mortal de todas las setas, la Amanita phalloides, conocida también como oronja verde, oronja mortal o cicuta verde.

La mayor parte de las intoxicaciones por setas se deben a la ignorancia y el intento de identificar el potencial tóxico de una seta utilizando supersticiones tales como una que indica que si se pone una moneda de plata en la sartén donde se preparan las setas, se pondrá negra si éstas son tóxicas. Nada sustituye al conocimiento adecuado de las setas de un lugar determinado y la asesoría de la micología, que es precisamente la ciencia que estudia el reino de los hongos.

Menos común es saber en qué medida los hongos son parte del arsenal que conserva nuestra salud o nos la devuelve. Más allá de setas a las que las creencias les atribuyen poderes curativos no corroborados, hay una enorme cantidad de medicamentos de gran importancia derivados de hongos. Bastaría sólo señalar la penicilina y todos los antibióticos que le siguieron para comprender su relevancia en la salud, sobre todo cuando la penicilina procede del mismo hongo que provoca la deliciosa transformación de algunos quesos en quesos azules, donde el hongo penicillium les aporta sabor, acidez y su textura características. Inmunosupresores de uso común indispensables para los trasplantes de órganos, medicamentos que reducen el colesterol (estatinas), proteínas que modulan la respuesta inmune y adyuvantes inmunológicos son sólo algunos ejemplos.

Los distintos hongos están, además, implicados en numerosas áreas de la investigación biológica y médica, incluidas las que buscan combatir distintas formas del cáncer y las dedicadas a la lucha contra algunas enfermedades mentales utilizando algunas setas conocidas por contener alucinógenos que podrían tener una función psiquátrica.

Las setas del pasado

La momia natural conocida como Ötzi, un hombre que vivió hace unos 5.300 años y que fue conservado al morir en un glaciar entre lo que hoy son Suiza e Italia, llevaba consigo dos tipos de hongos. Uno que al secarse se utiliza como yesca para hacer fuego y que llevaba junto a carbón y pedernales, y otro que tiene propiedades antiparasitarias que se corresponden con una infestación que tenía este hombre de la edad de bronce.

diciembre 16, 2014

La nave que se posará en un cometa

En agosto de 2015, un cometa alcanzará su mayor acercamiento al sol, por primera vez en la historia acompañado de dos robots hechos por el hombre: uno en órbita y el otro posado en su superficie.

Interpretación artística de Philae siendo
liberado por Rosetta para caer al cometa.
(Foto CC ESA vía  Wikimedia Commons)
Es septiembre de 2014 y una pequeña sonda espacial, de apenas 2,8 x 2,1 x 2,0 metros está viajando junto a un cometa llamado 67P/Churyumov-Gerasimenko, maniobrando para ponerse en órbita a su alrededor, capturada por la atracción gravitacional de los 10 mil millones de toneladas de masa del cometa.

67P (para abreviar) es un cometa en forma de pato de goma que tiene una órbita periódica, es decir, que sobrevive a su viaje alrededor del sol y lo repite, en su caso, cada 6,5 años. Ahora está en camino de regreso hacia el sol, y llegará al punto más cercano a nuestra estrella (perihelio) en su viaje el 13 de agosto de 2015, acompañado por la sonda llamada Rosetta.

La historia de esta misión comienza en 1993, cuando la Agencia Espacial Europea autorizó una misión sin precedentes para lanzar una sonda que llegara a un cometa, lo acompañara en su viaje y soltara un robot capaz de aterrizar en su superficie para estudiarla. Siguieron 11 años de trabajo en los que participaría además como asociada la NASA estadounidense. Los trabajos de preparación concluyeron cuando la misión Rosetta fue lanzada al espacio en un cohete Ariane 5 en marzo de 2004, comenzando un viaje de 10 años para su encuentro cometario.

El antecedente directo de esta misión es la “Deep Impact” o “Impacto Profundo” de la NASA, que se estrelló contra el cometa Tempel I en 2005, cuando Rosetta ya estaba de camino al 67P. Esta misión permitió descartar la idea de que el cometa pudiera estar formado por montones de distintos materiales agregados por gravedad, sino que demostró que se trataba de un cuerpo sólido, con más roca que hielo.

La realidad es que sabemos muy poco acerca de los cometas, que han sido objeto de atención por la espectacularidad que pueden llegar a tener algunos, y por lo desusados que eran en los cielos para las culturas que observaban atentamente el cielo a fin de determinar sus ciclos agrícolas y estacionales, además de buscar señales de la voluntad de los dioses. Y los cometas en general se consideraban presagios, casi siempre nefastos, en las más diversas culturas.

Fue Tycho Brahe, en los inicios de la revolución científica, quien propuso que se trataba de cuerpos celestes sujetos a las mismas leyes que los otros y que, además, venían de algún lugar mucho más alejado de la Luna. Isaac Newton y Edmond Halley establecerían las características de las órbitas de estos cuerpos.
Pero quedaba la duda de qué eran, cuál era su composición. No fue sino hasta 1950 cuando Fred Lawrence Whipple propuso una hipótesis sólida: que eran cuerpos formados por rocas y hielo que, al fundirse, es empujado por el viento solar formando la cola de los cometas. Las observaciones astronómicas de los cometas, capaces de discernir parte de su composición utilizando sistemas como la espectrografía o análisis de la luz que emiten, y que varía según las sustancias que contienen, se empezaron a ver apoyadas en 1985 por visitas de naves espaciales humanas. Algunas simplemente pasaron cerca de un cometa, como las Vega 1 y 2, la Giotto o la Stardust, que recogió muestras de polvo en las cercanías del cometa Wild 2 y las trajo de vuelta a la Tierra.

Vendría entonces la ambiciosa misión Rosetta. En los diez años transcurridos desde su lanzamiento, la pequeña sonda viajó a más de 5 veces la distancia entre el Sol y la Tierra (distancia conocida como Unidad Astronómica), o 788 millones de kilómetros, casi hasta la órbita de Júpiter, con objeto de encontrarse con el cometa 67P/CG, descubierto en 1969 en Kiev por los astrónomos rusos Klim Ivanovych Churyumov y Svetlana Ivanovna Gerasimenko.

Rosetta lleva instrumentos para analizar los gases que rodean al cometa, la composición del núcleo, el polvo que desprende, la temperatura interior del núcleo, su interacción con el viento solar a lo largo de su recorrido, su masa y gravedad exactas, además de llevar cámaras de alta resolución para enviar a la Tierra imágenes del cometa durante todo el viaje. Un total de 11 dispositivos de análisis para recopilar información de lo más diverso –y completo- acerca del cometa.

Rosetta lleva además, y como elemento clave de su inédita misión un pequeño módulo de aterrizaje, llamado Philae, un cubo con tres patas que descenderá ayudado solamente por la gravedad del cometa (que se calcula en una diezmilésima parte que la de nuestro planeta). Sus patas están diseñadas para absorber el impacto, impedir en lo posible que rebote contra la superficie y girar para poner recto al módulo en caso de volcadura. Lleva además un arpón que lanzará al tocar la superficie del cometa para anclarse.

Philae también lleva a bordo una batería impresionante de experimentos, nueve en total, que ocupan una quinta parte de los 100 kilogramos de la sonda para estudiar la composición de la superficie y la composición debajo de la superficie utilizando ondas de radio, hacer análisis químicos de los gases de la superficie, el campo magnético del cometa y cómo interactúa con el viento solar, un taladro para obtener muestras a hasta 20 cm por debajo de la superficie y sus características eléctricas, además de llevar tres tipos de cámaras.

La sonda aterrizará en el cometa en noviembre de 2014, una vez que Rosetta esté en órbita fija alrededor del mismo y haya identificado el mejor lugar para ello. Ambos robots espaciales seguirán entonces realizadon estudios mientras viajan a velocidades crecientes hacia el Sol, viendo por primera vez en el propio cometa cómo se va formando su coma (la nube luminosa de gases y polvo que rodea al núcleo) y la cola que apunta en dirección contraria al Sol y está formada de hielo fundido y polvo.

La misión, que se dará por terminada, en principio, en diciembre de 2015, cuatro meses después del perihelio, habrá conseguido numerosos logros sin precedentes, como la primera misión que aterriza en un cometa y lo sigue durante su viaje, analizando lo que realmente provoca ese aspecto que tanto ha impresionado a las culturas humanas.

Los nombres

Rosetta es el nombre que tenía la piedra con un texto de un decreto del rey Ptolomeo V escrito en jeroglíficos egipcios, escritura demótica y griego antiguo. Philae, por su parte, es una isla en el Nilo donde se encontró un obelisco con inscripciones griegas y egipcias. Juntos, ambos descubrimientos permitieron a Jean-François Champollion descifrar finalmente la escritura jeroglífica del antiguo Egipto. Los investigadores espaciales creen que esta misión servirá de modo similar para descifrar los antiguos misterios de los cometas.

diciembre 15, 2014

Pseudociencias, las impostoras del conocimiento

Los más recientes descubrimientos científicos que nos llegan por muchos medios, con frecuencia ni son descubrimientos ni son científicos. ¿Cómo identificar el falso conocimiento?

Homeopatía, la pseudociencia por excelencia: sin pruebas
sobre su eficacia y seguridad es un negocio de miles de
millones de euros al año. (Foto DP de Wikidudeman
via Wikimedia Commons)
A veces parece que todo el conocimiento está ya descubierto pero por alguna razón no se utiliza ni se enseña en las escuelas: la cura para el cáncer, la forma de mantenernos esbeltos y recuperar el pelo, la energía gratuita y abundante, dinero para todos y otras maravillas.

O al menos eso nos dicen muchas cadenas de correo electrónico, las redes sociales y distintos medios de comunicación de fiabilidad no confirmada.

Estas afirmaciones suelen venir sustentadas en elementos que solemos identificar con la ciencia: palabras como “cuántica”, “energías”, “vibraciones”, “matrices” u “holístico”, supuestos “expertos” y variados argumentos.

Se disfrazan de ciencia, pero ni aplican sus métodos, ni sus precauciones, ni sus protocolos, ni son resultado del intenso trabajo supervisado por otros científicos que permite alcanzar conocimientos razonablemente certeros. Y, no pueden presentar las evidencias que le exigimos a la ciencia.

Estas pseudociencias, formas modernas de la superstición, pueden costarnos dinero y salud. Todos conocemos a alguien que, por creer en terapias no demostradas, ha perdido calidad y cantidad de vida, como el caso de Steve Jobs. Y es que, por imperfecta que sea la ciencia, es nuestra mejor apuesta para todo, desde hacer edificios hasta atender nuestra salud o hacer Internet. Conviene, entonces, ser escéptico.

Pero ¿cómo, sin ser científico, puede alguien separar el trigo de la paja? Aquí tenemos 7 preguntas para detectar, con razonable certeza, si estamos ante una pseudociencia.

1. ¿Cómo se obtuvo y difundió la afirmación? El trabajo científico requiere el concurso de muchas personas. Ya no es tiempo de genios solitarios que podían revolucionar el conocimiento desde su biblioteca. Hoy, multitudes de científicos trabajan en todos los temas del conocimiento. Si alguien afirma que ha obtenido un resultado independientemente y en vez de publicarlo en revistas científicas usa propaganda y boletines de prensa, si no puede dar cuenta de su metodología y mostrar sus datos, es razonable dudar. Y pasar al punto 2.

2. ¿Se ha verificado independientemente? En el trabajo científico, un solo estudio no es bastante. Puede marcar caminos, pero debe ser confirmado por otros investigadores, que repitan o mejoren los métodos de estudio y puedan verificar las conclusiones. Muchas afirmaciones apasionantes, como la de la “fusión fría” que prometía energía gratuita para el mundo, no pudieron ser confirmadas experimentalmente. Se determinó que los investigadores habían usado un método de medición incorrecto. Los científicos se molestaron y pasaron al mundo de la pseudociencia, donde prosperaron sin obtener jamás resultados. Se necesitan muchos estudios y confirmaciones, más si la afirmación es del tipo de las del siguiente punto.

3. ¿Implica rechazar algún principio científico bien establecido? A lo largo del tiempo no pocos principios científicos se han abandonado en favor de otros que describen de modo más preciso la realidad. Después de todo, las explicaciones científicas son modelos siempre sujetos a perfeccionarse. Pero no son creencias caprichosas. Si se pretende desafiar un principio que ha sido comprobado una y otra vez con éxito por muchos investigadores y por cualquiera en la vida cotidiana, y se ha utilizado en la práctica como tecnología (digamos, de Internet), la explicación alternativa debe ser muy sólida, debe cubrir todos los fenómenos anteriormente explicados así como los nuevos y debe ser igualmente demostrable. Es decir, no basta que alguien tenga “argumentos” contra la evolución, la esfericidad de la Tierra o la realtividad de Einstein... debe tener demostraciones y evidencias al menos tan firmes como las que hemos reunido sobre el tema para llegar al modelo que tenemos hoy.

4. ¿Se dice que hay persecución, represión o desprecio de “la ciencia oficial”? Si, como decíamos, la búsqueda del conocimiento es una labor abierta, lo es más en tiempos de Internet y del avión, donde miles de científicos se reúnen diariamente para mostrarse sus descubrimientos y animarse, es muy poco probable que un conocimiento quede oculto sin que nadie más lo descubra en mucho tiempo. Por eso hay verdaderas carreras por lograr ciertos conocimientos y patentarlos antes que la competencia. Los verdaderos perseguidos por difundir datos delicados generalmente corren peligro real, como Roberto Saviano por descubrir el funcionamiento de la camorra napolitana o Snowden por revelar secretos militares estadounidenses. Y la “ciencia oficial”, claro, no existe.

5. ¿Suena demasiado bueno? Si algo parece demasiado bueno para ser cierto, lo más probable es que lo sea. Las dietas milagro, las curaciones sencillas, la promesa de obtener grandes resultados con pocos esfuerzos, son formas del engaño en las que suelen caer los promotores de las pseudociencias. Vamos, si realmente los planos que venden en Internet dieran energía gratuita y le permitieran a alguien cancelar su contrato con la eléctrica de su localidad, seguramente no los vendería un don nadie desde su cochera. Y si alguien tuviera la cura del cáncer, se estaría haciendo enormemente (y legítimamente) multimillonario.

6. ¿Hay alguien ganando dinero detrás de la afirmación? Algunas afirmaciones pseudocientíficas son sólo producto de la ignorancia, el miedo o la desinformación, pero con frecuencia hay detrás empresas que se benefician de ellas, como los vendedores de “productos para contrarrestar la contaminación electromagnética” que promueven fundaciones, organizaciones y conferencias para aterrorizar a la gente con la idea, nunca sustentada en datos, de que las ondas de radio de la telefonía móvil o el wifi tienen efectos dañinos para la salud. Lo mismo se puede decir de las multinacionales de las terapias alternativas.

7. ¿Avanza? Una característica de la ciencia es que un conocimiento bien establecido y comprobado sirve como base para ulteriores investigaciones y descubrimientos. La descripción de las leyes del movimiento de Newton permitieron una enorme evolución hasta llegar a la teoría de la relatividad de Einstein. Las pseudociencias, como la astrología o la homeopatía, se mantienen iguales, basadas en dogmas antiguos y sin un solo avance detectable.

Algo más que un cuento

Carl Sagan decia, en su libro El mundo y sus demonios: “Si se entendiera ampliamente que las afirmaciones sobre el conocimiento exigen una evidencia adecuada antes de que se les pueda aceptar, no habría espacio para la pseudociencia. Pero en la cultura popular prevalece una especie de Ley de Gresham por la cual la mala ciencia aparta a la buena.”

diciembre 14, 2014

Los genes saltarines de Barbara McClintock

La dotación genética que nos hace lo que somos y es el vehículo de la evolución, se consideraba un esquema rígido. Barbara McClintock demostró que tenían una flexibilidad insospechada, base de la genética moderna.

Barbara McClintock en su laboratorio de la Carnegie
Institution, en 1947.
(Fotografia Smithsonian Institution via Wikimedia Commons)
“Dado que me impliqué activamente en el tema de la genética sólo veintiún años después del redescubrimiento, en 1900, de los principios de la herencia de Mendel, y en una etapa donde la aceptación de estos principios no era generalizada entre los biólogos, tuve el placer de atestiguar y experimentar la emoción creada por los cambios revolucionarios en los conceptos genéticos que han ocurrido en los últimos sesenta y tantos años.”

Es difícil imaginar este mundo que describía Barbara McClintock en su conferencia como Premio Nobel de Medicina o Fisiología de 1983, cuando había biólogos que no aceptaban la genética, no se había establecido el vínculo entre genética y evolución, y no sabíamos nada del ADN.

La propia bióloga galardonada había nacido sólo dos años después del redescubrimiento de los trabajos de Gregor Mendel, el 16 de junio de 1902, en Hartford, Connecticut, en los Estados Unidos. Ese mismo año, Walter Sutton demistraba que la genética mendeliana es aplicaba a los cromosomas de los seres vivos, es decir, que éstos transmitían las características heredadas. También en 1902 el británico Archibald Garrod observó que la alcaptonuria, enfermedad poco común, se heredaba según las reglas mendelianas.

Apenas en 1909, cuando la pequeña Barbara cumplía los 7 años de edad y vivía en Nueva York con su familia, el danés Wilhelm Hohanssen inventó una nueva palabra: “gen” para describir la unidad de herencia mendeliana. Dos años después, Thomas Hunt Morgan determinaba que los genes se encontraban en los cromosomas. Estaban listos los cimientos del trabajo de McClintock.
Barbara entró al Colegio de Agricultura de la Universidad de Cornell, NY, donde se licenció en 1923, obtuvo su maestría en 1925 y su doctorado en 1927, especializada en botánica y no en la genética, que ya era su pasión, pues las disposiciones de la universidad no permitían que una mujer obtuviera un título en la naciente disciplina.

Como doctora, McClintock empezó a trabajar en la propia universidad, trabajando con plantas de maíz, ya que esta especie tiene características que la hacen ideal para el estudio de la genética, pues cada grano de una mazorca es producto de una fertilización independiente, y es distinto de sus vecinos. Esto le permitió ser una de las descubridoras, en 1931, de un fenómeno inesperado: al reproducirse las células vivientes, los cromosomas de cada par intercambian partes entre sí.

Mc Clintock empezó entonces un peregrinaje por distintas instituciones educativas y de investigación en busca de un lugar dónde poder trabajar en condiciones adecuadas: Missouri, California, el Berlín y el Friburgo de la preguerra en 1933, de nuevo Cornell y Missouri, donde trabajó con el novedoso concepto de que la radiación provocaba mutaciones para estudiar la variación genética.

Finalmente, en 1941 la investigadora llegó a Cold Spring Harbor, en Washington, dependiente del Instituto Carnegie, donde encontró su lugar y donde permaneció como investigadora hasta el final de su vida.

Fue allí, en 1944, cuando descubrió que había elementos genéticos que podían cambiar de lugar en los cromosomas. Hasta entonces, la idea aceptada era que los genes se ubicaban en el cromosoma como las perlas en un collar, cada uno con una posición determinada e inmutable que se transmitía inalterado a su descendencia. Lo que demostró el trabajo de McClintock es que no había tal patrón inalterable, sino que por distintas causas, dentro y fuera de la célula, algunos genes pueden cambiar de lugar (transponerse) afectando así al organismo resultante. Los genes, pues, podían “saltar” de un lugar a otro en la cadena, con efectos discernibles. Estas transposiciones o cambios de lugar podían ocurrir de modo autónomo o como resultado de la interacción con otros genes. Así, McClintock descubrió también que había un tipo de genes cuya función era activar –o desactivar- a otros genes en su vecindad, y un segundo tipo de genes que eran responsables de que el activador cambiara de lugar o sufriera transposición.

Este proceso permitía así que ciertos genes del individuo resultante estuvieran o no activos en función de la transposición que hubieran sufrido durante la reproducción. El descubrimiento introducía un elemento adicional para explicar la variabilidad de la dotación genética de las especies, algo fundamental para la evolución.
El mismo año que hizo este fundamental descubrimiento, McClintock fue elegida como miembro de la Academia Nacional de Ciencias de los EE. UU. Era apenas la tercera mujer que ingresaba en la institución. Y en 1945 se validaba su trabajo al convertirse en la primera mujer que presidía la Sociedad Genética de los Estados Unidos, algo singular si recordamos que 20 años antes se le había negado la posibilidad de especializarse en genética.

Su trabajo en los genes saltarines (llamados técnicamente “transposones”) fue recibido con cierto escepticismo cuando finalmente lo publicó en 1950, según sus biógrafos en parte por su condición de mujer pero también por su poca eficiencia en la comunicación de sus resultados. Pero la idea era sólida y la confirmaron estudios diversos entre 1967, el año en que McClintock se jubiló formalmente, y 1970. Una vez validado el descubrimiento, así fuera tardíamente, la genetista fue galardonada con el Premio Nobel.

El escepticismo era explicable de varias formas. Cuando la estudiosa hizo sus descubrimientos ni siquiera se sabía que los genes estuvieran formados por ADN (ese descubrimiento sobrevendría hasta 1952) y lo incierto del camino hacía que la cautela se impusiera al valorar las afirmaciones más revolucionarias.

Pero ésa no sería la única aportación de Bárbara McClintock a la genética. Además de desarrollar numerosas técnicas que permitieron a otros investigadores realizar otros avances, fue una de las primeras biólogas que especuló sobre la epigenética, los cambios hereditarios en la expresión (activación) de los genes que no se deben a cambios en las secuencias de ADN.

Jubilada pero no retirada, Barbara McClintock siguió como investigadora distinguida en el Instituto Carnegie y se dedicó a explicar la transposición de los genes y su significado en la genética moderna. Murió el 2 de septiembre de 1992.


Los honores

A lo largo de su vida, Barbara McClintock recibió los más altos honores de la academia estadounidense. El Premio al Servicio Distinguido del Instituto Carnegie, el Premio Rosenstiel por investigación médica básica, un fellowship de la fundación MacArthur, el premio Mary Lasker y la Medalla Nacional de la Ciencia de los Estados Unidos.

octubre 26, 2014

La guerra biológica

Todo conocimiento puede ser usado para el mal, sobre todo para el mal mayor que es la guerra, donde ganar a cualquier coste puede llegar a ser muy caro, caso claro de las actuales armas biológicas.

Cultivo de bacilo del ántrax muestreado en 1993 en
Kameido, Japón, después de un ataque bioterrorista
de la secta religiosa Aum Shinrikyo, que dos años
después atacaría con gas sarín el metro de Tokio.
(Foto D.P. de los CDC de EE.UU., vía Wikimedia
Commons)
La guerra biológica plantea escenarios de ciencia ficción y peligros aterradores. Al mismo tiempo, su utilización es realmente menos frecuente hoy que en el pasado, por no ser tan eficaz como desearían los ejércitos, que buscan convertir en armas los productos del conocimiento. En ese sentido, cuanto hay en la naturaleza que nos puede matar puede ser utilizado –y mucho ha sido utilizado– en la guerra.

La guerra biológica implica no sólo a seres vivos, sino a las sustancias que producen, como los venenos. De ese modo, las armas biológicas se han usado de modo extendido y desde la antigüedad. Así, ya en la Ilíada y la Odisea se dice que las flechas y lanzas de aqueos y troyanos tenían puntas envenenadas. El veneno procedente de animales o vegetales fue la primera forma de guerra biológica, pero no la única. En la Primera Guerra Sagrada de Grecia, los atenienses y la Liga Anfictiónica envenenaron los pozos de agua del pueblo de Kirra con una planta tóxica.

Es ciertamente inquietante que, aunque no se conocía la existencia de gérmenes patógenos o la forma de desarrollo de las infecciones, los antiguos griegos tuvieran suficiente conocimiento empírico como para hacer lo que cuenta Heródoto, el historiador del siglo V a.E.C., que relata cómo los arqueros escitas mezclaban víboras putrefactas, sangre humana y estiércol de vaca y lo enterraban un tiempo para luego remojar las puntas de sus flechas en la mezcla, seguramente contaminada con diversos agentes infecciosos. Igualmente, era práctica común arrojar con catapultas animales o cuerpos humanos infectados a las ciudades sitiadas.

La palabra “tóxico” viene del antiguo griego toxikon, que se deriva de la palabra para flecha: toxon. Y las toxinas también fueron armas eficaces en oriente. El padre de la medicina china, Shen Nung, describió, en un libro que se dice que tiene cinco mil años de antigüedad, el uso de flechas empapadas en aconitina, un alcaloide de gran actividad obtenido del acónito.

Los agentes patógenos también fueron utilizados por los hititas para triunfar en su guerra contra Arzawa en el siglo XIV a.E.C., cuando llevaron a terreno enemigo carneros y burros infectados de tularemia, una grave infección bacteriana hoy poco frecuente, transmitida a los seres humanos por la vía de garrapatas y mosquitos.

Más directo, el legendario general cartaginés Aníbal llenó ollas de cerámica con víboras venenosas y las lanzó a las cubiertas de las naves del rey de Pérgamo. Un sistema similar empleado por la ciudad de Hatra, cerca de la actual Mosul, en Irak, que provocó la retirada del ejército romano en el siglo II de nuestra era lanzándoles ollas llenas de escorpiones vivos.

Junto con las armas biológicas se desarrollaron supuestos antídotos como el “mitridatium”, que según la leyenda fue creado por el rey persa Mitrídates VI, un experto en venenos cuya fórmula fue buscada y reinventada (y vendida por charlatanes poco escrupulosos) hasta el Renacimiento. Mitrídates sería el primer experto de lo que hoy llamamos “bioseguridad”, un aspecto importante en la defensa y seguridad de los países, especialmente los más poderosos y, por tanto, susceptibles de ataques con armas prohibidas.

La posibilidad de convertir en armas los agentes biológicos se hizo realidad junto con los avances de la biología y la teoría de los gérmenes patógenos de Louis Pasteur y Robert Koch, desarrollada a mediados del siglo XIX. Al mismo tiempo, en 1847, las convenciones de guerra prohibieron las armas envenenadas y después prohibirían toda forma de guerra biológica.

Todavía en la Segunda Guerra Mundial, las armas biológicas fueron utilizadas por última vez en una guerra, digamos, convencional, por el ejército imperial japonés. Los expertos de Hirohito convirtieron en armas las bacterias del tifus y el cólera, y las utilizaron en su guerra contra China para envenenar pozos y lanzar desde aviones pulgas infectadas por la peste. Se calcula que causaron así medio millón de muertes.

Las armas biológicas tienen el problema de ser difíciles de controlar y de apuntar... y que una vez distribuidas la descontaminación puede ser imposible, como descubrió el ejército británico cuando hizo una prueba con esporas de ántrax en una isla escocesa durante la Segunda Guerra Mundial, que hasta hoy está contaminada con ellas. Así, cualquier error o cambio en las condiciones pueden convertir a los atacantes en víctimas de sus propias armas. Un ejemplo fue el brote del más peligroso de los agentes biológicos, el ántrax, que ocurrió en 1974 en la ciudad hoy llamada Ekaterinburgo, causando la muerte de 64 personas. El origen fue una fuga accidental del bacilo de las instalaciones de guerra biológica situadas en la ciudad, pese a que la URSS era signataria de la convención contra armas biológicas firmada apenas dos años antes, en 1972. Estados Unidos sufrió un accidente similar, con otros patógenos, poco después del fin de la Segunda Guerra Mundial.

Esto no impidió que Irak, durante el régimen de Saddam Hussein, entre 1985 y 1991, desarrollara armas biológicas con agentes como ántrax, toxina botulínica y aflatoxinas, aunque no llegaron a usarse pues sus sistemas de dispersión eran altamente ineficientes.

Han sido grupos no regulares los responsables de los más recientes casos de uso o intento de uso de armas biológicas. En 1972, los miembros del grupo racista extremista denominado la Orden del Sol Naciente, fueron detenidos con más de 30 kilogramos de cultivos de bacteria de la tifoidea que planeaban usar para atacar ciudades estadounidenses. En 1984, la secta de Baghwan Rajneesh, “Osho”, esparció un cultivo de salmonela en los restaurantes de Antelope, Oregon, para impedir que la gente votara en unas elecciones con las que pretendían hacerse con el poder en el municipio, con cientos de afectados, 45 hospitalizados y, afortunadamente, ninguna muerte.

Pese a sus riesgos y las prohibiciones mundiales, los países poderosos suelen tenerlas en reserva pero no utilizarlas por la convicción de que las represalias con armas similares serían inmediatas y las posibilidades de proteger a su población son escasas. Asuntos contradictorios de los conflictos bélicos.

Animales de ataque

Algunos expertos consideran que el caballo y los elefantes de guerra son, de cierta forma, agentes de guerra biológica. En ese caso, en la misma clasificación entrarían algunos de los proyectos más descabellados de algunos departamentos de defensa, como el de utilizar delfines para poner minas en embarcaciones enemigas, algo que han explorado tanto los Estados Unidos como la URSS y después Rusia.

El aire pesa

Ligero pero capaz de arrancar una casa de sus cimientos cuando se mueve a gran velocidad, el aire que respiramos ejerce sobre todo el planeta una presión que condiciona cuanto hacemos.

Estatua de Evangelista Torricelli con su
barómetro en el Muso de Historia Natural
de Florencia, Italia. (Foto CC de Sailko,
vía Wikimedia Commons)
Para los primeros humanos, el aire era seguramente un material muy extraño. No se podía ver, pero podía refrescarnos, mover las hojas de los árboles, transportar aromas a grandes distancias o azotarnos con enorme violencia, además de que respirarlo resultaba indispensable.

No es raro entonces que el aire preocupara a los antiguos pensadores. En varias culturas se le consideró uno de los elementos primordiales. Entre los griegos, el filósofo Anaxímenes creyó que era el componente esencial del universo, mientras que la visión de Aristóteles sobre los cuatro elementos predominó en Europa durante 20 siglos. Aristóteles también propuso la idea de que el aire tenía peso.

Además, si las enfermedades llegaban por medios invisibles, quizá las traía el aire. Los “malos aires”, se creyó largamente, eran los portadores de los “miasmas”, contaminaciones que provocaban las enfermedades. Esta superstición aún sigue vigente en consejas como la que nos advierte contra el peligro de que “nos dé un aire” porque, por ejemplo, puede ocasionarnos una parálisis facial... cosa que los niños hallan divertido poner a prueba.

La demostración de que el aire pesaba tuvo que esperar a la revolución científica, aunque su base lógica era sólida: si el aire puede mover objetos, desde una brizna de hierba hasta un gran velero, es porque tiene masa, y todo cuanto tiene masa necesariamente tiene peso en un cuerpo como la Tierra con su atracción gravitacional. En 1613, Galileo desarrolló un método para calcular la “gravedad específica” del aire, es decir, su peso. Utilizó un recipiente hermético que pesó en una balanza muy precisa y en el que luego introdujo tanto aire a presión como pudo, descubriendo que su peso había aumentado. Galileo informó de este hallazgo pese a que abría una serie de preguntas que no se podían resolver en ese momento, como, por ejemplo, por qué no sentimos el peso del aire sobre nosotros. Por alguna causa, sin embargo, los resultados de Galileo estaban equivocados, la realidad es aproximadamente el doble de lo que anotó el astrónomo.

A la misma conclusión llegó el francés Jean Rey por otro camino. Observó que al calcinar plomo y estaño el peso de estos metales aumentaba, y supuso que ello se debía a que al calcinarse estos metales incorporaban aire. Hoy sabemos que algunos materiales se oxidan al calcinarse, incorporando moléculas de oxígeno a su composición y aumentando de peso.

La presión que ejerce el peso del aire sobre la superficie de la Tierra y todo cuanto hay en ella, se conoció finalmente cuando Evangelista Torricelli, que había sido ayudante de Galileo durante los últimos tres años de vida del genio perseguido, fabricó el primer barómetro: un tubo de vidrio lleno de mercurio y cerrado por un extremo, cuyo otro extremo se depositaba en un recipiente con mercurio. El metal dentro del tubo bajaba, creando un vacío en el extremo cerrado del tubo, hasta una altura igual a la de la presión de la atmósfera.

La primera medición de Torricelli de la presión, en 1644, le dio un valor de 760 mm de mercurio, o 0,01 newtons de fuerza por cada centímetro cuadrado. El propio Torricelli, al ver que la altura de su columna de mercurio variaba según las condiciones del clima, predijo que la presión atmosférica sería menor cuanto mayor fuera la altura sobre el nivel del mar, algo que confirmarían experimentos posteriores.

Mientras el estudio del aire se convertía en toda el área de la química dedicada a los gases gracias a Robert Boyle, quien fundó la química moderna en el siglo XVII, el estudio de la presión atmosférica se desarrolló como algo indispensable para el estudio de la meteorología, la historia de nuestro planeta e incluso el comportamiento animal y humano.

La presión del aire es variable precisamente porque los gases se pueden comprimir, así que el peso del aire depende de muchas variables que los físicos fueron determinando con el tiempo.

Por ejemplo, el volumen de un gas se reduce cuanta más presión haya y aumenta cuanto más caliente esté. Esto explicaba, por ejemplo, por qué la presión variaba según el clima. Por lo mismo, para determinar el peso del aire es necesario establecer las condiciones: un metro cúbico de aire seco (sin humedad, que aumenta su peso) a 20ºC de temperatura pesa 1.205 kilogramos. Esto significa que cada uno de nosotros soporta sobre sus hombros aproximadamente una tonelada de aire.

¿Por qué no sentimos ese enorme peso o la presión que ejerce? Porque todo nuestro cuerpo compensa esa presión, es decir, los gases que hay en nuestro interior tienen la misma presión. Nuestro cuerpo tiene un empuje que equilibra la presión atmosférica.

Las consecuencias de esto son interesantes. Por ejemplo, cuando un submarinista pasa un período largo de tiempo a gran profundidad, la presión del agua hace que sea necesario respirar el aire embotellado a una presión muy superior a la de la que hay al nivel del mar. Parte de la mezcla que se respira está formada, como nuestra atmósfera, por gases inertes, principalmente nitrógeno, que siempre están disueltos en todos los tejidos del cuerpo. Pero a gran profundidad, esos gases están a una presión mucho mayor. Si el submarinista asciende súbitamente, esos gases se expanden al disminuir la presión exterior y forman burbujas en sus tejidos y, principalmente, en la sangre, que pueden ocasionar la muerte.

La forma de contrarrestar esta enfermedad por descompresión (que también pueden sufrir otros individuos que trabajen en entornos de gran presión) es colocar a la persona en una cámara a presión similar a la que estuvo sometido bajo el mar y disminuir esa presión gradualmente de modo que la presión de los gases de su cuerpo se equilibre poco a poco y sin formar peligrosas burbujas.

En el otro extremo, la baja presión a grandes alturas explica por qué los montañeros suelen tener que llevar oxígeno complementario. A la altitud del Everest y montañas similares, sólo tienen sobre ellos el 30% de la atmósfera que a nivel del mar, y el oxígeno, por tanto, es escaso.

Presión y cocina

No es igual cocinar al nivel del mar que a mayores alturas. Esto hace necesario adaptar las recetas de cocina considerando que es necesario aumentar las temperaturas o los tiempos de horneado, así como la proporción de líquidos y harina para evitar que las masas queden demasiado húmedas, y dado que los gases se expanden más, debe disminuirse la cantidad de levadura. Además, el agua hierve a 100 ºC al nivel del mar, pero a grandes alturas lo hace a menos temperatura, por lo que los platillos con agua, como la pasta, tardan más tiempo en prepararse.

septiembre 06, 2014

25 años de la World Wide Web

Sí, hubo un mundo antes de la web, cuando los archivos se compartían llevando papeles de un lugar a otro y donde la información era mucho menos libre que hoy en día.

Esta poco impresionante estación de trabajo NeXT fue el
primer servidor web, instalado por Tim Berners-Lee en
el CERN. A la izquierda, sobre el teclado, hay un ejemplar
del documento "Gestión de la información: una propuesta",
 la semilla de la telaraña mundial.
(Foto CC Coolcaesar, vía Wikimedia Commons)
La fecha no es muy precisa, depende de qué criterio se utilice para determinar en qué momento podemos decir que ya existía la World Wide Web, el servicio de Internet que revolucionó la red y la convirtió en lo que es hoy. Pero estrictamente, la idea se presentó hace un cuarto de siglo, en marzo de 1989, en un documento sobriamente titulado “Gestión de la información: una propuesta” que envió el físico e ingeniero informático británico Tim Berners-Lee a sus jefes del Centro Europeo de Investigaciones Nucleares, CERN.

Hoy ya tenemos una generación que ha vivido toda su vida con esta herramienta de la información (y de la desinformación), de la comunicación (y de la incomunicación), del entretenimiento y de las relaciones sociales. Una generación para la cual es inimaginable el mundo sin esta interconexión y sin su abundancia de información y entretenimiento.

Aunque a veces lo olvidamos, Internet es una red de varios servicios. El correo electrónico, los archivos compartidos por FTP, los grupos de noticias, los chats IRC, el control de ordenadores remotos por Telnet y otros, la mayor parte de los cuales ya existían antes de que apareciera la World Wide Web. Algunos con el tiempo se han integrado en ésta, pero sin dejar de tener una operación y sistemas independientes.

Conseguir un documento que tuviera otro servidor de la Internet primitiva era enormemente difícil. Requería saber quién lo tenía (no sólo la universidad o institución, sino el servidor en el que estaba alojado, en qué carpeta y con qué nombre) y luego utilizar una conexión FTP para descargarlo, a una velocidad increíblemente baja.

Era lento. Era torpe. Y había que saber lenguaje Unix.

Por otro lado, el correo electrónico ya tenía más de dos décadas funcionando cuando apareció la web. El primer correo se había enviado en 1971 ya con una dirección cuyo usuario y servidor estaban separados por la hoy omnipresente arroba.

Todo ello cambió cuando Tim Berners-Lee decidió intentar utilizar el hipertexto para la comunicación entre servidores de Internet, que estaba en funcionamiento público desde principios de la década de los 80 (antes había sido un proyecto de la defensa estadounidense). El hipertexto es lo que hoy conocemos como vínculo o enlace: un fragmento de texto con una referencia a más texto, a otro documento o a otro servicio. Ya era una idea que varios, incluso Berners-Lee, habían explorado antes.

El proyecto presentado en 1989 tenía por objeto facilitar que los científicos europeos compartieran información en el CERN y otras universidades. Aprobada la idea, hizo un prototipo funcional e instaló el primer sitio web de la historia llamado, precisamente, World Wide Web. A su prototipo siguió el primer navegador Web, Lynx (juego de palabras con “links”, que significa “enlaces”, palabra homófona a “lynx” o “lince”). Poco después, los científicos del CERN instalarían la primera webcam (para vigilar la cafetera y atacarla cuando hubiera café recién hecho), se subió la primera fotografía y se inventó el concepto de “surfear” o navegar la red.

La idea se desató sobre el mundo el 30 de abril de 1993, cuando el CERN hizo público el código fuente (el programa básico) del proyecto, sentando las bases de la red libre que hoy es objeto de controversias, debates y enfrentamientos. Para 1994 ya había más de 10.000 sitios Web y Berners-Lee se fue al MIT en Estados Unidos para ponerse al frente del W3 Consortium, organización sin ánimos de lucro que rige y ordena la WWW, y lucha por mantener sus características básicas como una red pública, libre e independiente de gobiernos e intereses económicos y políticos.

Algunas cifras permiten darnos una idea de la explosión que ha significado la World Wide Web, sin apenas tratar de valorar en justicia, que sería muy difícil, su impacto en la sociedad, en la política, en la actividad académica, en el arte y en todas las actividades humanas, especialmente vinculada a los otros dos actores de la revolución virtual: el ordenador y el teléfono móvil.

Los primeros módems que se usaron en la WWW, que se comunicaban mediante líneas telefónicas analógicas, alcanzaban una velocidad máxima de 14.400 kilobits por segundo, lo que quiere decir que para descargar un megabyte o mega tardaban 14 minutos. La descarga de un vídeo de media hora de calidad razonable disponible en la actualidad, de 5 gigas, por ejemplo, habría tomado... más de 1.200 horas o 48 días. Con un módem de línea digital ADSL o de cable actualmente se puede llegar a velocidades de 300 megabits por segundo, capaz de descargar un mega en algo menos de medio segundo y el mismo vídeo en una media hora.

La mayor velocidad de transmisión de la información ha permitido por lo mismo una explosión en la cantidad y variedad del material disponible en la Web. Y todo ese material está accesible en alrededor de 1.017 millones de sitios Web según una estimación de fines de julio de 2014.

Esos más de mil millones de sitios se encuentran alojados en una cantidad indeterminada de servidores. Algunos medios calculan 75 millones y otros muchos más. Y para llegar a ellos se necesita otro millón de servidores, que son los que tiene Google según calculan los expertos de la industria, aunque sólo la empresa lo sabe con certeza.

Pero la World Wide Web que está entrando a su segundo cuarto de siglo es mucho más que números e información. Es la gente que la usa, la que ha creado sus datos, la que forma sus redes sociales, la que de modo creciente está colocando sus propios archivos, sus documentos, sus fotos, sus vídeos en la red. Se calcula que, accediendo a la World Wide Web mediante ordenadores o smartphones, actualmente el número de usuarios del invento de Berners-Lee es de 2.940 millones de personas a fines de julio de 2014, el 42 por ciento de los seres humanos. Y probablemente habrá llegado a la mitad de los habitantes del planeta antes de su cumpleaños número 26.

Una cifra que para muchos es, simplemente, el desafío de llevar la Web a la otra mitad del mundo.

La web profunda

La “web profunda” o “invisible”está formada por todas las páginas que no son indexadas por los buscadores: las accesibles mediante suscripción, redes privadas de empresas y gobiernos; páginas que se generan en respuesta a solicitudes y luego se borran (como nuestros movimientos bancarios al consultarlos) y otras. Se calcula que es miles de veces mayor que la web abierta e incluye, aunque no como lo pintan algunos mitos que rayan en la leyenda urbana, páginas donde se desarrollan actividades ilegales y que son objeto del interés de las corporaciones policiacas de todo el mundo.