Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Entender el cerebro... con el cerebro

Nuestro cerebro y sus funciones siguen siendo grandes desconocidos, y su investigación neurocientífica es una de las grandes historias de nuestro tiempo.

Fue René Descartes quien en el siglo XVII por primera vez propuso que el cerebro era una máquina que se encargaba de controlar las funciones del cuerpo y el comportamiento en los animales. Como hombre religioso, consideró que esa máquina era operada, en el hombre, por la mente, un ente inmaterial que no respondía a las leyes naturales.

Pese al problema filosófico que planteaba esta dicotomía mente-cuerpo, la visión de Descartes abrió el camino a la investigación sobre el cerebro y sus funciones.

El problema del estudio del cerebro era muy distinto al de otras partes del cuerpo humano, porque su observación directa, su anatomía o su fisiología no ofrecían prácticamente ninguna información sobre su funcionamiento, como sí lo hacen la observación y disección de otros órganos.

Por ello, las lesiones cerebrales fueron durante largo tiempo la única forma de estudiar la relación entre forma y funcionamiento de esa masa rosada de kilo y medio o dos kilos de peso y formada por 100.000 millones de neuronas que es el cerebro o encéfalo. Así, a mediados del siglo XIX el francés Paul Broca pudo determinar al trabajar con pacientes que padecían lesiones cerebrales que la capacidad de hablar se localiza en el lóbulo frontal del cerebro, en la hoy conocida como área de Broca. Para 1890, el trabajo con otros pacientes con lesiones en el lóbulo occipital (la parte más trasera de nuestro cerebro) permitió al neurólogo sueco Salomon Henschenn identificar allí el centro de la visión.

En el siglo XX, la investigación y las nuevas técnicas de observación fueron dibujando un mapa tremendamente complejo del cerebro, donde su actividad dependía de que ciertas sustancias, verdaderos mensajeros químicos llamados neurotransmisores, recorrieran el camino entre dos neuronas, en el punto donde se comunican pero no se tocan, llamado sinapsis, separadas por el espacio sináptico identificado por Santiago Ramón y Cajal.

Estas sustancias resultaron uno de los más complejos acertijos de la fisiología, y su estudio ayudó a poner en marcha lo que hoy conocemos como neurociencias: el estudio del sistema nervioso desde diversos puntos de vista, desde el conductual hasta el químico, desde el anatómico hasta el genético, tratando de armar el rompecabezas del aparato con el que percibimos, sentimos, pensamos y actuamos, desde la transmisión de un impulso entre dos neuronas hasta un comportamiento complejo como la solución de problemas matemáticos, desde el aspecto evolutivo hasta una función tan elusiva como la memoria.

Poco a poco, la imagen del cerebro se va aclarando… y complicando a la vez, porque el cerebro ha demostrado ser un órgano mucho más plástico o flexible de lo que imaginábamos.

Si antes se pensaba que las neuronas no se reproducían, las investigaciones ahora apuntan a que sí existe producción de nuevas neuronas en los humanos adultos. La comprensión de los elementos que favorecen o inhiben la producción de neuronas, así como las posibilidades de cultivarlas, abren amplias avenidas de investigación para el tratamiento de enfermedades neurodegenerativas o de lesiones nerviosas graves como las que producen parálisis, además de entender cómo ciertas sustancias pueden dañar o favorecer ciertas conductas y funciones, como la adicción a sustancias psicogénicas o la capacidad matemática.

Pero no son las nuevas neuronas las que dan su mayor flexibilidad al cerebro, sino las conexiones entre neuronas y las redes que crean, su capacidad de intercomunicación, las que parecen guardar la clave de nuestras funciones cognitivas. Una sola neurona puede tener miles de sinapsis con otras tantas neuronas, formando complejos entramados. Cuando aprendemos algo, por ejemplo, empezamos adquiriendo una memoria a corto plazo que forma patrones temporales de comunicación entre neuronas, mientras que la memoria a largo plazo implica la creación de nuevas conexiones entre neuronas. La forma en que esas conexiones codifican lo que para nosotros puede ser la memoria de una canción, del olor de una fruta o de una experiencia del pasado sigue siendo un misterio cuya solución no parece cercana.

Los propios neurotransmisores son apenas comprendidos. Algunos excitan a la neurona a la que se unen, mientras que otros inhiben la actividad de esas neuronas. Sabemos que algunos neurotransmisores están relacionados con ciertos aspectos psicológicos y conductuales, pero la imagen dista mucho de ser clara. Por ejemplo, el primer neurotransmisor identificado, la acetilcolina, tiene relación con aspectos tan distintos como el movimiento voluntario, el aprendizaje, la memoria y el sueño; un exceso de esta sustancia está asociado con la depresión y una carencia de ella en cierta zona del encéfalo llamada hipocampo se ha asociado a la demencia o pérdida de la memoria.

Del mismo modo, con frecuencia hablamos de una “subida de adrenalina”, que está implicada en la energía y el metabolismo de la glucosa, y cuya carencia se asocia también a la depresión. O leemos algo sobre las endorfinas, neurotransmisores que se libera en situaciones tan diversas como el ejercicio, la excitación, el dolor, el consumo de comida picante, el amor y el orgasmo y cuyo funcionamiento exacto desconocemos.

El neurocientífico de la Universidad de Duke, Scott Huettel, ha afirmado que el cerebro humano es “el objeto más complejo del universo conocido… su complejidad es tal que los modelos simples son poco prácticos y los modelos complejos son difíciles de comprender”. La simplificación en la cultura popular que pretende que ciertos neurotransmisores provoquen ciertos resultados de modo mecánico, sin embargo, son imprecisas. Así, si no sabemos exactamente cómo funcionan las endorfinas, quienes afirman que se liberan más o menos endorfinas con tales o cuales alimentos o prácticas, y que eso es bueno o malo pretenden que sabemos mucho más de lo que la ciencia ha descubierto hasta hoy, sin admitir que las neurociencias todavía tienen su mayor camino por recorrer, probablemente como la disciplina más relevante del siglo XXI, del mismo modo en que la física dominó el siglo pasado.

El desafío se complica

Además de los 100.000 millones de neuronas que activamente transmiten impulsos nerviosos, nuestro cerebro tiene entre 10 y 50 veces más células gliales, que durante mucho tiempo se pensó que eran sólo aislantes entre las neuronas. Ahora se ha descubierto que estas células no sólo se comunican entre sí, sino que alimentan y protegen a las neuronas, y regulan la transmisión de impulsos entre éstas de un modo que aún no entendemos. Lo que multiplica entre 10 y 50 veces el desafío de las neurociencias.

Que siga la música

Fonógrafo de Edison
(Fotografía de Norman Bruderhofer)
Hace apenas 120 años que podemos grabar y reproducir interpretaciones musicales, dándole a esta forma de arte una permanencia como la que tienen literatura o las artes plásticas.

Sabemos lo que pensaron las culturas antiguas gracias a que dejaron escritas sus ideas, sus crónicas, sus creencias y sus reflexiones. De hecho, a la época anterior a la existencia de los registros escritos la consideramos “prehistoria”. Sabemos también lo que esculpieron, lo que pintaron, lo que construyeron, al menos parcialmente, las culturas ancestrales.

Pero no podemos escuchar los sonidos del pasado más allá de una grabación realizada en 1888 con el fonógrafo creado por Edison. De la música anterior a ese momento, no tenemos más que una idea más o menos imprecisa.

La única forma de preservar la memoria musical antes de grabar la música era utilizar un sistema de símbolos que representaran las distintas características de la música, sus notas, su ritmo, su sonido. Es lo que llamamos “notación musical” y su primer ejemplo es una tableta cuneiforme de hace unos cuatro mil años, procedente de la ciudad de Nippur, en lo que hoy es Irak. Muchas culturas lo intentaron en distintos momentos, pero la mayoría de las formas de notación eran insuficientes e imperfectas.

El desafío era tal que llegó a desesperar a teóricos como el arzobispo del siglo VI-VII Isidoro de Sevilla, dueño de una enorme pasión por la música y quien creía que las leyes de la armonía regían todo el universo, pero que concluyó con desánimo que era imposible hacer una notación musical precisa. Pasaron unos 400 años antes de que Guido d’Arezzo, monje benedictino italiano, desarrollara los principios de la notación que utilizamos hoy, con un pentagrama dónde escribir las notas, su duración, el ritmo, las armonías y todo lo necesario para reproducir la música.

Gracias a esta revolucionaria notación, conocemos las composiciones a partir del siglo XI. Tenemos, por ejemplo, las partituras de Nicolo Paganini. Pero ignoramos cómo las interpretaba, cuáles eran los sonidos de su virtuosismo, que le ganó la admiración de sus contemporáneos.

En 1857, el impresor francés Édouard-Léon Scott de Martinville trató de reproducir el oído humano con un aparato que registrara visualmente el sonido usando una membrana elástica y lo transmitiera para accionar una aguja que dibujaba el movimiento en una superficie cubierta de hollín. Poco después, el también francés Charles Cros propuso que la aguja grabara o estriara una superficie metálica, de modo que al hacer pasar la aguja sobre los surcos, la membrana vibrara reproduciendo el sonido. Sobre estas bases, en 1877, Thomas Alva Edison creó el fonógrafo, el primer grabador reproductor de sonido.

Y en 1888, el 29 de junio, un agente de Edison grabó “Israel en Egipto”, de Georg Friedrich Handel, interpretado en Londres, una grabación que aún existe.

Los cilindros de cera de Edison se vieron sustituidos por los discos fonográficos inventados en 1888 por Emile Berliner. El proceso mecánico de reproducción se perfeccionó y en 1920 pasó a ser eléctrico, utilizando el micrófono que el mismo Berliner había inventado para la transmisión telefónica y una serie de dispositivos electrónicos para captar el sonido con mayor fidelidad. Los músicos interpretaban sus melodías ante micrófonos y grababan un disco maestro del cual se obtenía un vaciado invertido en platino, que se usaba entonces para imprimir muchos discos iguales en vinilo.

La siguiente evolución fue la cinta magnética para capturar el sonido y a partir de él crear el disco maestro. Aunque se inventó en 1898, sólo se empezó a usar en 1932 y no se comercializó sino hasta fines de la década de 1940. Con la cinta magnética, la grabación de música se volvió más sencilla. Y en 1957, la experiencia del disfrute musical se incrementó con la aparición de los discos estereofónicos, capaces de reproducir distintos sonidos (instrumentos, voces) en dos canales y dos altavoces.

Para el ciudadano común hasta mediados de la década de 1980 la música vino en discos de 30,5 cm de diámetro hechos de vinilo negro (salvo algunas excepciones de color) que giraban a 33 1/3 revoluciones por minuto y podían reproducir unos 25 minutos de sonido en cada uno de sus dos lados. Eran los discos de larga duración. La opción eran discos de 18 cm que giraban a 45 revoluciones por minuto y ofrecían una canción por lado, que se vendían por el atractivo de una de las canciones, mientras que la otra, en el “lado B” era considerada de relleno.

La cinta magnética llegó al ciudadano común como forma de reproducción en forma de “cassette”, una cajita de plástico con dos carretes y cinta capaz de contener 30, 60 o 90 minutos de música. Fue eficaz competidora de los discos de vinilo desde fines de la década de 1970 hasta el principio de la de 1990, impulsada por el primer sistema de reproducción portátil individual, el Walkman, abuelo del moderno reproductor MP3.

Con el avance de los ordenadores, el siguiente paso lógico era capturar y reproducir la música digitalmente, un sistema que llegó al público mediante el disco compacto o CD, capaz de almacenar cualquier tipo de información y, en audio, hasta 90 minutos de música. A fines de la década de 1980, el CD de audio empezó a desplazar a los discos de vinilo y a los audiocassettes, ofreciendo además la posibilidad, por primera vez, de copiar la música sin perder calidad, algo que no se podía lograr con los sistemas analógicos.

El formato digital utilizado en el CD conserva toda la información de la grabación original y los archivos resultan muy grandes, de modo que se propuso comprimir esos archivos con una pérdida selectiva e indetectable de parte de la información. Lo logró el estándar de compresión de audio actual, el MP3, que reduce los archivos de música a una onceava parte del tamaño original, permitiendo el desarrollo de los reproductores portátiles omnipresentes.

Por primera vez, nuestra cultura tiene memoria musical precisa para perpetuar a grandes virtuosos, trátese de Yitzakh Perlman o Yngwie Malmstein, y cada uno de nosotros puede disfrutar de su música favorita como nunca lo hicieron nuestros ancestros… un trascendente hecho cultural y una hazaña tecnológica al servicio de nuestro placer auditivo.

El vinilo y el CD

Entre los audiófilos no hay tema más candente que la comparación entre la calidad de los discos de vinilo y a de los CD. Aunque técnicamente los datos favorecen la calidad de la música reproducida digitalmente, esto no basta para convencer a los amantes del vinilo. Lo único seguro es que, inevitablemente, reproducir un disco de vinilo lo degrada un poco cada vez, mientras que la música reproducida digitalmente no pierde información sin importar cuántas veces se reproduzca, lo cual no deja de ser una consideración importante.

La gravedad, el acertijo omnipresente

Al paso del tiempo hemos descubierto que la gravedad es el gran elemento cohesivo del universo, y su comportamiento nos ha permitido investigar toda nuestra realidad… y aún queda mucho por saber.

Albert Einstein en 1921
(Foto de E.O. Hoppe, revista Life
via Wikimedia Commons)
Es un fenómeno evidente e ineludible: saltamos, y la gravedad nos hace volver al suelo. Lanzamos una pelota y cae al suelo. Una fuerza poderosa está en acción, pero distinta de las otras que conocemos: no tiene opuesto, no nos podemos blindar contra ella y pese a ser la más débil de las cuatro fuerzas fundamentales, es la que mantiene unido el universo.

Una de las primeras teorías sobre la gravedad, su funcionamiento y sus causas, es la que formuló Aristóteles basado en dos creencias ya existente desde tiempos presocráticos: primero, que nuestro mundo estaba en el centro del universo y, segundo, que éste estaba formado por cuatro elementos: agua, aire, tierra y fuego. Cada uno de estos elementos parecía tener su lugar en el universo: la tierra en el centro, sobre ella una capa de agua, sobre ésta el aire y finalmente, en la bóveda celeste, el fuego. En la visión de Aristóteles, la gravedad era únicamente la “naturaleza contenida en cada sustancia” que la llevaba a buscar su lugar en el universo. El aire subía por el agua en forma de burbujas, para ubicarse donde le correspondía, el fuego subía por el aire y la tierra caía por el aire y el agua para llegar al nivel de la tierra.

Otra idea de Aristóteles (en su libro “Física”, escrito alrededor del 330 a.C.) respecto de la forma en que se expresaba esta “naturaleza” era que los objetos caían a velocidades distintas según su peso: una piedra 10 veces más pesada que otra caía 10 veces más rápido.

Por erróneo que fuera el modelo, no cabe duda que era elegante y parecía coherente internamente. Tanto así que fue admitido como real, sin posibilidad de desafío, en Europa y el Cercano Oriente hasta mediados del siglo XVI, cuando Nicolás Copérnico estableció un modelo más sencillo que el derivado de Aristóteles y que explicaba mejor el movimiento de los cuerpos celestes, ubicando al sol en el centro del universo, y que dio a conocer en 1543. Para fines del siglo XVI, Galileo demostró que los objetos de peso distinto caían a la misma velocidad (o, más exactamente, a la misma tasa de aceleración).
Conforme se alcanzaban estos nuevos conocimientos, el modelo aristotélico se desmoronó.

Sobre la base de los trabajos de Copérnico, Galileo y sus contemporáneos, Isaac Newton, nacido exactamente 100 años después de la publicación de Copérnico, logró describir la forma en que actuaba esa fuerza que él llamó “gravedad” en 1686. En el modelo de Newton, la gravedad era una fuerza universal de atracción de los cuerpos que podía expresarse como el producto de las masas de los dos cuerpos dividido por el cuadrado de la distancia que los separa. Y esta ley explicaba por qué las órbitas de los planetas alrededor del Sol son elípticas, por qué la Luna provoca las mareas y por qué los objetos (como la manzana que vio caer en su granja en 1666 y le llevó a preguntarse por qué los objetos caían siempre en forma perpendicular al suelo, poniendo en marcha sus investigaciones sobre la gravedad).

El modelo que Newton dio a conocer en 1687 proporcionó una explicacion matemática muy precisa de la forma en que se mueven los cuerpos en un campo gravitacional, desde por qué cuando lanzamos una pelota describe una parábola hasta cómo se orquestaba el movimiento de todos los cuerpos estelares.
Esto no significa que no hubiera paradojas y contradicciones en el modelo de Newton, sobre todo una que preocupó a los físicos del siglo XIX: ¿cómo sabía cada cuerpo de la existencia del otro para ejercer esa fuerza de atracción? ¿A qué velocidad se transmitía la gravitación (si para entonces ya se conocía la velocidad de la luz)?

En 1907, Einstein se dio cuenta de que una persona en caída libre no experimentaría un campo gravitacional (lo que ocurre precisamente con los astronautas en órbita alrededor de nuestro planeta). Esto le llevó a profundizar en las dudas existentes sobre la gravedad y cómo se relacionaba con la relatividad especial que había formulado un año antes y a enfrentar un problema que desafiaba a los físicos: el punto más cercano de la órbita de Mercurio alrededor del Sol avanzaba lentamente al paso del tiempo, de un modo que no se ajustaba a lo previsto por Newton.

La solución fue la relatividad general, presentada en 1915, en la que Einstein consideraba a la gravedad no como una fuerza del modo que lo es el electromagnetismo, sino como un efecto geométrico de un fenómeno totalmente inesperado: la curvatura del espaciotiempo provocada por la masa de los objetos (a mayor masa de un objeto, mayor curvatura espaciotemporal, provocando una mayor aceleración de los objetos que caen hacia él), del mismo modo en que un objeto sobre una cama elástica provoca una deformación hacia abajo. La gravedad, entonces, no afectaba únicamente a los cuerpos, sino también a la luz, en un fenómeno llamado “lente gravitacional” que se demostró en 1919, durante un eclipse en el cual se pudo observar que la luz de las estrellas que pasaba cerca del sol estaba ligeramente curvada.

Sin embargo, el modelo de Einstein tampoco carece de problemas. El principal es que la relatividad general funciona muy bien a nivel macroscópico, pero no es compatible con la mecánica cuántica, que describe las otras fuerzas o interacciones fundamentales del universo (el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil) a nivel subatómico, de modo que debemos avanzar hacia una nueva teoría de gravedad cuántica. Un candidato a este puesto es la teoría de cuerdas, que postula que las partículas elementales que forman el universo proceden de diminutos objetos que representamos como cuerdas que vibran… y entre esas partículas estaría el “gravitón”, una partícula virtual que nunca ha sido detectada pero que sería la transmisora o la mensajera de la gravedad.

Los físicos siguen trabajando, con desarrollos matemáticos de creciente complejidad que buscan ser un mejor modelo de cómo funciona esa fuerza evidente que nos mantiene “con los pies en el suelo”. Una fuerza que no por evidente ha revelado todos sus secretos.

Las predicciones de Einstein

La relatividad general de Einstein se traduce en una serie de predicciones físicas que han sido sólidamente comprobadas a lo largo de casi 100 años. Una que aún está pendiente es que existen “ondas gravitacionales” y se comportan de cierto modo. Dos proyectos, una futura antena orbital llamada LISA actualmente en estudio por la agencia espacial europea y un observatorio terrestre llamado LIGO que entrará en operación en 2013 en Livingston, Nueva Orléans, tienen la misión de encontrar esas ondas gravitacionales.

Antes del robot, el autómata

Anuncio de los autómatas o "sueños mecánicos"
de Vaucanson
(D.P. vía Wikimedia Commons)
El persistente sueño de crear seres que imiten la vida sin estar vivos.

Máquinas que pudieran ser esclavos o guerreros sin miedo, sirvientes o amigos, que cantaran previsiblemente en los árboles como las aves o que se desplazaran silenciosas y líquidas como felinos. Los autómatas han tenido mejor suerte en la ficción que en la realidad, desde Talos, el gigante de bronce forjado por Hefestos para proteger Creta (y vencido por Medea) hasta los robots de la literatura inventados por el checo Karel Capek y perfeccionados por Isaac Asimov o los del cine, como los memorables y aterradores robots de la serie “Terminator” o David, el entrañable niño de “Inteligencia Artificial”.

Los logros del mundo de los autómatas se ha visto amplificada con frecuencia por el mito, y por el entusiasmo de quienes querían ver más de lo que probablemente había en las exhibiciones del pasado. Así tenemos el legendario trono con animales mecánicos del rey Salomón en la tradición hebrea, mientra que entre los antiguos chinos, las crónicas hablan de orquestas mecánicas y animales asombrosos, incluso aves de madera capaces de volar desde el siglo III antes de la Era Común hasta el siglo VI d.E.C., cuando se publicó el “Libro de las excelencias hidráulicas”.

La historia constatable de los autómatas comienza con Arquitas de Tarento, filósofo griego del grupo de los pitagóricos, que en el año 400 a.N.E. construyó un ave de madera movida por vapor, mientras que Herón de Alejandría, creador del primer motor de vapor, la eolípila, describió otras aves autómatas 250 años después.

El vapor como fuente de energía para los autómatas cayó en el olvido hasta el siglo XVIII, de modo que los inventores tuvieron que accionar sus aparatos con la energía del viento o la hidráulica. Ésta última fue la fuente de energía, junto con el desarrollo de la leva y el árbol de levas, que utilizó Al-Jazarí para construir pavorreales que se movían y autómatas humanoides que servían bebidas o ayudaban a lavarse las manos. Su mayor logro fue una orquesta hidráulica de cuatro integrantes en una pequeña embarcación que amenizaban las fiestas desde el lago. Los logros mecánicos de Al-Jazarí, que iban mucho más allá de sus entretenidos autómatas, están descritos en el “Libro del conocimiento de dispositivos mecánicos ingeniosos” de 1206, que posiblemente fue una de las influencias sobre la visión mecánica de Leonardo Da Vinci.

En el siglo XV surgió en Europa el mecanismo de cuerda, un muelle espiral que almacena energía al apretarse con una perilla y que que después libera controladamente la energía. El sistema, creado primero para el diseño de cerrojos fue pronto utilizado en relojes y en autómatas. Fue el alemán Karel Grod el primer creador de autómatas de cuerda asombrosos en su momento que en el siglo XX eran simples juguetes relativamente baratos. Leonardo Da Vinci, en su menos conocida labor como escenógrafo y responsable de lo que hoy llamaríamos “efectos especiales” hizo en 1509 un león de cuerda para recibir a Luis XII en su visita a Italia.

Los autómatas de cuerda se volvieron parte esencial del entretenimiento de los poderosos y llegaron a un detalle exquisito utilizando únicamente engranes, levas y máquinas simples. Su época de oro fue sin duda el siglo XVIII.

Jacques de Vaucanson creó dos famosos autómatas: un flautista tamaño natural capaz de tocar doce canciones con flauta y tamboril que presentó en 1738 y, un año después, un pato capaz de digerir alimentos… al menos en apariencia. El pato mecánico parecía comer granos, digerirlos y después deshacerse de las heces por detrás. En realidad, el grano se almacenaba dentro del pato y los supuestos desechos prefabricados salían de otro depósito. Pero Vaucanson soñaba que algún día habría un autómata capaz de digerir. Uno de los más impresionados por el ave fue ni más ni menos que Voltaire.

Lo que sí hizo Vaucanson en sus últimos años como encargado de mejorar los procesos de la seda fue intentar automatizar los procesos de hilado y tejido, algo que conseguiría su continuador Joseph Marie Jacquard, creador del telar mecánico.

El ejemplo más acabado de autómatas de cuerda lo dieron Jean-Pierre Droz y su hijo Henri-Louis, que hacían autómatas para anunciar su “verdadera empresa” como relojeros a fines del siglo XVIII. Henri-Louis creó probablemente el más complejo, “El dibujante”, autómata capaz de dibujar retratos complejos y que aún puede verse en el “Museo de arte e historia” de Neuchatel, en Suiza, acompañado de “El escritor” creado por su padre y de “La organista” de Jean-Frédéric Leschot.

A fines del siglo XVIII fue famoso “El Turco”, un autómata jugador de ajedrez creado por Wolfgang Von Kempelen para impresionar a la emperatriz austríaca María Teresa. El autómata recorrió Europa y Estados Unidos jugando contra humanos y venciéndolos las más de las veces. Sin embargo, era un elaborado fraude, pues debajo de la mesa de ajedrez se acomodaba un jugador humano que movía la mano del autómata, como se demostró en varias ocasiones.

El primer verdadero autómata capaz de jugar al ajedrez fue “El ajedrecista”, creado por el prolífico y genial inventor cántabro Leonardo Torres y Quevedo, que presentó en París en 1914. Este artilugio es actualmente considerado el primer juego informatizado de la historia y el ancestro directo de Deep Blue, el ordenador que venció por primera vez a un campeón mundial humano, Garry Kasparov en 1997.

Aunque Deep Blue no era un autómata. A falta de miembros propios, usaba a seres humanos para hacer físicamente las jugadas en el tablero.

Para el siglo XIX, los autómatas habían pasado de maravillas del asombro a una industria que estaba a la mitad entre la juguetería y el lujo: cabezas parlantes, autómatas que fingían predecir el futuro y animales varios, muchos de los cuales aún podemos ver en lugares como el museo de art nouveau y art decó Casa Lis, en Salamanca o en “La casa de la magia”, del legendario mago Robert Houdin, en Blois, departamento de Loire, en Francia.

Y aunque en el siglo XX y XXI siguen haciéndose autómatas, la aparición de la electricidad abrió otro espacio amplísimo, el de los robots, que pese a sus limitaciones hacen que los autómatas del pasado parezcan tan torpes que podemos olvidar que fueron, cada uno en su momento, un avance asombroso.

Autómatas y prótesis

Muchos avances de la robótica no se expresan aún como lo prometían los dibujos animados y la ciencia ficción. Sin embargo, tienen cada vez más aplicaciones en la prostética, con miembros capaces de responder a los impulsos nerviosos de sus dueños. La mano robótica más avanzada a la fecha fue creada por el equipo Mercedes de Fórmula 1 y la empresa Touch Bionics para un joven aficionado a las carreras de 14 años y puede mover cada dedo independientemente.