Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento
Mostrando entradas con la etiqueta matemáticas. Mostrar todas las entradas
Mostrando entradas con la etiqueta matemáticas. Mostrar todas las entradas

octubre 22, 2012

Pareto y la maldición de la revista

Dos curiosidades relacionadas con la estadística que, si no se tienen en cuenta, pueden llevarnos a conclusiones erróneas sobre nuestro mundo.

Sports Illustrated hizo referencia en 2001 a la
supuesta maldición de sus portadas.
Sabemos que la economía no es una ciencia, al menos no todavía, pues no puede predecir acontecimientos con un alto grado de certeza con base en leyes y observaciones diversas como lo hacen, por ejemplo, los astrónomos, cuando prevén el ciclo de 11 años de nuestro sol.

Pero la economía tiene algunos logros apasionantes por su peculiaridad, por ejemplo, el que se conoce popularmente como “Ley de Pareto”, aunque, curiosamente, no fue enunciada por Pareto.

Vilfredo Pareto fue un ingeniero, sociólogo, economista y matemático de fines del siglo XIX y principios del siglo XX, que buscó convertir la economía en ciencia mediante la observación, la medición y el análisis estadístico de los datos, pese a entender que la economía tiene una fuerte componente subjetiva debido a las emociones, creencias y demás peculiaridades de los seres humanos.

Pareto estableció el llamado “óptimo de Pareto” como medida de la eficiencia de una economía, por ejemplo la distribución de bienes en una sociedad, que ocurre cuando no se puede mejorar la situación de nadie sin dañar la de otros. Dicho de otro modo, cuando todos los participantes quedan al menos en la misma posición y al menos un participante queda en una situación claramente mejor.

En su intento por entender la riqueza, Pareto estudió la concentración de la riqueza en distintas sociedades y llegó a la conclusión de que en todos los países, los ingresos se concentraban más en las minorías y se iban distribuyendo a lo largo de la sociedad de forma decreciente. Esta ley se expresa coloquialmente como el llamado “principio de Pareto del 20-80”, es decir, más o menos el 20 por ciento de la población de cualquier país tiende a poseer el 80% de la riqueza.

Este principio fue ampliado por el economista Joseph Juran, que se dio cuenta de que el principio era aplicable a otros aspectos de la vida social y económica. Es decir, aunque la proporción puede ser distinta, una pequeña parte de todo esfuerzo para conseguir algo tiende a ser esencial y una gran parte es menos relevante. Juran fue quien lo llamó, “principio de Pareto”.

Aunque no se sabe cuál es la causa de este fenómeno, el principio de Pareto como aproximación general ha demostrado su validez empíricamente una y otra vez. Así, se ha descubierto que más o menos el 20% de los clientes de un negocio son responsables del 80% de sus ventas, o que el 80% de la contaminación está provocado por el 20% de los vehículos.

Una expresión del principio de Pareto fue la causante de la revolución del control de calidad (especialidad de Juran) que han vivido las empresas a partir de la década de los 70, permitiendo a las empresas concentrarse en los defectos o problemas que más ventas les costaban.

La regresión a la media

Entre los deportistas de Estados Unidos existe el mito de “la maldición de Sports Illustrated”, según la cual, cuando un deportista destaca tanto que llega a la portada de esta prestigiosa revista, automáticamente tiende a bajar su rendimiento.

Lo más curioso es que este mito se hace realidad en muchas ocasiones. Tantas que la propia revista hizo referencia a esta “maldición” en 2002, cuando puso un gato negro en la portada afirmando que ningún deportista quería posar para ella.

¿Es verdad que hay una maldición?

En realidad no. Lo que ocurre es que muchos deportistas llegan a la portada de esta revista debido a una serie de logros singulares y fuera de lo común en sus carreras, algo que los estadísticos conocen como un “valor atípico”. Ha superado, pues, su propia media, determinada en algún valor de su deporte: goles anotados, posición en la tabla de tenistas, asistencias en baloncesto o cualquiera otra variable. De pronto, durante una época determinada, el rendimiento sube alejándose de la media, el deportista llama la atención y su trabajo es más notorio, por lo cual la revista Sports Illustrated decide ponerlo en su portada.

Pero, por decirlo de algún modo, todo lo que sube tiene que bajar. O, puesto en lenguaje de los estadísticos, mientras más se aparte una variable aleatoria de su media, mayor será la probabilidad de que esa desviación disminuya en el futuro. O, en otras palabras, un acontecimiento extremo muy probablemente estará seguido de un acontecimiento menos extremo. Esto, para el jugador que durante unos cuantos partidos anotó más goles de los que solía anotar de media, significa que lo más probable es que regrese a su media en los siguientes partidos. O, como dirían los cronistas deportivos, tuvo una racha y se le terminó.

Los estadísticos le llaman a este fenómeno “regresión a la media”, un término bastante claro y que le debemos a Sir Francis Galton, quien lo descubrió estudiando la estatura media de hijos cuyos padres eran extremadamente altos o extremadamente bajos. Lo que descubrió este investigador fue que los hijos de padres muy altos tendían, claro, a ser altos... pero menos que sus padres, mientras que los hijos de padres muy bajitos tendían a ser de también de corta estatura, pero más altos que sus padres (todo esto en términos de poblaciones y grandes números, por supuesto que en casos individuales puede haber, y de hecho hay, excepciones).

La regresión a la media también nos explica fenómenos como el de la concesión de lotería que puede en un momento dar tres o cuatro premios gordos y luego no volver a dar ninguno durante muchos años, como suele ser normal. La regresión a la media también explica, asombrosamente, el alivio que nos pueden proporcionar algunos tratamientos pertenecientes a la pseudomedicina. Cuando hace crisis una enfermedad, afortunadamente, no tendemos a seguir cada vez peores hasta morir, sino que los síntomas (desde estornudos y moqueos hasta dolores de espalda) tienden, salvo excepciones, a volver a su situación anterior. Nuestro cuerpo regresa a su situación de salud media, el curandero se anota el éxito y pagamos la factura sin darnos cuenta de que ahí ha habido tanta relación causa-efecto entre los rituales del curandero y nuestra mejoría como la que hay entre aparecer en Sports Illustrated y caer hasta nuestro nivel habitual como golfistas. O como cualquier cosa que hagamos que nos haya salido bien por puro azar en un par de ocasiones.

No funciona cuando eres muy bueno

Hay deportistas excepcionales cuya media de rendimiento es muy alta. Son “los mejores”. A ellos, así, no les afecta la maldición de Sports Illustrated ni otras supersticiones, pues llegan a la portada por su media de rendimiento y no excepcionalmente. Así, el legendario Michael Jordan apareció 49 veces en la portada sin sufrir ninguna disminución de rendimiento. Lo mismo pasó con Rafael Nadal o Pau Gasol.

agosto 25, 2011

La ira de Newton

Sir Isaac Newton (1643-1727)
Isaac Newton
(Pintura D.P. de Sir Godfrey Kneller,
vía Wikimedia Commons)
El genial científico era un misántropo que albergó un odio extraño hacia sus colegas Leibnitz y Hooke

En 1944, el pediatra austríaco Hans Asperger describió un síndrome que compartían algunos de los niños que visitaban su consulta y que carecían de habilidades de comunicación no verbal (como la comprensión del lenguaje corporal y las expresiones faciales de la emoción), tenían una empatía limitada con los demás y eran torpes y patosos. Llamó a este síndrome “psicopatía autista”.

En 1994 quedó definido un diagnóstico para el ahora llamado Síndrome de Asperger dentro del espectro de trastornos autísticos, una gran categoría de comportamientos de leves a graves que popularmente se conocen como “autismo”. El Asperger se caracteriza por intereses obsesivos, dificultades para establecer relaciones sociales y problemas de comunicación.

En 2003, el profesor Simon Baron-Cohen, del departamento de Psicopatologías del Desarrollo de la Universidad de Cambridge y director del Centro de Investigación sobre Autismo, y el matemático Ioan James, de la Universidad de Oxford, declararon que probablemente, aunque el diagnóstico preciso es imposible, uno de los más grandes genios conocidos en la historia de la humanidad, Isaac Newton, había padecido Síndrome de Asperger.

Para los dos científicos, Newton parecía un caso perfecto de Asperger: hablaba muy poco, con frecuencia se concentraba tanto en su trabajo que se le olvidaba comer y era poco expresivo y malhumorado con los pocos, muy pocos amigos que tuvo. Cuando no se presentaba público a alguna de sus conferencias, las impartía igualmente, hablando a una sala vacía, y su depresión y rasgos paranoicos le causaron un colapso nervioso cuando tenía 50 años.

Otros, sin embargo, pensaron que los dos buenos científicos británicos, admiradores –imposible no serlo– del avasallador genio de Newton estaban de algún modo intentando justificar el lado hosco, antipático y difícil de una mente absolutamente privilegiada.

El niño de Navidad

Era el día de Navidad de 1642, en una Inglaterra que aún usaba el calendario juliano (en el calendario gregoriano actual, que el Reino Unido adoptó finalmente en 1752, la fecha es el 4 de enero de 1642) cuando en el pequeño poblado de Woolsthorpe, condado de Lincolnshire, nació un niño prematuro cuyo padre había muerto tres meses antes. Bautizado Isaac como su padre, un terrateniente que no supo nunca leer ni escribir, el pequeño Isaac fue pronto entregado a los cuidados de su abuela mientras su madre Hannah se casaba de nuevo y fundaba otra familia.

El pequeño Isaac creció así sintiendo el rechazo de su madre, odiando intensamente al nuevo marido de ésta y siendo, en general, infeliz y conflictivo, además de calificar de “chico raro” en la escuela. En lugar de las diversiones comunes de sus compañeritos, Isaac prefería diseñar ingenios mecánicos diversos: cometas, relojes de sol, relojes de agua. Se le conocía como un chico muy curioso sobre el mundo a su alrededor, pero no especialmente brillante, más bien en la parte baja de la tabla de notas.

Cuando tenía once años de edad, Isaac vio volver a su madre, viuda por segunda vez, que procedió a sacar al pequeño Isaac de la escuela donde lo habían puesto sus abuelos para que se encargara de las tierras familiares. Su actividad como cabeza de familia y agricultor resultó un desastre de proporciones, así que su madre no opuso objeciones cuando un tío de Isaac, académico en el Trinity College, sugirió que Isaac volviera a los estudios y se preparara para entrar a Cambridge.

Alumno brillante pero sin alardes demasiado destacados, y siempre con problemas emocionales, terminó su educación a los 18 años y a los 19 marchó a Cambridge, dejando atrás a la única novia que se le conocería, pues Newton adoptaría el celibato como forma de vida, dentro de la filosofía de que el “filósofo natural” (lo que hoy llamamos “científico”) debía ser una especie de sacerdote del conocimiento, entregado únicamente a la academia. Pero la venerable universidad no era aún un espacio de ciencia, y seguía dominada por las tradiciones escolásticas y la reverencia a Aristóteles que esperaban la explosión de la revolución científica para dejar de ser el pensamiento dominante. Y Newton se preparaba, sin saberlo, para ser una de las grandes luminarias de esa revolución, estudiando por su cuenta, a contracorriente de la universidad a pensadores audaces como René Descartes, que además de filósofo era un matemático cuyo trabajo fascinaba a Newton, a Thomas Hobbes, Pierre Gassendi y a astrónomos revolucionarios y “peligrosos” como Galileo, Copérnico y Kepler. Estos serían los personajes a los que Newton se referiría cuando dijo en 1675: “Si he visto más lejos que otros, ha sido por estar de pie sobre hombros de gigantes”.

La manzana de la discordia

Graduado sin honores ni distinciones especiales en 1665, Newton tuvo que volver a casa por última vez debido a un brote de peste bubónica que obligó a Cambridge a cerrar sus puertas para salvaguardar la salud de sus profesores y alumnos durante dos años.

Fueron dos de los más fructíferos años del genio de Newton. En la soledad que amaba y sin que su familia se arriesgara de nuevo a tratar de hacer de él un agricultor pasable, el joven se dedicó a estudios que se convertirían en asombrosas aportaciones para la ciencia. En sólo dieciocho meses, Isaac Newton descubrió las ley del inverso del cuadrado, desarrolló el cálculo infinitesimal, generalizó el teorema del binomio, estableció las bases de su teoría de la luz y el color y avanzó de modo significativo en su comprensión del movimiento de los planetas que devendría en las leyes de la gravitación.

Fue en esa época, en 1666, cuando ocurrió el incidente de la manzana, novelizado y ficcionalizado sin cesar. Pero ocurrió en realidad. William Stukeley, arqueólogo y biógrafo de Newton, cuenta que en una ocasión, tomando el té a la sombra de unos manzanos con el genio éste “me dijo que estaba exactamente en la misma situación como cuando antes apareció en su mente la noción de la gravitación. La causó la caída de una manzana, mientras él estaba en un ánimo contemplativo. ¿Por qué esa manzana siempre desdendía perpendicularmente respecto del suelo?, pensó…”

Así que sí hubo manzana, aunque no le diera en la cabeza como quisieran los dibujos animados. Y esa manzana lo llevó a tratar de calcular la velocidad de la Luna y, desde allí, a formular las famosas Leyes de Newton.

El recién graduado que había dejado Cambridge al desatarse la peste volvió en 1667 convertido en un hombre con una clara visión de lo que deseaba lograr con su intelecto. Consiguió una beca menor, finalizó su maestría un año después y en 1669, a los 26 años de edad, obtuvo la cátedra lucasiana de matemáticas, que después ocuparían otros brillantes científicos como Charles Babbage, Paul Dirac o Stephen Hawking. La cátedra le daba una enorme tranquilidad profesional y económica, y el tiempo necesario para dedicarse a pensar, descubrir y crear, y decidió enviar al editor su obra sobre cálculo de ecuaciones con números infinitos, que abriría el camino al cálculo diferencial e integral, base de las matemáticas actuales.

No deja de ser llamativo que antes incluso de obtener su cátedra, en 1668, Newton ya hubiera inventado el telescopio reflector perfeccionado, que se utiliza hasta la fecha. De 1670 a 1672 se ocupó principalmente de la luz, demostrando que la luz blanca está compuesta por todos los colores del espectro, y desarrolló la teoría que demostraba que el color es una propiedad de la luz y no de los objetos que la reflejan. En 1675 publica su Hipótesis sobre la luz, a contracorriente de sus contemporáneos, especialmente el astrónomo Robert Hooke, que atacó con violencia a Newton iniciando un enfrentamiento de por vida. Quizá fue entonces cuando Newton descubrió que la controversia y la confrontación le resultaban profundamente repugnantes y se negó a publicar sus obras mayores hasta 1687.

Esto significó que la difusión de su obra se daría en comunicaciones privadas con otros estudiosos. En 1676 le comunicó a Henry Oldenburg por carta el teorema del binomio que había desarrollado 10 años atrás, estableciendo por ello correspondencia con el matemático alemán Leibnitz.

Los “Principia Mathematica”

En agosto de 1684, el astrónomo Edmund Halley visitó a Newton en Cambridge y le presentó un acertijo que ocupaba el tiempo y atención de todos sus colegas en ese momento: ¿Qué tipo de curva describe un planeta en su órbita alrededor del sol suponiendo una ley de atracción del inverso del cuadrado? Newton respondió inmediatamente que era una elipse. Halley preguntó cómo lo sabía y Newton respondió simplemente que había hecho el cálculo cuatro años atrás.

Era una de las grandes respuestas a una de las más importantes preguntas sobre el universo, y el irascible genio había extraviado el cálculo que lo demostraba y no se había ocupado en informarle de ello a nadie, así que se comprometió a darle a Halley un nuevo cálculo, promesa que se convertiría en su libro “De motu” (del movimiento). Halley insistió entonces hasta conseguir que Newton aceptara publicar su libro Philosophiae naturalis principia mathematica, mejor conocido como los Principia con los que estableció los nuevos cimientos de las matemáticas y la física.

Desafortunadamente, la publicación de este libro, considerado uno de los más importantes de la historia de la ciencia, le dio un nuevo disgusto a Newton. El astrónomo Robert Hooke, con quien había intercambiado correspondencia en 1679 y que había ofrecido el vínculo conceptual entre la atracción central (es decir, la idea de que la atracción gravitatoria se debe considerar desde el centro de un objeto como nuestro planeta) y el hecho de que la fuerza de esa atracción disminuye según el cuadrado de la distancia a la que se esté de dicho centro. Cuando se anunció la publicación del libro de Newton, Hooke reclamó el reconocimiento a su participación en los descubrimientos de Newton.

El disgusto de Newton fue tal que, en un arranque de cólera bastante alejado de la justicia y la racionalidad del matemático, modificó la obra de modo que no apareciera en ella ninguna referencia a Robert Hooke y a sus logros científicos. El odio que desarrolló por Hooke fue tal que dejó de participar en la Royal Society y no publicó su libro sobre óptica, “Optiks” sino hasta después de la muerte de Hooke en 1703.

Newton ocupó también parte de su tiempo en la defensa de Cambridge como universidad, lo que le permitió obtener un escaño como miembro del Parlamento en 1689. Sin embargo, no estuvo muy activo como parlamentario. Su única intervención durante los años que fue legislador fue para pedir que abrieran una ventana porque sentía una corriente de aire y corría el peligro de que se le cayera la peluca.

Acomodado en Londres, aceptó el puesto de Director de la Casa de Moneda británica, lo que le daba una vida cómoda, y se ocupó de la química, la hidrodinámica y la construcción de telescopios, además de dedicarse a disciplinas menos precisas como la alquimia, el ocultismo y los estudios literalistas bíblicos. De hecho, según algunos estudiosos, parte de los problemas emocionales de Newton podrían deberse a envenenamiento por mercurio, resultado de sus largos años de tratar de conseguir algo en el terreno de la alquimia… algo que además nunca logró, a diferencia de lo que consiguió como científico.

Su extraña e iracunda venganza contra Robert Hooke se vio consumada cuando, un año después de la muerte del astrónomo, en 1704, Newton fue electo presidente de la Royal Society, puesto en el que lo reelegirían anualmente hasta su muerte en 1727 y que ejerció como un tirano, aunque siempre benévolo en el apoyo a los jóvenes científicos, y en 1705 recibió el título de caballero de manos de la reina Ana.

Los últimos años de su vida se vieron ocupados por la renovación del sistema monetario británico. y por una feroz controversia con Leibnitz sobre la paternidad genuina del cálculo diferencial e integral, un enfrentamiento amargo que comenzó cuando Newton decidió, sin pruebas, que Leibnitz le había copiado el cálculo. Aunque hoy los historiadores de la ciencia aceptan que ambos desarrollaron los conceptos independientemente, como ideas cuyo momento había llegado (del mismo modo en que Darwin y Russell Wallace desarrollaron la teoría de la evolución, aunque entre estos dos hubo una resolución respetuosa y cordial). Incluso después de la muerte de los matemáticos, a fines del siglo XVIII, seguía en vigor el enfrentamiento entre “leibintzianos” y “newtonianos”.

agosto 06, 2011

Cómo nos engañan con números

Sahara Hotel and Casino 2
La bolita de la ruleta no 'recuerda' en qué número cayó la vez anterior.
(Foto CC de By Antoine Taveneaux, vía Wikimedia Commons) 
A diario enfrentamos afirmaciones sobre números que pretenden normar nuestro criterio o acciones, pero ¿sabemos lo que realmente significan?

Con cierta frecuencia, en los telediarios se expresa preocupación, porque alguna variable (las rentas de los municipios, el porcentaje de turistas, la población de vencejos) está “por debajo de la media” en algún lugar de España o del mundo. Como si estar “debajo de la media” fuera algo infrecuente e inherentemente malo.

Pero la “media” no es sino el promedio de varios datos, y precisamente por ello siempre existirán valores por debajo y por encima de la media. No es posible que todos los elementos de un grupo estén “por encima de la media”.

Hay muchos otros ejemplos de cómo nos engañan, o nos engañamos, con los números y que revelan que, según el neologismo del matemático John Allen Paulos, somos “anuméricos”, neologismo creado por analogía con “analfabeta”. Si “analfabeta” es quien no sabe usar y entender las letras, “anumérico” será quien “no sabe manejar cómodamente los conceptos fundamentales de número y azar”, como lo define John Allen Paulos en su libro “El hombre anumérico”. Según Allen Paulos, no es necesario ser matemático para comprender algunos conceptos esenciales que nos protegerían de los engaños que suelen desprenderse del manejo que los medios, los políticos, los publicistas, los pseudocientíficos y nosotros mismos hacemos de los números.

Uno de los engaños más extendidos, que incluye una gran cantidad de autoengaño, es la idea de que podemos afectar o conocer las probabilidades de los juegos de azar.

La ruina del apostador

Refiriéndonos a la lotería, todos hemos escuchado hablar de “números feos” o de que “ya toca que caiga” tal o cual número porque hace muchos sorteos que no ha resultado premiado un número que termine con él. “Números feos”, por cierto, son aquéllos que nos llamarían la atención si fueran premiados por ser demasiado bajos (digamos, el 00010) o repetitivos (como el 45554 o el 77777).

La idea que tenemos es que hay una especie de distribución “equitativa” o normal de los números que favorece que cada determinadas semanas salgan premiados números que terminen en todas las cifras del 0 al 9.

Esta idea ha llevado a la aparición de multitud de “sistemas” que pretenden predecir los resultados futuros a partir de los anteriores, sistemas que han llevado a la ruina a otros tantos apostadores.

Lo aleatorio no es ordenado, precisamente se define porque no existe modo de determinar con antelación el resultado de un proceso aleatorio. Todos sabemos que la probabilidad de que al lanzar una moneda caiga cara o cruz es de 1:2 o del 50% (descontando la rarísima eventualidad de que la moneda quede de canto). Sabiendo eso, si tiramos una moneda normal 9 veces y en todas cae cara, tenemos la sensación de que es “más probable” de que en la décima tirada por fin caiga cruz.

Pero la moneda (o las bolitas de la lotería en sus respectivos bombos, o las cartas del mazo, o los dados o cualquier otro elemento participante en un juego de azar) no tiene memoria. Es decir que, independientemente de nuestro sentido común, la décima tirada también tiene la misma probabilidad de que caiga cara o cruz. Por supuesto, si creemos que podemos vencer a las probabilidades, más fácil será que apostemos mayores cantidades al número que creemos que “tiene que salir”.

Salvo casos muy específicos donde el resultado no es del todo aleatorio, ningún sistema sirve para predecir los resultados de los juegos de azar. Sin embargo, la creencia popular en que hay cierto orden oculto detrás de lo aleatorio es lo que ha permitido la creación de emporios de las apuestas como Mónaco o Las Vegas.

El riesgo

Con frecuencia nos enteramos de que tal o cual factor (desde el consumo de tomates hasta el color de nuestro cabello) aumenta el riesgo de sufrir alguna enfermedad, generalmente cáncer, lo cual suele provocarnos inquietud y preocupación. Pero esos porcentajes son relativos a un riesgo que, generalmente, los medios omiten informarnos. Un 50% de aumento en el riesgo de un cáncer, por decir algo, suena a motivo de grave preocupación, quizá de alarma social. Pero ese porcentaje no significa lo mismo en cada caso.

Por ejemplo, el riesgo que tienen las mujeres de padecer un cáncer de laringe es del 0,14%, lo que significa que 14 de cada 10.000 mujeres sufrirán esta afección, mientras que el riesgo de cáncer mamario es del 12,15%, lo que se traduce en 1.215 de cada 10.000 mujeres afectadas. La diferencia entre el riesgo de uno u otro cáncer para una mujer determinada es verdaderamente enorme, y justifica que haya una preocupación por una detección temprana de la enfermedad.

Ahora pensemos que el informativo anuncia de un aumento del 50% en el riesgo de estas dos enfermedades. En la realidad, el riesgo de cáncer de laringe aumentaría a 0,21% mientras que el mismo aumento en el cáncer de mama representaría un 18,22%, una cifra socialmente atroz y muchísimo más preocupante.

Algo similar ocurre cuando aumenta la incidencia de una enfermedad en una zona determinada. Cuando en una escuela, por ejemplo, hay más casos de leucemia de los esperados, es razonable buscar una causa. Pero también debemos saber que puede no haber ninguna causa, sino que estemos frente a un fenómeno conocido como “clustering” o agrupamiento. Para ilustrarlo, podemos tomar un puñado de arroz y dejarlo caer al suelo. La distribución de los granos de arroz no será uniforme ni ordenada, sino verdaderamente aleatoria. Habrá granos separados paro también habrá agrupamientos o “clústeres” de granos, a veces muy grandes, aquí y allá, al igual que espacios vacíos. Lo que parece una “anormalidad” puede ser lo más normal por probabilidades.

Como nota al margen, los medios de comunicación suelen confundir el peligro con el riesgo, cuando se trata de dos cosas totalmente distintas. El peligro es absoluto y el riesgo es relativo. La mordedura de una víbora mamba negra es peligrosísima siempre, pero nuestro riesgo de ser mordidos por una es muy distinto si estamos en la plaza mayor de Salamanca o en el descampado en Kenya.

Entender el significado de los números, de la probabilidad, el azar y la estadística, de los números enormemente grandes y tremendamente pequeños puede ser un arma fundamental para protegernos de la desinformación y de usar en nuestro beneficio las bases de las tan odiadas –para muchos- matemáticas.

Entender los hechos

“En un mundo cada vez más complejo, lleno de coincidencias sin sentido, lo que hace falta en muchas situaciones no son más hechos verídicos –ya hay demasiados– sino un dominio mejoer de los hechos conocidos, y para ello un curso sobre probabilidad es de un valor incalculable” John Allen Paulos, “El hombre anumérico”, Tusquets.

abril 09, 2011

Bertrand Russell y el pensamiento libre

Sería difícil imaginar un icono más disparatado para la rebeldía de 1960-70 que Bertrand Russell, Premio Nobel, conde, matemático y filósofo galés que nunca se dejó ver sin traje.

Lord Bertrand Arthur William Russell,
defensor de la libertad.
(Fotografía D.P. vía Wikimedia Commons)
En 1940, los guardianes de la moral de Nueva York se lanzaron a evitar que Bertrand Russell fuera contratado como profesor en el City College por ser defensor de la libertad sexual. Una familia interpuso –y ganó– una demanda afirmando que la presencia de Russell como profesor podría corromper la moralidad sexual de su hija, y el gobierno municipal retiró los fondos para su cátedra.

Quienes defendían a Russell resumían su posición en lo que Einstein le escribió a un profesor del City College: “Los grandes espíritus siempre han enfrentado la violenta oposición de mentes mediocres”.

Y el espíritu de Bertrand Russell era grande ya entonces. Nacido en Gales en 1872 como tercer conde de Russell, en una familia aristocrática, liberal, laborista e implicada en la política (su abuelo fue dos veces primer ministro de la Reina Victoria) fue educado por tutores en su propio hogar hasta que entró al legendario Trinity College de Cambridge, donde al terminar sus estudios pasó a ser profesor.

Entre 1910 y 1913, brilló el Russell matemático y lógico, llamando la atención del mundo con su magna obra Principia mathematica escrita junto con Alfred North Whitehead. En este trabajo, los autores emprendieron el intento de demostrar que las matemáticas estaban basadas en la lógica formal o en la teoría de conjuntos.

El resultado, sin embargo, fue que no pudieron demostrarlo. Encontraron axiomas que no se pueden justificar filosóficamente. Pero, en el proceso, los autores establecieron numerosas nociones filosóficas y matemáticas de gran valor sobre las cuales trabajarían matemáticos como Kurt Gödel y Alan Turing.

Esta sola aportación habría bastado para que Bertrand Russell se ganara un lugar en la historia de la ciencia y la filosofía. Pero las inquietudes del filósofo iban más allá, y se desbordaban a los terrenos de la filosofía de la ciencia, el pensamiento crítico, la política, la reforma social, la paz, la defensa de la libertad y la justicia. Así, por coherencia moral, Russell se declaró pacifista y objetor de conciencia ante la Primera Guerra Mundial, lo que llevó, primero, a su despido de Cambridge en 1916 y, finalmente, a un breve período en prisión en 1918.

En los años siguientes, Russell escribió una serie de libros sobre sus ideales políticos, libertarios y cuestionadores, pero sin dejar de lado aún su trabajo matemático. En 1920, después de visitar a Lenin en la recién nacida Unión Soviética, escribió La práctica y teoría del bolchevismo, donde, además de su simpatía por los ideales del socialismo y la justicia social, expresaba su preocupación por el autoritarismo y falta de consideración por las “opiniones y sentimientos de los hombres y mujeres comunes”, y por el excesivo dogmatismo de los bolcheviques que eliminaba la libertad de la sociedad que estaban intentando forjar.

En 1927, Russell y su segunda esposa, fundaron la escuela Beacon Hill para ofrecer la enseñanza de un pensamiento humanista, crítico y cuestionador que “rompiera con los métodos educativos tradicionales” y mantuviera la alegría y asombro de la niñez sin las angustias generadas por el autoritarismo habitual. Con base en métodos como el de María Montessori o Friedrich Fröbel. La experiencia dio origen al libro de 1932 La educación y el orden social.

Antes de eso, sin embargo, en 1929, Russell escribía el libro que le ganaría el odio del conservadurismo, especialmente en Estados Unidos, Matrimonio y moral, donde hacía una apasionada defensa de la libertad sexual y de la posición igualitaria de la mujer y el hombre en la vida en común. Este libro sería el principal responsable de sus dificultades en el City College de Nueva York. Aunque también jugaría un papel, sin duda, su defensa del ateísmo razonado y su crítica a la religión expresados en su libro Religión y ciencia de 1935.

Ante el desarrollo del nazismo, Russell dejó claro que su pacifismo no era absoluto, sino relativo, pues siendo un mal era, en el caso de Hitler, el menor de dos males. En este caso, nuevamente, su máxima preocupación era la libertad, amenazada por este otro totalitarismo, y apoyó los esfuerzos aliados.

La tarea eminentemente académica de Bertrand Russell concluyó, para todo efecto práctico, con uno de sus máximos esfuerzos intelectuales, la Historia de la filosofía occidental de 1945, que sigue siendo considerada una de las formas más amenas de introducirse en los meandros de la filosofía y fue el primer bestseller de Russell, dándole finalmente la tranquilidad económica (que nunca había tenido pese a su posición aristocrática) a los 73 años.

Los años siguientes vieron a Russell convertirse en uno de los pocos filósofos ampliamente conocidos fuera de los círculos académicos. Sus opiniones, siempre heterodoxas y candentes, y su obtención del Premio Nobel de Literatura en 1950 lo hicieron conocido. Su defensa del desarme nuclear, el feminismo, la libertad sexual, la libertad de pensamiento y sus críticas por igual al capitalismo que al comunismo, a la religión y a la Guerra de Vietnam lo fueron convirtiendo en un referente que haría masa crítica en la tempestuosa década de 1960 y sus varias revoluciones.

Sin embargo, esas mismas características lo convirtieron en un personaje mal visto por derechas e izquierdas, por ambos lados en la Guerra Fría y por los conservadores y dogmáticos de todos colores. Así, a los 89 años de edad, fue encarcelado una semana por manifestarse en el movimiento “Prohiban la bomba”.

Aunque su activismo político por momentos pareció ensombrecer su aportación al conocimiento, el paso de los años quizá ha demostrado que ambos aspectos eran dos caras de la misma moneda. La libertad de pensamiento, de cuestionar e investigar la realidad con las armas de la ciencia y el razonamiento, y la convicción de que podemos conocer el universo en lugar de temerlo metafísicamente, quizás no pueden estar divorciadas de la lucha por la libertad esencial del ser humano y su derecho a vivir en paz, de buscar la felicidad y de intentar crear un mundo más justo ante la irracionalidad de la injusticia.

El manifiesto Russell-Einstein

En 1955, Bertrand Russell y Albert Einstein se unieron para pedir a los gobiernos del mundo la renuncia a la guerra como forma de resolución de diferencias, ante el temor de que en una nueva confrontación mundial se utilizaran armas nucleares. Firmado por miles de científicos de todo el mundo, fue la base del Congreso Pugwash sobre ciencia y asuntos mundiales y hasta hoy anima los esfuerzos contra las armas nucleares, aunque no contra los usos pacíficos de la energía nuclear.

febrero 26, 2011

La dura vida de los niños genio

Leonhard Euler by Handmann
Leonhard Euler, genial matemático
(Pintura D.P. de Emanuel Handmann,
vía Wikimedia Commons)
Admirados por los adultos, rechazados por sus iguales y con frecuencia explotados por sus padres y medios, los niños prodigio no son un milagro.

Un niño que puede desempeñarse igual o mejor que un adulto destacado en algún campo de actividad exigente como ser la música, las matemáticas, el ajedrez o los deportes, es inevitablemente el centro de atención de todos a su alrededor. Muchos quisieran que sus hijos fueran así, e incluso se esfuerzan por impulsar o empujar a los suyos para que alcancen metas poco realistas. Otros simplemente se preguntan qué elementos confluyen para que un niño destaque de modo singular.

Sin embargo, no tenemos una receta para crear niños prodigio. No hay un sistema de educación que favorezca la aparición de la genialidad infantil, y ni siquiera estamos seguros de que la educación pueda realmente impulsar la genialidad. El matemático indostano Srinivasa Ramanujan, nacido en un ambiente nada favorecedor, descubrió las matemáticas formales a los 10 años y dos años después no sólo había dominado la trigonometría, sino que había a empezado a descubrir sus propios teoremas, emprendiendo una carrera que aún hoy es estudiada (sin descifrar por completo) por los matemáticos de todo el mundo.

No sabemos, siquiera, si el concepto “niño prodigio” o “niño genio” significa lo mismo cuando se trata de niños con habilidades distintas. Es posible que un niño de los llamados “calculadores”, capaces de realizar complejísimas operaciones matemáticas, sea totalmente distinto de un precoz ajedrecista, un pintor precoz como Picasso o de genios musicales como el violinista Yehudi Menuhin o el máximo niño prodigio de la música, Wolfgang Amadeus Mozart, el compositor nacido en Salzburgo, Bavaria, hoy Austria, en 1756, que empezó a componer a los 5 años de edad, recorrió Europa de los 6 a los 17 años asombrando al público y se convirtió en uno de los más importantes nombres de la música formal, componiendo prolíficamente hasta su muerte a los 35 años.

Se calcula que un 3% de todos los niños pueden ser considerados altamente dotados o niños prodigio aunque no todos son identificados y estimulados para desarrollar sus habilidades, de modo que la cifra podría ser mucho más alta o más baja.

Es por esto, así como porque la delimitación de qué es o no un niño superdotado es bastante poco clara, hay pocos estudios realizados sobre niños prodigio. En cuanto a edades, distintos grupos y definiciones consideran a los menores de 18, otros a los menores de 15 o 13 años y los más exigentes únicamente a los mejores de 11 años. En cuanto a habilidades, el problema es similar, y no existe un baremo consensuado sobre dónde termina el ser “muy listo o hábil” y comienza la genialidad que, finalmente, es un concepto totalmente subjetivo y humano.

Es por ello que la mayoría de los estudios realizados explorando el funcionamiento del cerebro de los niños prodigio se haya hecho con niños de los llamados “calculadores”, ya que la capacidad de resolver problemas matemáticos es de las que mejor podemos medir y definir con cierta objetividad, a diferencia, por ejemplo, de los talentos artísticos como en las artes plásticas o la música.

En un estudio de Brian Butterworth, publicado en la revista ‘Nature’ en 2001 se realizaron escaneos de tomografía de emisión de positrones (PET) en niños prodigio matemáticos, y los resultados sugirieron que estos niños utilizaban la memoria de trabajo a largo plazo, una forma en la que se pueden recordar enormes cantidades de datos durante un breve tiempo, y hacían uso intenso de la corteza visual, la zona del cerebro que descodifica las imágenes que vemos y que también empleamos para la imaginación visual. Otros estudios indican que el cerebelo, la zona del cerebro implicada en el control motor, la atención y el idioma, sirve a estos niños para ordenar sus funciones cognitivas y puede influir en su hablidad matemática.

Para muchos niños prodigio, su vocación y talento originales se convierte en su actividad para toda la vida, frecuentemente con enorme éxito. Está Leonhard Euler, matemático suizo que entró en la universidad de Basel a los 13 años y pasó a convertirse en uno de los fundadores de las matemáticas modernas descubriendo, entre otras cosas, el cálculo infinitesimal al mismo tiempo que Newton. El matemático y físico Blas Pascal, que escribió un tratado sobre cuerpos vibrantes a los 9 años y realizaría numerosas aportaciones a la ciencia y la filosofía durante toda su vida. O John Von Neumann, influyente matemático húngaro que en su niñez fue famoso como calculador matemático y polìglota.

Son también comunes los casos de niños prodigio que después de alcanzar logros impresionantes antes de la edad adullta, terminan abandonando todo y no vuelven a realizar las aportaciones por las que fueron conocidos o se retraen como lo hizo de modo espectacular el ajedrecista Bobby Fisher, que ganó ocho campeonatos estadounidenses consecutivos, fue gran maestro a los 15 años y a los 28 se convirtió en campeón mundial, después de lo cual no volvió a competir oficialmente y terminó expatriado en Noruega, con problemas mentales cada vez más evidentes hasta su muerte.

El ejemplo extremo de estos ex-niños prodigio es William James Sidis, dueño de asombrosas habilidades matemáticas y lingüísticas que entró a Harvard a los 11 años. Acosado por sus compañeros y, más tarde, por la prensa sensacionalista, y arrestado por participar en una manifestación de izquierdas (era 1918), acabó aislándose de la sociedad y de las matemáticas trabajando como cobrador de tranvía, anónimo y amargado.

Quien mejor puede definir qué es ser un niño prodigio es, precisamente, alguien que lo ha sido. Justin Clark, campeón de ajedrez a los 8 años y estudiante universitario a los 10: “Lo que pocas personas entienden es que ser un niño prodigio, o ser considerado así, no es inherentemente bueno o malo”. Por más que muchos padres crean que tener un genio es maravilloso, para cualquier niño lo más importante será ser querido y aceptado. Y su peor tragedia es, sin duda, que sus padres o el mundo a su alrededor le pidan más de lo que puede dar, cosa que con frecuencia le exigimos a los genios y a los que no lo son.

El savant, genio en su mundo

Un caso especial de los niños prodigio son los savants, que suelen tener una sola capacidad destacada al extremo humano, como puede ser una memoria eidética o fotográfica de un solo aspecto de su vida (como recordar el tiempo que hubo día a día o hacer complejos cálculos matemáticos al instante). Casi la totalidad de los savants tienen problemas de desarrollo, la mitad de ellos asociados al autismo. El ejemplo más conocido de este prodigio es Kim Peek, que fuera la base para el personaje que interpretó Dustin Hoffman en la película “Rain Man”.

marzo 06, 2010

Los números de los mayas

Numerales mayas del 1 al 29.
(CC via Wikimedia Commons)
La asombrosa matemática maya y sus estrecha relación con la astronomía son fuente de asombros por sus logros... y de temores infundados por parte de quienes poco conocen de esta cultura.

De todos los aspectos de la cultura maya, desarrollada entre el 1800 a.C. y el siglo XVII d.C., uno de los más apasionantes es sin duda el desarrollo matemático que alcanzó este pueblo.

El logro que se cita con más frecuencia como punto culminante de la cultura maya es el cero. El cero ya existía como símbolo entre los antiguos babilonios como indicador de ausencia, pero se perdió y no se recuperaría sino hasta el siglo XIII con la numeración indoarábiga.

El cero era de uso común en las matemáticas mayas, simbolizado por un caracol o concha marina, fundamental en su numeración de base vigesimal. Es decir, en lugar de basarse en 10, se basaba en el número 20, quizá por los veinte dedos de manos y pies.

Sin embargo, hay indicios de que los mayas, aunque lo aprovecharon y difundieron, no fueron los originadores del cero en Mesoamérica. Probablemente lo recibieron de la cultura ancestral de los olmecas, desarrollada entre el 1400 y el 400 antes de nuestra era. Los olmecas fueron, de hecho, los fundadores de todas las culturas mesoamericanas posteriores (incluidas la azteca o mexica y la maya, entre otras), aunque por desgracia no contaban con escritura, por lo que siguen siendo en muchos aspectos un misterio.

El otro gran logro maya fue la utilización del sistema posicional, donde el valor de los números cambia de acuerdo a su posición. El punto que representa uno en el primer nivel, se interpreta como veinte en el segundo nivel y como 400 en el tercero, como nuestro “1” puede indicar 10, 100 o 1000.

Los números mayas se escribían con puntos y rayas. Cada punto era una unidad, y cada raya representaba cinco unidades. Así, los números 1, 2, 3 y 4 se representaban con uno, dos, tres y cuatro puntos, mientras que el cinco era una raya. Cuatro puntos adicionales sobre la raya indicaban 6, 7, 8 y 9, y el diez eran dos rayas una sobre la otra. Así se podía escribir hasta el número 19: tres rayas de cinco unidades cada una y cuatro puntos unitarios. Al llegar allí, se debía pasar a la casilla superior, del mismo modo que al llegar a 9 nosotros pasamos al dígito de la izquierda. El número 20 se escribía con un punto en la casilla superior (que en esa posición valía 20 unidades) y un cero en la inferior.

El sistema funcionaba para cifras de cualquier longitud y permitía realizar cálculos complejos con relativa facilidad si los comparamos con los mismos cálculos utilizando números romanos.

El desarrollo de las matemáticas entre los mayas se relacionó estrechamente con su pasión astronómica, producto a su vez de la cosmovisión religiosa de su cultura. Su atenta y minuciosa observación y registro de los diversos acontecimientos de los cielos llevó a los mayas a tener cuando menos 17 calendarios distintos referidos a distintos ciclos celestes, como los de Orión, o los planetas Mercurio, Venus, Marte Júpiter y Saturno, que se interrelacionaban matemáticamente.

Pero los dos calendarios fundamentales de los mayas eran el Tzolk’in y el Haab.

El calendario sagrado, el Tzolk’in se basa en el ciclo de las Pléyades, de 26000 años, generando un año de 260 días dividido en cuatro estaciones de 65 días cada una. Cabe señalar que las Pléyades, grupo de siete estrellas de la constelación de Tauro, atrajeron la atención de numerosos pueblos, como los maorís, los aborígenes australianos, los persas, los aztecas, los sioux y los cheroqui. A los recién nacidos se les daba su nombre a partir de cálculos matemáticos basados en un patrón de 52 días en este calendario.

El Haab, por su parte, era civil y se utilizaba para normar la vida cotidiana. Su base es el ciclo de la Tierra y ha sido uno de los motivos de admiración del mundo occidental, pues resultaba altamente preciso con 365,242129 días, mucho más preciso que el Gregoriano que se utiliza en la actualidad. Nosotros tenemos que hacer un ajuste de un día cada 4 años (con algunas excepciones matemáticamente definidas), mientras que los mayas sólo tenían que hacer una corrección cada 52 años.

La interacción matemática de los años de 260 y 365 días formaba la “rueda calendárica”. Los pueblos mesoamericanos se esforzaban por hacer calendarios no repetitivos, donde cada día estuviera identificado y diferenciado. Esto lo hacemos nosotros numerando los años, de modo que el 30 de marzo de 1919 no es igual al 30 de marzo de 2006. Los mayas no numeraban los años, y cada día se identificaba por su posición en ambos calendarios, el sagrado y el civil, de modo que un día concreto no se repetía sino cada 18.980 días o 52 años.

Los mayas usaban también la llamada “cuenta larga”, un calendario no repetitivo de más de 5 mil años que señalaba distintas eras. La era actual comenzó el 12 ó 13 de agosto del 3114 antes de nuestra era y terminará alrededor del 21 de diciembre de 2012. Esta cuenta larga utiliza varios grupos de tiempo: kin (día), uinal (mes de 20 kines), tun (año de 18 uinales, 360 días), katún (20 tunes o 7200 días) y baktún (20 katunes o 144.000 días).

Cada fecha se identifica con cinco cifras, una por cada grupo de tiempo. La fecha 8.14.3.1.12 que aparece en la placa de Leyden, por ejemplo, indica el paso de 8 baktunes, 14 katunes, 3 tunes, 1 uinal y 12 días desde el comienzo de la era. Convertidos todos dan 1.253.912 días, que divididos entre los 365,242 días del año nos dan 3.433,1 años, que restados de la fecha de inicio de la era nos da el año 320 de nuestra era.

Esta proeza matemática, por cierto, ha sido malinterpretada por grupos de nuevas religiones. Dado que esta era maya termina hacia el 21 de diciembre de 2012, se ha hablado de una inexistente “profecía maya” que señala ese día como el fin del mundo. Ninguna estela, códice o resto maya indican tal cosa. Sólo señalan que matemáticamente ese día termina una era, y al día siguiente, como ha pasado al menos cinco veces en el pasado según creían los mayas (en cinco eras), comenzará una nueva era. Como el 1º de enero comienza otro año para nosotros y el mundo no se acaba el 31 de diciembre.

El trabajo detrás de la precisión


El calendario lunar maya, Tun’Uc, tenía meses de cuatro semanas de 7 días, una por cada fase lunar. Los mayas calcularon el ciclo lunar en 29,5308 días, contra los 29,5306 calculados hoy, una diferencia de sólo 24 segundos. Para conseguir este cálculo, los mayas usaron sus matemáticas además de una aproximación científica. Al contar sólo con sistemas de observación directos, los astrónomos mayas registraron minuciosamente 405 ciclos lunares durante 11.960 días, más de 30 años de observaciones que, tratadas matemáticamente, permitieron la precisión que aún hoy nos asombra.

enero 16, 2010

La ciencia que estudia nuestras decisiones

John Von Neumann, fundador de la
teoría de juegos.
(foto CC via Wikimedia Commons)
Suponga que usted es uno de dos detenidos como sospechosos de un delito. No teniendo pruebas, la policía los separa y le dice a cada uno que si uno testifica traicionando al otro, y el otro se mantiene callado, el traidor saldrá libre y el otro irá 10 años a la cárcel. Sin embargo, si ambos callan (son leales entre sí), ambos serán encarcelados durante sólo seis meses por una acusación menor. Y si ambos hablan (cada uno traicionando al otro) ambos recibirán una condena de cinco años. Se les dice que no se informará al otro si hay una traición. La pregunta es, “¿cómo debe actuar el prisionero, o sea usted?”

Esta situación, conocida como el “dilema del prisionero”, se puede estudiar matemáticamente, con objeto de determinar qué estrategia es la más conveniente para cada uno de los jugadores. De hecho, resulta que independientemente de lo que haga el otro, matemáticamente el mayor beneficio para un jugador se encuentra siempre en traicionar y hablar.

Si el otro calla, al traicionarlo saldremos libres en vez de pasar seis meses en la cárcel. Si el otro habla, al traicionarlo reducimos a la mitad la posible pena, de diez a cinco años. Quizá no sea lo más moral o cooperativo, pero es la estrategia más conveniente.

Sin embargo, si el juego se repite varias veces, el llamado “dilema del prisionero iterativo” y sabemos qué hizo el otro prisionero la vez anterior, como se hizo en un torneo organizado por Robert Axelrod, profesor de ciencias políticas de la Universidad de Michigan, la mejor estrategia parte de no traicionar, pero en caso de que el otro traicione, responder traicionando en la siguiente partida, saber perdonar cuando el otro vuelva a la actitud cooperativa y finalmente nunca tratar de ganar más que el oponente.

Interacciones estratégicas como la que se presenta en el dilema del prisionero, con participantes o jugadores racionales y sus resultados de acuerdo con las preferencias o beneficios de los jugadores son, precisamente, el campo de estudio de la “teoría de juegos”. En estas situaciones, el éxito de las decisiones que tomamos depende de las decisiones que tomen otros, de la forma en que tales decisiones se interrelacionan entre sí, y de los distintos resultados posibles, pueden ser analizados matemáticamente y darnos una visión más amplia y clara de las distintas avenidas que pueden recorrer los acontecimientos.

La teoría de juegos como tal, más allá de los antecedentes y trabajos previos tanto en filosofía como en matemáticas, fue la creación del matemático estadounidense John Von Neumann, considerado como uno de los más destacados científicos de su ramo del siglo XX por sus aportaciones a disciplinas tan diversas como la teoría de conjuntos, el análisis funcional, la mecánica cuántica, la economía, la informática, el análisis numérico, la hidrodinámica de las explosiones y la estadística.

Von Neumann se interesaba principalmente por el área de las matemáticas aplicadas, como lo demuestran las aportaciones arriba enumeradas, y en 1928 enunció el teorema “minimax”, según el cual en juegos de suma cero (donde las ganancias de uno dependen de las pérdidas del otro) y de información perfecta (ambos jugadores saben qué movimientos se han hecho hasta el momento), hay una estrategia concreta para cada jugador de modo que ambos reduzcan al mínimo sus pérdidas máximas.

Este teorema fue el punto de partida para que el matemático estudiara otros tipos de juegos con información imperfecta o con resultados distintos de la suma cero. El resultado de su trabajo fue el libro La teoría de juegos y el comportamiento económico, escrito en colaboración con Oskar Morgenstern y publicado de 1944.

A partir de entonces, la teoría de juegos se desarrolló a gran velocidad y se determinó su utilidad en el estudio de numerosas disciplinas más allá de la economía, desde la biología, concretamente en la evolución de individuos y especies en un medio determinado, hasta la ingeniería, las ciencias políticas, las relaciones internacionales y la informática.

En la teoría de juegos participan agentes que buscan obtener utilidades o beneficios mediante sus acciones, utilidades que pueden ser económicas, alimenticias, estéticas, sexuales o simplemente de supervivencia, entre otras posibilidades.

El juego al que se refiere la teoría no tiene nada que ver con una diversión, por supuesto. Se trata de una situación en la que un agente sólo puede actuar para conseguir la máxima utilidad adelantándose a las respuestas que otros agentes puedan tener ante sus acciones. Y los agentes son racionales sólo en tanto que tienen capacidad de evaluar los posibles resultados y determinar las rutas que llevan a tales resultados. Pero esto no forzosamente significa un análisis abstracto, un organismo que busca alimentarse tiene una actitud racional en términos de la teoría de juegos, aunque no realice operaciones mentales de alto nivel.

La teoría de juegos tiene al menos dos aplicaciones de gran valor. En algunos casos, puede utilizarse para ayudar a encontrar la mejor estrategia en una situación compleja, o al menos eliminar las estrategias más débiles. La situación puede ser política, militar, diplomática o de relaciones humanas. Si puede cuantificarse, se puede analizar.

En otros casos, la teoría de juegos ayuda a comprender la forma en que se dan ciertos procesos, como la evolución de las especies o el desarrollo vital de una persona, puede analizar cómo las consideraciones de tipo ético, por ejemplo, pueden alterar profundamente las estrategias de personas y grupos, o encontrar los beneficios ocultos en estrategias aparentemente incorrectas o débiles.

Desde determinar si nos conviene más comprar una entrada para el cine el día antes por Internet con un sobreprecio o llegar temprano al cine a hacer cola hasta decidir la compra de una casa o la renuncia a un empleo, todos los días tomamos decisiones, sin imaginar que estamos resolviendo problemas de teoría de juegos y definiendo las rutas que calculamos nos llevarán a obtener el resultado que deseamos. Y eso ciertamente no es ningún juego.

El altruismo en la teoría de juegos

Cuando un organismo actúa de modo tal que beneficia a otros en perjuicio de sí mismo, actúa de modo altruista. Generalmente la acción altruista no es racional y calculada, sino instintiva, un impulso irrefrenable. La teoría de juegos demuestra, sin embargo, que este hecho biológico aparentemente incongruente tiene explicaciones en las otras "utilidades" que puede obtener el altruista, desde el sentimiento de actuar como es debido hasta el ayudar indirectamente a aumentar la probabilidad de supervivencia del grupo a futuro. Lo que parece irracional resulta así la mejor forma de actuar, y la biológicamente natural, aunque a algunos cínicos la idea no les agrade.

septiembre 26, 2009

Babbage y sus máquinas matemáticas

El peculiar hombre que ideó el ordenador programable, y diseñó el primer ordenador mecánico, abuelo de los digitales de hoy en día.

En 1991 se presentó al público en Inglaterra un enorme dispositivo mecánico formado por más de 4000 piezas metálicas y un peso de tres toneladas métricas, cuya construcción había tomado más de dos años. Este aparato era, a todas luces, un anacronismo. Llamado “Segunda Máquina Diferencial” (o DE2 por su nombre en inglés), su objetivo era calcular una serie de valores numéricos polinomiales e imprimirlos automáticamente, algo que hacía veinte años podían hacer de modo rápido y sencillo las calculadora de mano electrónicas, compactas y de fácil fabricación.

De hecho, fue necesario esperar nueve años más para que los constructores produjeran el igualmente complejo y pesado mecanismo de impresión, la impresora mecánica que se concluyó en el año 2000, cuando ya existían muy eficientes y compactas impresoras electrónicas a color.

Sin embargo, la construcción de estos dos colosos mecánicos y la demostración de su funcionamiento, esfuerzos que estuvieron a cargo del Museo de Ciencia de Londres, sirvieron para subrayar el excepcional nivel de uno de los grandes matemáticos del siglo XIX y uno de los padres incuestionables de la informática y del concepto mismo de programas ejecutables: Charles Babbage, el genio que concibió la máquina diferencial y la tremendamente más compleja máquina analítica (que muchos sueñan hoy con construir) pero que nunca las pudo convertir en realidad tangible.

El matemático insatisfecho

Charles Babbage nació en Londres en 1791. Cualquier esperanza de que siguiera los pasos de su padre se disiparon en la temprana adolescencia de Babbage, cuando se hizo evidente no sólo su amor por las matemáticas, sino su innegable talento. Ese talento, sus estudios y sus lecturas y prácticas matemáticas autodidactas lo llevaron al renombrado Trinity College de Cambridge cuando apenas contaba con 19 años, donde pronto demostró que sus capacidades matemáticas estaban por delante de las de sus profesores.

Comenzó así una destacada carrera académica. Al graduarse, fue contratado por la Royal Institution para impartir la cátedra de cálculo y allí comenzó una serie de importantes logros, como su admisión en la Royal Society en 1816. Ocupó asimismo, de 1828 a 1839, la Cátedra Lucasiana de Matemáticas en Cambridge, probablemente el puesto académico más importante y conocido del mundo, que ha pertenecido a personalidades como el propio Isaac Newton, Paul Dirac y, desde 1980, por el profesor Stephen Hawking.

Sin embargo, la precisa mente matemática de Charles Babbage chocaba con un hecho impuesto por la realidad imperfecta: los cálculos manuales de las series de números que conformaban las tablas matemáticas tenían una gran cantidad de errores humanos. Evidentemente, estos errores no los cometerían las máquinas.

Máquinas como la construida por el alemán Wilhelm Schickard en 1623, la calculadora de Blas Pascal de 1645 y el aritmómetro de Gotfried Leibniz.

A partir de 1920 y hasta el final de su vida, Charles Babbage dedicó gran parte de su tiempo y su propia fortuna familiar a diseñar una máquina calculadora más perfecta. Diseñó y construyó una primera máquina diferencial en 1821, de la cual no queda nada. A continuación diseñó la segunda máquina diferencial, pero se enfrentó al hecho de que las capacidades tecnológicas de su época no permitían construir de acuerdo a las tolerancias exigidas por sus diseños, en los que grandes cantidades de engranajes inteactuaban, de modo que no pudo hacer un modelo funcional

Sin embargo, habiendo resuelto muchos problemas técnicos con sus diseños, cálculos y desarrollos, procedió a diseñar una tercera máquina, la “máquina analítica”.

Esta máquina analítica tendría un dispositivo de entrada (una serie de tarjetas perforadas que contendrían los datos y el programa), un espacio para almacenar una gran cantidad de números (1000 números de 50 cifras decimales cada uno), un procesador o calculador de números, una unidad de control para dirigir las tareas a realizarse y un dispositivo de salida para mostrar el resultado de la operación.

Estos cinco componentes son precisamente lo que definen a un ordenador: entrada, memoria, procesador, programa y salida. La máquina analítica era, sin más, un ordenador mecánico programable capaz, en teoría, de afrontar muy diversas tareas.

Después de haberla descrito por primera vez en 1837, Babbage continuó trabajando en su diseño y su concepto de la máquina analítica hasta su muerte en 1871.

Entre las pocas personas que entendían y apreciaban los esfuerzos de Babbage había una que resultaba especialmente improbable, Augusta Ada King, Condesa de Lovelace, la única hija legítima del poeta romántico y aventurero Lord Byron. Conocida como Ada Lovelace, brillante matemática de la época.

Ada Lovelace, a quien Babbage llamaba “La encantadora de los números”, llegó a conocer a fondo las ideas de Babbage, al grado que, al traducir la memoria que el matemático italiano Luigi Menabrea hizo sobre la máquina analítica, incluyó gran cantidad de notas propias, entre ellas un método detallado de calcular, en la máquina analítica una secuencia de los llamados números de Bernoulli.

Estudiado posteriormente con todo detalle, se ha podido determinar que el procedimiento de Ada Lovelace habría funcionado en la máquina de Babbage, por lo que numerosos estudiosos de la historia de la informática consideran que este método es el primer programa de ordenador jamás creado.

Ada murió a los 36 años en 1852, y Babbage hubo de continuar su trabajo, no sólo en la nunca finalizada máquina analítica, sino en gran cantidad de intereses: fue el creador del miriñaque o matavacas, el dispositivo colocado al frente de las locomotoras para apartar obstáculos, diseñó un oftalmoscopio y fue un destacado criptógrafo.

Pero nunca pudo, por problemas técnicos y de financiamiento, construir las máquinas que su genio concibió. De allí que la presentación de la segunda máquina diferencial funcional en 1991 resultara, así fuera tardíamente, el homenaje al hombre que soñó los ordenadores que hoy presiden, sin más, sobre la civilización del siglo XXI.

Homenajes

Charles Babbage ha sido homenajeado dando su nombre a un edificio de la Universidad de Plymouth, a un bloque en la escuela Monk’s Walk, a una locomotora de los ferrocarriles británicos y a un lenguaje de programación para microordenadores. El nombre de Ada Lovelace se ha dado a un lenguaje de programación y a una medalla que concede, desde 1998, la Sociedad Informática Británica.

agosto 01, 2009

Los secretos de la casualidad

23 granos de arroz lanzados al azar en 23 cuadros,
mostrando clústeres o agrupaciones d 4 y 5 granos.
(Imagen CC vía Wikimedia Commons)
Muchas coincidencias nos asombran y nos invitan a buscar explicaciones a esos acontecimientos, cuando en ocasiones deberíamos preguntar antes si nuestro asombro está justificado.

Ocurre a veces que recibimos una llamada de una persona cuando estamos pensando sobre ella. Muchos creen, y esto lo promueven quienes sostienen creencias paranormales, que es un hecho altamente extraordinario, algo tan poco probable que sin duda se trata de “telepatía” por algún medio extraño y misterioso.

Pero, si pensamos en el número relativamente limitado de personas que conocemos, en cuántas de ellas pensamos ocasionalmente y cuántas nos pueden llamar por teléfono, junto con el número de llamadas que recibimos al día, las probabilidades resultan lo bastante altas como para explicar el hecho sin necesidad de acudir a poderes sobrenaturales. A ello debemos añadir que en muchos casos sabemos inconscientemente cuándo suelen llamarnos algunas personas. Y tener presente que hay miles y miles de llamadas telefónicas que recibimos sin pensar correctamente en el interlocutor.

De hecho, lo que sería extraño es que pudiéramos pasar la vida sin que en algunas ocasiones nos llamara alguien en quien estuviéramos pensando. Tan extraño como si supiéramos quién nos llama, digamos, el 50% de las ocasiones.

Las coincidencias no sólo son mucho más comunes de lo que creemos, sino que son inevitables, y por tanto el que un hecho parezca curioso no significan nada si no sabemos cuáles son las probabilidades de que ocurra.

Veamos otro ejemplo: en una partida de póker, usted recibe sus cinco cartas y no tiene ni una sola pareja, lo cual le parece un desastre y una clara falta de suerte, una casualidad indeseable. Pero, en realidad, sólo hay una probabilidad contra más de 1.302.540 de que reciba usted precisamente esa mano sin una pareja.

Pero 1.302.540 son el número de manos que puede haber sin una sola pareja. Contando todas las posibilidades de reparto de las cartas, incluidas parejas, escaleras, colores y otras variantes, el número de manos posibles de 5 cartas con una baraja americana estándar de 52 cartas es de 2.598.960. La que usted tiene, por inútil que sea para ganarle a sus adversarios, es altamente improbable. ¿Ello tiene un significado singular o trascendente? Ciertamente, no. Y es que todos los días nos ocurren cosas altamente improbables, vivimos coincidencias y estamos sometidos a casualidades que pueden llamarnos la atención, pero que no tienen significado.

Y con frecuencia le atribuímos significado a cosas que no lo tienen.

Éstos son ejemplos de la forma en que, nos dicen, las personas comunes y corrientes calculamos mal las probabilidades, las coincidencias y la casualidad. Somos, según el matemático y divulgador John Allen Paulos, “anuméricos” en el sentido de “analfabetas”, y no porque no podamos resolver ecuaciones diferenciales (después de todo, muy pocas personas alfabetizadas pueden escribir novelas y sonetos), sino porque tenemos una percepción equivocada de lo que significan los números en principio, y de ese modo quedamos a merced de otras personas que, creemos, saben lo que están diciendo cuando utilizan los números, y aceptamos ciegamente lo que nos dicen, sin poderlo analizar críticamente.

Para entender el azar, las probabilidades y la casualidad, podemos hacer un sencillo experimento: tomemos un paquete de arroz en un espacio que tenga una alfombra o moqueta, abrámoslo y lancemos con fuerza todo el contenido de un solo golpe hacia el techo, de modo que “llueva arroz” a nuestro alrededor.

Las posiciones de los granos de arroz forman lo que se conoce como “azarograma”, o representación de un hecho azaroso. La posición de cada grano de arroz es casual, pero tiene muchas causas claras: el lugar del grano en el paquete al empezar el experimento, las corrientes de aire, sus choques con otros granos, etc. Son muchísimas variables muy difíciles de desentrañar y calcular, pero sabemos que influyen.

Mirando los granos de arroz en la moqueta veremos que algunos forman grupos de dos, tres o más, y hay por otro lado espacios más o menos grandes donde no hay ningún grano de arroz. En ciertas zonas parecen estar distribuidos uniformemente, y en otras no hay un patrón distinguible. Los grupos de granos de arroz se conocen como “clústers” y ocurren en toda distribución al azar.

La probabilidad de que haya un grano de arroz en un área específica se calcula fácilmente teniendo el número de granos de arroz y la superficie en que los hemos dispersado con nuestro lanzamiento. Redondeando, hay 60.000 granos de arroz de grano largo en un kilo. Si hacemos nuestro experimento lanzando todos los granos con fuerza uniforme y eliminando algunas variables que puedan afectar el resultado (como tirar más hacia un lado que hacia otro) sobre un área de 3 metros por 3 (9 metros cuadrados o 90.000 centímetros cuadrados), podemos calcular que hay una probabilidad de 60.000/90.000 ó 2/3 de que haya un grano en un centímetro cuadrado cualquiera de nuestra superficie.

Pero esto no significa que haya dos granos en cada tres centímetros cuadrados individuales, por supuesto. Es por ello que los clústers de granos y los espacios vacíos son parte normal de esta distribución. La probabilidad de 2/3 se aplica sólo a la totalidad de los elementos que estamos calculando, pero no a sus partes. Así, por ejemplo, cuando hay un clúster de casos de cáncer que superan las probabilidades, es frecuente que busquemos una causa evidente: un río, antenas de móviles o torres de alta tensión.

Pero para que nuestra asignación de culpas no sea como la de nuestros antepasados, que culparon de la peste a ciertas mujeres consideradas brujas, debemos ver todas las poblaciones por donde pasa el río, todas las viviendas cercanas a torres de alta tensión o antenas de móviles. Si nuestro caso es excepcional, puede que la causa sea otra... o puede que se trate simplemente de un clúster probabilístico. Dicho de otro modo, si algunos casos están por debajo de la media, otros estarán forzosamente por encima de la media, y los que estarán justamente en la media serán, por extraño que parezca, muy pocos.

Quizá valga la pena recordar que los filósofos entendieron el problema antes de que existieran las herramientas matemáticas para explicarlo. Plutarco el ensayista grecorromano del siglo I-II de nuestra era, ya advirtió: “No es ninguna gran maravilla si, en el largo proceso del tiempo, mientras Fortuna sigue su curso aquí y allá, ocurran espontáneamente numerosas coincidencias”

Para combatir el anumerismo

Dos libros esenciales para combatir nuestro anumerismo (y sin tener que aprender matemáticas): El hombre anumérico, de John Allen Paulos, y El tigre que no está, de Michael Blastland y Andrew Dilnot, ambos actualmente en las librerías.

enero 10, 2009

La ciencia de la música

Códice Manesse de principios del
siglo XIV.
(D.P. vía Wikimedia Commons)
Quizás sea la forma artística más popular del tercer milenio, pero durante grandes períodos históricos la música estuvo recluida la mayor parte del tiempo en las fortalezas de los poderosos.

En esta era de MP3 y acceso inmediato a toda la música que nos complace, de conciertos para todos los gustos y de todos los precios, de bailes y fiestas con música, de flujo musical continuo en lugares públicos, de radio y televisión, con frecuencia olvidamos que esta pasión del ser humano por la música no siempre pudo satisfacerse.

Antes del siglo XX, la música era un acontecimiento infrecuente y, por lo mismo, muy bienvenido. Se podía escuchar en fiestas populares, en grandes acontecimientos de la comunidad o el estado nacional, o gracias a la ocasional llegada de un músico trashumante. Lo que quedaba como oportunidad de disfrutar música eran infrecuentes conciertos públicos y la música que cada cual se podía dar a sí mismo cantando o tocando algún instrumento en sus ratos libres.

Los paleoantropólogos sólo pueden imaginarse, haciendo deducciones razonables con base en sus conocimientos, cómo se originó la música, y cómo la hicieron los primeros músicos humanos. ¿Empezó con el canto o con el silbido? No lo sabemos, pero sí tenemos datos que indican que el arco y la flauta fueron probablemente los primeros instrumentos. En los yacimientos paleolíticos se han encontrado huesos con perforaciones que habitualmente se identifican como flautas. Pero la historia escrita de la música empieza hace apenas unos 4.000 años, en escritos cuneiformes de la ciudad de Ur y en los Samavedas de la India.

La música, que los expertos definen como una forma de expresión que utiliza el ordenamiento de sonidos y silencios en el tiempo, encontró a sus primeros estudiosos, por así decirlo, en la antigua Grecia. La enorme importancia de la música en la vida cotidiana de la Grecia clásica, su presencia documentada en festivales religiosos, bodas, banquetes y funerales, la existencia de músicos profesionales con gran relevancia social (como en la actualidad) hacía inevitable que fuera también asunto de las cavilaciones filosóficas y las averiguaciones de la ciencia primigenia.

Si tensamos una cuerda entre dos barras o puentes hasta que produzca un sonido, una nota musical, y diseñamos una forma de “detener” o pisar la cuerda (por ejemplo, usando un trozo de vidrio o metal, o los propios dedos) descubriremos que al pisar la cuerda a la mitad de su ongitud vibrante obtendremos un sonido similar al original, la misma nota, pero una octava más arriba. Si, en cambio, pisamos la cuerda en un punto a los 2/3 de su lingitud, obtendremos una nota armónica con la original, una quinta perfecta. Y si pisamos a los 3/4 de la cuerda obtendremos un intervalo musical de una cuarta perfecta con relación a la nota original, también armónica. La quinta y la cuarta perfectas siempre han sido las consonancias más importantes de la música occidental.

Esta relación matemática entre las notas musicales y su armonía (a diferencia de su “disonancia”, el sonido estridente de dos notas no armónicas tocadas al mismo tiempo) fue descubierta, se dice, por Pitágoras alrededor del año 5000 antes de la era común. De aquí los griegos concluyeron que la relación entre el número y las armonías podía extenderse a la totalidad del universo, que conceptuaban igualmente armonioso y ordenado como una lira. Pero aunque ello no fuese estrictamente cierto, la implicación matemática de la música quedó fijada para siempre, y se ha confirmado una y otra vez. El famoso libro Bach, Escher, Gödel del académico Douglas Hofstadter, es el estudio clásico de la autorreferencia, y para analizarla echa mano del teorema matemático de Gödel, la obra gráfica de Maurits Cornelius Escher y la música de Johann Sebastian Bach, con los cuales expone conceptos esenciales de las matemáticas, la simetría y la inteligencia.

Más allá de las matemáticas de la música, esta expresión artística es una de las más importantes para nosotros, al menos en la actualidad. La historia de la música está llena de avances, invenciones y desarrollos tecnológicos que en su momento han sido, todos, asombrosos. Por ejemplo, la aparición del piano, cambió toda la música. Hasta ese momento, las cuerdas de los instrumentos de teclado eran pulsadas y no golpeadas, de modo que no se podía modular el volumen de los clavecines y espinetas utilizados por entonces. A fines del siglo XVII, Bartolomeo Cristofori creó en padua el “arpicémbalo piano e forte”, que golpeaba las cuerdas con mazos de fieltro de modo proporcional a la fuerza ejercida sobre las teclas, piano (suave) y forte (fuerte). De ahí en adelante, gran esfuerzo se dedicó a perfeccionar el piano consiguiendo más potencia para las grandes salas de concierto.

A veces no es conocimiento común que muchos instrumentos han tenido inventores, como el saxofón (creado opr Adolphe Sax en 1841) y no sólo genios que los perfeccionaron como hicieron los Stradivari con el violín, utilizando técnicas que aún no se han conseguido reproducir del todo. No se conoce, ciertamente, al inventor del instrumento más común de nuestro tiempo, y esencial en la historia de España: la guitarra, que encuentra sus orígenes cuando menos 3.300 años atrás, en el grabado en piedra representando a un bardo hitita con algo que ya tiene las características de lo que llamamos guitarra, ese instrumento que tiene entre sus antecesores al sitar indio, la kithara griega, la cítara latina y la quítara árabe antes de adquirir su forma actual a fines del siglo XVIII. Sí tiene inventor, sin embargo, la guitarra eléctrica de cuerpo sólido, o inventores: el guitarrista Les Paul, que aún vive, y el inventor grecoestadounidense Clarence Leonidas Fender. Ambos nombres siguen identificando a los dos modelos más populares de guitarra eléctrica, los que hicieron posible la música rock y sus múltiples derivaciones.

La ciencia y la tecnología detrás de la música, de modernos desarrollos como el violín o la gaita eléctricos, tienen la enorme ventaja de que, para disfrutar de nuestra música, ni siquiera tenemos que estar conscientes de ellas, ni de las relaciones matemáticas que hacen que nos resulte agradable una melodía o una armonía.

La reproducción de la música

La reproducción mecánica permitió que la música se convirtiera en patrimonio de todos, todo el tiempo, una historia que comenzó con la invención del fonógrafo por parte de Thomas Alva Edison en 1877, siguió con la aparición del disco fonográfico de pasta o vinilo, la radiodifusión y la cinta magnetofónica y ha llegado a la delirante popularidad que tiene hoy la reproducción de la música digitalizada y su compresión para hacerla manejable según el protocolo de compresión MP3, tan popular que a veces olvidamos que apenas surgió a mediados de la década de 1990.

septiembre 13, 2008

La sabiduría científica de la antigua China

En China surgieron muchos de los avances tecnológicos clave de la humanidad, más de los que tradicionalmente conocemos. Avances cuyo origen olvidó durante mucho tiempo todo el mundo, incluidos los chinos.

El que llamamos "triángulo de Pascal" en un
libro de Chu Shih-Chieh (o Zhu Shijie) de 1303.
(Imagen D.P. vía Wikimedia Commons)
Uno de los productos más longevos del colonialismo de las naciones de occidente sobre Asia, África y América ha sido una visión que niega a las culturas originarias de esas áreas geográficas la posibilidad de haber realizado avances y logros en su propio desarrollo. Incluso, ciertas formas de seudoarqueología pretenden asignar la responsabilidad de las grandes construcciones del mundo no occidental a civilizaciones míticas como la de la Atlántida o incluso a supuestos extraterrestres, negando así a los pueblos de lo que hoy es el tercer mundo la paternidad de las pirámides de Egipto y Mesoamérica, Macchu Pichu, los geoglifos sudamericanos, los moais de la Isla de Pascua o la ciudadela de Angkor Wat, por señalar algunas creaciones humanas víctimas de la supuesta disciplina llamada “astroarqueología”.

Esta visión un tanto paternalista, condescendiente e incrédula la ha sufrido también China, pese a que fue indudablemente la sociedad con mayor avance tecnológico del mundo desde el año 600 de nuestra era hasta el 1500, cuando la revolución científica recorrió Europa. Y es que las tecnologías, en muchas ocasiones, no dependen del conocimiento preciso de sus fundamentos, ni siquiera de un pensamiento científico y crítico. La brújula funciona igual si uno cree que la mueve la mágica fuerza del chi, indetectable y misteriosa, o si uno sabe que se mueve debido a las leyes físicas de nuestro universo. Tecnología no es ciencia.

Sin embargo, para algunos estudiosos incluso la revolución industrial que dio a nuestro mundo su forma actual fue, en cierto modo, producto de la tecnología china. El arado chino, con orígenes que se remontan a cuatrocientos años antes de nuestra era se introdujo en Holanda e Inglaterra en el siglo XVII, ayudando a desencadenar la revolución agrícola europea que, a su vez, desembocaría en la revolución industrial.

Más allá de los logros ya conocidos de la tecnología china, el papel (inventado el siglo II a.n.e.), la brújula (siglo XI), la pólvora (siglo IX) o el puente colgante (285 a.n.e.), la nómina de inventos originales chinos es abundante. A continuación señalamos algunos de los que podríamos considerar más asombrosos.

El hierro colado fue obtenido primero en China gracias a que esta civilización consiguió hace unos 2300 años crear un fuelle que dispensaba un flujo constante de aire con el cual pudieron hacer los primeros altos hornos capaces de fundir el hierro hasta que fluyera como agua.

Los chinos fueron la primera civilización que utilizó el gas natural como combustible además de haber desarrollado complejos sistemas de perforación a gran profundidad. Ya en el siglo I de nuestra era podían perforar hasta a 1500 metros de profundidad. Fue su búsqueda de depósitos de sal que los llevó a conocer el gas y aprender a guardarlo en barriles y quemarlo para evaporar agua marina y producir sal.

Las matemáticas chinas se desarrollaron con total independencia de las europeas. Un ejemplo de ellas es el llamado “triángulo de Pascal”, que lleva el nombre del matemático francés Blas Pascal que lo formuló en el siglo XVII. En este triángulo, cada número es la suma de los dos que están sobre él, y sirve para demostrar muchas propiedades matemáticas. Sin embargo, este triángulo ya había sido descrito ya en 1303 por Chu Shih-Chieh, en su libro Espejo precioso de los cuatro elementos, pero no deja de ser relevante que se le llame “el método antiguo”, pues se le conocía desde el 1100, cuando apareció en un libro hoy perdido del matemático Kiu Ju-Hsieh.

El uso del álgebra para la expresión de la geometría es también un logro chino independiente, como la la presentaba el libro Manual matemático isla del mar, que data del siglo III a.n.e. A partir de entonces, a lo largo de la historia china la geometría se consideró por medio del álgebra, con técnicas que se desplazaron a occidente donde fueron retomadas y perfeccionadas por famosos matemáticos árabes como Al-Juarismi, considerado el padre del álgebra y de cuyo nombre derivamos las palabras guarismo y algoritmo, y de allí pasaron a Europa.

Muchos otros logros, más o menos relevantes, distinguieron a China durante más de 1.500 años. Sin embargo, el proceso se detuvo y China no sólo no pasó por una revolución industrial ni científica, sino que llegó a olvidar que había sido la fuente de muchos grandes logros del pasado, algunos de los cuales volvieron a China como productos occidentales (por ejemplo, el reloj mecánico) sin que nadie estuviera consciente de que había llegado a Europa primero desde China.

Se han aducido motivos históricos, culturales, filosóficos y económicos para intentar entender por qué hubo el estancamiento y retroceso científico y tecnológico de China: la influencia de los jesuitas, la cerrazón de los mandarines, el marco filosófico no adecuado para el pensamiento crítico y la experimentación y la abundante mano de obra son algunas de las causas que pueden haber ocasionado este fenómeno. En lugar de los avances del conocimiento, en China sobrevivieron prácticas supersticiosas como el feng-shui, la acupuntura, la herbolaria y el qi-gong, disciplinas que no han podido demostrar que sus postulados sean válidos, ni la existencia de las fuerzas mágicas que, aseguran, mueven al universo y a los seres humanos. Hoy, en más de un sentido, China vive una segunda oportunidad de ser parte de la ciencia y la tecnología que, después de todo, se originó en su país, un imperio que se unificó hace dos mil años.

Antes de Leonardo, Shen Kuo

Shen Kuo, cortesano nacido en 1031, fue un temprano hombre del renacimiento que trabajó en campos que iban desde las matemáticas, la anatomía y la astronomía hasta la diplomacia, la poesía y la música, además de ser general del ejército, ministro de finanzas, jefe de la oficina de astronomía de la corte y prolífico escritor. Fue el primero en describir la brújula magnética, descubrió el concepto de “norte verdadero”, midiendo con precisión la distancia entre la estrella polar y el norte verdadero, esencial para una navegación precisa. Hizo el mapa de las rutas orbitales de la luna y los planetas describiendo el movimiento retrógrado, diseñó un reloj de agua, propuso una teoría de la formación de la tierra a partir del estudio de los fósiles marinos hallados tierra adentro y su conocimiento de la erosión y los sedimentos, convirtiéndose en pionero de la geomorfología, además de postular un cambio climático gradual, como pionero también de la paleoclimatología. Murió en 1905 pudiendo decir, como Terencio, “nada humano me es ajeno”.

abril 26, 2008

Fundó la informática, ganó una guerra, murió perseguido

Los ordenadores que hoy son herramienta fundamental de la ciencia, la economía, el arte y la comunicación son, en gran medida, resultado del sueño de un matemático inglés poco conocido.

Estatua de Alan Turing en Bletchley Park.
(Foto Ian Petticrew [CC-BY-SA-2.0],
vía Wikimedia Commons)
Uno de los frentes secretos de la Segunda Guerra Mundial es Bletchley Park, que era un edificio militar (hoy museo) en Buckinghamshire, Inglaterra. Allí, un grupo de matemáticos, ajedrecistas, jugadores de bridge, aficionados a los crucigramas, criptógrafos y pioneros de la informática se ocuparon de derrotar al nazismo quebrando los códigos secretos con los que se cifraban las comunicaciones militares y políticas alemanas.

Desde 1919, los servicios secretos, criptógrafos y matemáticos habían estado trabajando sobre la máquina llamada “Enigma”, inventada originalmente por el holandés Alexander Koch y mejorada por técnicos alemanes para las comunicaciones comerciales, aunque pronto se volvió asunto de las fuerzas armadas alemanas. La máquina Enigma era esencialmente una máquina electromecánica que usaba una serie de interruptores eléctricos, un engranaje mecánico y una serie de rotores para codificar lo que se escribía en un teclado, y en una versión mejorada y ampliada se convirtió en la forma de codificar y decodificar mensajes militares alemanes de modo enormemente eficaz.

Al iniciarse la Segunda Guerra Mundial, aprovechando los esfuerzos criptográficos previos de quienes habían abordado los misterios de la máquina Enigma, el joven de 26 años Alan Mathison Turing desarrolló mejoras al sistema polaco anterior para romper el código Enigma y diseñó la llamada "bomba de Turing", una máquina que buscaba contradicciones en los mensajes para hacer deducciones lógicas que permitían descifrar los mensajes más rápida y eficazmente. Pero, por supuesto, ningún ejército depende de una sola arma, de una sola estrategia ni de un solo sistema de cifrado para sus mensajes secretos. Así, Turing después se vio implicado en el desciframiento del sistema indicador naval alemán, un desarrollo ampliado de Enigma. Más adelante, en 1942 fue parte del equipo encargado de romper el código FISH de la armada nazi y puso algunas de las bases del ordenador Colossus, desarrollado por otro departamento militar inglés durante la guerra.

El que sería, sin proponérselo, soldado clave, en la Batalla de Inglaterra en 1940 y en el triunfo aliado final de 1945 había nacido en 1912. Desde su niñez se habían hecho evidentes sus aptitudes para la ciencia y las matemáticas, lo que sin embargo no deslumbró a sus profesores, más interesados en el estudio de los clásicos. Turing, sin embargo, siguió estudiando y trabajando matemáticas por su cuenta y llegó a entender y desarrollar planteamientos de Einstein cuando sólo tenía 16 años, concluyendo, algo que Einstein aún no había declarado abiertamente, que su trabajo en la relatividad desafiaba la universalidad de las leyes de Newton. Más adelante, como estudiante en el King’s College de Cambridge (fue rechazado en el Trinity College por sus malas notas en humanidades), reformuló algunos planteamientos del matemático Kurt Gödel y en 1936 planteó una máquina hipotética (la “máquina de Turing”), un dispositivo manipulador de símbolos que, pese a su simplicidad, puede adaptarse para simular la lógica de cualquier ordenador o máquina de cómputo que pudiera construirse o imaginarse, de modo que podría resolver todos los problemas que se le plantearan. La máquina de Turing abre la posibilidad de crear máquinas capaces de realizar computaciones complejas, idea que desarrolló más ampliamente en Princeton. Esta máquina imaginaria permitió responder a algunos problemas matemáticos y lógicos de su tiempo, pero sigue siendo hoy en día uno de los elementos de estudio fundamentales de la teoría informática, pues mucha de la informática de hoy surge de la nueva forma de algoritmos (procedimientos matemáticos de solución de problemas) derivados de la máquina de Turing.

Turing trabajó en proyectos criptográficos del gobierno británico y fue llamado a Bletchley apenas Alemania invadió Polonia en 1938. Durante la guerra, además de su trabajo criptográfico, Turing se ocupó de aprender electrónica. Terminada la guerra, en 1946 en el Laboratorio Nacional de Física de Gran Bretaña, presentó el primer diseño completo de un ordenador con programas almacenados, algo trivial hoy en día. Después de años de construcción, retrasos y sinsabores, el ordenador ACE de Turing fue construido y ejecutó su primer programa el 10 de mayo de 1950. A partir de entonces, Turing se ocupó de la matemática en la biología, interesándose sobre todo por los patrones naturales (como la concha del nautilus o las semillas de un girasol) que siguen los números de Fibonacci.

El brillante matemático, sin embargo, era homosexual en una época en que no había ninguna tolerancia a su condición sexual y en un momento y un país donde los actos homosexuales se perseguían como delitos y como una enfermedad mental. Después de que su casa fue robada por uno de sus compañeros sexuales en 1952, Turing admitió públicamente su homosexualidad y fue declarado culpable. Se le dio la opción, tratándose de un personaje de cierta relevancia, de ir a la cárcel o de someterse a un tratamiento de estrógenos para disminuir sus impulsos sexuales, opción ésta que eligió el genio. Debido a su homosexualidad, que se consideraba un riesgo, perdió además sus autorizaciones de seguridad y se le impidió seguir trabajando en la criptografía al servicio de Su Majestad.

Turing apareció muerto el 8 de junio de 1954, según todos los indicios a causa de su propia mano, aunque quedan algunas dudas sobre la posibilidad de un accidente o un menos probable asesinato. Aunque había sido condecorado con la Orden el Imperio Británico por su trabajo en la guerra, éste permaneció en secreto hasta la década de 1970, cuando empezó la reivindicación de su nombre. En 2001, en el parque Sackville de Manchester, se develó la primera estatua conmemorativa que lo resume: "Padre de la ciencia informática, matemático, lógico, quebrador de códigos en tiempos de guerra, víctima del prejuicio”.

La prueba de Turing

Habiéndose ocupado desde 1941 de la posibilidad de la inteligencia de las máquinas, lo que en 1956 pasaría a llamarse "inteligencia artificial", Turing consideró que no había ninguna prueba objetiva para determinar la inteligencia de una máquina, y diseñó la llamada “Prueba de Turing”. En ella, un evaluador mantiene conversaciones simultáneas mediante una pantalla de ordenador con una persona y con una máquina, sin saber cuál es cuál. Tanto la persona como la máquina intentan parecer humanos. Si el evaluador no puede distinguir de modo fiable cuál es la persona y cuál la máquina, ésta habrá pasado la prueba y se debe considerar "inteligente".