Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

CSI: realidad y fantasía

La criminalística se ha beneficiado enormemente de la ciencia... pero no tanto como quisieran los guionistas de cine y televisión.

Para muchas personas, la moderna criminalística tiene su punto de inflexión en 1866, no con un acontecimiento policiaco, sino con un hecho literario trascendente: la publicación de Estudio en escarlata, de Arthur Conan Doyle, la primera novela que protagonizaría Sherlock Holmes. En el primer capítulo, cuando el doctor Watson es llevado a conocer al detective como posible compañero de piso, lo encuentra gritando "¡Lo he encontrado! ¡Lo he encontrado!", refiriéndose al descubrimiento de una sustancia química que reacciona solamente en contacto con la hemoglobina y con ninguna otra sustancia. En la ficción, Holmes había dado el primer paso para determinar con certeza si una mancha era producto del óxido, de pintura, de salsa de tomate o de sangre, que viene siendo el primer paso para llegar a la actual identificación por ADN.

La investigación criminal se ha apoyado cada vez más en la ciencia para poder reconstruir los hechos y resolver sus casos. Hoy parece inimaginable que se realizaran investigaciones sin estudios sobre el rayado de los cañones de rifles y pistolas, sin análisis químicos de sustancias, sin fotografías, sin identificación de huellas dactilares, sin nada más que las siempre poco confiables afirmaciones de testigos o las suposiciones más o menos vagas que llegaron a lanzar a la hoguera a miles de inocentes acusados de herejías y brujerías diversas. La sola idea del CSI, la investigación de la escena del crimen, ha casi sustituido al policía de gatillo ligero.

El médico escocés Henry Faulds señaló en 1880 que las huellas dactilares eran individuales y no cambiaban a lo largo de la vida, y sugirió que las huellas de grasa dejadas por los dedos podrían usarse para identificar científicamente a los delincuentes. Sin embargo, cuando propuso este método a la policía metropolitana de Londres, no encontró eco. Fue hasta 1892 cuando el policía argentino Juan Vucetich, basado en el trabajo del científico multidisciplinario Francis Galton, utilizó una huella digital para demostrar la culpabilidad de Francisca Rojas en el asesinato de sus dos pequeños hijos. Poco después, los departamentos de policía de todo el mundo ya recopilaban huellas dactilares de delincuentes y perfeccionaban sistemas para recoger, resaltar y conservar las huellas halladas por los investigadores. Hoy incluso es posible obtener impresiones útiles de los dedos de cadáveres en avanzado estado de descomposición o recuperar huellas de superficies como el papel, además de rescatar impresiones digitales de gran antigüedad.

Las pruebas de ADN para uso forense fueron desarrolladas apenas en 1984 por el genetista inglés Alec Jeffreys, de la Universidad de Leicester. Estas pruebas no sólo implicaban la identificación o perfilado de una persona por su ADN, sino la forma de obtener ADN de manchas antiguas y un proceso complejo para la separación del semen y las células vaginales, lo que permitía el uso del sistema en casos de violación. La identificación por ADN se empleó por primera vez en un tribunal para condenar al asesino y violador Colin Pitchfork en el propio Leicester en 1988, y también para exonerar al primer acusado del crimen, Richard Buckland. El impacto de esta nueva herramienta es difícil de valorar, no sólo por la enorme cantidad de delincuentes descubiertos debido a ella, sino principalmente por la gran cantidad de inocentes cuyas afirmaciones de no culpabilidad han sido finalmente reivindicadas, en ocasiones después de purgar largas penas de cárcel. Las pruebas de ADN son tanto o más confiables que las huellas dactilares.

La informática ha representado un importante apoyo al trabajo de la investigación policiaca. Simplemente las enormes bases de datos recopiladas y la facilidad que los ordenadores ofrecen para hacer búsquedas en ellas bastan para plantear una realidad totalmente nueva en el terreno de la investigación de los delitos, una diferencia quizá tan grande como la que marcó la llegada del microscopio a los terrenos policiacos. Igualmente, la informática es un excelente auxiliar en el análisis de sustancias diversas, tendencias estadísticas y, por supuesto, imágenes. Sin embargo, no existe, por desgracia, el ordenador, o el programa de ordenador, que pueda realizar las hazañas de los que nos ofrece la ficción. Una imagen digital tiene un número determinado de píxeles en su superficie, y esos píxeles o puntos de información visual representan la resolución de la imagen. Acercarse a una imagen más allá de su resolución natural la convierte en una colección de puntos que no ofrecen más información al observador. Sin embargo, los ordenadores casi mágicos del cine y la televisión consiguen hacer acercamientos imposibles, reconstruyendo de modo mágico la información que originalmente no estaba allí, para regocijo del público y molestia generalizada de informáticos, fotógrafos, artistas digitales y videógrafos por igual.

¿Y la sustancia ficticia de Sherlock Holmes, el agente químico que reaccionaba en presencia de la hemoglobina? Lo más parecido que tiene la criminalística actual es el luminol, frecuente actor en las series y películas policiacas. Descubierto en 1928 por el químico alemán H.O. Albrecht y cuyas propiedades como detector de sangre fueron señaladas en 1936, es una sustancia que emite una débil luz azul cuando está en contacto con manchas de sangre. Como el reactivo de Holmes, puede detectar una parte de sangre entre un millón de otra sustancia, pero no es tan infalible como el producto literario del siglo XIX, ya que también emite luz al estar en contacto con metales como el cobre, las aleaciones de cobre, algunas formas de lejía... y el rábano picante. Sigue siendo, pues, menos confiable que la sustancia que el detective británico había encontrado en las primeras páginas de su saga.

El renacer de un rostro


Si bien algunos aspectos de la criminalística, como la entomología forense, han dado lugar a famosas películas (como El silencio de los corderos), pocas especialidades son tan inquietantes como la identificación forense. Con base en los conocimientos de la anatomía y fisiología de la cabeza humana, un experto en identificación forense puede tomar un cráneo totalmente descarnado y recrear sobre él el rostro que tuviera su dueño en vida. El grosor de las distintas capas de tejido que sabemos que tenemos permite una reconstrucción con una exactitud absolutamente asombrosa, que ha permitido la identificación de numerosas víctimas y que ha tenido el beneficio adicional de permitirnos ver el rostro que debieron tener personajes de la historia como el propio Tutankamón, sometido hace poco tiempo a una reconstrucción facial forense.

Hombre y perro: extrañas complicidades

Dos especies protagonizan la asociación más peculiar de la naturaleza en la Tierra. El hombre y el perro se han moldeado mutuamente de formas que apenas estamos descubriendo.

"Muchacho con un perro" cuadro de Bartolomé
Murillo. Museo del Hermitage. (Imagen vía
Wikimedia Commons)
El pacto entre el hombre y el perro, según nos dicen estudios de ADN de perros y lobos realizados entre 1997 y 2002, puede haber comenzado hace cien mil años, aunque ya se encuentran poblaciones de lobos asociadas con restos de homínidos hace 400 mil años. En todo caso, hace algo menos de 20 mil años la domesticación ya estaba consolidada. La variación genética del perro, además, parece señalar que la domesticación ocurrió muchas veces, en distintos lugares, con distintas subespecies de lobos que coexistían con grupos humanos con los que, suponemos, competían antes de descubrir los beneficios que comportaba el asociarse y hacer algo tan desusado como compartir. Así el hombre ya tenía perros con los que compartía la vida en África, en Europa y en Asia, y llegó con ellos al continente americano, hace al menos 15 mil años. El aprecio por el perro lo demuestran los entierros ceremoniales de estos animales que ya se encuentran en Dinamarca durante el mesolítico.

El proceso de domesticación del perro tiene, según se desprende de los estudios zoológicos, una extraordinaria similitud con el proceso de "humanización" (por decirlo de algún modo) de nuestros ancestros primates. Fue el etólogo (estudioso del comportamiento natural) Desmond Morris quien difundió, en su libro esencial El mono desnudo el descubrimiento de que nuestra especie había sufrido un proceso llamado neotenia en el cual ciertas características infantiles se prolongan en el tiempo, manteniéndose presentes durante gran parte de la vida del individuo… o incluso para siempre. Ciertamente somos la especie con la infancia más larga, y en muchas formas es desusado que nuestras crías sean tan tremendamente indefensas durante tanto tiempo, tiempo que se necesita, según los zoólogos, para poder aprender lo suficiente.

Un rasgo infantil de prácticamente todos los animales superiores es el juego, la capacidad de divertirse que el ser humano de nuestros días conserva a lo largo de toda su vida. Más allá de casos de amargura notables, incluso los más ancianos se divierten, ríen, disfrutan los deportes o juegan, ya sea a las cartas o con sus nietos, exhibiendo una conducta que no tienen la mayoría de los demás animales. El perro, en su proceso de domesticación, también fue sometido, suponemos que por los propios seres humanos con los que se asoció, a un proceso de neotenia. El perro adulto comparte numerosas características infantiles de las crías de lobo, entre ellas precisamente la capacidad de disfrutar del juego hasta las etapas más avanzadas de su vida.

La asociación del hombre y el perro es sumamente lógica si se analiza únicamente desde el punto de vista de la supervivencia. Para el ser humano, el perro era igual el guardían en la noche que el aliado con velocidad singular en la cacería o el socio capaz de detectar olores que eran imposibles de apreciar para el primate (animal esencialmente visual), mientras que para el perro (o para el lobo que eventualmente se convertiría en perro), el hombre era una certeza de alimentación mayor que la que tenía la manada sola, una mayor protección contra las inclemencias del clima alrededor de la fogata de la tribu o clan y la posibilidad de contar con un socio de vista mucho más aguda que la propia.

Sin embargo, la asociación de una manada de lobos con una tribu o clan humano (o prehumano) sufrió en algún momento una transformación absolutamente radical, dando como resultado una relación individual, de un perro a un ser humano. En este proceso, quizá lo que más llama la atención es la forma en que los miembros de cada una de las especies trata al otro. Para el perro, su "amo" (palabra desafortunada si las hay) es parte de su manada. Más aún, el humano preferido es tratado, en la gran mayoría de las ocasiones, exactamente de la misma manera en que la manada trata al macho o hembra alfa (los jefes de la manada de lobos). Por su parte. El ser humano considera a "su" perro en muchísimas ocasiones como un miembro más de la familia, no sólo en el trato cotidiano sino, sobre todo, en los sentimientos que alberga por el animal que lo acompaña. La expresión de los sentimientos, según algunos zoólogos, ha sido también seleccionada por el ser humano como parte del proceso de domesticación. Así tenemos la llamada "sonrisa del perro", con el hocico entreabierto, los labios relajados (no mostrando los dientes para amenazar), jadeando ligeramente y con la lengua descansando sobre los dientes inferiores. En los perros con orejas rectas, el mantenerlas enhiestas, sin echarlas para adelante buscando una amenaza ni hacia atrás preparando la lucha (se aplanan con objeto de protegerlas de los mordiscos), se considera también la "sonrisa del lobo".

Si bien los clubes caninos hablan de 800 "razas", desde el punto de vista genético no es posible distinguir tales razas de perros (como no se distinguen las supuestas razas humanas). El perro es una simple subespecie del lobo, y es que, más allá de las dificultades mecánicas que puedan presentarse entre tipos de perros muy pequeños y muy grandes, todos los 800 tipos o razas de perros que existen en el mundo pueden cruzarse entre sí, y todos pueden cruzarse con los lobos.

Sí, dentro de ese pequeño caniche, maltés, Yorkshire terrier o chihuahueño hay un lobo, un lobo tan orgulloso, tan libre y tan admirable como el de las novelas de Jack London, aunque tenga el disfraz de un juguetón animalillo. Y basta hacerlo enfadar para ver que en sus ojos brilla el lobo que es en realidad.

¿Ataque o defensa?

Los ataques de perros, con frecuencia atribuidos a "razas peligrosas", pueden ser resultado de un simple problema de comunicación. Algunos comportamientos inocentes que pueden ser mal entendidos por un perro incluyen mirar a un perro fijamente a los ojos puede disparar un ataque ya que se trata de una mirada dominante, propia del macho alfa, y se considera un reto si la usa un miembro inferior de la manada. La mirada fija es más peligrosa si se hace a la altura de los ojos del perro, como pueden hacerlo los niños pequeños. Es especialmente peligrosa una acción en apariencia muy inocente: acercarse a un perro desconocido con la mano extendida palma abajo sobre su cabeza para acariciarlo. Por ello, los expertos recomiendan que al acercarse a un perro desconocido se incline, no lo mire fijamente a los ojos y le ofrezca la mano con la palma hacia arriba, por debajo de la altura del hocico del animal. Así, no percibirá amenaza alguna y, además, su curiosidad natural lo empujará a investigar qué lleva en esa mano tan poco amenazante.

Lo que sabían los antiguos

Cierto culturocentrismo en ocasiones nos hace creer en el mito de los "salvajes primitivos" y suponer que toda cultura antigua era ignorante.

El mecanismo de Antiquitera, uno de los
objetos a los que la ignorancia sobre el
conocimiento de los antiguos le atribuye
orígenes misteriosos.
(Imagen GFDL vía Wikimedia Commons)
Un argumento frecuente utilizado para defender ideas más o menos extravagantes es, simplemente, que los pueblos antiguos "no podían" haber hecho tales o cuales cosas: cortar y trasladar grandes bloques de piedra (para hacer las pirámides de Egipto, por ejemplo), orientar con exactitud astronómica una edificación (como Stonehenge o Abu Simbel), cruzar mares sin modernos métodos de navegación (digamos, para poblar Australia) y un largo etcétera.

Es un hecho que en la enseñanza de la historia, con frecuencia la enumeración de gobernantes, guerras y batallas suele sacrificar en nuestras escuelas el conocimiento de las civilizaciones antiguas. Si se toca algún punto, como la filosofía griega o el conocimiento matemático de los mayas, es de paso, sin profundizar en lo que conformaba el universo del conocimiento en la vida cotidiana de nuestros ancestros.

La astronomía es una de las grandes incomprendidas por muchas personas que hoy en día persisten en hallar "increíble" que muy antiguas culturas conocieran perfectamente su situación geográfica y astronómica sin contar con un modelo viable del universo. Y sin embargo, todas las culturas que dieron el paso del nomadismo al sedentarismo lo hicieron con base en la astronomía. Dicho de otro modo, si no hubieran sabido astronomía, no habrían podido dedicarse a la agricultura. El conocimiento de las estaciones, y por tanto de la orientación norte-sur, así como el recuento del año, son requisitos esenciales para establecer una sociedad agrícola. Y dado que todo el ciclo de las cosechas parece depender de las posiciones de los astros respecto del sol, ¿es acaso extraño que estas culturas pretendieran ajustar sus construcciones rituales a lo que veían ya como un cierto orden universal, por mucho que estuviera teñido de variadísimas creencias teístas?

Para los antiguos egipcios, por ejemplo, el norte era un espacio vacío circundado por dos estrellas, las que hoy llamamos Kochab y Mizar, y cuya alineación marcaba el "norte verdadero"… o al menos lo hizo durante algún tiempo alrededor del 2480 a.C., fecha calculada para la construcción de la pirámide de Keops. Hoy, el norte está marcado por la estrella Polaris, nuestra "estrella del norte", pero esto también cambiará, dado que el eje terrestre se "tambalea" en su viaje por el espacio, y por tanto las estrellas que ayudan a ubicar el norte cambian en un ciclo de unos 26 mil años.

La astronomía se basa en matemáticas y geometría, sin ellos no hay más que cálculos "a ojo" y poca precisión para saber cuándo empezar a plantar, por no hablar de los problemas de agrimensura que no sólo se refieren a la propiedad de la tierra, sino a temas tan delicados como la cantidad de semilla necesaria para garantizar una buena cosecha en una parcela determinada. Un pequeño error de cálculo podía ser la diferencia entre el bienestar general o la muerte por hambruna. Esto evidentemente da a los números una gran importancia y un aspecto místico que llevó a que, en algunas culturas como la maya, los matemáticos y los sacerdotes fueran unos y los mismos.

Uno de los motivos de la incomprensión respecto de las civilizaciones antiguas es la presunción de que sus intereses y visiones debían ser similares a los nuestros. Por ejemplo, en principio suena inviable que los antiguos griegos conocieran la energía del vapor, pero no por considerarlos ignorantes o incapaces, sino porque no la utilizaron para lo que nuestra civilización la utilizó: sustituir a trabajadores costosos y rebeldes para mejorar las utilidades y masificar la producción. El problema es que la economía de las ciudades-estado de la antigua Grecia estaba basada en el trabajo esclavo (cosa que nuestra admiración por sus logros intelectuales con frecuencia deja a un lado), de modo que los trabajadores no eran ni caros ni, mucho menos, rebeldes. Por otra parte, el tipo de mercancías que permitían obtener grandes ingresos no eran susceptibles de producción en masa, y la idea de sustituir al hábil artesano (frecuentemente esclavo) por una línea de montaje no tenía mucho sentido. Por tanto, cuando el genial Herón de Alejandría (inventor también del odómetro, estudioso de la neumática y la óptica, y matemático destacado) inventó la eolípila o turbina de vapor primitiva en el siglo I de nuestra era, resultó una diversión interesante, pero no se le dio aplicación industrial y fue olvidada. Algo similar ocurre con dos productos chinos tradicionales. Durante siglos, en China se usaron linternas de papel para crear pequeños globos de aire caliente. Igualmente, los chinos contaban desde más o menos el 400 antes de nuestra era con un juguete infantil llamado "libélula de bambú": un palito con una hélice en el extremo, que salía volando como un helicóptero cuando el niño hacía girar rápidamente el palito entre las manos abiertas.

Algunas civilizaciones tienen logros verdaderamente asombrosos que se ven opacados por la idea popular de su retraso. Por ejemplo, hay culturas fabulosas capaces de hacer trabajos de orfebrería primorosos o imponentes (incas, mesoamericanos, egipcios), fundiendo el oro a 1064 grados centígrados... cuando no utilizaban el bronce, que se obtiene haciendo una aleación de estaño con cobre, y que sólo requiere 20 grados centígrados más que el oro para fundirse.

Y es que, como podemos ver a nuestro alrededor si sabemos hacerlo, en la actualidad no usamos máquinas distintas de las ya conocidas por los babilónicos: palancas, poleas y planos inclinados. Nuestras palancas y poleas pueden expresarse en altísimas grúas de construcción accionadas por electricidad, pero sus principios son los mismos que los empleados para construir Ur, Abu Simbel o el acueducto de Segovia. Hoy sabemos muchas cosas más que nuestros antepasados, pero ello no cancela lo que ellos ya sabían, y nuestra tecnología no es sino la extensión de la que elaboraron a partir de cero otras civilizaciones que merecen nuestro asombro porque hoy, prácticamente nadie podría cazar un bisonte, ya no digamos hacer la punta de piedra de la lanza necesaria para la cacería, lo que pone a sus creadores en posesión de conocimientos muy superiores a los nuestros sobre algo tan sencillo como una piedra.

Tecnología de peluquería


Teñirse el cabello tampoco es asunto de reciente creación. A lo largo de toda la historia, ha habido formas de cambiarse el color del cabello que usaron las más distintas culturas. Quizá la receta para hacer "rubias de farmacia" más antigua que se conoce procede de la Grecia clásica, cuyas mujeres empleaban una pomada de pétalos de flores amarillas, una solución de potasio y polvos de color para obtener una coloración rubia en sus cabellos.

La memoria informática

La sobrecarga de información impone nuevas demandas sobre las máquinas que nos sirven y, sobre todo, su capacidad de almacenamiento de datos.

Uno de los primeros, enormes discos duros.
(Foto GFDL de Appaloosa, vía Wikimedia Commons)
Un cálculo sencillo en 1988 hacía creer que un disco duro de 20 megabytes bastaría para guardar toda la producción de un novelista en toda su vida, pues más de 20 millones de caracteres o letras (bytes) bastan para guardar unas 20 novelas de tamaño medio. Pero los discos duros de 20 MB duraron poco, y fueron siendo sustituidos de manera acelerada por dispositivos de almacenamiento de más y más capacidad. Así, hoy, un CD ofrece 700 MB de almacenamiento y un DVD 4.600 MB (o 4,6 gigabytes, donde el prefijo "giga" significa "miles de millones"), mientras que los discos duros de 200 o 300 GB son comunes y ya se empieza a habar a nivel doméstico de "terabytes" o billones de bytes (un uno seguido de doce ceros).

Sin embargo, estas cifras son absolutamente triviales comparadas con las necesidades de almacenamiento de grandes empresas, gobiernos y organizaciones internacionales que gestionan enormes bases de datos, para los que no es nada esotérico tratar con petabytes (mil billones) y mucho más. La "digitalización de la realidad" no se limitó, como podía suponerse en 1988, a la información textual, a letras y palabras, sino que abarca todos los espacios imaginables, en complejas disposiciones de bases de datos que requieren de complejos programas para poder encontrar la información deseada rápidamente. En el área de la imagen, por ejemplo, una cámara fotográfica digital profesional común hoy produce archivos que al procesarse para su impresión ocupan más de 20 megabytes cada uno, es decir, una fotografía de resolución normal ocupa el espacio de una novela, y un fotógrafo profesional puede generar algunos miles de fotografías al año. Y sin embargo hay otras actividades en las que se necesita muchísimo más espacio de almacenamiento, como la animación en 3 dimensiones y los efectos para el cine.

Esta "digitalización de la realidad" está además dejando atrás a gran velocidad al gran medio de almacenamiento de datos antiguo: el papel. Cada vez más, sobre todo en el mundo desarrollado, muchos datos, expedientes, informes, proyectos, certificados, registros y documentos varios ya no tienen existencia "física", sino que existen solamente en el mundo virtual informático que, por ello mismo, necesita grandes capacidades de almacenamiento en espacios pequeños, poco costosos y razonablemente seguros por cuanto a que no se perderán y perdurarán en el tiempo al menos tanto como el tremendamente resistente papel al que están sustituyendo.

El almacenamiento digital masivo se realiza actualmente por dos medios: grabando los "1" y "0" del lenguaje binario en un sustrato de óxido magnético (cintas, discos duros y disketes) o bien creando con un láser pequeñas depresiones o "pits" en una superficie reflejante tintada (CD y DVD). Ambos sistemas llegarán en un momento dado a un límite físico en cuanto a su capacidad de almacenar cada vez más datos en cada vez menos espacio de manera fiable y perdurable.

De hecho, el DVD de doble capa representó el límite máximo de capacidad de almacenamiento de datos en un disco reflejante tintado con el sistema de láser rojo existente que empezó a comercializarse en 1982. Simplemente es imposible que ese láser grabe los datos más apretadamente en un disco. Por ello, en estas semanas se ha dado el lanzamiento de la nueva tecnología "Blu-Ray" de discos del tamaño de un CD o DVD pero que son escritos y leídos por un nuevo láser de color azul violeta ("blu-ray" es una forma de decir "rayo azul"). El láser rojo usado actualmente tiene una longitud de onda de 650 nanómetros o milmillonésimas de metro, mientras que el láser azul violeta tiene una longitud de onda de 405 nanómetros, lo que le permite grabar y leer 25 gigabytes en el espacio en el que hoy caben apenas 5 ó 10 (en el DVD de doble capa). Dicho de otro modo, en un solo disco del tamaño de un DVD se podría tener el equivalente a 25 mil libros, una biblioteca sin duda impresionante.

Pero es en la creación de nuevos sistemas de almacenamiento de datos que vayan más allá de los medios magnéticos y ópticos donde abundan las ideas y las posibilidades de las revoluciones de almacenamiento que vienen. Por ejemplo, en las universidades de Drexell, Pensilvania y Harvard se está trabajando actualmente en nanoalambres de una cienmilésima del grosor de un cabello humano suspendidos en agua que pueden contener casi 13 millones de gigabytes (13 petabytes) en un solo centímetro cuadrado por medios ferroeléctricos que no tienen la fragilidad de los magnéticos. Por su parte, IBM, la empresa donde se inventó el disco duro en 1955, se está trabajando con almacenamiento micromecánico utilizando depresiones realizadas en un polímero por medio de una "punta" de microscopía de fuerza atómica. Esta tecnología promete 1 terabyte por pulgada cuadrada.

Pero el reto máximo de la memoria digital se encuentra en la prueba del tiempo. ¿Cuánto pueden permanecer los datos en un disco duro o un DVD antes de que se deterioren irremediablemente? La misma juventud de estos medios hace que toda respuesta sea en el mejor de los casos un cálculo razonable basado en proyecciones matemáticas y pruebas de envejecimiento acelerado en laboratorio, y en el peor una ocurrencia sin más bases que la imaginación de quien la ofrece. Pero quien quiera que haya grabado sus datos en un "viejo" CD y lo haya tratado de abrir sin éxito dos o tres años después sabe que éste es un problema alarmante considerando la mencionada "digitalización de todo". Se necesita que la memoria permanezca.

Porque estamos hablando de datos que conforman, en este siglo XXI, la memoria colectiva humana, que le estamos confiando a medios de almacenamiento mucho más complejos y, a veces, enigmáticos que la simple hoja de papel donde escribimos los 10 mil años anteriores de nuestra historia.

Memoria atómica


Al iniciar la era de la nanotecnología con una conferencia en 1959, Richard Feynman dijo que todas las palabras escritas en la historia humana podrían guardarse en un cubo de una décima de milímetro por lado, siempre que se escribieran con átomos.

Hace dos años, esta visión empezó a hacerse realidad utilizando un microscopio tunelizador de exploración para levantar átomos en una placa de silicio uno por uno, de modo que los átomos levantados signifiquen "1" y los que se dejan en su sitio signifiquen "0". Si un grano de arena tiene alrededor de 10 mil billones de átomos, ese grano de arena, que finalmente es silicio, tiene la capacidad de almacenar un petabyte, o cien mil discos duros de 100 gigabytes como el que podemos tener en nuestro ordenador. Y tenemos datos suficientes para llenar ese grano de arena y muchos más.