Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

noviembre 29, 2013

El Hubble en tu teléfono

Los avances de la tecnología en las últimas décadas nos permiten conocer mejor el universo, y también fotografiar nuestros momentos personales más relevantes o más tontos.

La imagen del campo ultraprofundo tomada por el Hubble
en 2009. Haga clic en ella para verla a más resolución.
Cada punto de luz es una galaxia que contiene miles de
millones de estrellas. (Foto D.P. NASA, vía Wikimedia Commons).  
Convertir lo que vemos en una imagen perdurable no ha sido nada fácil. La pintura lo intentó desde los inicios mismos de la humanidad, probablemente a cargo de una especie antecesora de la nuestra, el Homo habilis.

Pero no fue sino hasta la aparición de la fotografía que empezamos a conseguir una reproducción fiel, y también cada vez más económica, de la realidad. Como arte, como registro de la vida familiar y como auxiliar en numerosas ciencias y técnicas (desde la microscopía hasta la fotocomposición y reproducción de obras de arte), la fotografía fue una de las grandes revoluciones del siglo XIX y XX.

Así, por ejemplo, las asombrosas fotografías tomadas en la Luna por Neil Armstrong y Bzz Aldrin en la misión Apolo XI todavía utilizaron metros y metros de película que fue necesario llevar a nuestro satélite, exponer, traer de vuelta y revelar (proceso siempre temible, aunque probablemente los jóvenes ya nunca lo sabrán, y lleno de riesgos por contaminación de las diversas sustancias utilizadas para hacer visible especialmente la fotografía a color) para que la gente de nuestro planeta pudiera ver no sólo las tomas de la Luna, sino, por supuesto, la grandiosa toma de nuestro planeta colgando sobre el horizonte de nuestro satélite.

Precisamente con la idea de facilitar y miniaturizar la captura de imágenes en el espacio, considerando el altísimo coste de cada gramo que debe llevarse más allá de nuestra atmósfera, dos físicos, el estadounidense George E. Smith y el canadiense Willard Sterling Boyle, que trabajaban en la empresa AT&T Bell Labs, inventaron en 1969 un sistema llamado “dispositivo de carga acoplada” (charge-coupled device) mejor conocido como CCD. Según recordó George E. Smith, “Después de hacer el primer par de dispositivos de captura de imágenes, supimos con certeza que la fotografía química había muerto”.

Y, ciertamente, si bien sobrevivió una larga época, mientras los sensores CCD se hacían más sensibles, de mayor resolución y más fieles a la realidad, el declive de la fotografía química, que utilizaba sales de plata que se oscurecían donde había luz y no donde había oscuridad, comenzó en ese momento.

Y, de paso, el CCD también decretó la muerte de las cámaras de vídeo que utilizaban tubos de rayos catódicos para convertir las imágenes en señales eléctricas.

Smith y Boyle recibieron en 2009 el Premio Nobel de Física “por la invención de un circuito semiconductor capaz de capturar imágenes”. Este circuito semiconductor o CCD es, esencialmente, un grupo de diminutos capacitores que al ser alcanzados por la luz (es decir, por fotones), emiten electrones, es decir, adquieren una carga eléctrica que puede ser leída por un procesador e interpretada para recrear la imagen original. Usando distintos filtros, un sensor CCD puede detectar literalmente millones de colores con gran precisión.

El CCD no sólo cambió la historia de la fotografía y el vídeo (y, eventualmente, el cine), sino también la astronomía que usaba fotografías para capturar más luz de la que puede detectar el ojo humano.

El ejemplo más conocido de los CCD en astronomía es el del Hubble, un telescopio óptico con un espejo de 2,4 metros de diámetro y que cuenta con cámaras de CCD, espectrógrafos y filtros que le permiten “ver” en distintas frecuencias del espectro electromagnético. Su sistema para detectar luz visible es el ACS, con tres cámaras, una de las cuales realizó muchas de las más asombrosas imágenes que nos ha revelado el Hubble, de galaxias, nebulosas, viveros de estrellas y, muy especialmente, las tomas que nos han llevado cada vez más hacia los bordes de nuestro universo.

En 1995, los responsables del telescopio orbital decidieron seleccionar un pequeño segmento del cielo en apariencia totalmente vacío, en la constelación de Formax, y fotografiarlo en una larga, muy larga exposición, a ver qué había realmente allí. Entre el 18 y el 28 de diciembre, el Hubble miró fijamente ese punto, recolectando la luz que podía provenir de allá, débiles fotones que habían salido de su punto de origen miles de millones de años atrás.

Cuando el Hubble terminó, las imágenes que capturó se fusionaron en una fotografía en la que aparecían más de 3.000 objetos luminosos, casi todos ellos galaxias hasta entonces desconocidas, que se encuentran en las zonas más alejadas de nuestro universo.

En los años siguientes, el Hubble conseguiría varias imágenes más de campo ultraprofundo y profundo extremo, en pequeños fragmentos del campo profundo que han revelado miles y miles de galaxias más en los bordes mismos de nuestro universo. La luz de algunas de ellas salió hace 13.200 millones de años, apenas unos 450 millones de años después del nacimiento de nuestro universo en el Big Bang. En ellas vemos, efectivamente, cómo era el universo en sus inicios

Otra cámara más especializada “ve” en las frecuencias cercanas al ultravioleta y al infrarrojo es la llamada WFC3 (cámara de campo amplio 3) instalada en 2009, de gran sensibilidad, diseñada para minimizar el “ruido” que todos conocemos que muestran los sensores cuando hay poca luz… y con una definición de apenas 16 megapíxeles, una resolución común en las cámaras compactas para aficionados y que muy pronto alcanzarán los teléfonos inteligentes.

Y es que las cámaras para consumidores comunes y corrientes utilizan exactamente el mismo principio de capacitores capaces de convertir la luz en descargas eléctricas para capturar imágenes. La mayoría de las cámaras tienen un sistema llamado CMOS (siglas en inglés de “semiconductor de óxido metálico complementario) que resulta más fácil y barato de fabricar, que puede ser mucho más pequeño, aunque ha tardado en tener la calidad de imagen que ofrece un CCD.

En lo fundamental, el uso de un principio de la física cuántica para capturar imágenes, la cámara con la que suelen venir dotados nuestros teléfonos es simplemente una pariente pequeña, menos precisa y mucho menos costosa que las cámaras con las que dispositivos como el Hubble y los nuevos telescopios que lo sustituirán nos muestran los objetos luminosos más alejados del universo.

En el principio estuvo Einstein

Todos los sensores de luz se basan en el efecto fotoeléctrico, un fenómeno descubierto por Albert Einstein en el cual una superficie, al recibir luz, emite electrones. El efecto fotoeléctrico fue la base de la idea de que la luz se comporta en ciertos casos como si fuera una onda y en otros como si fuera un flujo de partículas, la llamada “dualidad” que es la base de la moderna mecánica cuántica. El efecto fotoeléctrico fue el motivo por el que Einstein recibió el Nobel en 1921.

3 comentarios:

Nachop dijo...

"La pintura lo intentó desde los inicios mismos de la humanidad, probablemente a cargo de una especie antecesora de la nuestra, el Homo habilis."
Me podrías poner un link con esas conjeturas, que yo siempre había leido que eran a partir del Homo Sapiens moderno. Es que me gustanmucho los temas evolutivos y nunca está de más leer algo nuevo.

MJS dijo...

Es solamente una especulación basada en hallazgos como la Venus of Berekhat Ram o los petroglifos de Bhimbetka. Aunque es razonable pensar que con sus herramientas habilis y erectus pudieran haber hecho arte, no hay evidencias sólidas. Hasta donde sabemos con certeza el arte comienza con el Homo sapiens moderno, hace unos 40.000 años.

Nachop dijo...

Muchas gracias.