Las apariencias engañan casi siempre en las fotos espaciales: el falseo de color, los filtros y el procesado

Al hablar de los telescopios espaciales ya vimos las distintas maneras que tienen los astrónomos de “ver” los cuerpos celestes. Capturas e imágenes que se procesan en algunos casos hasta fascinantes instantáneas, pero es habitual que las fotos espaciales que vemos tengan colores falseados.

La idea no es engañarnos ni hay una conspiración de la NASA sobre ello (aunque eso seguro que gustaría a muchos). El recurso de colorear tiene interés científico y no siempre estético, aunque en general lo que se procura es que las imágenes sean menos complejas y más universales (nunca mejor dicho).

Coloreando planetas y galaxias desde la adolescencia de la carrera espacial

El falseo de color se emplea desde hace décadas en astronomía, cuando la única fuente de las imágenes era su llegada por radio en escala de grises. Leemos en StarChild que los radioastrónomos asignaban un color a cada gama de gris, desde el negro hasta el blanco puros.

Así, al rojo se daba a la emisión más intensa y el azul a la menos, siendo los niveles intermedios los colores naranja, amarillo y verde (y quedando el negro para los espacios donde no había emisión de radio).

El objetivo de falsear color es interpretar las imágenes y en la mayoría de casos en recabar más información

Es decir, aunque se base en un falseo no se trata de que al final quede un resultado que diste de lo real como muchas fotos ultraprocesadas (en 500px, por ejemplo, se encuentran fácilmente), sino de una interpretación y en la mayoría de casos en recabar más información. Más de la que obtendríamos si viésemos un determinado fenómeno astronómico con nuestro ojo desnudo o sólo teniendo en cuenta el espectro visible.

53 imágenes con distintos filtros componen esta fotografía de la luna tomada por el sistema de imagen Galileo en 1992. (Crédito: NASA/JPL)

Esto, de hecho, marca la principal diferencia entre dos grandes telescopios espaciales: uno funcional, el Hubble, y otro que aún no está activo, el James Webb (JWST), pero del que se espera mucho. El Hubble es un telescopio óptico y el JWST es de infrarrojos, o lo que es lo mismo, que para ver las "fotografías" del JWST hay que hacer necesariamente una "traducción" de sus datos.

Sin embargo, es este falseo de color lo que los pone en la misma línea pese a su distinta naturaleza, ya que las imágenes que vemos del Hubble también se procesan aplicando este procedimiento. Algo que se hace de una manera u otra según se quiera:

  • Representar cómo veríamos un evento espacial si fuésemos capaces de viajar hasta él (con nuestro ojo desnudo).
  • Para poder ver lo invisible (radiaciones, gases, etc.).
  • Para destacar ciertos detalles.

Hablando de estos dos telescopios, explica Maggie Masetti, astrofísica de la NASA, que la belleza y la calidad en las imágenes astronómicas depende de dos factores: el detalle de la imagen y los píxeles de la cámara. El JWST obviamente supera al Hubble en ambos aspectos (aunque el más antiguo tampoco queda a mucha distancia) y las imágenes que capturará tendrán mucho más detalle que las del segundo al trabajar con infrarrojos.

Una de las imágenes más icónicas de las obtenidas por el telescopio Hubble: los Pilares de la creación de la nebulosa Águila. Los pilares se ven con luz infrarroja, oscureciendo polvo y gas por estética. (Crédito: NASA, ESA/Hubble y el equipo Hubble Heritage)

El Instagram de los planetas

El fundamento de las cámaras fotográficas de los telescopios es el mismo que el del resto de cámaras: a muy grandes rasgos, la combinación de lentes y espejos con sensores. Éstos suelen ser de un determinado tipo que captura imágenes monocromas, los circuitos de carga acoplada (Charge Coupled Device, CCD), unos sensores que capturan en imágenes monocromas.

El dispositivo de carga acoplada de 2,1 megapíxeles de una cámara digital Argus.

Lo que también es habitual en fotografía de superficie terrestre y espacial es el recurrir a filtros. Con ellos se logra discriminar entre el espectro de luz que interese, dejando pasar sólo ciertas longitudes de onda y facilitando el estudio de los fenómenos que interesan (por ejemplo, los filtros de banda ancha para los procesos atómicos).

Lista de filtros de la cámara WFPC2 (Wide Field and Planetary Camera 2). Desde la izquierda, el nombre de cada filtro está en la primera columna, las propiedades físicas de la radiación que discrimina en la quinta y la longitud de onda central en la séptima. (Fuente: Space Telescope)

Muchas de las imágenes que vemos del Hubble son la composición de tres exposiciones: rojo, verde y azul. Son los tres colores primarios (en física) cuya combinación en distinta proporción da casi todos los colores del espectro visible (son los que entremezclan los monitores, pantallas, etc.), de ahí que al unificar imágenes de cada uno de estos filtros pueda lograrse una en color bastante fiel a lo que veríamos con nuestros ojos (luego veremos qué tipos de fotografía solemos ver).

Los filtros son útiles por su capacidad de discriminar precisamente las longitudes de onda que quedan fuera del espectro visible

Pero el uso de los filtros resulta útil sobre todo por su capacidad de discriminar precisamente las longitudes de onda que quedan fuera del espectro visible (por debajo o por arriba), capturando radiaciones e imágenes que de otro modo no veríamos. Estas imágenes suelen procesarse igualmente, aunque su principal cometido no sea el de que quede una fotografía fascinante, y los colores que quedan suelen ser una guía a la hora del estudio científico (por ejemplo, destacar zonas según temperatura, etc.).

La imagen central se compuso a partir de las obtenidas con siete filtros de banda ancha desde el espectro ultravioleta (izquierda) y hasta el infrarrojo). (Fuente: Space Telescope)

El procesado espacial es especial

Así, las imágenes que solemos ver están ya procesadas (es decir, no vemos el RAW tal cual sale), pero lo que interesa de las imágenes a nivel científico dista de lo que interesa a nivel estético o fotográfico, como explican en Space Telescopes. Es decir, en realidad no sería estrictamente necesario adjudicar un color a cada exposición, pero en el procesado se hace esto y además se eliminan los artefactos que en ocasiones aparecen.

Eso sí, la edición del archivo RAW es algo especial y se diferencia bastante de lo que hacemos cuando vemos que hay en la SD de nuestra cámara. Ya no en cuanto al software o a los parámetros que se requieren, sino porque más que editar lo que se hace al procesar una foto en astronomía u otras ciencias es crear (por aquello de que se parte de un lienzo monocromo y se ha de aplicar el color).

De ahí que el editor tenga bastante libertad a la hora de que al final la estética quede de una u otra manera, aunque hay ciertas reglas que tendrá que seguir necesariamente. Una de ellas es que la que veremos ahora en cuanto al orden de asignación de colores a cada exposición para las fotos "realistas".

El orden cromático es el que ocupan los colores según su longitud de onda. (Crédito: Stuart Robbins (CWRU))

Los tipos de fotografía espacial

En la web del Hubble hay una sección dedicada al procesado de las imágenes que captura el famoso observatorio. Las clasifican en tres tipos según cómo se editen y lo que se busque conseguir:

  • Color natural: son las que quedan tras procesar tres imágenes obtenidas de filtros cercanos a los colores verde, rojo y azul. Lo que veríamos si fuésemos capaces de viajar hasta el evento que sale en la foto. Para lograr este tipo de imágenes, es imprescindible asignar los colores a las exposiciones por orden cromático, es decir, la longitud de onda más corta ha de corresponder al azul, la media al verde y la ancha al rojo.
Galaxia ESO 510-G13. (Crédito: NASA y el equipo Hubble Heritage (STScI/AURA))
Así se creó la imagen de la galaxia ESO 510-G13 que veíamos antes. Se parte de tres imágenes monocromáticas a las que se asigna un color (según la longitud de onda que hayan capturado. (Fuente: Hubble)
  • Color representativo: cuando alguna de las fotografías de la composición capta una radiación que está fuera del espectro visible. La imagen suele mostrar información importante del objeto que no es visible para el ojo humano (radiación electromagnética, rayos X, etc.), y suele seguirse también el orden cromático para la asignación de colores.
Lo que estamos viendo es un Saturno invisible, porque las imágenes se toman en infrarrojos, una luz que no somos capaces de ver. Aquí se asignaron colores a las distintas longitudes de onda con el fin de destacar una serie de detalles; el azul a la longitud de onda más corta, el verde a la intermedia y el verde a la más larga. Las bandas de colores surgen debido a las diferencia químicas en las capas más superficiales y el reflejo que provocan sus nubes, (Fuente: Hubble)
  • Color realzado: cuando no se usa el orden cromático para asignar colores (normalmente por motivos estéticos).
Nebulosa NGC 6543 (Ojo de gato). Esta nebulosa consiste en la emisión de gases originados por una estrella dejando de existir. Los elementos químicos de la nebulosa emiten luz a unas longitudes de onda muy específicas, siendo átomos de hidrógeno, oxígeno y nitrógeno lo que se ha capturado en las imágenes monocromas. En este caso, como vemos indicado en el esquema del espectro de luz, las longitudes de onda se ubican en el color rojo, de ahí que para diferenciar mejor las estructuras asignaron el rojo al hidrógeno (longitud de onda más corta), el verde al nitrógeno (longitud de onda intermedia) y el azul al oxígeno (longitud de onda larga), de modo que no se sigue el orden cromático. (Fuente: Hubble)

Ver mejor lo invisible

Masetti explicaba los detalles del procesamiento de las imágenes que proporcionan telescopios espaciales como el Hubble a colación de una duda que, según ella, está bastante extendida entre los aficionados a la astronomía: si el JWST es un telescopio de infrarrojos, ¿no será capaz de daros imágenes tan bonitas como el Hubble (óptico)?

Explica la especialista que una cosa no quita a la otra, y que de hecho el JWST proporcionará no sólo fotos bonitas, sino mucho más detalladas. Lo resume en una frase:

Hay cosas que el Hubble no puede ver y de las que queremos saber más, y necesitamos un telescopio de infrarrojos para aprender sobre ellas.

Cosas como el nacimiento de estrellas y planetas de nubes de polvo y gas, galaxias y estrellas muy antiguas tan lejanas que dejan un rastro de luz infrarroja, etc. Y nos recuerda lo útil de capturar diferentes longitudes de onda, pudiendo formar imágenes compuestas como ésta de la galaxia M-82, con tomas en rayos X (Chandra), infrarrojos (Spitzer) y luz visible (Hubble).

Imagen compuesta de la galaxia M82. El observatorio Chandra aporta la imagen en rayos X (en azul, cortesía de NASA/CXC/JHU/D.Strickland), los infrarrojos son cosa del Spizer (en rojo, cortesía de NASA/JPL-Caltech/C. Engelbracht (Universidad de Arizona)) y junto a ésas la aportación en luz visible del Hubble (cortesía de la NASA, la ESA, y el equipo Hubble Heritage (STScI/AURA)). (Crédito: NASA, ESA, CXC, and JPL-Caltech)

Imágenes | NASA/JPL-Caltech/SwRI/MSSS/Björn Jónsson, NASA/JPL-Caltech/SwRI/MSSS/Mik Petter

Ver todos los comentarios en https://www.xataka.com

VER 18 Comentarios

Portada de Xataka