Fotografías de objetos a 45 kilómetros tirando de algoritmos: así trabaja el sistema que han inventado unos investigadores

Fotografías de objetos a 45 kilómetros tirando de algoritmos: así trabaja el sistema que han inventado unos investigadores
6 comentarios Facebook Twitter Flipboard E-mail

Es realmente impresionante lo que estamos consiguiendo a nivel fotográfico en el espacio: no sólo vemos ya "más cerca" galaxias, estrellas y planetas muy lejanos, sino incluso hemos podido vislumbrar en cierto modo un agujero negro. Pero a veces lo difícil está bajo la estratosfera, cuando tratamos de obtener una fotografía de algo lejano, y ahí es donde entra el sistema que han ideado para fotografiar objetos a 45 kilómetros de distancia.

Lo curioso además es que se trata de algo que se ha conseguido en el marco de un estudio científico, que no se trata de algún nuevo objetivo o sistema comercializado por ninguna marca. La clave: tirar de fotografía computacional, junto con algoritmos y detectores de fotones.

Eligiendo fotones para eliminar ruido

Como decíamos al principio, la fotografía aquí en la Tierra puede presentar ya mucha dificultad, sobre todo a la hora de obtener nitidez en planos más alejados y según qué condiciones atmosféricas tengamos hablando de exteriores. Lo vemos perfectamente en las muchas pruebas que hacemos de los móviles, por ejemplo en la última comparativa, viendo cómo un día nublado penaliza más el resultado especialmente en el detalle y si tiramos de zoom, ya sea óptico o digital.

Lo comentan también en el MIT, añadiendo la dificultad que añade la polución o las distorsiones de la propia atmósfera. Y es ahí donde entra el equipo de científicos de la Universidad de Ciencia y Tecnología de Shanghai, dirigidos por Zheng-Ping Li, que han mostrado en su último trabajo cómo fotografiar objetos hasta 45 kilómetros en un ambiente contaminado.

Lo que han utilizado son detectores de fotones, cuya sensibilidad da para diferenciar fotones de manera individual, combinándolos con un algoritmo de escaneo de imágenes que logra imágenes con resolución muy alta al fusionar los puntos que quedan dispersos (recogiendo así más información). Se han basado en el funcionamiento de la detección por láser o los LIDAR, es decir, en la creación de la imagen con la luz reflejada.

El principio de esto es que los fotones reflejados del sujeto fotografiado vuelven al detector en una ventana de tiempo específica que depende de la distancia, de ahí que los fotones que lleguen fuera de esta ventana pueden ser ignorados. Esto permite que se reduzca el ruido (al rechazar los fotones no deseados), además han usado un láser de infrarrojos con longitud de onda de 1.550 nanómetros, lo cual permite filtrar los fotones solares y tener un sistema seguro para la vista (y que el detector no se sobrecargue).

21,6 kilómetros Imagen tomada a 21,6 kilómetros. El resultado (arriba a la izquierda) está al lado de lo que se ve en la banda visible (al medio, a la izquierda) y el resto de fases del procesado. (Imagen: Single-photon computational 3D imaging at 45 km)

Lo mejor: cabe en una caja de zapatos

Eso sí, aunque la clave ha sido la fotografía computacional, la óptica tampoco es una muy estándar que digamos. Han usado la misma que un telescopio espacial, con apertura de 280 milímetros, si bien el detector de fotones sí era uno estándar según explican en el MIT.

21,6 km

El equipo espera que su trabajo dé pie a que se desarrollen sistemas similares para obtener imágenes de alta resolución, más rápidos y con alcance kilométrico. Ven su aplicación en campos como la vigilancia aérea, el reconocimiento e identificación de objetos o la detección remota, sobre todo porque todo ese equipo cabe en lo que sería una caja de zapatos (de pies grandes, eso sí).

De lo que no han hablado es de qué ocupan las imágenes obtenidas, aunque probablemente no se acerquen a esos 5 petabytes que supuso esa foto del agujero negro que recordábamos antes.

Comentarios cerrados
Inicio