La primera foto de un agujero negro supuso 5 petabytes de datos y fue más fácil enviarlos por avión que por Internet

La primera foto de un agujero negro supuso 5 petabytes de datos y fue más fácil enviarlos por avión que por Internet
44 comentarios Facebook Twitter Flipboard E-mail

Años de coordinación para hacer una de las fotografías más inquietantes y espectaculares del universo, la primera fotografía de una agujero negro. El pasado 10 de abril se hizo pública la primera imagen de un agujero negro, específicamente de su horizonte de sucesos porque, a fin de cuentas, el agujero es negro. Se trata de una imagen con tantos datos que se ha necesitado media tonelada de discos duros para almacenarlo todo.

Hay muchas cosas asombrosas en esta imagen. Por ejemplo, al encontrarse a 55 millones de años luz de nosotros lo que estamos viendo es realmente cómo era hace 55 millones de años. No había humano alguno en la Tierra por aquel entonces. Para fotografiar semejante monstruo no se ha utilizado un telescopio, sino una red de radiotelescopios dispersados por todo el mundo. Todos ellos sincronizados entre sí para que conseguir fotografiar el ítem que desafía el espacio-tiempo.

El proceso ha sido toda una odisea. Event Horizon Telescope, el encargado de capturar la radiación de este agujero negro para crear la imagen, está compuesto por un total de siete radiotelescopios en todo el mundo (Hawai, Estados Unidos, México, España, Chile, el Polo Sur). El resultado es básicamente un “telescopio virtual” del tamaño de la Tierra con la fuerza suficiente para capturar los datos requeridos. El reto era conseguir capturar simultáneamente con un cielo despejado en los diferentes puntos de la Tierra. Pero además, una vez capturados los datos había que sincronizarlos para crear una única imagen.

Ni torrents ni Dropbox, 5 petabytes llegan antes en un avión comercial

El procesamiento de todos los datos se produjo en las instalaciones de MIT Haystack Observatory en Boston y también en las instalaciones de Alemania. Pero claro, ¿cómo llevas todos los datos hasta ahí si se recogieron aproximadamente 5 petabytes de información? Subirlos a una carpeta compartida en la nube no era la solución, Internet en general no es la solución cuando se trata de petabytes. Según Dan Marrone, profesor asociado de astronomía de la Universidad de Arizona e involucrado en el proyecto: “no hay Internet que pueda competir con petabytes de datos en un avión”.

Haciendo un cálculo rápido, supongamos que hay que enviar los datos recogidos por el telescopio de Chile a la central de MIT en Boston. Se entiende que que el Atacama Large Millimeter Array (el telescopio utilizado en Chile) recogió una séptima parte de los datos, estamos hablando de unos unos 714 TB de datos. Desde el telescopio hasta Santiago de Chile (porque no va salir un avión directo al MIT Haystack Observatory) hay 1.200 kilómetros aproximadamente, lo que puede suponer una hora y media de vuelo. Desde Santiago de Chile a Boston (el aeropuerto más cercano al MIT Haystack Observatory) hay 13 horas y media de vuelo mínimo. Unas 15 horas para llevar los datos desde el telescopio a la central, incluso se le puede sumar dos horas extra por imprevistos.

17 horas (61.200 segundos) para transferir 714 TB (714.000 GB) nos da una velocidad media de 11,66 gigabytes por segundo. No hay banda ancha que compita con eso. Por no hablar de los datos recogidos en el Polo Sur, se tuvo que esperar al verano antártico para recopilar dichos datos. Y aún así, fue más rápido que enviarlos por conexión inalámbrica desde la Antártida hasta Estados Unidos.

EHT La caja con discos duros provenientes del Polo Sur.

Como resultado, al MIT Haystack Observatory y a las instalaciones de Alemania llegaron decenas de discos duros apilados y en RAID (configuración de almacenamiento en múltiples discos para evitar la pérdida de datos si uno falla). Una imagen impresionante para muchos fans del almacenamiento físico y la informática.

Evidentemente la fotografía final que hemos visto no ocupa 5 petabytes, no llega ni a 1 megabyte de hecho. Los datos fueron procesados para transformarlos en una imagen final con la ayuda de un algoritmo de aprendizaje automático. Katie Bouman, una de las responsables de dicho procesamiento, explicó en una charla TED hace dos años cómo habían creado el método utilizado:

Imagen | MIT Haystack Obervatory

Comentarios cerrados
Inicio