Las imágenes vía satélites manipuladas mediante inteligencia artificial, el último grito en armas militares

Las imágenes vía satélites manipuladas mediante inteligencia artificial, el último grito en armas militares
Sin comentarios Facebook Twitter Flipboard E-mail

Los deep fakes son cada vez más variopintos, y las autoridades parecen ser cada vez más conscientes del peligro que representan. Pero podríamos estar a las puertas de un salto cualitativo en este campo, según denuncian autoridades de la inteligencia militar estadounidense.

China, cómo no, es la causa de esas preocupaciones: parece que la potencia asiática se está especializando en recurrir a GANs (redes generativas antagónicas) para engañar a los ordenadores del enemigo y hacerles 'ver' elementos inexistentes cuando analizan imágenes tomadas vía satélite.

"No es precisamente información clasificada que los chinos están muy por delante de nosotros. [...] Ya han planificado -y están recurriendo a- las GANs para manipular escenarios por motivos maliciosos".

Quien afirma esto es Todd Myers, Director de Información de la Oficina del Director de Tecnología de la Agencia Nacional de Inteligencia Geoespacial de los Estados Unidos.

Afirma que sería posible confundir a los responsables de análisis de imágenes para que notificaran que un puente cruza un determinado río en un determinado punto cuando no es así. Eso induciría a su bando a planificar una posible misión en la zona teniendo en cuenta la posibilidad de esa ruta de escape.

"Pero les esperaría una gran sorpresa, porque el puente no está ahí".

¿Cómo permiten las GANs manipular esta clase de imágenes?

Esta estrategia tiene dos facetas: en primer lugar, lo que entendemos por 'deep fake' puro y duro, la** creación de imágenes de elementos inexistentes**, pero indistinguibles de los reales para el ojo humano. El trabajo realizado al respecto con rostros humanos es impresionante, y exportable a una amplia gama de elementos físicos.

Pero también es posible optar por otra estrategia, que no se diferencia demasiado de la reciente noticia sobre la manipulación del piloto automático de los Tesla mediante la colocación de pegatinas en la calzada: del mismo modo que las GAN nos permiten identificar objetos en imágenes mediante la detección de patrones ocultos al ojo humano, también permiten imprimir dichos patrones en otros objetos para manipular a otras inteligencias artificiales. En este caso, las usadas por un potencial enemigo militar.

Ejemplo de esta técnica: una pequeña alteración en la coloración de una tortuga impresa en 3D puede llevar a una red neuronal a identificarla como un arma.

De modo que era cuestión de tiempo que los chinos, que llevan ya dos años utilizando GANs para identificar infraestructuras mediante el análisis de sus imágenes vía satélite, empezaran a invertir el uso de esta tecnología.

Lo que preocupa a Myers es que el sector de la cartografía (tanto de uso civil como militar) es cada vez más dependiente de los datasets de acceso libre, de modo que auqnue tan sólo un puñado de los mismos contuvieran imágenes manipuladas, se podría generar "un completo caos". En su opinión, esto obligará a la comunidad militar y de inteligencia a no confiar en la información abierta, obligándoles a recolectar duplicados de la misma.

Pero, como avisa NextGov, si estos datos 'verídicos' quedan en manos de los gobiernos, y los datasets públicos (los que usan las instituciones académicas, las ONGs y los medios de comunicación) quedan expuestos a la manipulación, "se abre una brecha entre las 'verdades' a las que pueden tener acceso, respectivamente, gobierno y público".

En palabras de Andrew Hallman, responsable de la Dirección digital de la CIA, nos encontramos "en una batalla existencial por la verdad en el campo ed lo digital. Ahora empezamos a entender la magnitud del problema".

Vía | Nextgov

Inicio