Ha comenzado la carrera para crear la tecnología capaz de detectar los deepfakes, pero los falsificadores llevan ventaja

Ha comenzado la carrera para crear la tecnología capaz de detectar los deepfakes, pero los falsificadores llevan ventaja
7 comentarios Facebook Twitter Flipboard E-mail

Dos años después del nacimiento de los deepfakes, tanto la industria tecnológica como el ámbito académico se afanan en desarrollar soluciones que permitan automatizar la detección de material multimedia falsificado (vídeos, imágenes y grabaciones de voz) mediante el uso de inteligencia artificial.

El motivo detrás de estos esfuerzos es tan sencillo como preocupante: los algoritmos de detección de deepfakes siguen yendo por detrás de la tecnología usada para generarlos.

Sin ir más lejos, no hace ni un mes desde que Facebook anunció que invertiría nada menos que 10 millones de dólares en la creación de un dataset que recopilase deepfakes y en la organización de un concurso que impulsara el desarrollo de tecnología para la detección de los mismos. Microsoft es otro de los gigantes de Silicon Valley que aparece como colaborador en este proyecto.

Google también anunció la semana pasada la creación de un dataset de deepfakes visuales, elaborado en colaboración con Jigsaw, a partir de la grabación de cientos de vídeos protagonizados por actores.

Todos estos vídeos, originales y manipulados, se han incorporado al dataset, ya disponible para la comunidad investigadora. Y avisan de que irán incorporando nuevos deepfakes recurriendo a los nuevos métodos que vayan desarrollándose.

Ninguna tecnología será nuestra 'bala de plata'

Siwey Lyu, investigador de la Univ. de Albany y uno de los mayores expertos mundiales en detección de deepfakes, ha impulsado la creación de otro dataset de vídeos, DeepFake Forensic (DFF) con el mismo objetivo: ir incorporando nuevas muestras de deepfakes representativos de la tecnología más avanzada en cada momento.

Lyu, que participó hace unos días en un subcomité de la Cámara de Representantes de EE.UU. que estudiaba la suplantación y la desinformación en Internet, explicaba entonces que

"es importante contar con tecnologías efectivas para identificar, contener y obstruir los deepfake antes de que puedan causar daños. Esto debe hacerse centrándose en mejorar nuestras capacidades forenses y lograr que sea más difícil entrenar generadores de fakes mediante el uso de vídeos online. [...] Debido a la naturaleza compleja de los deepfakes, ningún método o tecnología en concreto será una 'bala de plata'".

Él apuesta por combinar métodos de detección forense: buscar rastros del proceso de síntesis (caras deformadas para adaptarse a la anatomía del objetivo) o de inconsistencias fisiológicas (como la ausencia de parpadeo realista), además de apostar por "usar a la IA para cazar a la IA", recurriendo a redes neuronales para que aprendan a detectar los patrones característicos de los deepfakes.

Pero, ¿cómo propone Lyu obstaculizar el uso de imágenes y vídeos para entrenar nuevas IAs de generación de deepfakes? Introduciendo "ruido antagónico" invisible para el ojo humano pero capaz de boicotear el uso de algoritmos de detección facial, obligando al falsificador a ir seleccionando a mano miles de puntos del vídeo.

¿Un paso adelante y dos pasos atrás?

Dessa, una compañía de inteligencia artificial, ha hecho público un software de código abierto enfocado a la detección de deepfakes de audio, una herramienta que hubieran agradecido tener a mano los CEOs que fueron suplantados hace unos meses mediante llamadas de móvil.

Ragavan Thurairatnam, co-fundador de Dessa, cree que será "inevitable que los actores malintencionados se muevan mucho más rápido que aquellos que quieren detenerlos", pero confía también en que su detector libre sea un "punto de partida" para avanzar en la detección de deepfakes.

Y sin embargo, este movimiento podría ser "una de cal y otra de arena": el propio Thurairatnam reconoce que los sistemas de IA generativos pueden ser entrenados con el objetivo de engañar a un detector específico, si bien confía en que su potencial para ayudar a crear nuevas y mejores herramientas de detección compensa cualquier otro mal uso.

Lyu, sin embargo, no está de acuerdo con este optimista previsión: él sí cree que haya razones para pensar que, a la larga, será peor haber liberado el código de esta herramienta:

"Al principio, el código ayudará a ambas partes, pero probablemente termine repercutiendo en [la creación de] mejores generadores".

En su comparecencia frente a la Cámara de Representantes, abundaba a la hora de explicar esta desventaja de los 'buenos':

"A medida que esta tecnología continúe desarrollándose, las barreras actuales a la creación de deepfakes disminuirán y la calidad de éstos seguirá mejorando".

"Lo que también está evolucionando es el juego del gato y el ratón que experimentan todas las relaciones atacante-defensor, y los atacantes parecen contar con una ventaja: la posibilidad de ajustar el algoritmo de generación cada vez que se hace público un nuevo método de detección".

Vía | Axios & House.gov

Imagen | Pixabay

Comentarios cerrados
Inicio