FSGAN, el algoritmo que permite crear deepfakes en formato vídeo más fácilmente y en tiempo real

FSGAN, el algoritmo que permite crear deepfakes en formato vídeo más fácilmente y en tiempo real
2 comentarios Facebook Twitter Flipboard E-mail

La generación de deepfakes es una de las aplicaciones de la inteligencia artificial que más ha dado de qué hablar en este último año. Y además, evoluciona a ojos vista, permitiendo a una base de usuarios cada vez más amplia realizar deepfakes cada vez más realistas de manera cada vez más sencilla. Pero lo de FSGAN es un paso enorme en ese sentido.

Este nuevo software (cuyo nombre significa 'Face Swapping GAN' o 'Red generativa antagónica cambia-caras') nos permite recurrir a dos técnicas diferentes de creación de deepfakes en formato vídeo: la de 'face swapping', con la que superponemos el rostro de una persona sobre el cuerpo de otra, y la de 'face reenactment', que nos permite recrear la efigie de una persona aplicándole los movimientos de otra persona (incluyendo los de los labios).

FSGAN
Ejemplos del uso de ambas técnicas de creación de deepfakes.

Falsificar más rápido y más fácil

Pero lo más relevante de FSGAN es que permite hacer todo esto sin necesidad de poner el algoritmo en cuestión a 'entrenar' durante horas (o incluso días), y recurriendo a costoso hardware especializado, hasta que éste sea capaz de 'aprender' el aspecto y movimiento de un rostro humano.

Y el ahorro de tiempo no es la única gran novedad, sino hasta qué punto se simplifica a partir de ahora la generación de deepfakes: básicamente, cualquier persona con unos conocimientos básicos de esta tecnología podrá producir nuevas falsificaciones, porque el 'trabajo pesado' pasa a estar completamente automatizado.

Desarrollado por científicos de la Universidad Bar-Ilan de Israel, según explican en el 'paper' disponible desde el pasado viernes en ArXiv, FSGAN mapea el rostro o las expresiones faciales de una persona 'fuente' (extraída de un vídeo o -incluso, aunque con peores resultados- de un mero fotograma) para aplicarlos sobre un segundo individuo 'objetivo'.

El vídeo de demostración publicado por los investigadores permite observar que los resultados de esta técnica simplificada se acercan al nivel de perfección mostrado en el pasado por otras más complejas de usar, consiguiendo salir airoso de retos como el de lidiar con micrófonos superpuestos al rostro 'objetivo' o el conjuntar rostros y cuerpos de distinta pigmentación de piel.

Sin embargo, es cierto que por ahora FSGAN flojea bastante en otros casos, como a la hora de aplicar el 'face reenactment' a partir de un fotograma individual, mostrando fondos de imagen temblorosos que permiten detectar el deepfake a la legua.

FSGAN no seguirá la senda de GPT-2

Pero, ¿por qué sus creadores han anunciado que compartirán de manera "inminente" el código de este software con el mundo? ¿No podrían aplicar la política por la que optó Open AI cuando se negó a permitir el acceso a su generador de 'fake news' GPT-2 porque era "demasiado peligroso en las manos equivocadas"?

Lo cierto es que ellos no están de acuerdo: afirman que lo compartirán porque impedirlo "no detendrá el desarrollo de tecnología similar", sino que sencillamente ocultaría al público y a los responsables políticos las repercusiones del mal uso de esta clase de algoritmos, e impediría el desarrollo de alguna clase de contramedidas.

FSGAN
Esquema de funcionamiento del algoritmo, elaborado por los autores de la investigación.

Vía | Futurity

Comentarios cerrados
Inicio