Cuando se pretende anonimizar una fotografía o un vídeo, el recurso habitual es distorsionar o pixelar el rostro de la persona que lo protagoniza. Este recurso es típico, por ejemplo, en programas televisivos de investigación que recogen testimonios de personas que no desean revelar su identidad, pero lo más frecuente es que lo veamos aplicado cuando se captan imágenes de menores junto a sus padres.
Sin embargo, estas técnicas presentan dos grandes problemas. El primero y fundamental, que cada vez son menos efectivas ocultando rostros: hace ya 3 años, investigadores de la Universidad de Austin y el Cornell Tech de Nueva York recurrieron al machine learning para crear un software capaz de identificar rostros (y objetos) aunque éstos estuviesen pixelados.
El segundo gran problema es que eliminando de la pantalla las facciones del sujeto se le arrebata también toda su expresividad: queda reducido a una masa informe de píxeles que habla sin proporcionarnos referencias para percibir sus emociones.
Usando los deepfakes para el bien
Sabiendo todo esto, un grupo de investigadores de la Univ. Noruega de Ciencia y Tecnología han puesto en marcha una técnica aún experimental, llamada DeepPrivacy, basada en extraer información sobre las expresiones faciales de la persona a través de la localización de puntos de referencia (ojos,hombros, nariz, etc).
A continuación, una GAN (red generativa antagónica), previamente entrenada con un dataset de 1,5 millones de imágenes de rostros, crea un rostro humano completamente nuevo (es decir, no aplica el rostro de una persona real sobre el cuerpo de otra) y lo aplica sobre el sujeto que aparece en el vídeo manteniendo las expresiones originales.
Los científicos creadores de esta nueva técnica reconocen que todavía es mejorable, y que suele fallar cuando los rostros se encuentran en determinados ángulos o están parcialmente ocultados. Sin embargo, destacan el hecho de haber encontrando un uso socialmente positivo a una tecnología, como es la de los deepfakes, de la que siempre suele destacarse su vinculación al porno o su utilidad para manipular elecciones.
Imagen | RJ & DeepPrivacy
Ver 5 comentarios