Facebook toma medidas contra los deepfakes: los borrará de la red social, aunque obviará la parodia y la sátira

Facebook toma medidas contra los deepfakes: los borrará de la red social, aunque obviará la parodia y la sátira
4 comentarios Facebook Twitter Flipboard E-mail

Los deepfakes prometen ser uno de los grandes retos de las plataformas sociales en 2020. En el último año hemos asistido al nacimiento, o más bien, popularización de esta tecnología que permite manipular un clip de vídeo o audio para hacer que, por ejemplo, una persona de relevancia mundial como Barack Obama o Mark Zuckerberg aparezca "diciendo cosas" que no han dicho.

Supone un reto porque los deepfakes son cada vez más reales y distinguirlos de un vídeo real puede ser complicado. Ante este desafío, empresas como Facebook o Adobe se han puesto manos a la obra, y ahora la empresa de Zuckerberg ha confirmado cómo actuará ante este tipo de contenido: borrándolo, siempre y cuando se cumplan ciertas condiciones.

Si es deepfake, fuera

Según explica Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, "las manipulaciones se pueden hacer a través de tecnologías simples como Photoshop o mediante herramientas sofisticadas que utilizan inteligencia artificial o técnicas de "aprendizaje profundo" para crear videos que distorsionan la realidad, generalmente llamados 'deepfakes'". Según Bickert, "si bien estos videos aún son raros en Internet, presentan un significativo desafío para nuestra industria y sociedad a medida que aumenta su uso".

Desde Facebook afirman que su enfoque para combatir los deepfakes consta de varios protagonistas, desde la academia y el gobierno hasta la industria, así como "más de 50 expertos mundiales con antecedentes técnicos, políticos, de medios, legales, cívicos y académicos para informar el desarrollo de nuestras políticas y mejorar la ciencia de la detección de medios manipulados". ¿Y cómo actuará la empresa ante la detección de un deepfake? Borrándolo cuando cumpla estos criterios:

  • "Ha sido editado o sintetizado, más allá de los ajustes de claridad y claridad, de una manera que no quede claro para una persona promedio y que probablemente sirvan para engañarle y que piense que el protagonista del vídeo dijo palabras que en realidad no dijo.
  • Si es producto de una inteligencia artificial o aprendizaje automático, fusionando, reemplazando o superponiendo contenido en un vídeo para que parezca que es auténtico."

En otras palabras, si el vídeo o audio ha sido generado por una inteligencia artificial o ha sido editado de forma que puede llevar a engaño a una "persona promedio", la empresa lo retirará de la plataforma. Sin embargo, estas medidas no se extiende al contenido parodio o satírico, como tampoco a aquellos vídeos que hayan sido editados para omitir palabras o cambiar el orden de las mismas (algo que, todo sea dicho, podría usarse para crear contenido manipulado). Si el contenido incumple las normas de la comunidad, sea falso o no, se eliminará de Facebook.

Ahora bien, la empresa no se deshará por completo de las noticias falsas, otro campo que no ha estado exento de polémica. Facebook se mantiene en sus trece, afirmando que si uno de sus 50 socios de verificación de datos detecta una noticia falsa o parcialmente falsa reducirá "significativamente su distribución en News Feed y lo rechazará si se está ejecutando como un anuncio". Asimismo, las personas que lo vayan a compartir o que lo hayan compartido recibirán advertencias alertando de que el contenido es falso.

Recientemente, Facebook, junto a varios actores como Microsoft y diversas universidades, lanzó el Deepfake Detection Challenge, un desafío cuyo objetivo es "producir tecnología que todos puedan usar para detectar mejor cuándo se ha usado inteligencia artificial para alterar un vídeo para engañar al espectador". Para subvencionarlo, Facebook está dedicando 10 millones de dólares.

Un ejemplo más radical sería China. Desde el 1 de enero, los deepfakes son ilegales y distribuirlos es un delito penal que llevará a los usuarios a prisión. Las empresas sí podrán distribuir este contenido siempre y cuando se indique "claramente" cuándo dicho contenido ha sido creado usando inteligencia artificial. En una línea parecida está California, que prohíbe difundir vídeos manipulados para desacreditar a candidatos políticos durante los 60 días previos a unas elecciones.

Más información | Facebook

Comentarios cerrados
Inicio