Así recurrió Youtube a la IA para borrar vídeos de la masacre de Christchurch cuando los moderadores humanos se vieron desbordados

Así recurrió Youtube a la IA para borrar vídeos de la masacre de Christchurch cuando los moderadores humanos se vieron desbordados
12 comentarios Facebook Twitter Flipboard E-mail

El pasado viernes, la ciudad neozelandesa de Christchurch se vio golpeada por una masacre: varios atacantes entraron en una mezquita de la localidad y abrieron fuego contra los que allí se encontraban, matando a 50 personas e hiriendo a otras 50.

Pero si hubo algo que contribuyó a que este hecho diera la vuelta al mundo, más allá de la cifra de muertos, fue su difusión a través de las redes sociales.

En primer lugar, por su emisión en directo a través de Facebook (uno de los atacantes portaba un casco con cámara); pero, sobre todo, por las miles de copias del vídeo que fueron subiendo los usuarios a esta y otras plataformas para darle difusión.

Pese a que el streaming original fue visualizado sólo por 200 personas (hubo que esperar 30 minutos hasta que una de ellas se animó a reportar lo que estaba viendo), Facebook llegó a eliminar 1,5 millones de copias del vídeo, la mayor parte durante el proceso de carga, antes de que nadie llegara a visualizarlo.

Por su parte, Neal Mohan, Responsable de Producto de Youtube, ha explicado al Washington Post cómo hizo frente el mayor portal de vídeos del mundo a este hecho: la premisa era, igualmente, impedir que se usara Youtube para difundir dicho vídeo. Desbordados los moderadores humanos por la cantidad de copias que se estaban subiendo, desde Youtube se tomaron dos decisiones:

  1. Suspender temporalmente la opción de buscar vídeos recientemente subidos.
  2. Dejar en manos de la IA la tarea de detectar las nuevas copias de este vídeo en concreto.

A mediados de 2017 Google empezó a emplear técnicas basadas en machine learning y en el reconocimiento de imágenes para mejorar la detección de material inapropiado en Youtube. Descubrieron entonces que más de la mitad del contenido clasificado como "extremista" por la inteligencia artificial no cumplía los requisitos para ser retirado según las antiguas herramientas de moderación.

De modo que, cuando se tomó la decisión de dar un descanso a los moderadores humanos, la IA fue capaz de detectar la mayor parte de las copias (Youtube no ha dado cifras concretas, aunque sí ha hablado de "decenas de miles" de cuentas de usuarios, y cientos de ellas suspendidas más tarde por "promover o glorificar" al tirador).

El problema del streaming en vivo y de la creatividad de los usuarios

Pero la decisión supuso a su vez que, por un lado, miles de vídeos legítimos quedaran inaccesibles por violación de las condiciones de uso de la plataforma y que, por otro lado, los usuarios decididos a publicitar el vídeo recurrieran al ingenio para poner en aprietos a la IA moderadora de Youtube.

Así, muchos usuarios empezaron a editar el vídeo para impedir su detección: versiones abreviadas, con logotipos superpuestos o -lo más creativo- uso de filtros que dotaban a los fotogramas del aspecto de un gameplay de videojuego y no de un vídeo real.

También se aplicaron los mismos trucos que se usan para subir escenas de películas sin alarmar al algoritmo de detección de material con copyright: invertir la imagen sobre su eje vertical, ponerle un marco, etc.

Otro problema añadido es que la mera detección de algunos fotogramas del vídeo en cuestión no pueden ser razón para eliminar un vídeo, pues las agencias de noticias y medios legítimos también los usan a la hora de cubrir las noticias. Según reconocía Mohan al Washington Post,

"Esta tragedia fue prácticamente diseñada con el propósito de volverse viral. Hemos mejorado, pero eso no significa que no tengamos mucho trabajo aún por delante".

Queda por delante, por ejemplo, el mismo problema que permitió difundir el vídeo en primer lugar: las retransmisiones en directo. Pues, por muy bueno que sea el algoritmo de una plataforma, para cuando una IA sea capaz de reconocer lo que está pasando, habrá estado emitiendo durante medio minuto o más.

Si luego, además, se pretenden detectar copias editadas de ese vídeo, han de pasar aún unos minutos mientas se entrena a la IA. De modo que no parece que Youtube vaya a poder prescindir de los moderadores humanos en este campo. No por ahora.

Vía | Bloomberg

Comentarios cerrados
Inicio