YouTube y la radicalización: qué hay detrás de su algoritmo y los vídeos cada vez más extremistas

Yt
Sin comentarios Facebook Twitter Flipboard E-mail

Una de las investigaciones presentadas en la ya concluida ACM Fact de Barcelona, señala a YouTube como responsable de la radicalización del contenido presente en la plataforma. A pesar de que Google se desmarca por completo de tales conclusiones, este estudio coincide con algunos de los puntos denunciados el año pasado por ex trabajadores de la plataforma de vídeos.

El estudio. Tras visualizar y analizar un total de 72 millones de comentarios de 330.925 vídeos procedentes de 349 canales diferentes, los investigadores de la Universidad de Lausana, Harvard y Minas Gerais afirman que hay "fuertes evidencias" de que YouTube esté fomentando una espiral de radicalización a través de las recomendaciones. Para comprobarlo, estudiaron el contenido generado por tres comunidades: intelectual dark web (sensacionalistas y promotores de lo políticamente incorrecto), alt-lite (corriente de derechas que huye del ultraconservadurismo) y alt-rigt (extrema derecha).

Esta elección sirvió a los investigadores para observar cómo ha ido variando el algoritmo frente a cada uno de los consumidores de las categorías anteriores, durante los últimos diez años.

Evidencias. En primer lugar, se dieron cuenta de que YouTube ante cualquier búsqueda sencilla, promocionaba "fácilmente" este tipo de vídeos. Posteriormente, los investigadores comprobaron que un 26% de los comentaristas presentes en las publicaciones de intelectual dark web y alt-lite, años después, aparecían también como comentaristas de los vídeos de alt right. Es decir, gracias a las recomendaciones, habían pasado a ser parte de la audiencia del contenido situado aún más hacia la derecha.

Efecto Trump. La tendencia anterior ha ido en aumento desde que en noviembre de 2016 Donald Trump ganó las elecciones estadounidenses. Según el estudio, un 12% de los usuarios que comentaban vídeos de intelectual dark web o alt-lite en 2017, observó cómo el propio YouTube comenzó a recomendarles vídeos de extrema derecha durante los siguientes 18 meses.

¿A favor del sensacionalismo? Hace poco más de un año, Bloomberg publicó un reportaje donde los ex trabajadores de la plataforma denunciaban que YouTube promovía el contenido sensacionalista y conspiratorio con sus algoritmos. Tal y como relatan, esto sucedió cuando YouTube estaba trabajando por alcanzar las mil millones de horas de visionado diarias, una cifra que logró en 2017 y que les dio una lección de estrategia: cuánto más escandaloso sea el contenido, más interés genera y, por lo tanto, hace que los usuarios pasen más tiempo en la plataforma saltando de un vídeo a otro.

Respuesta. Tal y como recoge eldiario.es, YouTube rechaza la metodología,  las conclusiones y las evidencias aportadas por los investigadores universitarios. Sin embargo, para la plataforma el informe no es válido porque, entre otras cosas, no tiene en cuenta las modificaciones que han realizado en materia de discurso del odio y desinformación:

"Hemos cambiado nuestros algoritmos de búsqueda para garantizar que el contenido más fidedigno apareciese y se etiquetase de forma destacada en los resultados y recomendaciones de las búsquedas, y comenzamos a reducir las recomendaciones de contenido y vídeos de carácter dudoso que podrían desinformar a los usuarios de forma perjudicial".

Imagen: Leon Bublitz/Unsplash

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio