Compartir
Publicidad

Facebook va a invisibilizar las publicaciones que "casi" violan sus condiciones de uso

Facebook va a invisibilizar las publicaciones que "casi" violan sus condiciones de uso
10 Comentarios
Publicidad
Publicidad

Facebook ha modificado su algoritmo que determina la difusión y el alcance de las publicaciones de su News Feed. Lo ha anunciado el propio Mark Zuckerberg en una extensa nota publicada en su perfil en la que ha dado más detalles sobre este cambio.

La modificación más relevante es la que hace que se deje de dar visibilidad a los contenidos que están a punto de violar las condiciones de uso de Facebook. Es decir, las publicaciones que se acercan a las líneas rojas marcadas por la red sobre desinformación, violencia, incitación al odio, clickbait y amenazas; incluso aunque no hayan violado estas condiciones de forma estricta.

Lo complejo de vetar lo "casi" ilegal

Según el escrito de Zuckerberg, si no hay una intervención sobre el algoritmo, el engagement logrado por publicaciones que rozan la "ilegalidad" dentro de Facebook tiende a crecer cuanto más se acerca a dichos límites, lo cual podría representarse con un gráfico como este (compartido en la publicación original):

Facebook

La idea de Facebook es que con esta nueva medida haya una invisibilización progresiva de estos contenidos limítrofes con lo prohibido, algo que haría que la gráfica sea más similar a esta otra:

Zuckerberg

Esto es lo que ha dicho Zuckerberg al respecto de una medida que muy posiblemente traerá polémica y protestas, especialmente por parte de grupos políticos y sociales interesados en la difusión de estos mensajes en el limbo entre lo legal y lo ilegal (a ojos de Facebook):

Uno de los mayores problemas a los que se enfrentan las redes sociales es que, si no se las controla, la gente se comprometerá de manera desproporcionada con contenidos más sensacionalistas y provocativos. Este no es un fenómeno nuevo. Está muy difundido hoy en día en las noticias por cable y ha sido un elemento básico de los tabloides durante más de un siglo. A escala puede socavar la calidad del discurso público y conducir a la polarización. En nuestro caso, también puede degradar la calidad de nuestros servicios.

Esta reforma se enmarca en un problema creciente para Facebook, que sigue sin saber solucionar, acentuado desde las elecciones presidenciales de Estados Unidos en 2016: la difusión sin control de contenidos prohibidos, como las fake news o la incitación al odio, siendo quizás el caso más claro y macabro el genocidio de Myanmar, del que Facebook ya ha aceptado su parte de responsabilidad.

Este mismo problema alcanza a otras plataformas, como WhatsApp, propiedad también de Facebook, clave para el asesinato de dos hombres inocentes en México a causa de un bulo difundido en esta aplicación. Las soluciones para WhatsApp serían más complejas, pero eso ya es otro tema del que Zuckerberg, de momento, no ha dicho nada.

Temas
Publicidad
Publicidad
Publicidad
Inicio