Facebook es muy transparente con sus posts de gatitos… Mientras silencia el éxito del contenido antivacunas

Zuckerberg Facebook
Sin comentarios Facebook Twitter Flipboard E-mail

Hace unos días, Facebook, la red social más popular del planeta se vanagloriaba de ser también la “más transparente de Internet". Lo hacía precisamente por publicar su primer informe trimestral donde analizan en detalle el contenido más visto en la plataforma. En el ranking del informe se veía que las publicaciones con mayor alcance eran contenido viral amable. Lo esperable: animalitos, recetas, puzzles y un sinfín de memes y entretenimiento. Para que os hagáis una idea: la publicación con más visitas era una sopa de letras.

Sin embargo, este no era en realidad su primer informe. Otro análisis más fue realizado hace unos meses y nunca publicado. Ahora sabemos por qué.

Por qué se ocultó. En abril, Facebook había preparado un informe similar de los primeros tres meses del año, pero los ejecutivos nunca lo compartieron con el público para ahorrarse una serie de preocupaciones y críticas, según una investigación de The New York Times. ¿Los motivos? En ese informe, el enlace más visto era un artículo de noticias con un titular que sugería que la vacuna contra el coronavirus tuvo la culpa de la muerte de un médico de Florida.

El informe también mostraba que una página de The Epoch Times, un periódico anti-China de derecha que promulga contenido fundamentado en bulos, fue la página número 19 más popular en la plataforma en ese trimestre. Y así, toda una retahíla de contenido conspiracionista.

La decisión de Facebook. El informe estaba a punto de publicarse cuando algunos ejecutivos de la compañía debatieron si esto les causaría problemas. Y la empresa decidió archivarlo. "Consideramos hacer público el informe antes, pero como sabíamos la atención que atraería, había arreglos en el sistema que queríamos hacer”, explicaba Andy Stone, portavoz de Facebook a The New York Times. Explicaron que habían abogado por la publicación del informe original, pero decidieron posponerlo. Y lo hicieron público tras la investigación del medio neoyorquino.

La línea que ha seguido contra los bulos. Facebook se enfrenta cada vez más a un escrutinio mayor del contenido que se difunde en su plataforma, en particular por la desinformación sobre el  virus y las vacunas. Las críticas se han intensificado a medida que la lucha durante la campaña de inoculación se libra en EEUU. De hecho, incluso la Casa Blanca ha pedido a la compañía que comparta más información sobre bulos y fake news y que haga un mejor trabajo para detener su propagación.

En Magnet hemos hablado sobre ello. Doce cuentas de Facebook son las responsables del 73% de las fake news más difundidas en su red. El mes pasado, el presidente Biden acusó a la compañía de "matar gente" al permitir que los bulos circulen. Por otro lado, Mark Zuckerberg, ha defendido que la plataforma ha estado eliminando agresivamente la información falsa desde el inicio de la pandemia. En total, más de 18 millones de publicaciones.

Lo que se comparte. Si nos centramos en el informe oculto que ha sacado ahora a la luz The New York Times, vemos que ese superexitoso post acerca del médico que murió justo después de vacunarse fue compartido por 54 millones de cuentas. Muchos usuarios se lanzaron a preguntar acerca de la seguridad de las vacunas.

La mayoría de quienes lo reenviaron eran usuarios que provenían de páginas de Facebook que publican regularmente contenido antivacunas. Otros de los que compartieron la historia fueron grupos filipinos que apoyaban al presidente Rodrigo Duterte, grupos pro israelís y una página llamada "Just the Facts", que se describía a sí misma con: "difundir la Verdad incluso cuando los medios de comunicación no lo hacen".

Movimiento antivacunas. Como decíamos, la decimonovena página más popular en la red social fue "Trending World", de The Epoch Times, un medio que ha promovido las teorías de la conspiración QAnon y difundido afirmaciones engañosas sobre fraude electoral. Desde entonces, tiene prohibido publicar en Facebook debido a sus repetidas violaciones de la política de publicidad de la plataforma. "Trending World" fue vista por 81,4 millones de cuentas, nada menos.

Sin castigo. También una investigación del Centro para Contrarrestar el Odio Digital, una ONG británica, publicó hace meses un análisis de 812.000 posts del movimiento antivacunas de Facebook y Twitter entre febrero y marzo de este año. En ese lapso, a nueve usuarios de los usuarios que más información falsa publicaban no se le cerraron las cuentas, que siguen a día de hoy activas. La ONG asegura que ninguna empresa hizo lo suficiente para combatir el 95% de los bulos sobre Covid y vacunas.

Lo que hacen los grupos. Otro factor determinante en la propagación de desinformación han sido los grupos, esa funcionalidad que la misma red social lleva potenciando desde 2010 y no había despegado hasta ahora. Sí, ayuda a que las comunidades con intereses determinados se recluyan de la vista del público general, creando menos fricción ideológica y también menos denuncias y enfados por el contenido que circula en la red.

Pero la realidad es que 70 de cada 100 de estos grupos “cívicos” presentaban problemas de difusión de discursos de odio, desinformación o acoso selectivo, según apuntaba una investigación de The Wall Street Journal. Y en cuatro años pasaron de ser 100 millones de grupos a ser 400.

Imagen: Unsplash

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio