Estas son las tres conclusiones clave de los Facebook Papers (y la respuesta de la compañía)

Los llamados “Facebook Papers” son miles de páginas de supuestos documentos internos de la compañía que han sido entregados a la Comisión de Bolsa y Valores estadounidense y al Congreso por el asesor legal de Frances Haugen, la exempleada del gigante de las redes sociales que está sirviendo como nuevo gran quebradero de cabeza para la empresa. En las últimas semanas, un trabajador del Congreso entregó las conclusiones de la investigación política a un puñado de medios como The New York Times o The Washington Post que dicen probar algunos hechos muy peliagudos para la imagen pública tanto de Facebook como de Mark Zuckerberg. Se resume en los siguientes tres bloques:

Primero, “las mecánicas de nuestra plataforma no son neutrales”

Uno de esos supuestos informes internos de agosto de 2019 confeccionado por varios investigadores contratados por Facebook para analizar por qué se propaga la desinformación en su plataforma recoge las siguientes conclusiones:

Tenemos pruebas sólidas de que la mecánica central de nuestro producto, como son la viralidad, las recomendaciones y la optimización del engagement, son una parte importante de por qué este tipo de discursos [los de odio y los de desinformación] florecen en la plataforma.

Es decir, que es el propio diseño de su producto, la misma esencia de Facebook, la que hace que estas toxicidades se expandan. “El resultado neto” de todo esto “implica que Facebook, como empresa, promoverá activamente (si no al menos de forma consciente) este tipo de actividades. La mecánica de nuestra plataforma no es neutral ".

En los papers no aparece qué acciones tomó o dejó de tomar Facebook a partir de aquellas conclusiones. En los últimos dos años ha incluido algunos cambios, pero los instrumentos a los que los investigadores señalaron como principales responsables de la desinformación (los likes, los comentarios y el botón de recompartir como fuentes primordiales de lo que el algoritmo considera a la hora de elegir qué son “interacciones socialmente relevantes”) se mantienen intactos.

Por ejemplo, según una investigación de The Washington Post, otro documento interno refleja que en abril de 2020 los investigadores demostraron que se podía reducir la desinformación sobre la COVID-19 en la plataforma en un 38% limitando la importancia que el número de recompartidos de un post tiene a la hora de empujar su visibilidad. En un documento se refleja que Anna Stepanov, la ejecutiva que le leyó el informe a Zuckerberg, dijo que la respuesta del CEO fue la de “no aplicarlo siempre que no haya una compensación material con lo perdido en ‘interacciones socialmente relevantes’”. Es decir, que no lo haría porque implicaba menos engagement en su plataforma.

Otro de los puntos más sonados han sido el denominado “Proyecto Daisy”: “cuando pedimos a los participantes que hablen de alguna experiencia en Instagram que les indujo comparativas sociales negativas, eran muy proclives a hablar de sentimientos negativos debido al recuento de likes”. Es decir, que sentían presión social por compararse con otros y desear tener más likes, algo que pasaba especialmente entre los usuarios más jóvenes. Era un problema para Facebook no por provocar malestar psicológico, sino porque un 37% de los adolescentes afirmó que posteaba menos fotos por esa ansiedad social a generar menos likes que otros.

Tras un experimento piloto en 2018, probaron que esconder los likes no conseguiría que la gente interactuase y postease más, como deseaba la compañía, sino que haría que la gente interactuase menos con los posts y con los anuncios. También concluyeron que eso no mejoró los niveles de ansiedad social de los adolescentes. Estas conclusiones se trasladaron en una reunión interna como “resultados dispares”, y se estableció que lo reflejado “no sirve para afirmar que Instagram cause daños [en los adolescentes] ya que ni el experimento se diseñó para analizarlo ni los datos obtenidos lo prueban”.

Dos, la arbitrariedad a la hora de defender la libertad de expresión

Washington Post dice haber hablado con hasta tres fuentes distintas que confirman que Zuckerberg pactó con el gobierno de Vietnam en la censura dentro de su plataforma de los disidentes del gobierno y borrar los comentarios críticos con el mismo, por vagos que fuesen esos reproches. Según datos de 2018, Vietnam le supone a Facebook mil millones de dólares en ingresos anuales.

Esta postura choca con la defensa a ultranza de la libertad de expresión que los responsables de Facebook mantenían públicamente en las democracias occidentales, especialmente en Estados Unidos, donde, pese a los constantes reproches, la compañía se cuadró durante años en una política de bajo intervencionismo, llegando a defender, por ejemplo, la libertad de los individuos a defender el negacionismo del Holocausto (después se retractó).

Una investigación de The Verge dice haber demostrado que la empresa tiene un opaco “sistema de niveles” para proteger a los usuarios en algunos países, pero que en otros no los aplica, como Myanmar, Paquistán o Etiopía.

Tres, la app boomer

Tanto The Verge como Bloomberg publican que, según los papers, Facebook sabe que uno de sus principales desafíos es el envejecimiento de sus usuarios, y cómo los jóvenes cada vez se desapegan más y más de sus productos, especialmente la app azul, a la que ven un espacio para cuarentones y cincuentones.

En los últimos dos años los centennials estadounidenses usan su app un 13% menos y prevén que caiga un 45% en los próximos dos años. Desde 2019 los millennials estadounidenses han pasado un 4% menos tiempo en Facebook, y los usuarios de todas las edades también están, por lo general, posteando menos.

Qué va a pasar con esto

Todos estos documentos son combustible para los adalides de la teoría de que las redes sociales son “el nuevo tabaco”, una industria nociva para los individuos que debe estar más regulada e incluso intervenida por los gobiernos. En algunos de los artículos publicados a raíz de los documentos se culpa directamente a Zuckerberg, poseedor del 58% de las acciones con derecho a voto de la compañía, del desentendimiento de su producto en esas áreas donde, si los papeles son ciertos, veía que estaba provocando daños, sugiriendo que la Comisión de Valores debería hacer lo posible por juzgarle y retirarle de su puesto de CEO.

Estas recriminaciones también llegan en un contexto en el que Twitter publica las conclusiones de un estudio interno que dicta que "la derecha política dominante disfruta de una mayor amplificación algorítmica que la izquierda política dominante" en su plataforma en seis de los siete países en los que ha analizado. En el mismo punto en el que los periodistas especializados en redes sociales indican que empiezan a detectar en Tiktok el mismo problema de desinformación endémica y ubicua que en otras redes sociales.

Cuál ha sido la respuesta de Facebook

Que las conclusiones a las que se llega en muchos de los artículos citados se construyen bajo “premisas falsas” de los documentos filtrados. Andy Stone, representante de Facebook: "sí, somos una empresa y como tal buscamos obtenemos ganancias, pero la idea de que lo hagamos a expensas de la seguridad o el bienestar de las personas malinterpreta dónde se encuentran nuestros propios intereses comerciales". Para corroborar su planteamiento, alega que Facebook lleva invertidos 13.000 millones de dólares en seguridad, da empleo a 40.000 personas en tareas de moderación y similares y que llevan tiempo “pidiendo regulaciones actualizadas por parte de los gobiernos democráticos para que éstos establezcan los estándares de la industria a los que debemos adherirnos”.

Imagen: 2018, Reuters/GTRES.

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.

Ver todos los comentarios en https://www.xataka.com

VER 0 Comentario

Portada de Xataka