Google, Facebook y la guerra contra las noticias falsas: ¿deben ejercer de "ministerio de la verdad"?

A comienzos de la semana pasada, Donald Trump, contra lo que decían todas las encuestas, ganaba las elecciones a Presidente de Estados Unidos. Unos días después, y tras la presión de algunos medios, Mark Zuckerberg ofrecía una entrevista en la que defendía que su Facebook y las noticias falsas que no habían tenido nada que ver con los resultados de la elección. ¿Por qué?

Buzzfeed publicaba en octubre una investigación propia en la que, según sus datos, las páginas políticas de Facebook "de derechas" compartían información falsa o inexacta el 38% del tiempo. Las páginas "de izquierdas" hacían lo propio un 20%. Muchas veces buscando lo espectacular y el "click" rápido, historias falsas como ésta fueron compartidas por miles de personas y, por tanto, vistas por todavía muchas más. Hasta el Washington Post montó una sección en la que se dedicaban a desmentir fakes.

Pero Internet está lleno de historias falsas (y, si no lo crees, echa un vistazo al Cazadores de Fakes de Genbeta)... ¿qué tienen éstas de distinto? Los medios estadounidenses, durante la cobertura de esta noticia, han repetido una estadística hasta la saciedad: el 44% de los estadounidenses lee noticias en Facebook.

Joshua Benton, de Nieman Lab (Universidad de Harvard), ha sido uno de los periodistas más críticos con Facebook desde las elecciones y lo explicaba así:

[...] "Facebook se ha convertido en una cloaca de desinformación. Parte de ella está motivada por la ideología, pero mucha está motivada por el incentivo económico que Facebook ha creado: las cosas falsas, cuando conectan con las nociones preconcebidas o el sentido de la identidad de un usuario, se propagan como un fuego descontrolado (y son mucho más baratas de hacer que las noticias reales)." (Joshua Benton, Niemal Lab)

Para Benton, Facebook ha construido una plataforma que favorece la propagación de mentiras y "ha habido mucha gente que ha votado en estas elecciones porque estaban furiosos por cosas inventadas que habían leído online". Zeynep Tufekci, de la Universidad de Carolina del Norte, está estudiando el impacto de la tecnología en la sociedad, y contaba al New York Times el siguiente ejemplo:

"Una historia falsa decía que el Papa Francisco, que de hecho es un defensor de los refugiados, había apoyado al señor Trump fue compartida casi un millón de veces, probablemente siendo vista para decenas de millones. Su corrección apenas tuvo repercusión. Por supuesto que Facebook ha tenido una influencia significativa en los resultados de estas últimas elecciones" (Zeynep Tufekci, Universidad de Carolina del Norte)
No, el Papa no apoyó a Donald Trump. De hecho, el sitio web que lo publica dice que la mayoría de sus artículos "son sátira o pura fantasía"

Aunque de forma más discreta, otros prestigiosos medios criticaban también a la red social. Por ejemplo, en esta noticia del Washington Post, se referían a ella así:

"Al tiempo que Facebook se ha convertido en el hogar online favorito de muchos americanos, también se ha convertido en el anfitrión de una gran variedad de generadores de contenido partidista que publican montañas de historias inexactas o directamente inventadas que han sido explícitamente diseñadas para ser compartidas masivamente entre aquellas personas que son más propensas a creer en ellas" (The Washington Post)

Zuckerberg salía entonces a responder a acusaciones como éstas tal cual decía al principio del artículo: explicando que para él "los votantes toman decisiones en base a su experiencia vivida" y que creía que "existe cierta y profunda falta de empatía en afirmar que la única razón por la que algunos han votado de la forma que ha votado es porque vieron algunas noticias falsas".

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

¿Por qué Zuckerberg insiste tanto?

La polémica no se termina ahí. Quizá porque el tema es "periodístico" o porque algunos siguen buscando posibles explicaciones a la inesperada victoria de Trump, numerosas noticias relacionadas han aparecido en los medios desde entonces. Mark Zuckerberg volvía a pronunciarse, asegurando que el "99% del contenido que la gente ve es real" y que tan sólo una pequeña parte es falso (parte que, además y según él, no está siempre relacionada con la política).

¿Por qué tanta insistencia por parte de Zuckerberg por dejar claro que Facebook, según él, no había influido en las elecciones? Al parecer, y según asegura el New York Times tras hablar con fuentes relacionadas con la compañía, fueron varios los ejecutivos de la red social los que en un primer lugar pusieron en duda el rol de la plataforma y las responsabilidades que ésta debía tomar.

Es más, en Gizmodo aseguraban poco después, tras hablar con empleados (anónimos) de Facebook, que la red social lleva tiempo debatiendo este asunto y que incluso llegaron a plantearse una actualización del algoritmo para detectar y restar visibilidad a las noticias falsas. Esta actualización, según esas mismas fuentes, fue descartada después de que impactara sobre todo a la visibilidad de los contenidos de sitios "de derechas" y por miedo a la reacción de los conservadores. Facebook lo negó.

De hecho, y según Buzzfeed, hay un grupo de empleados "renegados" de Facebook que han formado un "comando especial", sin autorización del jefe, para luchar contra las noticias falsas después de que éste negara la influencia de las mismas. "De momento se reúnen en secreto para que sus miembros puedan hablar libremente" con la idea de "hacer una lista de recomendaciones para los gestores seniors de Facebook", dice Buzzfeed, que además afirma que hay cierto descontento entre "cientos" de empleados respecto al trato que la red social ha dado a las noticias falsas y la posterior explicación de Zuckerberg.

No es la primera vez que la red social protagoniza alguna polémica relacionada con la política. En mayo de este año se publicaba un artículo sobre cómo los empleados encargados de elegir los "Temas del momento" eran parciales y dependían de la visión del empleado que los elegía, teniendo supuestamente los temas "conservadores" menos posibilidades de salir en ese apartado. El asunto llegó hasta el Partido Republicano, que lanzó un escrito muy crítico al respecto, y hasta el propio Senado, que pidió una investigación. Facebook siempre lo negó, pero poco después despidió al equipo y lo sustituyó por un algoritmo.

No es la primera vez que Facebook se mete en líos políticamente hablando: en el pasado ya tuvo un choque importante con los republicanos de EEUU

Otra crítica que recibe frecuentemente es la relativa a la "burbuja de los filtros": Facebook está diseñada para mostrarte lo que su algoritmo cree relevante para ti. Por eso, si eres conservador, lo más probable es que veas en tu línea temporal noticias conservadoras. ¿Qué tiene que ver esto con las noticias falsas? No sólo es que no te ofrezcan la otra "visión", es que, si alguien publica una noticia falsa en un medio de determinadas preferencias políticas, es poco probable que en tu feed de Facebook veas cómo otro medio de otra orientación la desmiente. Y viceversa.

Facebook pasa a la acción

La lucha de Facebook contra las noticias falsas no es nueva. En enero de 2015, la red social anunciaba un nuevo sistema en el que los usuarios eran los encargados de marcar una publicación como fake. "No podemos leer y comprobar todo, así que lo que hemos hecho es permitir a la gente que marque cosas como falsas", explicaba el responsable del news feed de Facebook a TechCrunch el mes pasado antes de toda la polémica.

Sin embargo, y tras todo lo que se ha escrito sobre este tema, Facebook seguía el camino de Google (hablaré sobre esto a continuación) y anunciaba hace unas horas que habían actualizado los términos de uso de su plataforma para aclarar que su sistema de anuncios no mostrará publicidad (y, por tanto, no dará ingresos) en sitios que se dedican a difundir noticias fake. Por ahora, eso sí, no parece que vayan a retirar dichas publicaciones, sino dejarlas sin su fuente de ingresos.

Google se suma

Facebook no ha sido la única plataforma online a la que los dedos acusadores han apuntado en lo que se refiere a la difusión de noticias falsas. Este fin de semana, una noticia falsa sobre el número de votos que había obtenido cada candidato se colaba como primera historia en los resultados al buscar por "final vote count 2016", "final election numbers" o similar. Esto no es cierto. Sin embargo, y de alguna forma, una página web desconocida (70News) consiguió poner su noticia como primer resultado para unas búsquedas tan comunes como éstas. De hecho, haz la prueba: todavía sigue saliendo arriba del todo.

Tras la repercusión mediática del caso, el buscador anunciaba ayer que iban a tomar medidas contra los sitios que difunden "noticias falsas". En concreto, van a dejar de servir anuncios (y, como también decía antes en el caso de Facebook, cortar los ingresos a través de esa vía) a las páginas que "malinterpretan, declaran erróneamente u ocultan información sobre la publicación, el contenido de la publicación o el propósito principal de la propiedad web".

Facebook y Google, ¿controladores de lo que es verdad y lo que no?

Si las noticias falsas de Facebook fue algo que influenció a los votantes o no es algo que posiblemente no sabremos nunca (aunque estoy segura de que habrá estudios y publicaciones académicas al respecto). Ahora bien, ¿debe recaer sobre Facebook, Google y otras plataformas online la responsabilidad de "filtrar" lo que es falso y lo que no? Al final todo se reduce a un debate del que ya hemos escuchado hablar en varias ocasiones: ¿es Facebook un medio y, como consecuencia, tiene responsabilidades?

El discurso de Facebook siempre ha sido claro al respecto: "Somos una compañía tecnológica, no una compañía de medios", decía Zuckerberg este verano. Eso es así porque, según él, "nosotros construimos las herramientas, no producimos ningún contenido". Aun así, en el pasado sí han tomado decisiones "editoriales". Por ejemplo, llegaron a borrar de sus posts la famoso foto de Vietnam que protagoniza una niña desnuda porque no cumplía su política, pero luego la volvieron a permitir al considerar que era "de interés". Reconocían entonces hacer "excepciones" en sus normas de lo que se puede publicar y no.

¿Facebook es un medio o una plataforma? Ellos dicen que plataforma, pero ya han tomado decisiones editoriales en el pasado

Si volvemos al estudio que Buzzfeed que mencionaba al principio de todo, obtenían de las páginas analizadas los datos que se representan en el gráfico que os dejo a continuación. Sí, las páginas "de izquierdas" y "de derechas" tienen un alto porcentaje de contenido "mayoritariamente falso", pero también las "mainstream" poseen un pequeño porcentaje de "mezcla de verdad y falso". Para el estudio, decidieron considerar como "mezcla de verdad y falso" aquellas noticias "escritas solamente a partir de fuentes anónimas o de afirmaciones no verificadas". Y, como ejemplo de una de ellas, remiten a esta noticia de Politico sobre cómo George H.W. Bush iba a votar por Hillary.

"Nuestro equipo revisará de cerca todos los posibles editores y monitorizará de cerca los actuales para asegurar que cumplen", decía Facebook hace unas horas. ¿Cuándo una noticia no verificada puede considerarse una noticia falsa? ¿Cuántas noticias de un medio tienen que ser calificadas como "falsas" para que Facebook (y también Google) los expulsen de sus plataformas de anuncios? ¿Qué porcentaje? Si van a aplicar un filtro así, tendrán que buscar un baremo que aplicar si desean aplicar estas nuevas normas. Pero ¿cuál?

Si nos paramos a pensarlo, las páginas satíricas también pueden verse afectadas por todo esto. ¿O no publican El Mundo Today y otros medios similares noticias "de mentira"? Sí, graciosas pero, a fin de cuentas, no son ciertas. ¿A ellos también les afectará, o como son "de broma" Facebook hará una excepción?

¿Cuándo una noticia es falsa? ¿Cuándo un medio es considerado como "medio que publica noticias falsas"? Es difícil dar una definición

Puede que las páginas webs que se dedican a difundir mayoritariamente noticias falsas sean un problema, pero si hoy en día existen gente creándolas es precisamente por cómo funcionan internamente "plataformas" como Facebook o Google. Por desgracia, no existe una solución sencilla. Aquí, creo que quien mejor ha definido la problemática de este tipo de iniciativas ha sido Antonio Ortiz:

"¿Cómo era aquello de tener cuidado con lo que se pide porque se puede hacer realidad? Google y Facebook ya eran guardianas de la virtud (ahí ese pezón) y también de la propiedad intelectual. Ahora que actúen como ministerio de la verdad puede salir mal de tantas formas... pero claro, en el imaginario de los medios, esto sólo afecta a páginas "de otro tipo", no va con ellos (y además tiene la segunda derivada de más ingresos de forma indirecta)." (Antonio Ortiz)

Imagen | Gage Skidmore
En Xataka | ¿Puede Facebook influir en unas elecciones? ¿Y debe?

Ver todos los comentarios en https://www.xataka.com

VER 18 Comentarios

Portada de Xataka