Si compartes contenido que sus verificadores consideren falso del COVID-19, Facebook comenzará a mostrarte datos de la OMS

Si compartes contenido que sus verificadores consideren falso del COVID-19, Facebook comenzará a mostrarte datos de la OMS
81 comentarios Facebook Twitter Flipboard E-mail

En un nuevo esfuerzo por frenar la desinformación, Facebook comenzará a mostrar artículos veraces a aquellos usuarios que interactuen con contenido que los verificadores consideren falso sobre el COVID-19. Una nueva medida que llega tan sólo días después de que en WhatsApp limitasen el reenvío de contenido viral con el propósito de que no se difunda información inexacta.

Desde el pasado mes de enero anunciaron que el contenido que consideran que puede contribuir a un daño físico inminente para los usuarios será eliminado. Esto incluye por ejemplo afirmaciones como que el distanciamiento físico no es efectivo o curas para el COVID-19 que no funcionan. Pero la eliminación no es instantánea y los usuarios pueden interactuar con ella hasta que la plataforma la detecta, verifica y elimina. En tales casos Facebook tiene una nueva manera de actuar que aplicará a partir de las próximas semanas.

Según explican, todos los usuarios que den 'Me gusta', compartan, comenten o reaccionen a una publicación verificada como falsa verán un mensaje de la OMS que enlaza a una página listando errores acerca del COVID-19. Estos mensajes de Facebook aparecerán en principio para aquellos usuarios que hayan tenido alguna interacción con publicaciones determinadas como falsas por los verificadores de la plataforma y eliminadas por su gravedad.

Sin embargo, esto no significa que toda la información que se determine falsa sobre COVID-19 sea eliminada de la plataforma, tan solo aquella que se entienda pueda contribuir a un daño físico inminente. En otras palabras, aquellas que consideren de más gravedad, no eliminan por ejemplo teorías consparanoicas sobre el origen del COVID-19 a pesar de queun verificador de contenido las considere erróneas. Para las publicaciones no eliminadas pero verificadas como falsas muestran un mensaje de aviso indicándolo y un enlace al verificador de contenido que lo ha desmentido, como ya vimos en su momento.

En España el rol de verificadores de contenido lo ejecutan la empresa Newtral y la organización Maldita.

Facebook
Mensaje que aparece en la parte superior del muro de Facebook tras haber interactuado con información falsa sobre el COVID-19.

Facebook no es la única que combate la desinformación sobre el COVID-19 de forma proactiva. Si buscamos en Google información sobre el coronavirus los primeros resultados son mensajes oficiales de la OMS, en YouTube aquellos vídeos que estén relacionados con el COVID-19 aparece una alerta, el algoritmo de Twitter detecta mejor información falsa sobre el COVID-19...

Implicación directa en Facebook, indirecta en WhatsApp

Eliminar publicaciones verificadas como falsas y avisar al usuario individualmente de ello es algo que Facebook puede (técnicamente) hacer en su red social, pero no en WhatsApp. Dado que el contenido de las publicaciones de Facebook no está cifrado de extremo a extremo se puede analizar directamente por parte de Facebook y los verificadores de contenido. Es por ello que automáticamente puede aparecer un mensaje como que es información falsa o directamente eliminarse y avisar al usuario de que ha consumido información falsa.

En WhatsApp la historia es diferente, al no poder nadie leer el contenido que se envía en una conversación aparte de los implicados, ni Facebook ni los verificadores de contenido pueden verificar la información y tomar medidas. Es por ello que ahí la medida tomada es la de limitar el reenvío de todo tipo de mensajes, una medida que ha demostrado su efectividad en ocasiones anteriores a la hora de menguar la difusión de información falsa.

Más información | Facebook
Imagen | Tim Bennett

Comentarios cerrados
Inicio