Compartir
Publicidad
Facebook, noticias falsas y el debate sobre la sabiduría de las masas
Servicios

Facebook, noticias falsas y el debate sobre la sabiduría de las masas

Publicidad
Publicidad

En 1906 el científico Francis Galton realizó un descubrimiento singular: al unir las respuestas de un grupo de personas que habían contestado de forma independiente, la conclusión era sorprendentemente válida. El experimento fue uno de los detonantes del célebre libro 'The Wisdom of Crowds' (titulado en español "Cien mejor que uno") de James Surowiecki, y en él se validó esa teoría en la que a menudo la opinión colectiva sobre ciertos temas resultaba ser correcta.

Ahora esa sabiduría o inteligencia colectiva formará parte de Facebook. La empresa, muy criticada por las polémicas noticias falsas durante las pasadas elecciones en Estados Unidos, ha puesto ya en marcha un plan para luchar contra el problema. Una de las claves de ese plan es precisamente el usarte a ti como parte de esa masa inteligente que ayude a detectar noticias falsas. Eso, nos dice la historia reciente, puede no ser tan buena idea.

La sabiduría de masas funciona... a veces

El experimento de Galton trataba de lograr estimar el peso de un buey sacrificado, así que la mecánica era muy apropiada: cada una de las 800 personas interrogadas daba su estimación, y al final la mediana de todas esas cifras resultó ser sorprendentemente cercana al peso real de aquel animal. Solo erraba en un 0,8%.

Galton Sería fantástico poder saber cómo el científico Francis Galton respondería a los problemas que actualmente se producen en sitios como Reddit o Menéame.

El problema con ese experimento es que aunque funciona bien para resultados técnicos, no lo hace tan bien para aquellas cuestiones en las que no hay una conclusión tan objetiva. Cuando hay que evaluar la calidad o veracidad de una cuestión, la cosa se pone difícil. Es algo de lo que saben mucho los responsables de la creación de agregadores de noticias como Reddit o Digg en su primera edición, pero también ofrece resultados sorprendentes en servicios en los que los usuarios califican un objeto.

El ejemplo perfecto lo tenemos en Amazon: un investigador de la universidad de Dartmouth, Mikhail Gronas, reveló un extraño y sorprendente patrón en ciertas calificaciones de los libros de Amazon. Había temas que tenían aseguradas mejores calificaciones (los libros de la saga de 'Harry Potter') y otros que las tenían peores, pero había otros con una curva curiosa: había muchas puntuaciones de una estrella, y muchas de cinco estrellas, algo que generaba una curva con forma de herradura: eran los libros controvertidos que generaban tantas críticas como elogios pero que lograban algo singular: unas ventas muy elevadas.

Votaciones y prejuicios

El problema con este sistema es que cuando un lector va a comprarlo y ve las puntuaciones y calificaciones ya no actúa de forma independiente, sino que lo hace con un prejuicio, ya sea positivo o negativo. Eso es ya motivo suficiente para no cumplir las premisas del experimento que Francis Galton había realizado un siglo antes.

Meneame2

El funcionamiento de Digg en su primera época, cuando todos los usuarios votaban las noticias, de Menéame en la actualidad y sobre todo de Reddit hacen buen uso de ese mismo princpio en el que los usuarios son los que valoran la calidad de una noticia bajo su punto de vista. Cada uno de estos servicios tiene (o en el caso de Digg, tenía) un algoritmo para gestionar los votos positivos y (si existen) los votos negativos, algo que convierte a la comunidad en moderadora propia de esos contenidos.

Eso genera varios problemas. El primero, el de los grupos de usuarios que intentan "trucar" el sistema y dirigirlo para su propio beneficio, sea el que sea. Muchos de estos servicios han tenido a menudo problemas con ese tipo de usuarios multicuenta —un problema que también sufrimos en los sistemas de comentarios de este y otros medios— que tratan de actuar como grupos de presión para favorecer o perjudicar ciertos contenidos. Se crean las llamadas 'mafias' y la 'clusterización' de los usuarios en esos grupos que se crean de forma automática tanto a favor o en contra como todos esos subgrupos que se muestran de acuerdo con ciertos aspectos específicos de una misma cuestión.

Pero no solo existe ese problema, sino también el que hace que cuando vemos las votaciones ocurre que en efecto nuestra percepción de las mismas ya queda condicionada. No apreciamos la noticia de igual forma si un montón de gente la ha calificado positiva o negativamente. Y a ese problema se suma el hecho de que la gente que dedica más tiempo a ese sistema es la que logra perfilar el tipo de contenido que acaba apareciendo en esos sitios. Estos sitios sociales de noticias también tienen que esforzarse por evitar ser un ejemplo más del llamado 'Principio de Peter', que revela lo siguiente:

Las personas que realizan bien su trabajo son promocionadas a puestos de mayor responsabilidad, a tal punto que llegan a un puesto en el que no pueden formular ni siquiera los objetivos de un trabajo, y alcanzan su máximo nivel de incompetencia

Evitar todos estos problemas y aprovechar la sabiduría de las masas de forma coherente es muy complejo, y de hecho ni siquiera en el sitio web anárquico por excelencia, Reddit, han estado a salvo de estos problemas. Hace unos días se descubría como su fundador, Steve Huffman, había utilizado sus "súperpoderes" de administrador para modificar los comentarios de apoyo a Trump, algo que ahora ha puesto en muy mal lugar tanto a Huffman como a la propia reputación de independencia de Reddit.

Facebook y la comunidad como detectora de noticias falsas

Facebook se enfrenta por tanto a una tarea titánica. Los usuarios podrán marcar cualquier noticia que aparezca en sus cuentas como falsa, y a partir de ahí habrá una serie de investigadores, empleados a tiempo completo en Facebook, que valorarán si tras todos esos votos efectivamente una noticia puede ser calificada como falsa o sospechosa de serlo.

Fb1

A partir de ahí se dispararán otros mecanismos: habrá ciertas organizaciones que colaborarán en la tarea de validar y comprobar los hechos, y si se detectan noticias falsas estas se marcarán como sospechosas. No desaparecerán del sistema, pero si un usuario quiere compartirlas y "propagar la mentira" tendrá que hacerlo tras quedar advertido de forma clara y patente de lo que está haciendo.

Puede que eso funcione, pero la dimensión de Facebook es tan dantesca que las tareas de comprobación de noticias falsas podrían ser totalmente insostenibles. Aaron Sharockman, director ejecutivo de Politifact (una de las organizaciones que colaborarán en ese esfuerzo) indicaba que "siempre ha habido más cosas de las que comprobar los hechos que gente para hacerlo. No espero que eso cambie". Aún así, se muestra optimista con este tipo de función.

Pero el problema del que no habla Sharockman —ni Facebook— es precisamente el de cómo dar ese poder a los usuarios, aunque interesante, puede acabar creando en Facebook los mismos problemas que comunidades como Reddit, Digg o Menéame han tenido en el pasado. Lidiar con ello es especialmente complejo, así que será interesante ver cómo se desarrollan los acontecimientos. Los falsos, y los verdaderos.

En Xataka | "Aspiramos a ser la alternativa libre a Facebook y Twitter", entrevista a Daniel Seijo y Remo (Menéame)

Temas
Publicidad
Comentarios cerrados
Publicidad
Publicidad
Inicio