La mayoría del racismo online se manifiesta en forma de emoji y a las plataformas se les está escapando

Monkey Emoji.
Sin comentarios Facebook Twitter Flipboard E-mail

Durante la última década, las aproximadamente 3.000 pictografías que constituyen el lenguaje emoji han sido una parte vital de la comunicación online. Hoy en día es difícil imaginar una conversación sin ellos. Y probablemente no lo pensemos cada vez que usamos la carita de un mono o de un león, pero con cada nueva actualización, los emoji tienen cada vez más carga política. Y la presencia o ausencia de ellos contribuye a la visibilidad o el borrado cultural. De hecho, la inclusión de estos debe lidiar con problemas geopolíticos, como la nacionalidad, la etnia o la religión

Ahora, los emojis se han convertido en un dolor de cabeza para las empresas. ¿Por qué? La mayoría de mensajes de odio o racismo en las plataformas contienen alguno de ellos.

Racismo pictórico. Después de que Inglaterra perdiera ante Italia en julio en la final del Campeonato de Europa de la UEFA, los jugadores negros del equipo británico se enfrentaron a una avalancha de plátanos. Pero en lugar de fruta física, como en aquel partido de 1988 en el Goodison Park de Liverpool, estos eran emojis colgados en sus perfiles de redes sociales, junto con monos y otras imágenes. “El impacto fue tan profundo y significativo como cuando se trataba de plátanos reales”, explicaba la Asociación de Futbolistas Profesionales del Reino Unido.

Racism emoji,

El papel de las redes sociales. Facebook y Twitter se han enfrentado a muchas críticas por retrasarse demasiado en eliminar esa ola de abusos racistas en las plataformas durante el campeonato en verano. Y se destacó ahí un problema que se había pasado por alto: a pesar de pasar años desarrollando algoritmos para analizar el lenguaje ofensivo, las redes sociales no tienen estrategias efectivas para detener la propagación del discurso de odio, la desinformación y otros contenidos en sus plataformas. Los emojis se han convertido en ese obstáculo.

Cuando Apple introdujo emojis con diferentes tonos de piel en 2015, la compañía fue criticada por permitir comentarios racistas. Un año después, el gobierno de Indonesia generó indignación después de exigir a las redes que eliminaran los emojis relacionados con el movimiento LGBTQ. Algunos emojis, incluido el que muestra una bolsa de dinero, se han relacionado con el antisemitismo. Los jugadores de fútbol negros han sido atacados con mecanismos similares: la Asociación de Futbolistas Profesionales y los analistas de Signify llevaron a cabo un estudio de tuits racistas dirigidos a jugadores y descubrió que el 29% incluía algún tipo de emoji.

El gran obstáculo. Las empresas llevan años desarrollando algoritmos para detectar el racismo y eliminarlo. Pero hay quien cree que se ha hecho un esfuerzo menor y se ha desarrollado menos experiencia en el análisis del lenguaje emoji, dejando una apertura que hemos visto ahora de cerca. La industria dice que lidiar con las pictografías es un desafío técnico, pero los críticos dicen que se está haciendo más difícil de lo que realmente es.

¿Por qué? Los emojis racistas tienen menos probabilidades de ser detectados en Internet que las palabras, según un estudio de la Universidad de Oxford. Los investigadores llevaron a cabo lo que llamaron una "verificación de Hatemoji" y afirmaron que "el contenido de odio es complejo y diverso, lo que dificulta los sistemas de detección".

La respuesta de las empresas. En realidad, Twitter y Facebook defienden haber estado eliminando publicaciones y deshabilitando cuentas. Facebook reconoce que dijo erróneamente que el uso de ciertos emojis durante la UEFA este verano no violó sus políticas cuando en realidad lo hizo. Por eso comenzaron a bloquear automáticamente ciertas cadenas de emojis asociadas con el racismo, y también permiten a los usuarios especificar qué emojis no quieren ver. Twitter explicó que sus normas contra las publicaciones ofensivas incluyen imágenes de odio y emojis.

Aún así, los líderes del Reino Unido condenan el discurso de odio que se vio tras la competición e incluso Boris Johnson advirtió a los ejecutivos de Facebook, Twitter, TikTok, Snapchat e Instagram de que deben tomar medidas contra el abuso online. Esto es, sí, revisando los algoritmos.

Revisar los algoritmos. Básicamente porque hasta los tribunales terminan debatiendo cuestiones como si contar como una amenaza enviar a alguien un emoji de una pistola. Este asunto es confuso para los abogados, pero es aún más confuso para los modelos de lenguaje basados ​​en computación. “Algunos de estos algoritmos están entrenados en bases de datos que contienen pocos emojis”, explicaban los investigadores del Oxford Internet Institute. Estos modelos tratan a los emojis como una novedad, lo que significa que los algoritmos deben comenzar desde cero para analizar su significado en función del contexto.

La Universidad de Oxford ha construido su propio modelo, utilizando humanos para ayudar a enseñar a los algoritmos a comprender los emojis en lugar de dejar que el software aprenda por sí solo. El resultado, dicen, fue mucho más preciso que los algoritmos originales desarrollados por Jigsaw (de Google) y otros tradicionales que su equipo probó.

También era “malo” no incluirlos. De todo este revuelo también hay que recordar que Apple fue constantemente apaleada (y con razón) por su falta de opciones de color de piel en sus emoji, que finalmente se abordó en la actualización de iOS 8.3. Pero si bien se ha modificado la diversidad física, hay otros emoji que faltan y que no han recibido tanta atención. Cosas como lugares de culto, comida popular, estilos de ropa, métodos de transporte todavía tienen una apariencia muy occidentalizada. Nadie imaginaba que la carita graciosa que mandábamos por WhatsApp iba a suponer, al final, un debate de tal magnitud.

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio