Humanos frente a algoritmos: la lucha por la "curación" de contenidos

Hace unas semanas Tim Cook presentaba Apple Music (nosotros ya lo hemos probado), el nuevo servicio de streaming de audio con el que se proponía reconquistar un mercado que fue crucial para Apple hace más de una década. En esa apuesta destacaba una de sus opciones: la emisora Beats 1, que emitía una selección muy especial de música las 24 horas, y que era especial por algo curioso: la música era elegida -curada, como se dice ahora, aunque muchos no estemos de acuerdo- por un grupo de DJs humanos. Nada de algoritmos.

Esa apuesta por una emisora de radio por internet gestionada por una persona y no por un programa informático no tenía en realidad demasiado de especial: lo mismo ofrecen las emisoras tradicionales de radio en las que -con matices- la música también la eligen los locutores en cada franja horaria. Pero se detectaba en ella una tendencia: la de que estamos un poco hartos de esa automatización del proceso de filtrado y cuidado de contenidos, y la de que a menudo el papel del ser humano es muy valorado en el resultado final.

Analizábamos en profundidad esta tendencia al entrevistar a los responsables de Deezer recientemente. El mundo de la música se ha visto muy afectado por el papel de los algoritmos ahora que el streaming de audio se postula como la nueva forma de oír y comprar música.

El mundo de la música se ha visto muy afectado por el papel de los algoritmos

Muchos servicios ofrecen sus propias ideas entorno a la personalización completa, y a las recomendaciones publicitarias se suman otras explícitas o listas personalizadas que permiten estudiar lo que escuchamos y nos descubren nuevos artistas y canciones en base a ellas. Y ahí es donde entra el factor humano, difícil de aplicar de forma independiente a cada cliente, pero como parece demostrar Beat 1, válido para un nuevo concepto de radio.

Un vistazo a…
FACEBOOK guarda un registro de TODAS las WEBS que visitas así puedes DESACTIVARLO

La "curación humana" está de moda

Océanos de información y de contenidos. Eso es lo que generamos hoy en día, y por esa misma razón la tarea de clasificarlos, filtrarlos y seleccionar los que probablemente son más adecuados para cada persona y escenario es inabarcable para los seres humanos. Las máquinas son cada vez más potentes a la hora de realizar esas tareas de clasificación, y los algoritmos que gestionan todas esas tareas son cada vez más eficientes.

Sin embargo hay factores que es difícil que tomen en cuenta, y aquí es donde entran diversas iniciativas en las que la curación humana vuelve a tomar fuerza. Un buen ejemplo lo tenemos en YouTube, que el pasado mes de junio anunciaba el lanzamiento de YouTube Newswire, una lista de vídeos grabadas por personas (y medios) que registran todo tipo de sucesos y que permiten acceder a otra visión de lo que ocurre durante el día. Una mucho más cercana a la de los testigos que por una u otra razón se encontraban en el momento adecuado y en el lugar adecuado, y que gracias a eso pueden grabar vídeos más "crudos" que los de las tradicionales cadenas de noticias.

Esas historias forman ya parte de esa corriente de "periodismo ciudadano" en la que todos los usuarios de esta y otras redes sociales se convierten en transmisores de la noticia. La avalancha de información que procede de todos esos internautas y usuarios de dispositivos móviles -algo que ha tenido un impacto directo en esta tendencia- hace que lógicamente haya mucho ruido en esa transmisión de la información, y ahí es donde entra en este caso el equipo de curación humana de YouTube Newswire -colaboran con Storyful- que selecciona los vídeos más destacados para contarnos la actualidad (o más bien, parte de ella) a través de esos vídeos.

Algo similar han hecho los responsables de Instagram, que hace también un mes desvelaron Explore, una nueva página en la que destacaban todo tipo de noticias e información a medida que esta pasaba, y siempre con ese enfoque claro de Instagram hacia el mundo de la fotografía. El cofundador y CEO de la empresa, Kevin Systrom, indicaba en una entrevista que "es una forma virtual de tomarle el pulso virtual a lo que está pasando en el mundo".

La tarea de clasificar, filtrar y seleccionar contenidos entre la ingente cantidad de información que generamos es inabarcable para los seres humanos en la mayoría de ámbitos

En esa nueva sección de Instagram se filtran contenidos sobre lugares que son tendencia o noticia por cualquier razón, pero también aquellos que están cerca de nuestra posición y puede que nos interese visitar. También hay una colección de fotos que los miembros de un equipo de Instagram filtran por considerarlas especialmente notables, y por último destaca los hashtags que son tendencia y en los que es posible encontrar -de nuevo, filtradas- una selección de imágenes y vídeos subidos a esta red social.

En este último caso es en el que de nuevo temas de actualidad tienen más relevancia, pero parece que de momento la curación humana solo funciona en esas colecciones filtradas de fotos: Instagram, a pesar de pertenecer a Facebook, tiene una plantilla relativamente reducida -200 personas- y de momento esas tareas de curación por parte de seres humanos son muy limitadas.

Ese afán por lograr encontrar la aguja dentro del pajar es algo que también están sufriendo en Twitter, donde la relación señal-ruido -información válida frente a datos inútiles- es uno de sus grandes problemas. Cuando un usuario novel llega a Twitter no sabe muy bien cómo actuar y a quien seguir: no sabe cómo sacarle partido a esta plataforma. Para resolverlo se desvelaron hace poco las claves del Project Lightning de Twitter que comenzará a ofrecer flujos de mensajes cuidados (la traducción de "curar" a muchos nos provoca algún que otro espasmo) o filtrados por su equipo sobre eventos en vivo que puedan interesar a parte de sus usuarios activos.

Con las personas llega la subjetividad, para lo bueno y para lo malo

Todos estos esfuerzos por utilizar un filtrado de contenidos por parte de personas introducen una variable a la que algunos no querían enfrentarse: la subjetividad humana. Las empresas tienen sus intereses y los empleados encargados de ese cuidado o filtrado de contenidos deben estar en sintonía con su empresa. A ello se suman también los propios intereses personales y la experiencia y opiniones previas de esos equipos de personas que se encargarán de filtrar esos contenidos, sean los que sean, para nosotros.

Eso, por supuesto, no es una novedad. Las cadenas televisivas, los periódicos, las revistas, la radio; todos ellos han tenido desde siempre líneas editoriales claras y definidas. La posición ideológica de quien lee uno u otro periódico es más o menos clara, y ahora ese posicionamiento podría poner en peligro a estos nuevos medios de comunicación en que se han convertido las redes sociales.

Todos estos esfuerzos por utilizar un filtrado de contenidos por parte de personas introducen una variable a la que algunos no querían enfrentarse: la subjetividad humana

Twitter y Facebook, por ejemplo, dejan de ser plataformas neutrales en las que son los usuarios quienes deciden seguir a quien quieren y a quien no. Sus equipos de "cuidadores de contenidos" (qué mal suena en comparación con "content curators") serán probablemente víctimas de la susceptibilidad y la controversia. ¿Por qué se destaca cierto contenido y no otro distinto? ¿Cuál es el peso de los intereses de Twitter o de Facebook a la hora de mostrar en nuestro flujo de noticias ciertos elementos? Como dicen en Wired, ese elemento de opinión involuntaria da lugar a ese falso equilibrio entre los hechos reales y los que acaban apareciendo en esos flujos de información.

Tenemos un ejemplo muy reciente de esa dudosa parcialidad en Newsdiffs, donde a menudo analizan la forma en que los medios tratan las noticias y cómo estas evolucionan tanto los titulares como el propio texto de esas noticias. En la reciente dimisión de Ellen Pao como CEO de Reddit -hablamos de ello con los responsables de Menéame, ForoCoches y EnFemenino- el prestigioso The New York Times fue víctima de ese análisis y las diferencias entre el tono inicial -mucho más neutral- y el final -comprobadlo vosotros mismos- son evidentes.

No todo es filtrable por humanos

Como indicaba Ben Thompson en Stratechery recientemente, hay claros escenarios en los que ese cuidado o filtrado de contenidos puede resultar muy relevante. En primer lugar, cuando el contexto es clave para determinar si algo es importante o no. Ocurre por ejemplo con las noticias, en las que el filtro humano es importante para decidir qué es más importante entre la maraña de sucesos que ocurren a diario y dentro de esa cobertura, quién está ofreciendo mejor información. El segundo, el escenario en el que los gustos personales tienen especial relevancia, como ocurre con el segmento de la música.

En ambos casos, indica Thompson, el filtrado o cuidado humano de contenidos es superior al de los algoritmos, y como él no parece que las máquinas vayan a poder apreciar aspectos como el contexto o la creatividad de forma sencilla. Ese es un talento innato de los seres humanos que resulta especialmente difícil de trasladar a las máquinas.

Aquí es donde también es evidente que no todo es filtrable por humanos. Google y Facebook tienen que manejar tal cantidad de datos que asumir que parte de ellos puedan ser además gestionados por un equipo de personas resulta inasumible para la mayor parte de los casos. Los algoritmos toman el control en este caso, y aunque se nutren de nuestra relación con esos servicios y sus resultados funcionales son destacables, la personalización tiene claros límites. Como explicaba Thompson, "el filtrado funciona mejor cuando hay una buena cantidad de datos, pero no demasiados, y el objetivo es un poco de personalización, pero sin llegar a ser individual"

En algunos casos el filtrado o cuidado humano de contenidos es superior al de los algoritmos

Los algoritmos toman el control en estas situaciones, y aunque están lejos de ser perfectos -como decía Jean-Louis Gassée, solo hay que ver a Google Translate en acción- son una excelente opción para obtener conclusiones de grandes conjuntos de datos. Aquí es donde conceptos como Big Data aparecen una y otra vez y donde esos algoritmos de los gigantes de diversas industrias hacen ese trabajo crudo y deshumanizado.

O quizás no tanto: los algoritmos -como los que juegan al ajedrez, pero que tienen que mejorar al Go- están programados por seres humanos, así que incluso en estos casos hay cierta parcialidad en su funcionamiento. Las reglas las dictamos nosotros, somos nosotros los que concedemos a ciertos resultados más valor en base a ciertos factores que consideramos más importantes. Y eso acaba haciendo que acabemos descubriendo que los algoritmos no son tan "robóticos" como hubiera cabido pensar.

Ajustar y afinar esos algoritmos es labor de los seres humanos, desde luego, y parece que al final no hay solución satisfactoria para nadie. Lo ideal, combinar los algoritmos con ese cuidado de contenidos humano, no es aplicable a todos los escenarios, pero parece que esa tendencia por la participación de equipos de personas en ofrecernos una selección de música, o de noticias, o de vídeos, o de fotos -hace tiempo que Pinterest lo hace- es cada vez más potente. Y nosotros nos alegramos.

En Xataka | Así funcionan los algoritmos que saben qué música te gusta antes que tú

Ver todos los comentarios en https://www.xataka.com

VER 5 Comentarios

Portada de Xataka