La complacencia sigue siendo un rasgo muy arraigado en los modelos de lenguaje
Cuando cada vez acudimos más a la IA para pedir consejo, eso es un problema
Antes, para crear tu cámara de eco podías seguir sólo a personas que pensaran como tú en redes, ahora puedes crear tu propia cámara de eco personalizada con una IA. Un estudio de Stanford ha analizado a fondo la excesiva adulación de los LLM y el resultado es claro: si quieres que te digan lo que quieres oír, mejor hablar con la IA antes que con una persona.
El estudio. Los investigadores analizaron once modelos de lenguaje, entre los que estaban los más populares como ChatGPT, Gemini, Claude o DeepSeek, y y los alimentaron con conjuntos de datos sobre dilemas personales. Además, incluyeron 2.000 prompts extraídos de la comunidad de Reddit. Aproximadamente un tercio de todos los escenarios planteados incluían conductas dañinas o directamente ilegales. Después, compararon las respuestas de los LLM con respuestas humanas para ver quién suele dar más la razón al usuario.
En una segunda parte del estudio, reclutaron a 2.400 participantes y los pusieron a chatear con modelos de lenguaje aduladores y otros no aduladores.
Nos gusta que nos den la razón. Los chatbots tienden a ser mucho más aduladores que un humano cuando dan consejos personales, pero no sólo eso, además las personas generalmente prefieren este tipo de respuestas. Los modelos respaldaron la postura del usuario un 49% más que los humanos en dilemas generales y avalaron conductas dañinas un 47% más.
En el segundo experimento, la gente que chateó con distintos modelos consideró más confiable y preferible al modelo adulador. Además, salió más convencida de tener razón y menos dispuesta a disculparse o reparar el conflicto.
Por qué es un problema. Según los autores, los LLM pueden reforzar el egocentrismo y hacer a las personas más moralmente dogmáticas. Según Myra Cheng, coautora del estudio "Por defecto, los consejos de la IA no le dicen a la gente que se equivoca ni le dan un baño de realidad (...) Me preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles". Además, hay otro dato preocupante y es que los usuarios percibieron los modelos como igualmente objetivos, lo que sugiere una falta de visión crítica para poder distinguir una IA aduladora de una no aduladora.
La IA no es una persona. Es una obviedad, pero la realidad es que a diario nos dirigimos a chatbots IA como si fueran una. Darle las gracias y pedirle las cosas por favor es un síntoma inofensivo de esa manía nuestra de antropoformizarlo todo. Sin embargo, cuando usamos la IA como sustituto a un psicólogo o cuando entablamos relaciones íntimas con un chatbot, ahí es donde empezamos a pisar en terreno pantanoso. Los autores del estudio consideran urgente que las empresas introduzcan salvaguardas para reducir la excesiva complacencia de los LLM y aconsejan evitar usarlos como sustituto de una persona para tratar conflictos personales.
El contrapunto. Hay voces que defienden que la IA no está generando esas cámaras de eco, al menos no con tanta intensidad como hemos visto con las redes sociales. Según John Burn-Murdoch en Financial Times, los modelos de lenguaje tienden a elevar el consenso con los expertos y generan opiniones más moderadas que las redes. Su argumento es que la arquitectura económica de las redes premia el contenido incendiario y polarizante, mientras que los chatbots compiten por ofrecer respuestas fiables a usuarios que los usan para tomar decisiones importantes.
No es una opinión sin más, también ha hecho un experimento en el que ha simulado miles de conversaciones políticas entre usuarios con posiciones extremas y varios de los principales chatbots del mercado. A partir de encuestas electorales y datos de uso de estas herramientas, mide cómo se moverían las posturas si una parte de la ciudadanía usara la IA para informarse. El autor concluye que, en promedio, los modelos tienden a empujar a los más radicales hacia posiciones más templadas y cercanas al consenso experto, validando además muchas menos teorías conspirativas que las que circulan de forma rutinaria en redes sociales.
Imagen | Zulfugar Karimov en Unsplash
Ver todos los comentarios en https://www.xataka.com
VER 6 Comentarios