Microsoft ya tiene solución para evitar que el chatbot de Bing se "confunda": poner límites a las preguntas por sesión

Bing
12 comentarios Facebook Twitter Flipboard E-mail

Charlas sí, pero sin enrollarse demasiado. Microsoft ha decidido aplicar ciertos ajustes en el uso del chatbot de Bing con ChatGPT para evitar episodios como los que detectaba hace solo unos días, cuando admitió que las sesiones excesivamente largas podían "confundir" al modelo de inteligencia artificial (IA) y derivar incluso en respuestas repetitivas o poco útiles. Su solución: evitar que las sesiones se alarguen.

Podrás seguir planteándole preguntas, aunque, eso sí, un número determinado de veces. "A partir de hoy la experiencia de chat tendrá un límite de 50 turnos por día y cinco por sesión", avanzaba ayer Microsoft Bing a través de su blog oficial, en el que precisa que por “turno” entiende una interacción completa con su modelo, lo que implica una pregunta del usuario y una respuesta del propio chatbot.

La cifra —aclara la multinacional— no se ha fijado de forma aleatoria. Según los datos que maneja, la mayoría de usuarios encuentran las respuestas que buscan en cinco turnos y solo alrededor del 1% de las conversaciones con el chat se van más allá del medio centenar de mensajes: "Como mencionamos hace poco, las sesiones de chat muy largas pueden confundir el modelo subyacente en el nuevo Bing".

Objetivo: evitar "confusiones"

¿Qué pasará cuando se haya llegado a las cinco preguntas y respuestas? Que se pedirá al usuario que inicie un nuevo tema. "Al final de cada sesión deberá aclarar el contexto para que el modelo no se confunda. Simplemente haga clic en el icono de la escoba a la izquierda del cuadro de búsqueda para comenzar de nuevo", abunda Microsoft, abierta en cualquier caso a extender el uso en el futuro.

"A medida que sigamos recibiendo comentarios, exploraremos la posibilidad de ampliar los límites de las sesiones de chat para mejorar aún más las experiencias de búsqueda y descubrimiento", concluye. Su anuncio llega solo unos días después de publicar un artículo, más extenso en el que, si bien deslizaba que el 71% de los usuarios está satisfecho con las respuestas generadas por el chat de Bing, también se han detectado ciertos puntos en los que se podría mejorar.

"Hemos descubierto que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o puede ser incitado a dar respuestas que no son necesariamente útiles o acordes con el tono que hemos diseñado", admitía Microsoft, que achacaba el problema a dos factores: la  "confusión" que le generan las sesiones "muy largas" y que en ocasiones el modelo "trata de responder o reflejar el tono en el que se le pide que proporcione respuestas".

Ya entonces la compañía dejaba caer que podría aplicar cambios para evitar esas respuestas del chatbot: "Es posible que debamos agregar una herramienta para que pueda actualizar el contexto con mayor facilidad o comenzar desde cero".

También en Xataka: Hemos probado el nuevo Bing con la versión mejorada de ChatGPT: Google tiene motivos para el pánico

Comentarios cerrados
Inicio