ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos

Captura De Pantalla 2023 02 17 A Las 9 27 12
34 comentarios Facebook Twitter Flipboard E-mail

En las últimas semanas hemos visto como ChatGPT y Bing con ChatGPT están comenzando a mostrar problemas en su funcionamiento: no es solo que estos chatbots se equivoquen: es que durante la conversación acaban tomando posturas poco objetivas, defensivas y, en algunos casos extrañas e incluso ofensivas con los usuarios.

En OpenAI (y en Microsoft) lo saben, y los responsables de estos chatbots han indicado en un artículo en el blog oficial que están desarrollando una versión mejorada para ChatGPT que tendrá una característica interesante: podremos "personalizarlo".

La firma explicaba cómo desde su lanzamiento los usuarios "han compartido resultados que consideran políticamente tendenciosos, ofensivos o censurables. En muchos casos, creemos que las preocupaciones planteadas son válidas y han puesto de manifiesto limitaciones reales de nuestros sistemas que queremos solucionar".

El funcionamiento de ChatGPT se basa en redes neuronales en las que primero se realiza un "pre-entrenamiento" con un gran conjunto de datos para luego pasar a una fase en la que se pule el modelo para ir afinando el comportamiento del chatbot gracias a la interacción con los "revisores" de esas respuestas, que van ajustándolas de acuerdo a ciertas directrices.

Los ingenieros de OpenAI reconocen que el proceso es imperfecto, y tras estas primeras semanas y lo que han aprendido, indican que "vamos a proporcionar instrucciones más claras a los revisores sobre los posibles escollos y retos relacionados con la parcialidad, así como sobre las figuras y temas controvertidos".

Se trabajará también sobre potenciales sesgos derivados de la demografía, y se aplicarán mejoras que se han descubierto recientemente con técnicas como las recompensas basadas en reglas o la llamada "IA Constitucional". La firma sobre todo destacaba tres grandes pilares de los cambios que se llevarán a cabo.

  1. Mejorar el comportamiento por defecto: se tratarán de eliminar los sesgos y también esos casos en los que el sistema "se inventa cosas", algo para lo que los comentarios de los usuarios —votando a las respuestas y añadiendo información adicional— contribuyen notablemente.
  2. Personalización: ChatGPT permitirá que los usuarios personalicen su comportamiento permitiendo que se produzcan respuestas (outputs) con las que otras personas podrían no estar de acuerdo. Habrá, eso sí, límites, y el reto es definir esas barreras para evitar "usos maliciosos" de la tecnología.
  3. Participación popular: en OpenAI quieren dar a la gente la capacidad de "influir en las reglas del sistema" e incluir "tantas perspectivas como sea posible", por ejemplo en ámbitos como el educativo.

Con estas medidas la idea es pasar de un modelo "pulido" (fine-tuned) a varios que se derivan de él y que están personalizados y ajustados a los usuarios. Desde ese punto, la idea es iterar para mejorar más y más el comportamiento de un ChatGPT que desde luego quiere aprender de estos errores iniciales.

Imagen: Javier Pastor con Midjourney

Comentarios cerrados
Inicio