OpenAI ha publicado por fin el generador de noticias falsas que censuró hace unos meses por ser demasiado "peligroso"

OpenAI ha publicado por fin el generador de noticias falsas que censuró hace unos meses por ser demasiado "peligroso"
2 comentarios Facebook Twitter Flipboard E-mail

¿Recuerdas la inteligencia artificial bautizada como GPT-2, especializada en la generación de textos realistas y cuyos desarrolladores (OpenAI), en una decisión sin precedentes (y bastante criticada), decidieron no publicarla, a causa del peligro que estimaban que le confería su capacidad de difusión de noticias falsas?

Eso fue el pasado mes de febrero. Pues bien, ahora (9 meses más tarde), OpenAI ha decidido que no era tan fiero el león como (ellos mismos) lo pintaban, o -dicho de otro modo- que "no existen fuertes evidencias de un mal uso" de las versiones más incompletas que han ido lanzado en estos meses, por lo que han procedido a liberar el modelo completo.

GPT-2 se basa en una evolucionada técnica de procesamiento de lenguaje natural conocida como 'modelos de lenguaje', que vienen a ser modelos de machine learning dedicado a predecir cuál ha de ser la siguiente palabra de un texto en virtud de todas las palabras anteriores.

Una de las particularidades de GPT-2 radica en que, a partir de un texto inicial (aportado por nosotros), es capaz no sólo de continuarlo para generar un texto más amplio, sino que también se le puede configurar para realizar traducciones o resúmenes del mismo, y hasta para contestar preguntas sobre su contenido.

Cuando nuestro objetivo es generar noticias falsas, podemos encontrarnos con textos muy convincentes que puedan parecer producto de una inteligencia, por el modo en que se hilan las frases y los temas, pero a poco que juguemos con GPT-2 el tiempo suficiente empiezan a quedar claras las limitaciones del modelo.

Quizá no era para tanto...

Uno de sus grandes fallos, por ejemplo, es la coherencia a largo plazo: los nombres y características de los personajes mencionados en el texto pueden terminar variando a lo largo del mismo. También se han registrado casos en los que GPT-2 ha generado textos que hablan sobre los "cuatro cuernos" o sobre "incendios bajo el agua" .Puedes comprobarlo tú mismo usando GPT-2 a través de una interfaz web como la de TalkToTransformer.com.

Jack Clark, director de Políticas de OpenAI, explicaba en febrero que el motivo que llevó a no publicar la versión completa de GPT-2 ya en febrero no sólo radicaba en que pudiese ser utilizado para generar 'fake news' muy convincentes, sino en que facilitaría su automatización y su optimización (en base a factores demográficos) para sectores sociales concretos.

La directora de investigación de Nvidia, Anima Anandkumar, criticó entonces con fiereza la decisión de OpenAI de que no hacer público el modelo:

"¿Dónde hay alguna evidencia de que vuestro sistema sea capaz de hacer eso [que decís que hace]? ¿Qué investigadores independientes han analizado sus sistema? Nadie. Si crees que realmente es capaz de eso, lo abrirás a los investigadores, no a los medios de comunicación que buscan con ansia el clickbait".

De todos modos, *por si acaso hubiera algo de verdad en las sospechas de OpenAI, éstos han seguido investigando en el campo** de los sistemas automatizados, no ya tanto para escribir nuevas 'fake news' como para ayudar a detectar textos que hayan sido creados recurriendo a GPT-2.

Vía | The Verge

Imagen | Piqsels

Comentarios cerrados
Inicio