Ya es posible detectar aquellas noticias falsas creadas por la inteligencia artificial que OpenAI no quiso publicar

Ya es posible detectar aquellas noticias falsas creadas por la inteligencia artificial que OpenAI no quiso publicar
3 comentarios Facebook Twitter Flipboard E-mail

Hace unas semanas, OpenAI causó bastante revuelo anunciando que había desarrollado una IA tan eficiente que no querían hacer público su código por miedo al mal uso que se le pudiera dar, evitando incluso que otros científicos pudieran acceder a la versión completa de la misma.

Dicha IA (técnicamente, un 'modelo de lenguaje'), denominada GPT-2, era capaz de crear automáticamente textos largos, con sentido y creíbles que, en resumen, podrían pasar como redactados por humanos... y sus creadores temían que pudiera ser usada para crear y difundir noticias falsas de forma masiva.

De modo que, tras la polémica, un grupo de investigadores del MIT-IBM Watson AI Lab y HarvardNLP se propusieron comprobar si la versión limitada de este modelo de lenguaje podría usarse como herramienta para detectar otros textos igualmente generados gracias a GPT-2.

Su punto de partida era tan simple como lógico: el modo en que los modelos de lenguaje generan oraciones es mediante la predicción, en cada momento, de la siguiente palabra que 'toca' dentro de una secuencia de texto... por lo que, sin duda, si al modelo le proporcionamos las primeras palabras de un texto generado por sí mismo deberá ser capaz de predecir la mayoría de las palabras que vengan después.

Una herramienta que tú mismo puedes probar

De esta forma, GPT-2 se convertiría en la mejor herramienta para detectar las fake news generadas mediante GPT-2. La interfaz web (de acceso público) desarrollada por los investigadores se basa en el uso de los colores para analizar el texto que nosotros le proporcionamos a esta herramienta.

Así, resaltará en verde las 10 palabras que con mayor probabilidad habría situado en esa posición del texto en concreto, en amarillo las 100 siguientes y en rojo las mil. Por último, el sistema resaltará en púrpura, el resto de palabras (aquellas prácticamente imprevisibles).

Short Example

Así, bastará un vistazo para comprobar el grado de 'humanidad' del texto: a mayor presencia de palabras rojas y púrpuras, mayor será la probabilidad de que el mismo haya sido escrito por una mano humana... pero si predominan las palabras verdes y amarillas, probablemente estemos ante un ejemplo de uso de GPT-2.

Además, cuando colocamos el cursor sobre una palabra de la pantalla, aparece un pequeño cuadro de texto en el que se nos representa gráficamente las siguiente cinco palabras que GPT-2 habría situado con mayor probabilidad en dicha posición:

Top 5

A continuación tenemos un texto generado artificialmente mediante dicho modelo de lenguaje. El texto en sí es realista, y para alguien que desconociera su origen podría ser difícil determinar su naturaleza. Sin embargo, una vez lo sometemos al análisis de GLTR, comprobamos que la mayor parte de las palabras utilizadas son las del AI esperaría ver, sugiriendo así que no fue un ser humano quien lo escribió.

Unicorn

"Esta herramienta pone de manifiesto que el enfoque utilizado en GPT-2 deja una huella notable en algunos textos, ya que en determinados contextos no genera palabras atípicas o poco probables", reconoce un portavoz de OpenAI en The Register.

Sin embargo, la utilidad de GLTR podría limitarse únicamente a los textos generados usando GPT-2, puesto que la investigadora Janelle Shane sometió a prueba un texto generado por una red neuronal propia, y la herramienta mostró un texto lleno de palabras rojas y púrpuras, no reconociéndolo así como de factura artificial.

De modo que si queremos librarnos de la amenaza de las 'fake news' automatizadas necesitaremos herramientas más completas que la que nos ocupa.

Vía | GLTR.io & The Register Imagen | Niabot

Comentarios cerrados
Inicio