OpenAI defiende la publicación 'incremental' de su generador de textos fake y lanza una versión equivalente al 50% de la completa

OpenAI defiende la publicación 'incremental' de su generador de textos fake y lanza una versión equivalente al 50% de la completa
Sin comentarios Facebook Twitter Flipboard E-mail

El pasado mes de febrero, OpenAI (un laboratorio sin ánimo de lucro fundado por Elon Musk) alcanzaba los titulares de la prensa generalista gracias a la creación de GPT-2, una inteligencia artificial capaz de generar noticias falsas en formato texto, dotada de tal nivel de realismo que se negaron a difundirla, como es habitual, para evitar que una herramienta tan "peligrosa" cayera en malas manos y pudiera ser usada con fines de "desinformación o propaganda".

En ese momento, la comunidad de investigadores de inteligencia artificial se dividió en torno a la decisión adoptada por OpenAI: si bien algunos celebraron las precauciones tomadas, otros lo consideraron un truco publicitario y sensacionalista. Ese fue el caso, por ejemplo, de Anima Anandkumar, directora de investigación de Nvidia, que se enzarzó en un debate tuitero con uno de los directivos de OpenAI:

"Es lamentable que exageréis, propaguéis el miedo y desbaratéis tanto la reproducibilidad de resultados como el esfuerzo científico. [...] Estáis exagerando como nunca antes se había hecho. ¿Qué chorrada es ésa de 'malicioso'? No le hacéis ningún favor a la ciencia usando esa palabra".

OpenAI ha cambiado su estrategia... pero sus críticos creen que no lo suficiente

Ahora, seis meses después, OpenAI ha publicado un documento (elaborado junto a otras instituciones de investigación) que examina el impacto que su decisión ha tenido hasta ahora, acompañado de una versión incompleta del GPT-2, de la mitad de tamaño que la completa (aún inédita).

En febrero habían publicado una versión de demostración, de apenas el 8% del tamaño de la versión completa. Más tarde, ya en mayo, OpenAI decidió revisar su postura de no publicación en favor de una "liberación por etapas" del modelo de GPT-2.

Según el documento, estas decisiones han permitido que las instituciones asociadas a OpenAI pudieran cuantificar mejor algunas de las amenazas vinculadas a GPT-2 que antes sólo constituían meras especulaciones: un estudio realizado por investigadores de la Universidad de Cornell, por ejemplo, descubrió que los lectores identificaban como legítimos en un porcentaje muy similar tanto los textos de GPT-2 como los extraídos del New York Times.

El documento, sin embargo, viene a reconocer que los esfuerzos exitosos para replicar GPT-2 convierten en "discutible" lo acertado de la retención del código. Pese a la existencia de esas réplicas, lo cierto es que no se han detectado intentos de usos maliciosos de la misma, sino múltiples aplicaciones derivadas útiles dedicadas a campos como el autocompletado de código, la ayuda gramatical o el desarrollo de sistemas de preguntas y respuestas para asistencia médica.

Otras voces, sin embargo, se han seguido alzando para criticar la estrategia de OpenAI: Vanya Cohen, una estudiante recién graduada que desarrolló hace poco una de las réplicas de GPT-2, argumenta que retrasar la publicación del modelo completo no ha contribuido más que a retrasar la investigación de contramedidas que permitan detectar los textos falsificados.

Vía | MIT Technology Review

Imagen | Logan Ingalls (Flickr)

Inicio