La UE ya sabe cómo proteger los derechos de autor frente a ChatGPT y otras IA. Y quiere convertirlo en ley

e
4 comentarios Facebook Twitter Flipboard E-mail

La UE ha decidido abrir el melón y abordar en su nueva ley sobre inteligencia artificial (IA) la que probablemente sea una de las cuestiones más espinosas en el desarrollo de este tipo de herramientas generativas, como Midjourney,  ChatGPT o Stable Diffusion: el uso de materiales con copyright. La noticia es interesante tanto por lo que nos dice sobre los avances en torno a la propia norma como, sobre todo, el escenario que abre si finalmente pasa del terreno de las filtraciones periodísticas a la realidad legislativa. El uso de documentos con derechos de autor para entrenar IA ya ha provocado sonoros encontronazos entre creadores y desarrolladores.

La noticia ya ha generado expectación.

¿En qué punto está la ley? Avanzada. Al menos eso es lo que se desprende de las últimas informaciones de Reuters, The Wall Street Journal o Euractiv, medio este último que adelantaba esta misma semana que los miembros del Parlamento Europeo han alcanzado ya a un acuerdo político provisional sobre una normativa que aspira a ser pionera en la regulación de la IA a nivel mundial.

El pacto se habría logrado este jueves, si bien el documento aún podría experimentar ajustes antes de su siguiente paso: la votación en los comités técnicos, prevista para el 11 de mayo. Euractiv desliza que la plenaria se prevé para mediados de junio. El acuerdo llega tras años de trabajo. Después de una etapa de consultas y discusiones, la CE comenzó a redactar la norma sobre IA hace casi dos años con el propósito de regular una tecnología al alza y que ha ganado una popularidad notable gracias al "tirón" de recursos como los de OpenAI.

"Entrenamientos" más transparentes. He ahí una de sus claves. La ley contempla que las empresas que desarrollen IA generativa, como ChatGPT, deban ser transparentes en una cuestión fundamental: el uso de materiales blindados por derechos de autor para el entrenamiento de sus algoritmos. El requisito se habría redactado a lo largo de las últimas dos semanas, según aclara Reuters, que constata que los miembros del Parlamento Europeo han acordado ya trasladar el borrador a la fase de diálogo tripartito, con los legisladores y estados miembros.

El requisito se habría incluido gracias a un equilibrio entre los miembros del comité, en el que se llegó a plantear incluso un veto al uso de materiales protegidos para el entrenamiento de IA. "En contra de los deseos conservadores de una mayor vigilancia y las fantasías izquierdistas de regulación excesiva, la cámara encontró un compromiso sólido que regularía la IA de manera proporcional, protegería los derechos de los ciudadanos, fomentaría la innovación e impulsaría la economía", explica Svenja Hahn, del Grupo Renew Europe en el órgano comunitario.

¿Por qué es importante? Porque el uso de material protegido por copyright para el entrenamiento de IA ya ha provocado algún que otro roce entre autores y desarrolladores. Uno de los ejemplos más mediáticos, lo protagonizó en febrero la popular agencia Getty, que denunció a Stable Diffusion en EEUU al considerar que había copiado de 12 millones de sus imágenes para perfeccionar su modelo de IA.

La compañía tecnológica habría usado el material de Getty, claro está, "sin permiso… ni compensación". La de la agencia no es en cualquier caso la única demanda que apunta en esa dirección. The Verge ya desliza que, de concretarse el requisito, la ley podría derivar en demandas por vulneración de copyright.

¿Y más allá del copyright? Como detalla Euractiv, la ley sobre la que han trabajado los legisladores comunitarios aborda otras cuestiones igual de cruciales. Por ejemplo, los riesgos que pueda representar cada IA, una cuestión clave que ya deslizaba en su día Margrethe Vestager, vicepresidenta ejecutiva de la CE: "Cuanto mayor resulte, más firme y estricta será la norma". En la normativa esa filosofía se plasmaría con un sistema de clasificación que contempla varios niveles de riesgo. Otro de sus focos se centra en las manipulaciones "intencionadas".

¿En qué contexto llega la noticia? En uno fundamental, marcado por la creciente popularidad de motores de IA como ChatGPT o Midjourney y el esfuerzo de las administraciones por regular sus derivadas. Uno de los casos más recientes lo deja Italia, que llegó a bloquear ChatGPT en el país al considerar que recopilaba datos de forma ilícita y carecía de un sistema para verificar si quienes la utilizaban eran menores. Su decisión marcó la ruta para otros reguladores, incluida la AEPD, la Agencia Española de Protección de Datos, que decidió investigarla.

Las noticias sobre la nueva ley llegan después de que Italia levantara su veto gracias a las modificaciones aplicadas por OpenAI en su herramienta.

Imagen de portada:

En Xataka: Adobe está creando una "marca de agua" para las imágenes generadas por IA. Otra cosa es que funcione

Comentarios cerrados
Inicio