Italia ha abierto el camino: ahora más gobiernos europeos se plantean prohibir ChatGPT

Levart Photographer 7q Ke4szzvq Unsplash
30 comentarios Facebook Twitter Flipboard E-mail

La primavera no le está sentando bien a ChatGPT. La popular Inteligencia Artificial (IA) de OpenAI —y lo de popular es quedarse cortos, dado su enorme flujo de usuarios mensuales— ha tenido que lidiar ya con dos "sapos" en cuestión de semanas: el primero fue la carta en la que un millar de referentes del mundo tecnológico admiten su preocupación por GPT-4 y piden una reflexión profunda antes de seguir con IAs más avanzadas; el segundo, la decisión de las autoridades italianas de bloquear la herramienta entre recelos por su uso de los datos.

De las dos noticias, la primera ha sido la que más titulares ha acaparado. Es la decisión italiana sin embargo la que amenaza con una resaca mayor para OpenAI, la firma detrás de ChatGPT. ¿La razón? Otros países parecen haber tomado nota.

¿Qué ha hecho Italia? Pulsar el botón de "pause" de ChatGPT. Garante, el organismo italiano encargado de la protección de datos, decidía hace unos días bloquear la IA en el país tras detectar dos peculiaridades: una recogida de datos ilícita y la falta de un sistema que permita verificar la edad de los menores. 

Si bien se adoptó de forma "inmediata", el organismo regulador aclara que la medida —que restringe el tratamiento de datos de usuarios italianos por parte de OpenAI— es temporal y ha dado a la compañía 20 días para que demuestre su cumplimiento de la ley. De momento ha abierto ya una investigación.

¿Y cuál es el motivo? Al desarrollar su argumentario, el organismo italiano lamenta la falta de información y pone la lupa en la recogida de datos personales. "No se proporciona información a los usuarios ni interesados cuyos datos recopila OpenAI. Y lo que es más importante, no parece haber ninguna base jurídica que justifique la recopilación y procesamiento masivos de datos personales para ‘entrenar’ los algoritmos en los que se basa la plataforma", concluye.

El organismo italiano insiste además en que —aunque el servicio de OpenAI se dirige supuestamente a mayores de 13 años— no se aprecia ningún mecanismo de verificación de la edad para los usuarios. "Expone a los niños a recibir respuestas absolutamente inapropiadas para su edad y conocimiento", remarca.

¿Y el resto de países? La decisión de Italia se sigue con atención desde otros países, que han asistido también al despliegue de chatbots y el motor de OpenAI. Como mínimo —explica a Reuters la abogada Dessislava Savova— ha demostrado que el GDPR puede ofrecer "herramientas para que los reguladores se impliquen en la configuración del futuro de la inteligencia artificial". No solo eso. 

Reuters asegura que los reguladores de Francia e Irlanda se han comunicado ya con sus homólogos italianos para lograr más información sobre el paso que acaban de dar allí. Esta misma semana el ministro galo para la Transición Digital, Jean Noël-Barrot, se mostraba sin embargo contrario a prohibir ChatGPT.

¿Son los únicos casos? Hace poco el diario Handelsblatt publicaba que Alemania podría seguir los pasos de Italia para velar por la protección de datos. "En principio, una acción de este tipo también es posible en Alemania", señala un portavoz del Comisario Federal de Protección de Datos, Ulrich Kelber. “Estamos haciendo un seguimiento con el regulador italiano”, abundan en Irlanda.

En España, la Agencia de Protección de Datos (AEPD) explicaba hace unos días que de momento no ha recibido ninguna reclamación sobre ChatGPT, aunque sí aclara: “La Agencia sigue de cerca estos desarrollos tecnológicos, que pueden tener una importante afectación para los derechos de las personas". Precisamente por esa razón,  señalan, "no puede descartarse una futura investigación".

¿Y OpenAI? ¿Qué dice? La compañía, con sede en EEUU, ha publicado un artículo en su blog en el que, entre otras cuestiones, aborda el uso de los datos y la privacidad de los usuarios: "Aunque algunos de nuestros datos de entrenamiento incluyen información personal disponible en Internet, queremos que nuestros modelos aprendan sobre el mundo, no sobre particulares. Nos esforzamos por eliminar  información personal del conjunto de los datos de entrenamiento siempre que es posible", recalca la firma, que responderá a Italia.

La suya no es la única voz que se ha escuchado a lo largo de los últimos días. Ursula Pachi, subdirectora de la Organización Europea de Consumidores (BEUC) reivindicaba hace poco en una entrevista con EuroNews que el paso dado en Italia debe ser "una especie de llamada de atención para la Unión Europea". "Aunque las instituciones europeas han estado trabajando en la Ley de IA, no será aplicable hasta dentro de cuatro años. Y vemos cómo de rápido se desarrollan".

Imagen de portada: Levart_Photographer (Unsplash)

En Xataka: Samsung va a deshacerse de ChatGPT en sus fábricas de chips: tiene un muy buen motivo para hacerlo

Comentarios cerrados
Inicio