Inteligencia artificial a dos velocidades: la advertencia de Altman sobre la regulación de la Unión Europea

Sam
15 comentarios Facebook Twitter Flipboard E-mail

En los últimos días ha habido numerosos movimientos entorno a la puesta en marcha de una serie de iniciativas para regular la inteligencia artificial. Sam Altman, CEO de OpenAI, testificó ante el Congreso de EEUU para dar su valoración al respecto, y mientras tanto se ha producido la aprobación preliminar de la IA Act, la regulación de la Unión Europea. Eso plantea potenciales problemas para los usuarios de ChatGPT en el viejo continente.

El que avisa no es traidor. Según el Financial Times, Sam Altman ha advertido que los esfuerzos de Bruselas por regular el campo de la IA podría obligar a OpenAI a retirar sus servicios del territorio europeo. Eso provocaría que los usuarios de los países miebros de la UE no podrían tener acceso a ChatGPT, DALL-E 2 o Whisper.

Si no pueden cumplir, cerrarán en Europa. Los comentarios se produjeron durante la visita de Altman al Reino Unido, una de las estapas de un "tour" que también le ha hecho visitar España. En Londres el CEO de OpenAI explicó que tenía "muchas preocupaciones" sobre la AI Act. Esta normativa pretende incluir en esa legislación a los últimos LLM, como por ejemplo GPT-4. Para Altman "los detalles importan. Trataremos de cumplir [con la regulación], pero si no podemos dejaremos de operar [en la UE]".

Una regulación cada vez más restrictiva. La AI Act se diseñó inicialmente para monitorizar los casos de uso de la IA con más riesgo, como su aprovechamiento en equipamiento médico o en sistemas de préstamos financieros o contratación de personal. Sin embargo el avance de plataformas como ChatGPT o Midjourney ha hecho que la UE amplíe el texto y la normativa. Entre las medidas obligaría a los creadores de estos modelos (como GPT-4) a identificar y evitar los riesgos que esta tecnología puede provocar en diversos escenarios.

Quién es responsable de qué. En esencia lo que solicita esa AI Act es que OpenAI (por ChatGPT) o Google (por Bard) se hagan responsables de lo que los usuarios u otras empresas hacen con estas herramientas aun cuando ni una ni otra tienen control sobre esas aplicaciones particulares de esta tecnología. Estas empresas de referencia también tendrían que publicar resúmenes de los contenidos con derechos de autor que han usado en sus modelos IA, abriendo así la posibilidad de que los propietarios del copyright reclamaran una compensación.

Europa contra las Big Tech. Peter Schwartz,  directivo en Salesforce, explicaba que la falta de referentes europeos en el desarrollo de la IA vuelve a situar al continente en una posición de desventaja como la ya teníamos en otros campos como el desarrollo de microchips. "Básicamente, serán los reguladores europeos los que regulen a las empresas estadounidenses, como ha sucedido durante toda la era de las tecnologías de la información", explicó en declaraciones a FT.

Sundar Pichai hace campaña. Como Altman, el CEO de Google ha hecho un viaje en el que se ha encontrado y reunido con varios representantes políticos y con reguladores de la Unión Europea. Entre ellos con Thierry Breton, responsable de la AI Act. Pichai le habló de un "Pacto de la IA" que podría servir como normativa inicial para empresas que luego pudieran adaptarse mejor a esa futura regulación formal. Los responsables de Google publicaron recientemente un comunicado en su blog oficial hablando de su disposición a contribuir a esa regulación, como también lo hicieron los responsables de OpenAI en un mensaje similar firmado por Altman estos días. Sin embargo la UE debe tener cuidado: si es demasiado estricta, podría dejar a sus ciudadanos sin acceso a estas herramientas.

Imagen | Village Global | Jernej Furman

En Xataka | Así automaticé toda mi casa con inteligencia artificial y un sistema open source

Comentarios cerrados
Inicio