Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante

Tiene 38 años y hoy en día es una de las personas más poderosas e influyentes del mundo. Todos quieren hacerse la foto con él, y eso es justo lo que logró en una singular gira por Europa —y antes, por otras regiones del mapa mundial— en la que se reunió con mandatarios y, sobre todo, con reguladores. Con todos, insistimos, hubo foto.

Su nombre, claro, es Sam Altman. El CEO de OpenAI visitó a finales de mayo España, Polonia, Francia y el Reino Unido, además de reunirse con Thierry Breton en Bruselas. La frenética agenda no estaba destinada a darle publicidad a su empresa y a su producto estrella, ChatGPT. No hacía demasiada falta. Estaba destinada a otra urgencia: la de hablar de la regulación de la inteligencia artificial.

El discurso de Altman con todos esos mandatarios fue sospechosamente parecido al que todos ellos habían mantenido en las semanas previas. Los discursos pesimistas sobre una IA que podría acabar con el ser humano se unían a otros algo menos distópicos pero también preocupantes: Geoffrey Hinton, uno de los considerados "padrinos de la IA", dimitía de su puesto en Google y alertaba de riesgos como la desinformación.

El propio Altman se sumaba a esa visión preocupante de nuestro futuro. "Si hace daño, puede hacer mucho daño", explicaba. Y tras eso, su mensaje asociado: necesitamos regular la IA, y estamos totalmente dispuestos a colaborar con las entidades reguladoras.

La postura de Altman y su buena disposición podrían ser tomadas sin más como una declaración de buenas intenciones, pero las cosas se pusieron aún más interesantes cuando vimos cómo no solo OpenAI, sino otras grandes empresas implicadas en esge segmento, pedían exactamente lo mismo.

Las Big Tech se quieren llevar bien con los reguladores

El discurso es parecido desde hace años. En enero de 2020 Sundar Pichai, CEO de Alphabet —matriz de Google— ya pedía una regulación para este segmento. Algo más tarde, en septiembre de 2021 Microsoft ya hablaban de que era necesario "regular la IA para impulsar la innovación responsable en Europa".

Ambas empresas han renovado el discurso recientemente. Pichai explicaba en Financial Times cómo la IA "es demasiado importante para no ser regulada adecuadamente".

Mientras, Satya Nadella concedía una entrevista en Time en mayo y destacaba que "creo que hay lugar para el diálogo, y también hay lugar para que asumamos nuestra responsabilidad como proveedores de esta tecnología antes de la regulación, y luego esperemos que la haya". El presidente de Microsoft, Brad Smith, se explayaba también sobre el tema y hablaba de cuál era la mejor forma para aplicar la gobernanza de la IA.

El propio Mark Zuckerberg, creador de Facebook, ya había hecho algo parecido a lo que hizo Altman, pero en 2020. Como él, se reunió con reguladores europeos antes de que se publicaran propuestas para regular la IA. Por entonces OpenAI era una desconocida y Facebook aún no era Meta —y comenzó a apostar todo al metaverso—. Aquellas reuniones de entonces, como estas de ahora, estaban destinadas a lo mismo.

El fin justifica los medios

Que no es, ni más ni menos, que ganar la carrera de la IA. Ponerse del lado de los reguladores y mostrar una disposición absoluta a colaborar es una buena forma de lograrlo, pero obviamente Altman —como el resto de los mencionados— tiene su propia hoja de ruta.

Eso se puede deducir de la elección de países visitados en su gira. Altman visitó España, algo que parece raro hasta que uno se da cuenta de un dato clave: nuestro país asumirá la presidencia del Consejo Europeo el próximo mes de julio. El Gobierno de España ya ha dejado claro que completar la AI Act es su principal prioridad en el ámbito digital, así que esa visita de Altman fue un tiro certero. Uno en el que, por supuesto, hubo foto.

Pero esa agenda también fue perfilándose cuando su discurso cambió. De ver la IA como una amenaza pasó a declarar algo muy distinto y dijo que "intentaremos cumplir [la regulación], pero si no podemos hacerlo dejaremos de operar".

Eso no gustó mucho a los euroreguladores —con Thierry Breton al frente— y lo cierto es que la Unión Europea parece estar avanzando con paso firme hacia la aprobación definitiva y puesta en marcha de la AI Act, su planteamiento —algo estricto, según los expertos— para regular la inteligencia artificial.

La captura del regulador

Lo que ha hecho Altman es lo mismo que habían hecho otros en el pasado. Mark Zuckerberg abogó en 2020 por una regulación para las redes sociales. "Creo que una buena regulación puede dañar el negocio de Facebook a corto plazo, pero será mejor para todos, incluyéndonos a nosotros, a largo plazo", explicaba. Un año antes el discurso había sido similar al hablar de una regulación más fuerte de internet.

Esos discursos de entonces, como los de Altman de ahora, tienen un nombre: captura del regulador. Se llama así a "un tipo de fallo del Estado que ocurre cuando una agencia regulatoria, creada para defender el interés general, actúa en favor de ciertos intereses políticos o grupos de interés del sector sobre el cual está encargada de regular". O lo que es lo mismo: Altman no quere una regulación para la IA.

Quiere su regulación.

Esas técnicas de grupos de presión —lobbying— son utilizadas en otros muchos ámbitos, pero aquí transforman a las Big Tech en teóricas aliadas de los organismos reguladores: declaran tener las mejores intenciones y estar totalmente abiertas a colaborar con los reguladores, pero lo hacen para intentar —como haría probablemente cualquiera al frente de esas grandes empresas— influir en la redacción de leyes que puedan afectarlas de cara al futuro.

¿Misión cumplida?

La situación se ha vuelto aún más clara tras la información publicada en Time. Esta publicación ha revelado que OpenAI intentó relajar la regulación de la inteligencia artificial en Europa. Como explicaban en dicho medio, Altman ha hablado repetidamente de la necesidad de una regulación global de la IA, "Pero entre bastidores, OpenAI ha presionado para que elementos significativos de la legislación sobre IA más completa del mundo -la Ley de IA de la UE- se suavicen de forma que reduzcan la carga reguladora de la empresa".

Fuente: Wikimedia.

Parece que las enmiendas (o al menos, algunas de ellas) propuestas por OpenAI acabaron formando del texto final de la ley de la UE que tuvo el visto bueno del Parlamento Europeo la semana pasada. Una de las más relevantes, la de que no se considerara a sistemas como GPT-3 "de alto riesgo". En un documento de OpenAI dirigido a la UE y publicado por Time los responsables de la empresa explicaban que "Por sí mismo, GPT-3 no es un sistema de alto riesgo. Pero posee capacidades que pueden ser empleadas en casos de uso de alto riesgo".

La gira de Sam Altman parece haber tenido éxito: el borrador final no incluía ya esos párrafos en los que se sugería que los sistemas de IA de propósito general —como GPT-3— deberían considerarse de forma inherente como de alto riesgo. En lugar de eso la AI Act habla de los "modelos fundacionales" (GPT-3 también estaría englobado en esa categoría) y de cómo estos tendrían requisitos algo más relajados.

Imagen | Jernej Furman | Village Global

En Xataka | La amenaza de la IA a la humanidad es "absurdamente ridícula": lo dice el máximo responsable de IA en Meta

Ver todos los comentarios en https://www.xataka.com

VER 4 Comentarios

Portada de Xataka