EEUU, Gran Bretaña y otros 16 países publican su guía para el desarrollo de la IA: España se vuelve a quedar fuera

  • Agencias de ciberseguridad de 18 países han firmado una serie de directrices que plantean cómo se debe desarrollar de forma segura la IA

  • El documento es sobre todo una declaración de buenas intenciones, y no impone la creación de una regulación o de sanciones

Band
30 comentarios Facebook Twitter Flipboard E-mail

El desarrollo de modelos de IA sigue su curso sin que exista una regulación clara y universal sobre cómo llevar a cabo ese proceso. En las últimas semanas estamos viendo cómo llegan acuerdos y recomendaciones fijadas por un grupo de naciones, pero que de nuevo no están consensuadas por una gran mayoría. España, por cierto, se está quedando fuera en todas.

Posturas enfrentadas. Las posturas de la Unión Europea y Estados Unidos han sido distintas desde el principio. El proyecto de AI Act de la UE es más restrictivo, mientras que la visión de EEUU siempre ha sido más laxo en medidas a tomar. Entre ellas, eso sí, ha habido alternativas como la de Japón que parecían tener futuro.

El G7 propone su regulación para Europa (sin España). Hace apenas una semana nos enterábamos de cómo un acuerdo alcanzado por el G7 proponía un código de conducta para el desarrollo de modelos de IA. Esa iniciativa no suponía la creación de leyes específicas ni defendía sanciones salvo que se producen violaciones de ese código. En esas decisiones, por cierto, no estaba incluida España.

18 países crean sus directrices para la IA (sin España de nuevo). Hoy hemos sabido que Estados Unidos y Gran Bretaña encabezan la lista de 18 países que se han unido para plantear las llamadas "Directrices para el desarrollo seguro de sistemas de IA". El documento está firmado por agencias de seguridad y ciberseguridad como la NSA (EEUU), el FBI (EEUU), la NCSC (Reino Unido), la ANSSI (Francia), la BSI (Alemania), la ACN (Italia) y otros organismos de distintos países como la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria o Singapur. España, una vez más no está entre los participantes.

Directrices, no regulación. Este documento es según sus responsables el primer acuerdo internacional para mantener la IA a salvo de actores tóxicos e impulsa el desarrollo de sistemas de IA "seguros por diseño". En sus 20 páginas los 18 países se han puesto de acuerdo para indicar que las empresas que diseñan y usan IA necesitan desarrollarla e implantarla de forma que mantenga a los clientes y al público general a salvo de malos usos.

Buenas intenciones. Se trata por tanto más de un acuerdo de buenas intenciones que es relevante por las agencias implicadas. Jen Easterly, directora de la CISA en EEUU, explicaba que "es la primera vez que vemos una afirmación de que estas capacidades no deben centrarse sólo en funciones geniales y en lo rápido que podemos sacarlas al mercado o cómo podemos competir para abaratar costes", sino que representan "un acuerdo en que lo más importante que hay que hacer en la fase de diseño es la seguridad".

Pero tiene muchos vacíos. Esa recomendación parece obvia y es desde luego relevante, pero en el documento no se tratan otros temas como los usos apropiados de la IA o cómo se recolectan y de dónde provienen los datos con los que se entrenan estos modelos.

Muchas recomendaciones, cero regulación. El problema de todos estos acuerdos es que a priori no van a dar lugar a una serie de leyes globales que regulen el desarrollo y uso de modelos de IA. Cada país sigue yendo a la suya pero no hay acuerdo universal y solo vemos recomendaciones de buenas prácticas. En la Unión Europea la AI Act es la iniciativa que más se acerca a ese objetivo, y de hecho España planteó su puesta en marcha como uno de los retos clave durante su recién estrenada presidencia del Consejo de la UE.

Imagen | Jason Leung

En Xataka | España se queda sin Copilot para Windows 11: la regulación de la UE frena su despliegue en Europa

Inicio