Lo que los esfuerzos contra la proliferación nuclear nos pueden enseñar sobre las armas autónomas y las "IAs asesinas"

Lo que los esfuerzos contra la proliferación nuclear nos pueden enseñar sobre las armas autónomas y las "IAs asesinas"

12 comentarios Facebook Twitter Flipboard E-mail
Lo que los esfuerzos contra la proliferación nuclear nos pueden enseñar sobre las armas autónomas y las "IAs asesinas"

Elon Musk y otro nutrido grupo de “líderes tecnológicos” (los tres cofundadores de DeepMind, el fundador de Skype y algunos de los investigadores de IA más respetados del mundo) se acaban de comprometer a no desarrollar “armas letales autónomas”. Es el último paso de una coalición informal de investigadores y empresarios que llevan años alertando sobre los peligros de la llegada de la inteligencia artificial al mundo de las armas.

Es una preocupación legítima (quizás algo exagerada, pero legítima sin lugar a dudas). Como dice Max Tegmark, profesor del MIT y firmante del compromiso, "las armas autónomamente son tan repugnantes y desestabilizadoras como las armas biológicas y deben tratarse de la misma manera". Lo que no está claro es cómo podemos impedir un futuro en el que las armas autónomas sean una realidad. La buena noticia es que no es la primera vez que nos enfrentamos a este problema.

El complejo mundo de las tecnologías duales

guerra química

Cuando se pidió que la ONU lanzara una moratoria sobre las "armas autónomas" muchos especialistas denunciaron que, en esos términos, la prohibición no tenía sentido. Sobre todo, porque es muy difícil determinar qué prohibir y qué no en un mundo tan fuertemente informatizado como el bélico.

Lo hemos discutido muchas veces, las decisiones no las toman los sistemas autónomos. En realidad, esas decisiones están dadas ya en el código del sistema (y en las regulaciones fundamentales del mismo). No tendría sentido ni táctico ni estratégico poner en marcha tecnologías que no estuvieran controladas (milimétricamente) por los mandos militares. Por ello, como es habitual, la clave del asunto no está en lo tecnológico, sino en lo ético.

Y, en la misma declaración de Tegmark que citaba antes, está la clave del asunto. No es la primera vez que tenemos armas problemáticas. Es lo que llamamos “tecnología dual”: tecnologías capaces de usarse tanto con fines civiles como con fines militares. Es decir, por ser más claros, tecnologías cuyos beneficios civiles impiden la prohibición total de la tecnología. Ese es el caso de la inteligencia artificial.

Las armas químicas o las armas biológicas son ejemplos de este tipo de tecnologías. Pero quizás la tecnología dual que más quebraderos de cabeza nos ha causado ha sido la energía nuclear. Se cumplen ahora 50 años de la firma del Tratado de No Proliferación de Armas Nucleares, ¿Hay algo que podamos aprender de medio siglo de intentos por impedir la proliferación de las tecnologías duales?

La lucha contra la proliferación

Atomic Bomb Beach Black And White 73909

Los primeros esfuerzos para evitar la proliferación nuclear se hicieron en secreto con medidas que iban desde el control efectivo de toda la producción de uranio del mundo al sabotaje directo. No fue algo causal. Desde el mismo momento en que se supo que la bomba nuclear era algo posible la tarea fue doble: desarrollar la bomba antes que nadie e impedir que el resto la tuviera.

Esa lógica siguió después de la guerra. En 1946, el presidente Truman puso en marcha el Baruch Plan que, bajo el pretexto de frenar la proliferación nuclear, ofrecía desmantelar el arsenal estadounidense a cambio de parar el resto de programas nucleares. Aunque estuvo encima de la mesa hasta 1953, lo cierto es que fue imposible de llevarlo adelante.

En términos estratégicos, el Baruch Plan dejaba a Estados Unidos en una situación de ventaja: ellos serían los únicos que habrían completado el desarrollo de una bomba efectiva. Y, evidentemente, era algo que en la incipiente Guerra Fría no se podía permitir. Tres años después, la Unión Soviética detonaba la RDS-1 en Semipalatinsk.

Reino Unido se convirtió en potencia nuclear en 1952, Francia en 1960 y China en 1964. Las bombas ya estaban aquí y se necesitaba otra forma de frenar la proliferación. Después de muchísimas negociaciones, el uno de julio de 1968 se firmó el Tratado de No proliferación de Armas Nucleares.

Tim Mossholder 191483 Unsplash

Entró en vigor en 1970 y desde entonces, sin contar el caso israelí, al menos tres países se han convertido en potencias nucleares: La India, Pakistan y Corea del Norte. E Irán ha estado a punto de hacerlo. Y muchos países que iniciaron programas de este tipo solo los frenaron tras muchas presiones de las grandes potencias internacionales.

Esto nos da una idea de la dificultad que tiene implementar una prohibición de este tipo. Un programa nuclear requiere una cantidad ingente de recursos, instalaciones e investigadores; y pese a eso (aún teniendo a las mejores agencias de información trabajando en su contra) países como Corea del Norte ha conseguido llevarlo a cabo.

Más allá del alarmismo, necesitamos herramientas

Scott Rodgerson 371852 Unsplash

Y eso que las pruebas de armas nucleares, por sus características, son "fáciles" de identificar. Si nos vamos a tecnologías más "discretas", la capacidad de la comunidad internacional para controlarlas es virtualmente inexistente. Sólo tenemos que recordar las famosas armas químicas de Irak o la dificultad para determinar si en Siria hubo (o no) ataques químicos.

Si reflexionamos sobre el asunto, las propuestas de Musk y el resto de expertos se parecen mucho al Baruch Plan. Y como en aquel caso, las posibilidades de éxito son muy limitadas. Nadie va a ceder una baza militar estratégica por una cuestión ética. Solo hay que ver los firmantes del Tratado de Ottawa contra las minas antipersona. Más aún en un contexto real de guerra cibernética constante. A día de hoy, la regulación de esa tecnología solo parece viable a posteriori.

Por eso, aunque es necesario discutir públicamente sobre estos temas, la mayor contribución que podría hacerse desde el ámbito de los líderes tecnológicos es desarrollar metodologías para identificar, monitorizar y controlar el desarrollo de estas "armas autónomas". Soy consciente de la dificultad, pero más allá del alarmismo, necesitamos herramientas. Ni las buenas intenciones, ni el autocontrol han funcionado bien en el pasado, no hay razones para pensar que eso cambiará en el futuro.

Comentarios cerrados
Inicio