Henry Kissinger advierte de que controlar el uso armas inteligentes será más complicado que con las nucleares

Henry Kissinger advierte de que controlar el uso armas inteligentes será más complicado que con las nucleares
2 comentarios Facebook Twitter Flipboard E-mail

Henry Kissinger, quien fuera Secretario de Estado de EE.UU en los tiempos de Nixon y Ford, es, pese a haber sido proclamado en 1971 Nobel de la Paz, un personaje controvertido dentro y fuera de su país.

Pero también es un reconocido experto en geopolítica, lo que le ha llevado a influir sobre relevantes empresarios de Silicon Valley, y lo que otorga relevancia a cualquier posicionamiento que realice sobre proliferación armamentística.

El pasado jueves, Kissinger participó en una conferencia en el MIT, con ocasión de la apertura de su nueva escuela de computación. Y, mientras se llevaban a cabo protestas estudiantiles en el exterior contra la presencia de un "criminal de guerra" en el campus, la intervención del nonagenario político no giró en torno a las armas nucleares (que protagonizaron su época en la política activa), y tampoco de armas químicas o biológicas; sino de armas autónomas, dotadas de inteligencia artificial.

"La sociedad humana no está preparada para el surgimiento de la inteligencia artificial"

Kissinger expresó su temor ante la posibilidad de un carrera entre naciones para el desarrollo de armas equipadas con una inteligencia artificial cada vez más avanzada, y advirtió que serán más difíciles de controlar que las armas nucleares.

¿Por qué ocurrirá esto? Porque, al contrario de aquéllas, cuya existencia interesaba difundir como herramienta disuasoria, esta nueva generación de armas será desarrollada en secreto: "La ignorancia del otro bando será su mayor baza", afirmó el nonagenario político estadounidense.

Y ésta no es la primera vez que Kissinger advierte sobre los peligros potenciales de la inteligencia artificial: ya el año pasado, mediante un artículo de opinión para The Atlantic ("Cómo termina la Ilustración"), defendía que esta tecnología podría alterar la naturaleza del conocimiento humano al perder su carácter personal de tal manera que, en última instancia, termine repercutiendo negativamente sobre la humanidad:

"Al dominar ciertas competencias de forma más rápida y eficiente que los humanos, [la inteligencia artificial] podría, con el tiempo, disminuir la propia habilidad humana al reducirla a información. [...] Filosófica e intelectualmente la sociedad humana no está preparada para el surgimiento de la inteligencia artificial".

En el artículo se recoge también su petición para que la Administración se planteara crear "una comisión presidencial de pensadores eminentes que ayudasen a desarrollar una visión de país sobre la IA", una propuesta que encontró eco a finales de enero con la creación de una Comisión Nacional de Seguridad en Inteligencia Artificial (si bien no estará integrada por 'pensadores', sino por militares y representantes de las compañías tecnológicas)..

Mientras, al otro lado del Océano Pacífico, el gran rival comercial y militar de Estados Unidos, la República Popular China, lanza señales contradictorias sobre su posición respecto a las armas autónomas: desde su negativa a que la ONU limite la investigación en este campo hasta el reciente reconocimiento en foros diplomáticos de que la normativa sobre conflictos necesita actualizarse para contemplar los peligros de su uso.

Vía | Futurity Imagen | Foro Económico Mundial

Inicio