Los investigadores de inteligencia artificial presionan a sus gobiernos para que prohíban la creación de "robots asesinos"

Los investigadores de inteligencia artificial presionan a sus gobiernos para que prohíban la creación de "robots asesinos"
16 comentarios Facebook Twitter Flipboard E-mail

Uno de los grandes temores alrededor de la inteligencia artificial es la de que se acabe utilizando con fines bélicos para crear "robots asesinos". Ahora, varios investigadores de Australia y Canadá en este campo le están pidiendo a los presidentes de sus países una "posición global firme" contra el armamentismo de la IA.

Lo han hecho mediante una carta abierta firmada por decenas de expertos en robótica e Inteligencia Artificial, y que están directamente dirigidas a los presidentes Malcolm Turnbull y Justin Trudeau. Se les urge a trabajar con otros países para crear un acuerdo internacional que prohíba los sistemas automáticos letales, tal y como ya se hizo en los setenta con las armas nucleares.

Esta carta abierta se une a la ya publicada en agosto y firmada por decenas de empresarios de primer nivel en el sector tecnológico, incluyendo por ejemplo a Elon Musk, y la petición a través de todas ellas suma ya más de 300 firmas de expertos. La idea de todas estas iniciativas es la misma, la de legislar antes de que sea demasiado tarde y los sistemas automatizados sin control humano crucen las líneas morales.

"Los sistemas de armas autónomas amenazan convertirse en la tercera revolución en la guerra"

"De esta manera, nuestro gobierno puede reclamar su posición de liderazgo moral en el escenario mundial como se demostró anteriormente en otras áreas como la no proliferación de armas nucleares", se lee en la carta. "Como muchas corporaciones de IA y robótica han instado recientemente, los sistemas de armas autónomas amenazan convertirse en la tercera revolución en la guerra. Si se desarrollan, permitirán que el conflicto armado se dispute a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos puedan comprender."

En la carta también se explica que la consecuencia del desarrollo de estas tecnologías supondría que serían las máquinas y no los humanos quienes decidiesen quien vive y quién muere, algo de lo que también se lleva años debatiendo. Esto es algo que las comunidades de Inteligencia Artificial de Australia y Canadá no aprueban, ya que dicen preferir desarrollar estas tecnologías en busca de beneficios para la humanidad.

Esta última carta abierta ha sido publicada a pocos días de una conferencia de las Naciones Unidas sobre la Convención sobre Ciertas Armas Convencionales (CCW), que se celebrará la semana que viene para intentar restringir o prohibir tipos específicos de armas que son indiscriminadas en su fuerza o causan lesiones excesivas.

Intentando evitar un 'Terminator'

Naciones Unidas lleva desde diciembre del año pasado intentando abrir el debate para evitar la creación de armas con inteligencia artificial. En principio, esta conferencia debería haberse celebrado en agosto, pero fue aplazada hasta el próximo 14 de noviembre por falta de financiación. Ahora, a una semana de su celebración la comunidad de desarrolladores de este tipo de tecnologías vuelve a movilizarse para presionar a los gobiernos.

Sin embargo este preocupación viene desde lejos. Celebridades como Elon Musk y organizaciones como Human Rights Watch llevan tiempo advirtiendo sobre los caminos que se podría tomar con la Inteligencia Artificial, tratando de que se prevenga su uso para fines bélicos, ya que correríamos el peligro de que se nos acabe yendo de las manos.

Desde otras empresas como Google no se cree que el problema esté tanto en que las máquinas puedan ser inteligentes, sino más bien en que tomen decisiones erróneas porque no les ofrecemos todos los datos que necesitan para tomar las correctas. Así pues, lo que habría que cuidar según el jefe de la división de Inteligencia Artificial de Google son los propios algoritmos.

Sin embargo, el de los fines bélicos es sólo uno de los muchos debates que se están creando en torno a la toma de decisiones por parte de los sistemas automatizados. Hay que recordar, por ejemplo, que todavía se está buscando una solución para que los sistemas de conducción autónoma sean capaces de tomar decisiones éticas en el caso de que ante un accidente inminente tengan que decidir a quién atropellar.

Imagen | U.S. Department of Defense
En Xataka | "Nada más horrible que armas que no necesiten de la intervención humana para tomar decisiones a vida o muerte" Jody Williams

Comentarios cerrados
Inicio