El peligro es real: un dron ha atacado a personas de forma totalmente autónoma por primera vez, según un informe de Naciones Unidas

El peligro es real: un dron ha atacado a personas de forma totalmente autónoma por primera vez, según un informe de Naciones Unidas
74 comentarios

El peligro de los drones autónomos es real. Según un informe del Consejo de Seguridad de las Naciones Unidas, el año pasado por primera vez un dron militar pudo haber atacado de forma autónoma a humanos en Libia. No han trascendido detalles de la operación ni si hubo víctimas, pero confirma que estas armas autónomas letales ya se están utilizando en el campo de batalla pese a los esfuerzos internacionales por prohibirlas.

Un dron STM Kargu-2 de fabricación turca habría sido utilizado para "perseguir y comprometer remotamente" a los soldados en retirada, según describe el informe. El uso de estos drones en el conflicto de Libia puede abrir un nuevo capítulo para las armas autónomas. Unas herramientas programadas para que la IA decida por si sola eliminar a sus objetivos, incluidos los humanos.

Así son los Kargu-2, drones autónomos preparados para matar

En junio de 2020, el ejército turco compraba cerca de 500 drones Kargu a Defense Technologies Engineering and Trade Inc, más conocida como STM, una empresa turca armamentística. La primera generación de estos drones se presentó en 2017 y en 2019 se mostró la variante Kargu-2, capaz de llevar a cabo ataques en modo enjambre y operar de manera autónoma.

Kargu puede traducirse en turco como "halcón". La compañía explica que están diseñados para la "guerra asimétrica y la lucha antiterrorista". Con un peso de unos 7 kg, el dron puede permanecer en el aire al menos durante 30 minutos y volar a una velocidad de unos 145 km/h. Números mejorados en la segunda generación.

El informe del Consejo de Seguridad de las Naciones Unidas describe el suceso de la siguiente manera:

"Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”. Los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral".

Las pruebas encontradas por las Naciones Unidas indican que los STM Kargu-2 utilizaron munición y están operativos en Libia. Se trata de la primera vez que detectan su uso y su despliegue supone un incumplimiento del párrafo 9 de la resolución 1970 (2011).

Informe Un
Fuente: Consejo de Seguridad de las Naciones Unidas

Los drones de la serie Kargu pueden ser operados manualmente, pero también están preparados para operar autónomamente gracias al uso de sensores que van desde cámaras de video electroópticas e infrarrojas a un sistema de imágenes láser (LIDAR).

A través del programa KERKES, la empresa STM preparó a sus drones para poder coordinarse de manera autónoma en enjambre y moverse siguiendo el GPS. Junto a otros 20 drones, los Kargu-2 están programados con una IA capaz de seleccionar y atacar objetivos.

Por el momento no se ha informado de ninguna víctima de una de estas armas autónomas (sería la primera), pero en los vídeos demostrativos de STM se muestra como estos drones atacan a un grupo de maniquíes.

Cómo decide un dron autónomo a quién atacar

Las minas antipersona pueden configurarse para adaptar la sensibilidad y únicamente detonarse con adultos. Con los drones autónomos todavía hay mucho debate sobre qué parámetros concretos determinan cuándo atacan.

El aprendizaje automático de estos drones está programado con un gran conjunto de datos y permite diferenciar objetos. También vehículos como tanques, autobuses o furgonetas. Se presupone que los distintos ejércitos pueden entrenar a la IA del dron para que se focalice en las particularidades del enemigo, dándole acceso a bases de datos con imágenes e información de quienes desean abatir.

Kargu Personas

Sin embargo, de la misma manera que hemos visto como los algoritmos tienen muchos sesgos y no están exentos de fallos, estos drones autónomos también pueden equivocarse, con consecuencias fatales.

Expertos y organismos piden prohibir estas armas autónomas antes que sea demasiado tarde

Desde la Unión Europea han advertido contra estos robots asesinos. También Estados Unidos y Rusia son conscientes de las implicaciones de estas LAWs ('Lethal Autonomous Weapons'). Sin embargo, tanto una como otra potencia, apoyados principalmente por Corea del Sur, Israel y Australia, han bloqueado la negociación para prohibirlas.

Las Naciones Unidas tienen desde finales de 2013 la intención de prohibirlas, pero no han habido grandes avances. Durante este tiempo, personalidades como Brad Smith, presidente de Microsoft, Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 países han solicitado que se prohíba el desarrollo y el uso de robots asesinos autónomos. Porque "una vez que se abra esta caja de Pandora, será difícil cerrarla".

En Xataka | China avisa: el peligro de una guerra accidental por culpa de "las armas inteligentes" es real y creciente

Temas
Inicio