Elon Musk, Google y otros socios tecnológicos quieren proteger a los humanos de las máquinas

Elon Musk, Google y otros socios tecnológicos quieren proteger a los humanos de las máquinas
19 comentarios Facebook Twitter Flipboard E-mail

Future of Life es una asociación que vio la luz el año pasado bajo la batuta de Max Tegmark (MIT) y Jaan Tallinn (Skype), que además tiene el lujo de contar con gente como Elon Musk (Tesla) y Stephen Hawking como consejeros. ¿Su misión? Defender un desarrollo responsable de la inteligencia artificial y potenciar los usos que esta tecnología pueda proporcionar a la sociedad. ¿Su lema? "La tecnología ha dado la oportunidad para que la vida florezca como nunca lo ha hecho antes... o se autodestruya".

Ayer mismo dieron a conocer una carta abierta en la que precisamente repasan estas preocupaciones. "Recomendamos más investigación enfocada a asegurarse de que los cada vez más capaces sistemas de inteligencia artificial son robustos y beneficiosos: nuestros sistemas de inteligencia artificial deben hacer lo que nosotros queramos que hagan", afirman en el manifiesto que, a día de hoy, firman bastantes personalidades importantes: numerosos ingenieros de Google, los propios Elon Musk y Stephen Hawking y un gran número de científicos especialistas en el sector.

Futureoflife

Así se debe investigar la inteligencia artificial según FLI

"Nuestros sistemas de inteligencia artificial deben hacer lo que nosotros queramos que hagan"

Acompañando la carta, han publicado además un completo informe sobre qué consideran que se tiene que investigar tanto a corto como a largo plazo: desde cómo la automatización de ciertas tareas puede afectar económicamente a la sociedad hasta cómo se tratará el asunto de la ética: en caso de accidente inevitable y hay que tomar una decisión, ¿qué debería escoger un coche autónomo: una baja probabilidad de herir a sus pasajeros o una alta probabilidad de que se produzcan daños materiales importantes?

Otro ejemplo: "si una IA selecciona las acciones que mejor le permiten completar una tarea, entonces el evitar las condiciones que eviten que el sistema siga ejecutando dicha tarea es un objetivo natural. Esto podría ser problemático, sin embargo, si queremos volver a modelar el sistema, desactivarlo o alterar significativamente su proceso de toma de decisiones. Un sistema así evitaría racionalmente dichos cambios". Añaden, además, que es recomendable seguir trabajando en sistemas que son "corregibles" y no tienen este problema.

A modo de conclusión, desde la asociación insisten en que la inteligencia artificial "tiene el potencial de proporcionar beneficios sin precedentes" a la humanidad y deben maximizarse estos beneficios pero, eso sí, "evitando potenciales meteduras de pata". En sus propias palabras, merece la pena apostar por la investigación cuyo objetivo sea asegurarse de que la inteligencia artificial sea sólida, ventajosa para la sociedad y, cómo no, "alineada con los intereses humanos".

Más información | Manifiesto, Documento con prioridades de investigación

Comentarios cerrados
Inicio