La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla

La inteligencia artificial podría ser un peligro y Google ya piensa en cómo podrá desactivarla
69 comentarios Facebook Twitter Flipboard E-mail

Mucho se ha comentado acerca de la inteligencia artificial y sus posibilidades, personalidades involucradas en el sector se ha pronunciado a favor y en contra como el caso de Bill Gates, Mark Zuckerberg, Stephen Hawking, Elon Musk, entre otros, ya que al día de hoy son muchos los desarrollos que buscan implementar sistemas de inteligencia artificial y machine learning.

Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

Asegurando el futuro de la raza humana

El día de hoy, científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google están publicando un documento que lleva por nombre 'Safely Interruptible Agents', donde describen una serie normas y funciones con el objetivo de evitar que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control.

Esto tal vez puede sonar alarmante, pero la realidad es que es una especie de póliza de seguridad que nos garantizará el óptimo funcionamiento de estos sistemas, lo cual está dirigido principalmente a casos y aplicaciones en cadenas de producción donde se pueden presentar fallos sin la supervisión de un ser humano, entonces con esta especie de "gran botón rojo de emergencia" podríamos desactivar las acciones y volver a reprogramar.

Exmachina

Un punto importante, es que estas medidas también hablan de un mecanismo que garantiza que la IA no aprenderá a desactivar o interrumpir estos protocolos, es decir, que no pueda bloquear el control por medio de humanos, algo que sería potencialmente peligroso ya que prácticamente sería independiente y sin posibilidad de que podamos desactivarla o volver a tomar el control.

Hasta este momento han logrado desarrollar 'Q-learning' y 'Sarsa', dos algoritmos de seguridad que son imposibles de modificar por la propia IA, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser prioritario en el desarrollo de inteligencia artificial.

DeepMind tiene un objetivo muy ambicioso que es "tratar de resolver la inteligencia", por ello la importancia de que siempre trabaje bajo nuestra supervisión, ya que se estima que en al menos 100 años, los sistemas de IA podrían ser más astutos que los seres humanos y ser una amenaza para nuestra existencia.

Vía | Business Insider
Imagen | Dejanseo
En Xataka | El gran debate sobre si será posible o no una inteligencia artificial

Comentarios cerrados
Inicio