Skynet, la inteligencia artificial rebelde que casi aniquila a la raza humana en la saga cinematográfica 'Terminator' puede ser (y es) un tópico mil veces repetido cuando abordamos los peligros potenciales de la IA, una apocalíptica posibilidad meramente teórica, si se quiere... pero muchos expertos en IA siguen pensando en ella cuando analizan la mejor manera de evitar que esta tecnología se nos pueda ir un día de las manos.
La Cumbre GeekWire 2019, clausurada este martes en Seattle, ha reunido a más de 800 líderes empresariales y tecnológicos para explorar las tendencias futuras de la nueva economía, y algunos de ellos han vuelto a pensar en Skynet gracias a las palabras del mismísimo presidente de Microsoft, Brad Smith. Lo curioso es que todo ha empezado con un comentario sobre economía regional y e industria aeronáutica:
"¿Cuál es el mayor problema relacionado con el software que afecta hoy en día sobre la economía del Estrecho de Puget (la región en la que se encuentra Seattle)? Un software para cabinas de aviones, un software que los pilotos no podían apagar".
El ejemplo de Boeing debe servir "para toda la industria"
Smith se refería aquí a la crisis sufrida hace unos meses por la compañía Boeing, tras saberse que el software con el que habían equipado secretamente a los aviones 737 Max había sido el motivo de dos grandes accidentes de aviación en los que murieron 346 personas.
Se trataba de un sistema que bajaba el morro del avión cuando detectaba una inclinación muy elevada. Al recibir información incorrecta por parte de las sondas, el morro bajó más de la cuenta por efecto del software y la tripulación no fue capaz de desactivar este sistema automatizado, lo que provocó la caída de los aviones.
La compañía, que tiene su sede en las inmediaciones de Seattle, ha tenido que pagar ya más de 8.000 millones de dólares en concepto de indemnización... y su efecto a medio/largo plazo tendrá, por lo que parece, un impacto mucho mayor.
Pero, para Smith, las lecciones que tenemos que sacar de esto "no deben estar dirigidas a una única empresa o a una única industria, sino a todos los que crean y usan tecnología. Es una lección que todos los sectores de la sociedad deberán recordar: debemos ser capaces de crear buena tecnología... y de poder desactivarla".
A continuación, hablando sobre el libro que lanzó el mes pasado ('Tools and Weapons: The Promise and the Peril of the Digital Age'), Smith hizo referencia explícita a la necesidad de que tanto la industria tecnológica como el gobierno se unan para abordar los peligros de la IA y el machine learning.
"Somos la primera generación que decidirá el modo en que las máquinas habrán de tomar estas decisiones y qué tipo de principios éticos las guiarán su toma de decisiones. No es por presionar, pero sería mejor que lo hagamos bien".
Cabe señalar que la Unión Europea ya puso encima de la mesa el debate sobre la necesidad de este sistema de apagado de emergencia en 2017 y que, a día de hoy, la existencia de este mecanismo es una de las "Pautas de ética para la IA confiable", un documento oficial aprobado este mismo año. Según el mismo, su fin debe ser cesar inmediatamente las operaciones de la IA en ejecución, así como delegar el control de las nuevas en manos de operadores humanos.
Pero ni aún desarrollando esta clase de sistemas nuestra especie estará segura frente a una IA incontrolada: en 2017, dos investigadores (Laurent Orseau de Deep Mind, y Stuart Amstrong, de la Univ. de Oxford) estudiaron la solución de los botones de apagado, destinados a "evitar que la máquina siga una secuencia dañina de acciones para el ser humano o para el medio ambiente".
Pero no estaban seguros de que una IA no pudiera terminar hallando la manera de protegerse de dicho apagado forzoso. Ya en su artículo mencionan el caso de un bot que aprendió a detener el juego Tetris para evitar perder. Por desgracia, esto podría extrapolarse a otros ámbitos potencialmente más dañinos para los seres humanos.
Vía | GeekWire
Imagen | Tim Regan
Ver 20 comentarios