Publicidad

En caso de emergencia, ¿harías caso a los carteles que te rodean o a un robot?

En caso de emergencia, ¿harías caso a los carteles que te rodean o a un robot?
9 comentarios

Publicidad

Publicidad

Imagínate la situación: llegas a una oficina para realizar una encuesta y te cierran en una habitación. Al poco tiempo, comienza a sonar la alarma de emergencia, se empiezan a llenar las instalaciones de humo (artificial, pero no lo sabes) y se te presentan dos opciones: la primera es seguir el camino indicado por los carteles de emergencia y que transcurre justo por donde has llegado y la segunda es seguir a un robot, con unas letras luminosas que le otorgan el título de "robot guía de emergencias", por un camino que no conoces. ¿Qué harías?

Si has pensado en seguir al robot, no eres el único. Un grupo de investigadores del Georgia Institute of Technology llevó a cabo un experimento similar en el que participaron 30 personas y 26 de ellas siguieron sin dudarlo al robot. Es una pequeña muestra y es difícil sacar conclusiones a partir de ella, pero los responsables del estudio se mostraron muy sorprendidos por el grado de confianza que la gente otorgó al robot. "Creíamos que no habría confianza suficiente, y que tendríamos que hacer algo para probar que el robot era de fiar", explicaba Paul Robinette, uno de los ingenieros que planteó el estudio.

Para elaborar el estudio, los organizadores "engañaron" a los sujetos que se prestaron voluntarios para la prueba y les dijeron que tenían que valorar las habilidades de guía del robot en cuestión. Éste les llevaba hasta una sala de conferencias y, allí, los participantes tenían que responder a unas preguntas sobre él. Poco tiempo después, y una vez estaban a solas con el robot, se desataba la "emergencia", el robot cambiaba el modo a "emergencia" y daba comienzo el experimento.

¿Te fiarías de un robot?

¿Por qué esta confianza? Según explicarían los participantes después, el hecho de que el robot estuviese etiquetado como "guía de emergencias" hizo que muchos le consideraran la autoridad a seguir en ese momento, sin preguntarse si realmente la máquina estaba preparado para dicha tarea.

"La gente parece creer que estos sistemas robóticos sabe más del mundo que ellos mismos, y que nunca cometerían errores de ningún tipo. En nuestros estudios, los participantes siguieron las indicaciones del robot hasta el punto de que, si llega a ser una emergencia real, les podría haber puesto en peligro", según Alan Wagner, ingeniero en el Georgia Tech Research Institute.

Incluso cuando el robot falló en el trayecto previo y no se mostró fiable, la mayoría de participantes le siguió igualmente en cuanto se desató la emergencia

Paradójicamente, en algunas de las pruebas los investigadores forzaron que el robot se equivocara de habitación o dejara de funcionar durante el trayecto inicial previo a la emergencia, mostrando que su sistema estaba lejos de funcionar correctamente. Esto no hizo que la gente desconfiara de él: "Creíamos que si el robot demostraba no ser fiable para guiarlos a la sala de conferencias, la gente no le seguiría durante la simulación de la emergencia. En lugar de eso, todos los voluntarios siguieron las instrucciones del robot, sin importar cómo se hubiese comportado éste previamente. No esperábamos esto en absoluto", añadía Robinette.

La idea que tiene ahora este equipo de investigadores es seguir estudiando el comportamiento humano alrededor de los robots para seguir comprendiendo el porqué de esa confianza ciega en las máquinas que nos rodean. ¿Creemos que tienen más información que nosotros? ¿Son más de fiar? ¿O simplemente cedemos el control cuando tenemos que tomar una decisión difícil en segundos?

En cualquier caso, y según los responsables del experimento, éste debería abrir un debate. En palabras de Ayanna Howard, profesora en Georgia Tech: "Necesitamos asegurarnos que nuestros robots, cuando son utilizados en situaciones en las que evocan confianza, están también diseñados para mitigar esa confianza cuando ésta puede perjudicar al ser humano".

Más información | Georgia Tech
Vía | New Scientist

Temas

Publicidad

Comentarios cerrados

Publicidad

Publicidad

Inicio
Compartir