No siempre obedientes: Así aprenden los robots a rechazar órdenes del ser humano

No siempre obedientes: Así aprenden los robots a rechazar órdenes del ser humano
11 comentarios Facebook Twitter Flipboard E-mail

Uno podría asumir que los robots deberían hacer siempre lo que les digamos sin importar las consecuencias de esas acciones, pero hay demasiados factores en juego en esa actividad de unas máquinas que poco a poco van teniendo más ambición tanto en sus habilidades físicas como en las que les dotan de capacidad de acción y autonomía.

Precisamente un grupo de investigadores de la Universidad de Tufts y del Human-Robot Interaction Lab están desarrollando sistemas que permiten a los robors negarse a cumplir órdenes que atentan contra algunos de los principios de su funcionamiento. No hablamos en realidad de las famosas leyes de la robótica, sino de las llamadas "condiciones de felicidad".

¿Deben los robots obeceder siempre?

Esas condiciones "reflejan nuestra comprensión y capacidadd a la hora de acometer una tarea, no se limitan solo a entender lo que significa la orden". Gordon Briggs y Matthias Scheutz han establecido cinco de esas condiciones que precisamente especifican si sería o no coherente rechazar una orden que las cuestione.

  1. Conocimiento: ¿sé cómo hacer X?
  2. Capacidad: ¿soy físicamente capaz de hacer X ahora? ¿Soy normalmente capaz de hacer físicamente X?
  3. Prioridad del objetivo y elección del momento: ¿Soy capaz de hacer X ahora mismo?
  4. Papel social y obligación: ¿Estoy obligado a hacer X basándome en mi posición social?
  5. Permisibilidad normativa: ¿viola algún principio normativo hacer X?

Esas reglas permiten al robot evaluar la orden y decidir si es o no adecuado seguirla o no, y como dicen los responsables del estudio, no solo pueden tomar esa decisión, sino explicar por qué la han tomado. Un ejemplo: ordenar al robot que ande hacia adelante cuando está en el borde de una mesa y eso hará que caiga al vacío.

En el ejemplo del vídeo se ve cómo el robot explica por qué no puede andar hacia delante, pero luego el humano le explica que no se preocupe, "yo te cogeré". Como se puede comprobar luego es necesario que el humano cumpla esa promesa, lo que a su vez establece nuevos escenarios en ese tratamiento de las órdenes en el que también intervienen las leyes de la robótica de Asimov. Un estudio llamativo que vuelve a poner de manifiesto que deberemos ir preparándonos para un futuro (lejano, probablemente) en el que las máquinas y los robots tengan mucha más autonomía.

Vía | IEEE Spectrum
Más información | HRILab
En Xataka | La primera ley de la robótica de Asimov puede dejar paralizados a los robots

Comentarios cerrados
Inicio