Compartir
Publicidad

El experimento de la máquina moral: cómo los coches autónomos van a acabar por explicarnos por qué no nos ponemos de acuerdo

El experimento de la máquina moral: cómo los coches autónomos van a acabar por explicarnos por qué no nos ponemos de acuerdo
44 Comentarios
Publicidad
Publicidad

Un tren, una muerte inevitable y una decisión inaplazable: en 1967, Philippa Foot creó el "trolley problem", un experimento mental que ha sido oro puro a la hora de indagar en torno a nuestras intuiciones morales durante este medio siglo. Lo que no sabía Foot es que iba a ser clave, también, para el futuro del coche autónomo.

Durante los últimos años, un grupo de científicos liderados por el MIT ha preguntado a millones de personas cosas como "¿Qué vida debe proteger un coche autónomo la de sus ocupantes, la de los peatones o la de los ocupantes de otros coches? ¿De qué depende esa elección? ¿De la edad, del género, del número o de la especie de los implicados?"

Hoy, por fin, salen los resultados definitivos del experimento de la máquina moral y sus conclusiones son cristalinas: más allá de lo muy básico, los seres humanos no tenemos una base ética común.

Entre el bien y el mal

Chastagner Thierry 760085 Unsplash

Las más de 40 millones de decisiones de 233 países distintos son, casi con toda seguridad, el atlas moral más desarrollado que tenemos hoy en día. Los investigadores de 'Moral machine' se plantearon la necesidad de permitir "al público participar en una discusión social" tan importante como esta.

Además, era una oportunidad única para "recopilar datos e identificar qué factores piensan las personas que son importantes" a la hora de que los coches autónomos tomen decisiones de vida o muerte. La sorpresa es que, según publican hoy en Nature, no parece que estemos de acuerdo entre nosotros mismos.

The Trolley Problem Svg

En un principio, los investigadores encontraron que hay algunos aspectos generales en los que parece que todos los seres humanos estamos más o menos de acuerdo: salvar vidas humanas antes que salvar vidas animales; proteger al mayor número de personas posibles; u optar por personas que siguen las normas frente a los que se las saltan.

Pero lo interesante es que una vez que indagamos en esos consensos, desaparecen. Más aún, aunque los investigadores no encontraron diferencias significativas por edad, educación, género o ingresos, sí las encontraron entre grupos culturales distintos.

Por ejemplo, en las preguntas de 'Moral Machine' las personas que forman parte de las culturas del extremo oriente son sistemáticamente más protectoras de las personas mayores que las personas inculturadas en sociedades occidentales o en los países del sur. De hecho, casi todos los criterios morales muestran diferencias culturales más o menos significativas.

Sobre todo, si tenemos que programar las decisiones éticas de una máquina.

Ética para robots (y para personas)

self

Estos datos nos devuelven a la casilla de partida. Los investigadores del MIT se preguntan sobre cómo estos datos van a informar el desarrollo de los sistemas de conducción autónoma, pero esa es una pregunta que aún no tiene respuesta. Pero que se han propuesto abordar con todos los datos que sea posible recoger.

Llevamos décadas discutiendo sobre si somos capaces de encontrar un método con el justificar principios morales capaces de solucionar conflictos éticos como estos que nos ocupan. No está siendo sencillo, pero con la automatización de la sociedad se vuelve cada vez más urgente.

Sea como sea, el experimento tiene ya un resultado positivo: ha conseguido incluir a más de cuatro millones de personas en un debate técnico y moral que puede redefinir gran parte de nuestra vida diaria. La 'Moral machine' ahora somos nosotros.

Temas
Publicidad
Publicidad
Publicidad
Inicio