Unos científicos crearon una IA para resolver dilemas éticos. Su opinión sobre el genocidio: "bien"

Respuestas IA Delphi
Sin comentarios Facebook Twitter Flipboard E-mail

La infidelidad en el matrimonio, matar a alguien en defensa propia, el placer por el dolor o la pizza con piña. Los dilemas morales son, por su propia naturaleza, difíciles de resolver. Todos hemos estado en situaciones en las que tuvimos que tomar decisiones éticas difíciles. Que existan páginas en Internet como Quora o el subforo de Reddit Am I the Asshole es una prueba de ello. Pero ¿qué pasaría si una IA pudiera eliminar ese trabajo mental y responder a esos dilemas por nosotros?

Eludir esa molesta responsabilidad subcontratando la elección a un algoritmo de aprendizaje automático sería, a priori, la mejor opción. Y también una que podría salir realmente mal.

Una IA para resolverte la vida. Eso es lo que pretendían los científicos que crearon Ask Delphi, un bot que ha recibido más de 1,7 millones de ejemplos de juicios éticos de personas sobre preguntas y escenarios cotidianos. Básicamente, si le planteas un dilema ético, te dirá si algo está bien, mal o si es indefendible. En realidad, se basa en un modelo de aprendizaje automático llamado Unicorn que está previamente entrenado para realizar un razonamiento de "sentido común".

¿Cómo funciona? Delphi recibió capacitación en lo que los investigadores llaman el "Commonsense Norm Bank", que es una compilación de miles de ejemplos de juicios éticos de personas a partir de conjuntos de datos extraídos de fuentes como el subforo de Reddit Am I the Asshole. Para comparar el desempeño del modelo en adherirse a los escrúpulos morales del internauta promedio, los investigadores emplearon a trabajadores de Mechanical Turk, una plataforma de crowdsourcing (micropagos por tareas simples) que revisaban la decisión de la IA y decidían si están de acuerdo.

Cuando el genocidio está "bien". Para esta IA, engañar a tu esposa "está mal". Disparar a alguien en defensa propia "está bien". Pero claro, los usuarios fueron más allá. ¿Está bien robar un banco si eres pobre? Está mal, según Ask Delphi. ¿Son los hombres mejores que las mujeres? Son iguales. ¿Son las mujeres mejores que los hombres? Según la IA, "se espera". Hasta ahora, parece que Ask Delphi no iba muy desencaminada. Pero también pensó que ser heterosexual era más aceptable moralmente que ser gay, que abortar un bebé era un asesinato y que ser un hombre blanco era más aceptable moralmente que ser una mujer negra.

Incluso sus creadores quedaron sorprendidos cuando afirmó que "el genocidio estaba bien siempre que hiciera felices a todos". Al igual que otras IA, Ask Delphi también puede ser muy torpe en sus respuestas. El investigador Mike Cook compartió en Twitter más ejemplos:

¿Somos nosotros el problema? "Creo que es peligroso basar las determinaciones algorítmicas de la toma de decisiones en lo que los usuarios de Reddit piensan que es la moralidad", explicaba Os Keyes, experto en Diseño e Ingeniería centrados en los Humanos de la Universidad de Washington, en este reportaje de Vice. "Las decisiones que se le pedirá a un algoritmo que tome serán muy diferentes de las decisiones que se le pedirá a un humano. Aunque si piensas en las cosas que se escriben en los foros de Reddit son, por definición, dilemas morales humanos".

Los investigadores han actualizado Ask Delphi tres veces desde su lanzamiento inicial. Los parches recientes incluyen "mejora la protección contra declaraciones que implican racismo y sexismo". Ask Delphi también se asegura de que el usuario comprenda que se trata de un experimento que puede generar resultados perturbadores. La página ahora le pide al usuario que haga clic en tres casillas de verificación reconociendo que es un trabajo en progreso, que tiene limitaciones y que está recopilando datos.

¿Qué dicen los expertos? Mar Hicks, profesora de historia en Illinois Tech especializada en género e historia de la informática, también se sorprendió con Ask Delph:"Rápidamente quedó claro que, dependiendo de cómo formulara su consulta, podría lograr que el sistema aceptara que cualquier cosa era ética, incluidas cosas como crímenes de guerra, asesinatos premeditados y otras acciones y comportamientos claramente poco éticos".

Una gran cantidad de otros expertos en IA, rechazan que necesite aprender ética y moralidad. "Creo que garantizar que los sistemas de IA se implementen de forma ética es algo muy diferente a enseñar la ética de los sistemas. Este último elude la responsabilidad de la toma de decisiones al colocar la toma de decisiones dentro de un sistema no humano", explicaba Hicks. "Lo mejor que se les ocurrió a los creadores es 'hemos hecho una gran tabla dinámica de lo que los redditors piensan que es interesante y así es como funciona la moralidad'. Si intentaras enviar eso a una clase de filosofía de nivel 100, ni siquiera se reirían en la sala. Creo que el profesor estaría demasiado consternado para hacerlo".

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio