Investigo en robótica e inteligencia artificial y así intento que no sea usada para el mal

Investigo en robótica e inteligencia artificial y así intento que no sea usada para el mal

3 comentarios Facebook Twitter Flipboard E-mail
Investigo en robótica e inteligencia artificial y así intento que no sea usada para el mal

Se llama Laurence Devillers y es profesora de informática aplicada a las ciencias sociales en la Universidad de La Sorbona (París). Investiga en aprendizaje automático, modelado de emociones e interacción entre personas y máquinas en el CNRS, lo que viene a ser el CSIC español. Además es miembro de la Comisión francesa para la reflexión sobre la Ética de la Investigación en Ciencia y Tecnología digitales (CERNA).

Con este currículo, no es de extrañar que gran parte del trabajo de Devillers se centre en analizar y afrontar los aspectos éticos del desarrollo de robots afectivos y de la interacción social con máquinas , incluidos entre ellos la seguridad, la privacidad y la fiabilidad del comportamiento del robot. "Estos aspectos son cada vez más discutidos. Es necesario que el desarrollo científico y tecnológico se combine con un pensamiento ético más amplio para asegurar la armonía y la aceptabilidad de su relación con los seres humanos", asegura en conversación con Xataka a raíz de su visita a España para participar en la conferencia 'Inteligencia artificial y emocional' organizada por el Instituto Francés de España.

En su grupo de investigación en el CNRS -el Laboratorio de Informática para la Mecánica y las Ciencias de la Ingeniería, LIMSI- su objetivo es entrenar a máquinas 'inteligentes' para que sean capaces de lidiar con las dimensiones afectivas y sociales en la interacción con los humanos que viven en un espacio físico y social. Esto puede tener aplicaciones en ámbitos como la salud y los cuidados, la seguridad, la educación o el entretenimiento.

Robot Afectivo

Los principales temas de estudio en esta área son la identificación de las emociones, la ansiedad y las pistas sociales en la interacción entre humanos y robots, basándose en indicios verbales y no verbales y en el perfil del usuario. La científica critica que en este ámbito de investigación se ha descuidado el papel de la voz y el habla, en favor de otros aspectos como las expresiones faciales o los gestos. "Existe una tendencia dentro del área de la computación orientada a las emociones a utilizar datos emocionales muy exagerados y antinaturales presentados por los actores. Esta estrategia no es efectiva, ya que las formas de expresión que ocurren en las interacciones naturales son sustancialmente diferentes de aquellas que generan los actores", explica.

Su equipo afronta el desafío de encontrar, anotar y analizar bases de datos con datos emocionales de la vida real. Algo que su grupo ha hecho a partir de consultas financieras, llamadas de atención médica e interacciones entre humanos y robots. Mediante sistemas de aprendizaje automático de detección de emociones han logrado identificar distintos niveles de miedo, de enfado, de tristeza y de sentimientos positivos.

Entre sus principales conclusiones: para que la respuesta de un robot social afectivo sea relevante no debe tener en cuenta solo las emociones puntuales: también debe tener una representación del perfil emocional y de los patrones de interacción del usuario. Así podrán, por ejemplo, predecir qué comportamiento específico tiene más posibilidades de satisfacerle.

Manipulación

¿Y qué tiene todo esto que ver con la ética? Para empezar, el investigación se circunscribe a algo tan sensible como las emociones. Para seguir, el acceso y detección de esta información, la recopilación de datos y su uso y análisis plantea dilemas sobre cuál es la forma adecuada -no solo legal- de llevar a cabo el proceso. Y, por supuesto, la aplicación de sistemas basados en el conocimiento del perfil emocional de los usuarios a un nivel profundo plantea la duda de hasta qué punto dichas tecnologías pueden usarse para manipular a las personas.

De hecho, la 'economía conductual' muestra que, efectivamente, es posible moldear la conducta de los individuos incluso de formas tan simples como disminuir en un solo céntimo el precio de un producto para que en vez de costar 300 euros cueste 299. Tomamos decisiones supuestamente racionales no lo son tanto, ya que están condicionadas por 'sesgos cognitivos' de los que no somos conscientes.

Esto lo que han demostrado a lo largo de la historia premios Nobel como Daniel Kahneman, el primer no economista y psicólogo nombrado como Nobel de Economía. Hace apenas un año, le siguió Richard Thaler, también pionero en el campo de la economía del comportamiento. Devillers cita una de las frases de Thaler en su superventas Un pequeño empujón: El impulso que necesitas para tomar mejores decisiones sobre salud, dinero y felicidad: "Si una opción se designa como la opción 'por defecto', atraerá una gran cuota de mercado. Este tipo de opciones actúan como poderosos empujones".

Visto así, parece obvio, ¿verdad? Y, si es tan sencillo como parece, (a veces lo es) los sistemas afectivos -dice la investigadora- podrían manipularnos detectando nuestras emociones y embaucándonos para que compremos algo o actuemos de una determinada manera en base a esos sesgos cognitivos que todos tenemos.

Humanoides traicioneros

Un ejemplo de lo que Devillers considera "engañoso" y potencialmente manipulador en el ámbito de la robótica son robots humanoides como Sophia (Hanson Robotics), una robot conocida por haber obtenido la ciudadanía en Arabia Saudita (donde goza de más derechos que las mujeres reales que viven allí). La científica lamenta que Sophia haya sido incluso presentada oficialmente en la ONU como 'ponente' en un evento sobre inteligencia artificial y desarrollo sostenible, contribuyendo así a la pantomima.

"Estoy en contra de estos robots, que se diseñan con la intención de reemplazar a los seres humanos", afirma Devillers. Critica también otros productos disponibles en el mercado asiático como una asistente virtual femenina en forma de holograma que se comporta como una novia y espera en casa a su 'novio' (el usuario que ha comprado el producto) con ropa sexy y palabras dulces para que no se sienta solo.

Además del hecho de situar a la mujer como objeto cuyo único fin es complacer al hombre, la científica ve un creciente riesgo de aislamiento social. La visión de una sociedad compuesta por individuos que renuncian a relacionarse con las personas a cambio de la recompensa rápida -aunque efímera y superficial- que proporcionan artículos como la asistente virtual aterra a Devillers. Por eso considera que debe establecerse una regulación internacional que ponga coto a este tipo de productos, entre los que incluye también a los robots sexuales.

La investigadora insiste en que "hay que razonar la tecnología". No dice que sea incorrecto que haya robots que se parezcan a los humanos pero cree que esto puede hacerse sin recurrir a androides o a clones. Otros científicos de referencia en inteligencia artificial como Stuart Russell también están en contra de esta tendencia, y proponen soluciones como una ley que establezca que todos los robots deban tener cuatro patas. Algo que -dice Russell- es mejor desde un punto de vista práctico, ya que proporciona estabilidad y permite cargar más peso.

Ética por diseño

Los frentes abiertos son muchos y Devillers asegura que "es urgente trabajar en esto". ¿Cómo?

Desarrollando máquinas y aplicaciones que sean 'éticas por diseño'. Es lo que trata de hacer la científica en su proyecto más actual: Bad Nudge-Bad Robot?. Plantea el hecho de que los objetos conectados, específicamente agentes conversacionales como Google Home o Amazon Echo, aportan una nueva dimensión a la interacción y podrían convertirse en un medio para influir en las personas. "Actualmente no están regulados, ni están siendo evaluados, y su funcionamiento es una caja negra", afirma la científica.

A través del estudio de los 'nudges' -es decir, las técnicas para modificar el comportamiento de las personas de las que habla Richard Thaler- el grupo de Devillers y un equipo de Economía Digital del laboratorio RITM de la Universidad de París-Sur busca resaltar la importancia de la ética en la creación de estos objetos. Ponen, además, el acento en los desarrolladores: "Los robots no tienen personalidad real, son chapa. No tienen deseos, ni placer, ni voluntad, ni ética; son los diseñadores los que la introducen en ellos", afirma Devillers.

Laurence con robot

Un ejemplo claro de los dilemas a los que se enfrentan los ingenieros está en el desarrollo de los vehículos autónomos y el conocido experimento de la 'Máquina de la moral' (Moral machine) del Instituto Tecnológico de Massachusetts (MIT). Dicho experimento -como explica Javier Jiménez en este artículo en Xataka- rescata el 'dilema del tranvía' planteado por la filósofa Philippa Foot en 1967 para tratar de resolver la cuestión de a quién salvar en caso de accidente inevitable.

Ante la dificultad -o práctica imposibilidad- de consenso, Devillers cree que lo mejor es que el coche decida al azar. "No creo que pueda haber una responsabilidad única ni del diseñador, ni de la máquina, ni de la persona, en caso de que esta tenga la posibilidad de tomar el control", afirma. Cree que esto tampoco será un factor diferencial entre unas compañías de automoción y otras sino que todas formarán parte del sistema de la ciudad y se regirán por él. Señala, además, que con estos vehículos "ganaremos bienestar, perderemos estrés al volante y habrá muchas menos muertes".

Estas y otras tantas derivadas de la inteligencia artificial (que en realidad no es tan inteligente) ponen de manifiesto -opina la investigadora- la necesidad de reforzar la deontología de los investigadores y desarrolladores , que respondan a mandatos éticos. "Debemos ser capaces de tener valores comunes. Si no lo intentamos, estaremos rodeados de objetos que nos manipularán al servicio de sus soberanos", asegura la científica, que cita el ejemplo del Reglamento General de Protección de Datos europeo (RGPD) como "un gran paso adelante". "Hay que regular -en pro de la transparencia- para evitar una gobernanza antidemocrática", sostiene.

La investigadora cree que esta conversación se tiene que dar en la esfera pública e incluir en ella a filósofos, antropólogos y sociólogos. "Es urgente pensar el impacto de todo esto en el nivel de conciencia social, de capacidad de denuncia y de libertad para usar los objetos sin ser manipulados", asegura. "¿Qué es lo que queremos mantener? No hablo de poner puertas al campo sino de decidir en qué sociedad queremos vivir", añade.

Devillers cree que esta carta se va a jugar en Europa. Y que por el camino, además, no solo se crearán robots y sistemas de inteligencia artificial más sofisticados sino que podremos analizar quiénes somos como seres humanos y sociales, y conocernos mejor a nosotros mismos.

Comentarios cerrados
Inicio