¿Puede un algoritmo ser justo aunque el mundo no lo sea?

¿Puede un algoritmo ser justo aunque el mundo no lo sea?
9 comentarios Facebook Twitter Flipboard E-mail

El año pasado nos preguntábamos si los algoritmos podían ser racistas. Bajo la apariencia de neutralidad que da la informática, cada vez se hace más evidente que los resultados de los algoritmos que nos rodean pueden ser xenófobos, sexistas o discriminatorios de alguna otra forma.

Hay ejemplos a docenas: reconocimientos de voz que no entienden bien a las mujeres o sistemas de predicción del crimen que refuerzan las prácticas policiales discriminatorias. Internet era el 'mayor nivelador social' de la historia, pero se está convirtiendo en algo que apuntala la discriminación y la desigualdad. Así que lo que se están preguntado los científicos es si esto es inevitable o si podemos enseñar igualdad de oportunidades a los algoritmos.

¿Es la discriminación inevitable?

Segregation 1938b

"Las decisiones basadas en aprendizaje automático pueden ser a la vez increíblemente útiles y tener un enorme impacto en nuestras vidas [...] Esto hace necesario que empecemos a desarrollar metodologías que prevengan este tipo de discriminación", explicaba hace unos meses Mortiz Hardt, programador de Google que acaba de presentar una metodología para eliminar estos sesgos en el NIPS 2016 de Barcelona.

La conferencia Neural Information Processing Systems es una de las grandes reuniones internacionales sobre algoritmos y procesamiento de información. En la edición de este año el tema de la discriminación algorítmica ha sido muy debatido. Y no es para menos: una vez que el potencial de estas tecnologías se ha hecho patente, los problemas sociales empiezan a ser muy importantes.

Si queremos hacer frente a estos problemas, como decía Nathan Srebro, de la Universidad de Chicago, hay que conseguir “que no haya sesgos inapropiados en las predicciones estadísticas". Sobre todo, para evitar que esas predicciones estadísticas actúen como 'profecías autocumplidas". Y no parece muy sencillo.

Las tripas de la bestia

Code 1689066 1920

Las técnicas de aprendizaje automático tienen tendencia a desarrollar lógicas, reglas y predicciones bastante opacas para los seres humanos (incluso para los propios programadores). En el fondo, y a diferencia de otras aproximaciones, no trata tanto de entender el problema como de ofrecer soluciones al mismo. Es decir, con estos sistemas, no es sencillo decir por qué una predicción estadística es la que es. Y, por lo tanto, no es sencillo corregirlas sin perder precisamente lo que las hace importantes.

En palabras de Srebro, "a medida que avanzan los desarrollos en aprendizaje automático, lo que estamos haciendo son cajas negras mágicas". Por eso, en lugar de tocar en las tripas del algoritmo, están desarrollando tests que ayuden a los algoritmos a saber si están reportando predicciones discriminatorias.

De esta forma, los sistemas no solo tienen que aprender a entender la voz de las personas, sino a entender por igual a hombres y a mujeres: tienen que poder trabajar con la justicia. A este enfoque lo han llamado "Aprendizaje Supervisado en Igualdad de Oportunidades" e intenta que, cuando un algoritmo tenga que decidir sobre una persona en concreto, sus decisiones no estén sesgadas.

La revolución de los algoritmos

Eugene Delacroix La Liberte Guidant Le Peuple

El campo de la ética robótica es un área en plena ebullición. Como decíamos al principio, los algoritmos de aprendizaje profundo tienen un gran impacto en la sociedad y cada vez tendrá más. Los especialistas coinciden en que no es sólo una cuestión de eficacia, sino también de justicia.

La gran duda de los próximos años es si los algoritmos, de una forma u otra, van a conseguir que se perpetúen las mismas prácticas y problemas que existe hoy por hoy; o, en cambio, van a hacer del mundo un lugar más justo. Y, para conseguir lo segundo, parece que los que luchen contra la desigualdad y la discriminación, los revolucionarios del futuro serán programadores.

Imágenes | Ben Sutherland

Comentarios cerrados
Inicio