Investigadores del MIT crean un método para reducir automáticamente el sesgo racial en las tecnologías de reconocimiento facial

Investigadores del MIT crean un método para reducir automáticamente el sesgo racial en las tecnologías de reconocimiento facial
7 comentarios Facebook Twitter Flipboard E-mail

La semana pasada, la congresista estadounidense Ocasio-Cortez volvía a poner sobre la mesa mediática la polémica en torno al sesgo racial de los algoritmos de inteligencia artificial, específicamente los de reconocimiento facial.

En su intervención, la congresista afirmaba que "si no arreglas el sesgo [del humano que desarrolla el algoritmo], lo único que estás haciendo es automatizar [el sesgo]. Y eso es aún más peligroso".

Pero, ¿y si no fuera así? ¿Y si la IA pudiera contar con un mecanismo que permitiera no sólo detectar su propio sesgo sino también de ponerle remedio? Es decir, de automatizar el arreglo del sesgo.

Un algoritmo para hacernos la autocrítica

Casi al mismo tiempo, que Ocasio-Cortez generaba titulares en torno a este problema, un equipo de científicos del Computer Science and Artificial Intelligence Laboratory del MIT publicaba una posible solución al mismo, en la que llevaban un tiempo trabajando.

Su propuesta consiste en un algoritmo capaz de detectar y reducir el sesgo de un sistema de reconocimiento facial 'remuestreando' rápidamente los datos con los que se le entrena, y asegurándose así de que se adapta a una gama más amplia de grupos humanos. Según explican en la presentación de su 'paper',

"nuestro algoritmo fusiona la tarea original de aprendizaje con un codificador automático variacional destinado a evaluar la estructura latente dentro del conjunto de datos, y luego usa de manera adaptativa las distribuciones latentes detectadas con el fin de reevaluar la importancia de ciertos aspectos de los datos durante el entrenamiento".

Pilot Parliaments Benchmark Ejemplos extraídos del Pilot Parliaments Benchmark. Imagen de Joy Buolamwini (vía MIT Media Lab).

Los investigadores no prometen que su tecnología vaya a poder eliminar todos los posibles sesgos, pero la repercusión de su uso puede ser ciertamente significativa: en las pruebas que realizaron, el sistema de MIT redujo el "sesgo categórico" en un 60% sin que ello afectase a la precisión del reconocimiento facial.

Los investigadores realizaron las pruebas recurriendo al 'Pilot Parliaments Benchmark', un dataset creado 'ex profeso' en 2017 para evaluar los sesgos de género y raciales detectados en algunos de los datasets más usados en aquel momento: se compone de fotos de políticos de los parlamentos con mayor paridad de género tanto de Europa como de África.

Posiblemente, las aplicaciones y dispositivos con funciones de reconocimiento facial que usamos (o que usan sobre nosotros) en nuestro día a día tarden todavía un tiempo en implementar esta solución o alguna similar. Pero una vez que lo haga su efecto se hará notar, sobre todo, legitimando socialmente el uso de la biometría por parte de las fuerzas de seguridad.

Vía | Engadget

Comentarios cerrados
Inicio