Compañías como Amazon, Google o Microsoft se pronuncian contra usar algoritmos para decidir quién sale en libertad condicional

Un consorcio que reúne a la mayores empresas tecnológicas estadounidenses (como Apple, Amazon, Facebook, Microsoft, IBM, Nvidia y Alphabet/Google) con entidades como Amnistía Internacional o Human Rights Watch, hizo público el pasado viernes un informe en el que se posicionaban contra el uso de algoritmos de inteligencia artificial como método de toma de decisiones de carácter penal.

Según esta organización, llamada 'Partnership on AI', las autoridades (jueces, oficiales de libertad bajo fianza o juntas de libertad condicional) deberían abstenerse de recurrir a la IA para decidir quién queda o no en libertad en base a cálculos sobre la posibilidad de reincidir, puesto que se trata de un método potencialmente sesgado, opaco, y lastrado, además, por definiciones poco claras de qué supone "alto riesgo" y "bajo riesgo".

Estas compañías se oponen al uso de ducha tecnología mientras no se regule adecuadamente, pero denuncian que los políticos están empezando a adoptarla de manera generalizada en los Estados Unidos (ha recibido un especial impulso en los últimos meses, tras la aprobación de la First Step Act), y que incluso empieza a ganar adeptos en otros países.

De hecho, las grandes compañías de Silicon Valley se están posicionando cada vez más claramente contra el uso que se le da a los algoritmos predictivos, a pesar del hecho de que ellas mismas han ayudado a desarrollarlos en muchos casos y a que, de hecho, muchas las siguen usando como reclamo publicitario para sus negocios de computación en la nube.

Alice Xiang, investigadora del consorcio, explica que la motivación para realizar este informe radica en que "es en la justicia criminal donde realmente estas preguntas resultan más cruciales, ya que en realidad estamos hablando de tomar decisiones [...] que pueden tener gran ramificaciones para las vidas de los individuos y de otros miembros de su comunidad".

El caso de COMPAS

Uno de los ejemplos más claros de los peligros que denuncian es el algoritmo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) de la compañía Equivant: en 2016, la organización periodística ProPublica denunció que había detectado que COMPAS era el doble de propenso a etiquetar incorrectamente como futuros reincidentes a acusados negros que a blancos.

Posteriores estudios académicos confirmaron que el algoritmo no mostraba mayor precisión en sus estimaciones que en las realizadas por seres humanos sin formación especializada. Y, pese a eso, en muchos lugares se siguió haciendo uso de dicho algoritmo.

Logan Koepke, analista de políticas en Upturn (una organización miembro del Partnership on AI que promueve la equidad en el uso de tecnología digital), el informe "pone de relieve, a nivel estadístico y técnico, cómo de lejos estamos aún de estar preparados para implementar estas herramientas de manera responsable".

Vía | VentureBeat & Bloomberg

Ver todos los comentarios en https://www.xataka.com

VER 6 Comentarios

Portada de Xataka