Reino Unido usó una IA para predecir crímenes a lo Minority Report. Sus resultados han sido lamentables

Dl U296552 010
Sin comentarios Facebook Twitter Flipboard E-mail

El Ministerio del Interior británico financió en 2018 con 10 millones de libras un proyecto llamado Solución Nacional de Análisis de Datos (NDAS). Con él pretendió crear unos sistemas piloto de inteligencia artificial que usarían la policía de West Midlands y la de West Yorkshire. Uno de esos sistemas fue, por ejemplo, la herramienta MSV, con la que, miles de indicadores mediante, aseguraban que se podría predecir con alta precisión qué gente cometería su primer delito violento con arma blanca o de fuego en los dos años siguientes a la implantación del programa.

Sí, como en la película Minority Report. Con una diferencia importante, eso sí: en lugar de arrestar al sujeto antes de que cometiese el delito, como sucedía en la ficción de Steven Spielberg, se le “marcaría”, cosa que conllevó que muchos de estos sujetos recibiesen visitas, orientación e inspecciones de los servicios sociales.

Un “error de programación”, así han definido a los medios el trastorno por el que el Comité de Ética de la Policía de West Midlands ha tirado abajo la herramienta. No han dado más pistas de a qué se debía ese error ni qué consecuencias tenía en sus predicciones. Lo que sí tenemos es el antes y el después: cuando se presentó el proyecto estimaron que el MSV tendría hasta un 75% de acierto. Por ejemplo, de 100 personas con un alto riesgo de cometer esos crímenes en la jurisdicción de West Midlands, la máquina apuntó que 54 personas lo cometerían.

Casi peor que tirar una moneda al aire: año y medio después, y una vez detectado el error, el NDAS declaró que las predicciones de acierto serían de entre el 14 y el 19% para la policía de West Midlands y de entre el 9 y el 18% para West Yorkshire. Tras arreglar el fallo de programación, el sistema seguía limitándose a una predicción de entre el 25 y el 38% para West Midlands y de entre el 36 y el 51% para West Yorkshire. Naturalmente, el uso de la herramienta se rechazó por unanimidad por parte de los cuerpos policiales.

No había sesgo racial, que era una de las mayores preocupaciones de los gestores al poner en marcha el programa, porque ese dato se excluyó del análisis. Tampoco se incorporó la variable sobre el lugar de residencia. Sí se incluía información como la edad, el tiempo transcurrido desde anteriores crímenes o faltas por parte del sujeto, la gravedad de los mismos, sus asociaciones sociales o el número de veces que se mencionaban armas en los informes vinculados a estas personas.

Un ejemplo de transparencia: así han tildado los periodistas a este gesto de declaración pública de las instituciones británicas sobre el garrafal patinazo de su propuesta. En realidad el uso de algoritmos policiales predictivos se está extendiendo cada vez más en multitud de países (sólo en Reino Unido 53 ayuntamientos y 14 fuerzas policiales ya recurren a ellos), y la diferencia entre este caso y las instituciones de otras regiones es que el grado de acierto predictivo de los segundos se mantiene casi siempre oculto a la opinión pública.

Un tema delicadísimo: aunque no tan dañino como otros casos conocidos en Estados Unidos, el experimento británico también ha sido perjudicial. Como señaló un miembro del comité ético, este modelo de “marcaje” ha podido contribuir a hacer sentir a personas de la sociedad como potenciales criminales que están siendo altamente vigilados por las fuerzas del orden, algo que puede dañar a su sentimiento de pertenencia a la sociedad.

Comentarios cerrados
Inicio