Polémica por el uso de algoritmos predictivos en Reino Unido: 53 ayuntamientos y 14 fuerzas policiales ya recurren a ellos

Polémica por el uso de algoritmos predictivos en Reino Unido: 53 ayuntamientos y 14 fuerzas policiales ya recurren a ellos
8 comentarios Facebook Twitter Flipboard E-mail

Los algoritmos predictivos y su capacidad para detectar problemas antes de que ocurran tienen múltiples aplicaciones en el campo de la gestión pública, desde el tráfico a las ayudas sociales. Más aún si hablamos de instituciones municipales.

Y en algunos países parecen haberse dado cuenta ya de ello: una reciente investigación, realizada conjuntamente por la Universidad de Cardiff y el canal Sky News, muestra que hasta 53 ayuntamientos y 14 de las 45 fuerzas policiales del país utilizan ya esta polémica tecnología.

Eso ha suscitado cierto debate en el país. Por un lado, los defensores del uso de algoritmos reivindican que un problema que puede predecirse podrá prevenirse con mayor facilidad, mientras que los detractores señalan que no está claro cómo se están utilizando exactamente la enorme cantidad de datos personales que los algoritmos necesitan para realizar sus predicciones.

Algoritmos Predictivos

Esto no es Minority Report

Los investigadores destacan como institución municipal pionera en este campo al Ayuntamiento de Bristol, el cual cuenta con un organismo específicamente dedicado, el Bristol Integrated Analytics Hub.

La misión del mismo es la de recopilar información sobre ingresos, asistencia a la escuela, casos de embarazos adolescentes o de enfermedad mental, etc, a partir de los datos de 54.000 familias locales.

El objetivo es lograr, a partir de dichos datos, predecir qué niños están más expuestos a sufrir casos de violencia doméstica, abuso sexual o situaciones similares.

El sistema funciona asignando una puntuación de 0 a 100 a cada menor, una cifra que indica su valoración de riesgo, y a partir de ahí, proporciona sugerencias a los trabajadores sociales del municipio, de la misma manera en que lo haría un motor de recomendaciones de webs como Amazon o Facebook.

"Nuestra investigación revela una revolución oculta que está teniendo lugar en los servicios públicos del Reino Unido. [...] Existe muy poca supervisión sobre este nuevo campo, ya que ni el gobierno central ni a nivel local se proporciona información sobre cómo se utilizan y cómo se comparten los datos de los ciudadanos".

Según revela el periodista Rowland Manthorpe, cuentan que, a lo largo del reportaje, se encontraron con que el público sigue viendo los algoritmos predictivos a través del prisma de una única obra de ficción: Minority Report. "No quiero decir que todas las personas que conocimos lo mencionaron... pero casi".

¿Y si los funcionarios se creen demasiado lo que dice el algoritmo?

"Por suerte (o por desgracia, depende del punto de vista), la realidad está muy lejos del Pre-Crimen", explica.

Y es que los algoritmos que se emplean los municipios y cuerpos de policía ni tan siquiera, en su mayor parte, inteligencia artificial propiamente dicha, ni llevan a cabo un seguimiento automático: se limitan a realizar sugerencias a los trabajadores municipales.

Según Joanna Redden, codirectora de Justice Data Lab de la Universidad de Cardiff, "la gente tiende a confiar en la computadora; aunque se diga que puede ayudarte a tomar una decisión, en realidad reemplaza a la decisión humana, porque se confía en que siempre estará en lo correcto".

Mientras, las personas afectadas ni siquiera saben que su vida se está viendo afectada por el resultado de un algoritmo.

Los funcionarios y agentes de policía con los que hablaron los autores de la investigación "eran totalmente conscientes del peligro" que supone tomar las decisiones que toman a partir de un mero registro incompleto del pasado de la gente. En palabras de Manthorpe:

"Sentí, de una manera que casi nunca hago cuando hablo con grandes tecnológicas, que estaban alerta ante los riesgos de su propia tecnología.

¿Austeridad 2.0?

Sin embargo, a diferencia de las grandes empresas, los servicios públicos no tienen dinero y cuentan con poco margen de maniobra. [...] Están introduciendo esta clase de programas con la promesa de que reducirán los costes, cuando en realidad deberían estar invirtiendo más para facilitar la transición".

Y es que la conclusión a la que llega Manthorpe es que esta apuesta por los algoritmos tiene poco que ver con la creencia en el potencial de la tecnología para construir un Estado del Bienestar 2.0, y mucho con "automatizar la austeridad":

"Con recortes de más del 40% desde 2010, [...] el potencial de los algoritmos para reducir costos es demasiado atractivo para resistirse".

"Pero, sin las salvaguardas adecuadas, estos sistemas pueden exacerbar las dificultades existentes, al someter a los más pobres y vulnerables a un sistema de disciplina sin transparencia, responsabilidad o, lo que es más importante, humanidad".

Vía | Sky News (y II)

Comentarios cerrados
Inicio