Los sistemas automatizados de reconocimiento facial están lejos de ser perfectos: en Londres la tasa de error es del 98%

Los sistemas automatizados de reconocimiento facial están lejos de ser perfectos: en Londres la tasa de error es del 98%
13 comentarios Facebook Twitter Flipboard E-mail

Sí, lo sabemos, ningún sistema de reconocimiento facial es 100% preciso, pero el caso de Londres y su flamante tecnología está dejando muchas dudas. Según los datos obtenidos a través de la ley de libertad de Reino Unido, la tecnología de reconocimiento facial automatizada (AFR) utilizada por la Policía Metropolitana de Londres, tiene una tasa del 98% de falsos positivos. La más alta de la que se tiene registro público.

Ante esto, Cressida Dick, comisionada de la Policía Metropolitana del Reino Unido (Met), ha salido a aclarar que hasta el momento el sistema está en etapa de pruebas y que al final "no esperan muchas detenciones" derivadas del uso de esta tecnología. Y asegura, que a día de hoy no se ha arrestado a nadie usando AFR.

"Tecnología casi completamente inexacta"

A pesar de todo esto, la Met sigue defendiendo el uso de esta tecnología alegando que están en fase de pruebas y que mejorará con el paso del tiempo. De hecho, siguen luchando por superar los desafíos legales acerca de la privacidad y el manejo de la información recabada.

La Met asegura que el objetivo detrás de su sistema AFR es usarlo en eventos públicos multitudinarios, como conciertos, festivales y partidos de fútbol. Aquí hay que recodar que hace unos meses esta tecnología se puso a prueba durante la final de la Champions, donde dejó 2.000 falsos positivos.

Vigilancia Londres

La institución menciona que ya han perfeccionado su uso en entornos controlados, como en los puntos de migración en las fronteras, pero aún no logran los mismos resultados en las calles de la ciudad y en lugares públicos. La Met asegura que a día de hoy, el sistema es monitorizado "constantemente" por agentes de policía, y que hasta el momento no han arrestado a ni una sola persona por una falsa coincidencia.

Big Brother Watch, una organización sin fines de lucro que lucha por el derecho a la privacidad, fue quien solicitó los datos al gobierno del Reino Unido, y advierte que esta tecnología fue implementada sin ponerse a debate público. Mencionan que este sistema hará que cualquier sitio se convierta en un punto de control biométrico, lo que afectará los derechos humanos de los individuos y su libre expresión.

Por otro lado, cuando se cuestionó a la comisionada Dick acerca de estos fallos al estar usando tecnología casi completamente inexacta, así como los problemas de privacidad que conlleva, sólo mencionó que estaba "completamente cómoda", ya que al final "es solo una prueba, ¡y es lo que el público querría!".

En Xataka | Las gafas de reconocimiento facial de la policía china han sido un éxito: llegan a nuevas regiones y ahora identifica viajeros

Comentarios cerrados
Inicio