Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen

Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen
15 comentarios Facebook Twitter Flipboard E-mail

Tres investigadores belgas, de la Universodad de Lovaina, han desarrollado un medio (basado en la técnica conocida como de 'muestras antagónicas') para engañar a las cámaras de vigilancia equipadas con inteligencia artificial y lograr que no sean capaces de reconocer a personas en la imagen.

"La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que [...] generan una alarma cuando una persona entra en el campo de visión de una cámara".

¿Qué son las 'muestras antagónicas'?

El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial. El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta ciertamente difícil saber, por ejemplo, por qué una red identifica a una persona como tal.

Fundamentalmente, la red neuronal aprende cuál es el aspecto de una persona "en abstracto" viendo muchas fotos de personas reales. Y si queremos evaluar su efectividad, no tenemos más opción que someter las mismas imágenes a dos procesos de clasificación paralelos: por parte de CNNs y de humanos.

Pero esto presenta un problema: en esas evaluaciones no se utilizan imágenes diseñadas específicamente para engañar al sistema; lo que llamamos muestras antagónicas, que incorporan patrones específicos que no engañan al ojo humano pero sí a las redes neuronales responsables de la visión artificial.

Así, ha sido posible diseñar simples pegatinas capaces de confundir al piloto automático de un Tesla acerca de en qué carril se encuentra. O, más sorprendentemente, hacer pasar una tortuga de plástico por una escopeta.

Así se ve...

Wiebe Van Ranst, uno de los investigadores, afirmó que se pueden desarrollar parches aún más fiables teniendo acceso a imágenes de la cámara de vigilancia que se busca burlar, pues así es posible personalizarlos. En HackerNews, los usuarios han probado a especular sobre la clave del funcionamiento de este método:

"El hecho de que el parche deba colocarse alrededor de la cintura podría indicar que la transición camisa/pantalón es importante para el algoritmo. Tendría sentido, dado que los datos de entrenamiento posiblemente estén llenos de personas vestidas".

Otros usuarios destacan que, al contrario que el patrón de camuflaje CV Dazzle (antirreconocimiento facial), el usado en esta investigación parece "práctico" y se ve "totalmente normal en público".

Al hilo de eso, Van Ranst afirma ahora que su siguiente objetivo es que el parche pueda aplicarse a la propia ropa (por ejemplo, en forma de camiseta) y que sea capaz de confundir a la cámara desde distintos ángulos. Aunque reconoce que, para lograr eso, aún tienen trabajo por delante.

Vía | Arxiv.org

Comentarios cerrados
Inicio