Google investiga con redes neuronales para mejorar la detección de peatones en tiempo real

Google investiga con redes neuronales para mejorar la detección de peatones en tiempo real
2 comentarios Facebook Twitter Flipboard E-mail

Caltech desarrolla un benchmark para comprobar la eficacia de los sistemas de detección de peatones en tiempo real. Los sistemas tienen que pasar una prueba bastante difícil: "visionar" 10 horas de vídeo grabadas desde un coche. 250.000 frames donde aparecen 2.300 peatones diferentes. Una prueba difícil donde el porcentaje de fallos suele oscilar el 50%. Un dato que demuestra que todavía hay mucho trabajo que hacer para conseguir sistemas eficaces.

Google, con su coche autónomo, es de las que está haciendo más progresos en sus investigaciones relacionadas con la detección automática de peatones en carretera. Esta semana ha presentado un paper en el que explica cómo utilizando redes neuronales es capaz de reducir el porcentaje de fallos a un 26,2%.

Más preciso, pero todavía no es suficiente

Uno de los problemas comunes de la detección de elementos en tiempo real es el conflicto de dos variables: velocidad contra precisión. Por ejemplo, hay sistemas capaces de detectar gente a 100 fotogramas por segundo pero el ratio de aciertos es muy bajo. Google, en este caso ha logrado reducir los fallos en una cantidad considerablemente más lenta pero a la vez suficiente: 15 fps.

Grafica

Según explica Google, conseguir ambos valores es el gran desafío para esta tecnología y con las redes neuronales han logrado mejorar la eficacia sustancialmente. Para hacerlo posible, han usado una GPU Nvidia K20 Tesla. Un componente de altísimo rendimiento pero que dentro del contexto donde se suele utilizar (las supercomputadoras) está dos modelos por debajo del más puntero Nvidia K80.

También hay un modelo entre ambas, la K40. En cualquier caso, resulta interesante que utilizando este nuevo algoritmo en una GPU potente pero no la mejor en su categoría se hayan logrado reducir los fallos a la mitad. Esto nos hace preguntarnos si con los modelos mencionados se podría mejorar todavía más la cifra.

La investigación presentada es un paso más para la detección automática y quienes trabajan en ello creen que todavía hay margen de mejora en el algoritmo que han creado. Las pruebas en el benchmark de Caltech deberían servir además para analizar los fallos y ver dónde ha fallado y cómo se podrían incrementar la precisión.

Comentarios cerrados
Inicio