Un nuevo algoritmo del MIT puede diseñar redes neuronales 200 veces más rápido que las técnicas vigentes

Un nuevo algoritmo del MIT puede diseñar redes neuronales 200 veces más rápido que las técnicas vigentes
1 comentario Facebook Twitter Flipboard E-mail

Un equipo de investigadores del MIT ha desarrollado un método que permite entrenar sistemas de aprendizaje automático de manera mucho más eficiente que hasta ahora, reduciendo tiempo y coste, y democratizando el acceso a la inteligencia artificial, permitiendo que investigadores y empresas con pocos recursos automaticen el diseño de redes neuronales.

Cada vez es más frecuente recurrir a algoritmos NAS (siglas en inglés de "búsqueda de arquitectura neuronal) para automatizar el diseño de redes neuronales. Por desgracia, producir una única red neuronal de convolución (dedicada, por ejemplo, a la clasificación de imágenes) puede requerir 48.000 horas de proceso de GPU, incluso para una compañía con acceso a amplios recursos de hardware como es Google.

Pero ahora, en el MIT han logrado programar un algoritmo NAS capaz de realizar esta labor en una pequeña fracción de ese tiempo: tan sólo 200 horas de GPU.

En palabras de Song Han, co-autor de la investigación, su objetivo es "democratizar la inteligencia artificial" y "permitir que expertos y no expertos puedan diseñar arquitecturas de redes neuronales de manera eficiente y optimizada para un hardware específico".

Otros dos miembros del equipo, Han Cai y Ligeng Zhu, avisan de que los algoritmos NAS nunca reemplazarán a los ingenieros humanos: "el objetivo es liberarles del trabajo repetitivo y tedioso que acompaña el diseño y optimización de las arquitecturas de redes neuronales".

"Así, cada red neuronal convolucional se ejecutará de manera más eficiente en plataformas de hardware específicas que las diseñadas por los enfoques tradicionales".

Estos nuevos algoritmos NAS desarrollados por el MIT resultaron ser 1,8 veces más rápidos que la red neuronal convolucional probada en un dispositivo móvil con similar precisión.

A lo largo de la investigación, los científicos fueron desarrollando diferentes formas de eliminar componentes innecesarios del diseño de las redes neuronales, de reducir los tiempos de computación, y de usar un menor porcentaje de la memoria del equipo para ejecutar un algoritmo NAS.

Vía | MIT

Inicio