Inteligencia artificial para diseñar inteligencia artificial: la redundante y curiosa vía de investigación de Google

Inteligencia artificial para diseñar inteligencia artificial: la redundante y curiosa vía de investigación de Google
15 comentarios Facebook Twitter Flipboard E-mail

Cuando hablamos de procesadores, de nanómetros y demás normalmente mencionamos la intención o el logro de haber conseguido mayor eficiencia y al mismo tiempo que el chip en cuestión necesite menos energía para funcionar. Ésta es una de las múltiples líneas de investigación de Google, y para mejorar sus chips de inteligencia artificial está usando... inteligencia artificial (AI).

Hace algo más de un mes veíamos un robot con AI capaz de aprender a andar por sí solo, una de tantas aplicaciones que los de Mountain View han puesto en práctica con sus tecnologías y algoritmos. Y en esta ocasión lo que intentan es mejorar el diseño de un chip dedicado a AI con ésta misma.

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

Recompensas y castigos: el condicionamiento más tradicional para los chips más modernos

La AI para Google es un componente básico en sus productos. De hecho, sus móviles empezaron a despuntar en fotografía no por número de cámaras (todo lo contrario), si no por tirar de aprendizaje automático y de AI en el procesamiento y realización de las fotografías.

En este caso, como cuentan en MIT Technology Review, han creado un nuevo algoritmo que ha aprendido a optimizar la distribución espacial de componentes en un chip para hacerlo más eficiente. De este modo, lo que pretenden es optimizar esta distribución utilizando un algoritmo de AI para incrementar la eficiencia y reducir el consumo del chip.

Chip 02

La distribución espacial de componentes (lo que se conoce como chip floor planning) es algo muy complejo que se ha diseñado manualmente durante años, buscando minimizar las distancias entre componentes y la cantidad de cable. Se trata de pensar en tres dimensiones y de poner en orden cientos e incluso miles de componentes, en distintas capas y en espacios muy, muy reducidos (recordemos que hablamos de una escala de nanómetros).

Tras este proceso se recurre a software de simulación de diseño electrónico para verificar su rendimiento, lo cual según explican puede costar unas 30 horas por cada diseño de una de las capas. Y éste es uno de los puntos que buscan mejorar con el uso de algoritmos de machine learning, que ya en los últimos años se han utilizado para poder agilizar este proceso de diseño pero con ciertas limitaciones, sobre todo a la hora de optimizar rendimiento, superficie y consumo.

De este modo, el nuevo enfoque que están planteando las investigadoras de Google Anna Goldie y Azalia Mirhoseini es el de que sus algoritmos de aprendizaje por refuerzo usen el feedback positivo y negativo para aprender las tareas más complicadas. Básicamente es algo así como aplicar el condicionamiento operante de Skinner (a quien nos referimos ya al hablar de lo adictos que somos a las recompensas a algoritmos en vez de a mascotas, de manera que las investigadoras diseñaron una "función de recompensa" que "castiga" o "premia" al algoritmo según la eficiencia de su diseño.

Es decir, el algoritmo va creando diseños (decenas, centenares o miles de ellos) en fracciones de segundo y a posteriori se analizan con esta función de recompensa. Tras haber estado probando esto un tiempo, según explican las investigadoras, han visto que bastantes de los diseños creados tenían un desempeño mejor que los creados manualmente por ingenieros (humanos), los cuales a su vez pudieron aprender algunos trucos del proceso automático.

Normalmente un chip tarda en crearse entre dos y cinco años (según explican en MIT Technology Review), en parte por lo duradero de este proceso de diseño. La esperanza es que este algoritmo de aprendizaje por refuerzo permita diseñar más rápidamente y que al final, acelerando el proceso de creación de chips de AI el avance de la misma también se agilice.

Comentarios cerrados
Inicio