DeepMind, la inteligencia artificial de Google, ya es capaz de 'recordar' y usar lo aprendido en nuevas tareas

DeepMind ya ha dominado varios juegos de Atari. Para esto se ha necesitado programación especifica para cada juego. Ahora, gracias a un nuevo algoritmo desarrollado por Google, esta plataforma de inteligencia artificial es capaz de usar todo su conocimiento para aprender cómo jugar otro videojuego, sin la necesidad de tener nueva programación.

Desde que Google adquirió DeepMind en 2014 hemos sido testigos de varios avances dentro de esta plataforma de inteligencia artificial. Avances que van desde dominar al campeón mundial de Go, manipular objetos físicos, hasta jugar StarCraft II, e incluso la han "enseñado" a colaborar y competir con otro sistema de IA. Pero hoy estamos ante un nuevo hito, ya que DeepMind está estrenando la capacidad de tener "memoria".

Un vistazo a…
10 APLICACIONES de GOOGLE que PODRÍAN HABER TRIUNFADO

DeepMind sabe lo qué hizo y cómo puede usarlo para el futuro

Los responsables de DeepMind lograron el año pasado que el sistema fuera capaz de derrotar juegos de Atari, incluso superando las puntuaciones de los seres humanos, pero DeepMind no recuerda cómo lo hizo. Para cada juego se desarrollaba una red neuronal basada en la información de cómo jugar y cuál era el objetivo, es decir, una red neuronal entrenada para Space Invaders no era capaz de jugar Pac-Man.

Ahora, un grupo de investigadores del Imperial College London han colaborado con los responsables de DeepMind para desarrollar un nuevo algoritmo llamado 'consolidación de peso elástico' (EWC), el cual permite que las redes neuronales aprendan, retengan esta información, y la vuelvan a usar nuevamente en otras tareas. Dicho algoritmo se basa en secuencias de 'aprendizaje supervisado' y pruebas de 'aprendizaje de refuerzo'.

La capacidad de aprender tareas de forma sucesiva y sin olvidarlas es una capacidad de la inteligencia biológica y artificial, sin embargo, la artificial ha sido incapaz de transferir ese aprendizaje a una nueva tarea. Pero ahora, gracias al EWC la red neuronal será capaz de retener los aspectos clave de su programación, para así aprender una nueva tarea por sí misma sin anular sus conocimientos previos.

A pesar de las bondades de este nuevo algoritmo, las primeras pruebas han arrojado que no es perfecto, ya que a pesar de que las redes neuronales aprenden de sus experiencias y retienen la información, no se comparan con los resultados que ofrece una red neuronal creada especialmente para una tarea. Al menos no hasta el momento.

Más información | Google DeepMind
En Xataka | Google ha enfrentado dos sistemas de inteligencia artificial: ¿lucharán o trabajarán juntos?

Ver todos los comentarios en https://www.xataka.com

VER 13 Comentarios

Portada de Xataka