La inteligencia artificial AlphaStar se proclama 'gran maestro' de Starcraft II en igualdad de condiciones frente a los humanos

La inteligencia artificial AlphaStar se proclama 'gran maestro' de Starcraft II en igualdad de condiciones frente a los humanos
16 comentarios Facebook Twitter Flipboard E-mail

Hace dos años, AlphaGo, una inteligencia artificial desarrollada por DeepMind, derrotaba al mejor jugador de Go del mundo. Pocos meses después, otra IA sucesora de aquella, AlphaZero, lograba batir a humanos en varios juegos de mesa (shogi, go, ajedrez) y además lo hacía tras aprender a jugar compitiendo contra sí misma.

En enero de este mismo año, era la IA AlphaStar la que se hacía con la victoria tras una partida contra un equipo de jugadores profesionales de StarCraft II, un videojuego de estrategia en tiempo real, dotado de una gran complejidad. Pero ahora DeepMind ha actualizado AlphaStar, y ésta ha logrado superar un nuevo hito de la IA.

Nature acaba de publicar el estudio llevado a cabo por los investigadores de DeepMind, en el que demuestran que esta IA ha logrado colarse entre el 0,2% de los mejores jugadores del mundo del clásico de Blizzard, los que ostentan el título de 'Grandmaster'... y lo ha hecho, al contrario que en gestas similares, sometiéndose exactamente a las mismas reglas que los jugadores humanos.

Para ello, la IA veía el mapa de juego a través de una 'cámara' (y no la totalidad del escenario) y se autolimitaba la frecuencia de las acciones para igualarlas con las de un ser humano: 22 acciones no duplicadas cada cinco segundos de juego, para alinearlo con el movimiento humano estándar. Además, lo ha hecho jugando a través del servidor oficial, Blattle.net, sin ningún tipo de adaptación o personalización.

Las maravillas del aprendizaje por refuerzo

"AlphaStar ha logrado el nivel de gran maestro sólo con una red neural y algoritmos de aprendizaje de propósito general que eran inimaginables hace solo diez años, cuando investigaba inteligencias artificiales para StarCraft basadas en sistemas de reglas", afirma el español Oriol Vinyals.

Vinyals, quien hace unos años fuera "un jugador bastante serio" de StarCraft, según sus propias palabras, es hoy en día el responsable del equipo de investigadores de DeepMind que han desarrollado AlphaStar, y que han logrado perfeccionar la técnica que inauguró AlphaGo Zero: el aprendizaje por refuerzo.

Éste permite que la máquina aprenda a alcanzar una desempeño excelente en juegos a fuerza de jugar millones de partidas contra sí misma, en lugar de aprender del análisis de partidas jugadas por humanos, como hiciera el primer AlphaGo. El objetivo de la IA es maximizar la recompensa esperada, y toma nota de las tácticas que mejor contribuyen a dicho objetivo, para replicarlas después.

Al entrenar dentro de simulaciones, AlphaStar ha podido pasar jugando el equivalente a cientos de años en unos pocos de nuestros meses, antes de 'salir' a Internet a jugar contra humanos de forma anónima.

"El sistema muestra mucha habilidad a la hora de saber cuándo enfrentarse a un enemigo o no hacerlo [pero] no parece situado más allá del nivel que un humano podría alcanzar", afirman los jugadores del Team Liquid, uno de los equipos profesionales de jugadores de este videojuego. "Todavía es posible encontrar algunas debilidades en el sistema", añaden, lo que explica que la IA aún perdiera algunas partidas contra humanos.

Jugadores de Starcraft
Jugadores de Starcraft durante la Gamescom 2017. Autor: 'dronepicr' en Flickr

Desde DeepMind, afirman que las técnicas desarrolladas para convertir a AlphaStar en uno de los mejores jugadores de StarCraft II del mundo pueden servir a partir de ahora para ofrecer aplicaciones reales mediante del uso de IAs capaces de trabajar "en medios complejos, dinámicos y con múltiples actores".

Vía | The Verge

Imagen | Marco Verch

Comentarios cerrados
Inicio