AlphaStar Disconnesso: Apprendimento per Rinforzo Offline su Larga Scala
AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning
August 7, 2023
Autori: Michaël Mathieu, Sherjil Ozair, Srivatsan Srinivasan, Caglar Gulcehre, Shangtong Zhang, Ray Jiang, Tom Le Paine, Richard Powell, Konrad Żołna, Julian Schrittwieser, David Choi, Petko Georgiev, Daniel Toyama, Aja Huang, Roman Ring, Igor Babuschkin, Timo Ewalds, Mahyar Bordbar, Sarah Henderson, Sergio Gómez Colmenarejo, Aäron van den Oord, Wojciech Marian Czarnecki, Nando de Freitas, Oriol Vinyals
cs.AI
Abstract
StarCraft II rappresenta uno degli ambienti di apprendimento per rinforzo simulato più impegnativi; è parzialmente osservabile, stocastico, multi-agente e padroneggiare StarCraft II richiede una pianificazione strategica su lunghi orizzonti temporali con un'esecuzione in tempo reale a basso livello. Inoltre, vanta una scena competitiva professionale attiva. StarCraft II è particolarmente adatto per far progredire gli algoritmi di RL offline, sia per la sua natura impegnativa sia perché Blizzard ha rilasciato un enorme dataset composto da milioni di partite di StarCraft II giocate da giocatori umani. Questo articolo sfrutta tale risorsa e stabilisce un benchmark, chiamato AlphaStar Unplugged, introducendo sfide senza precedenti per l'apprendimento per rinforzo offline. Definiamo un dataset (un sottoinsieme della release di Blizzard), strumenti che standardizzano un'API per metodi di machine learning e un protocollo di valutazione. Presentiamo inoltre agenti di base, tra cui il comportamento clonato, varianti offline di actor-critic e MuZero. Miglioriamo lo stato dell'arte degli agenti utilizzando solo dati offline e raggiungiamo un tasso di vittoria del 90% contro l'agente di clonazione del comportamento di AlphaStar precedentemente pubblicato.
English
StarCraft II is one of the most challenging simulated reinforcement learning
environments; it is partially observable, stochastic, multi-agent, and
mastering StarCraft II requires strategic planning over long time horizons with
real-time low-level execution. It also has an active professional competitive
scene. StarCraft II is uniquely suited for advancing offline RL algorithms,
both because of its challenging nature and because Blizzard has released a
massive dataset of millions of StarCraft II games played by human players. This
paper leverages that and establishes a benchmark, called AlphaStar Unplugged,
introducing unprecedented challenges for offline reinforcement learning. We
define a dataset (a subset of Blizzard's release), tools standardizing an API
for machine learning methods, and an evaluation protocol. We also present
baseline agents, including behavior cloning, offline variants of actor-critic
and MuZero. We improve the state of the art of agents using only offline data,
and we achieve 90% win rate against previously published AlphaStar behavior
cloning agent.