ChatPaper.aiChatPaper

AlphaStar Offline: Grootschalige Offline Reinforcement Learning

AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning

August 7, 2023
Auteurs: Michaël Mathieu, Sherjil Ozair, Srivatsan Srinivasan, Caglar Gulcehre, Shangtong Zhang, Ray Jiang, Tom Le Paine, Richard Powell, Konrad Żołna, Julian Schrittwieser, David Choi, Petko Georgiev, Daniel Toyama, Aja Huang, Roman Ring, Igor Babuschkin, Timo Ewalds, Mahyar Bordbar, Sarah Henderson, Sergio Gómez Colmenarejo, Aäron van den Oord, Wojciech Marian Czarnecki, Nando de Freitas, Oriol Vinyals
cs.AI

Samenvatting

StarCraft II is een van de meest uitdagende gesimuleerde omgevingen voor reinforcement learning; het is gedeeltelijk observeerbaar, stochastisch, multi-agent, en het beheersen van StarCraft II vereist strategische planning over lange tijdshorizonten met real-time uitvoering op laag niveau. Het heeft ook een actieve professionele competitiescene. StarCraft II is bij uitstek geschikt voor het bevorderen van offline RL-algoritmen, zowel vanwege zijn uitdagende aard als omdat Blizzard een enorme dataset heeft vrijgegeven van miljoenen StarCraft II-spellen die door menselijke spelers zijn gespeeld. Dit artikel maakt daar gebruik van en stelt een benchmark vast, genaamd AlphaStar Unplugged, die ongekende uitdagingen introduceert voor offline reinforcement learning. We definiëren een dataset (een subset van Blizzard's release), tools die een API standaardiseren voor machine learning-methoden, en een evaluatieprotocol. We presenteren ook baseline-agents, waaronder behavior cloning, offline varianten van actor-critic en MuZero. We verbeteren de state of the art van agents die alleen offline data gebruiken, en we behalen een winstpercentage van 90% tegen de eerder gepubliceerde AlphaStar behavior cloning-agent.
English
StarCraft II is one of the most challenging simulated reinforcement learning environments; it is partially observable, stochastic, multi-agent, and mastering StarCraft II requires strategic planning over long time horizons with real-time low-level execution. It also has an active professional competitive scene. StarCraft II is uniquely suited for advancing offline RL algorithms, both because of its challenging nature and because Blizzard has released a massive dataset of millions of StarCraft II games played by human players. This paper leverages that and establishes a benchmark, called AlphaStar Unplugged, introducing unprecedented challenges for offline reinforcement learning. We define a dataset (a subset of Blizzard's release), tools standardizing an API for machine learning methods, and an evaluation protocol. We also present baseline agents, including behavior cloning, offline variants of actor-critic and MuZero. We improve the state of the art of agents using only offline data, and we achieve 90% win rate against previously published AlphaStar behavior cloning agent.
PDF280February 8, 2026