ChatPaper.aiChatPaper

AlphaStar Unplugged: Groß angelegtes Offline Reinforcement Learning

AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning

August 7, 2023
papers.authors: Michaël Mathieu, Sherjil Ozair, Srivatsan Srinivasan, Caglar Gulcehre, Shangtong Zhang, Ray Jiang, Tom Le Paine, Richard Powell, Konrad Żołna, Julian Schrittwieser, David Choi, Petko Georgiev, Daniel Toyama, Aja Huang, Roman Ring, Igor Babuschkin, Timo Ewalds, Mahyar Bordbar, Sarah Henderson, Sergio Gómez Colmenarejo, Aäron van den Oord, Wojciech Marian Czarnecki, Nando de Freitas, Oriol Vinyals
cs.AI

papers.abstract

StarCraft II ist eine der anspruchsvollsten simulierten Umgebungen für Reinforcement Learning; es ist teilweise beobachtbar, stochastisch, multi-agentenbasiert, und die Beherrschung von StarCraft II erfordert strategische Planung über lange Zeithorizonte mit Echtzeit-Ausführung auf niedriger Ebene. Es verfügt zudem über eine aktive professionelle Wettkampfszene. StarCraft II eignet sich in besonderer Weise für die Weiterentwicklung von Offline-RL-Algorithmen, sowohl aufgrund seiner herausfordernden Natur als auch, weil Blizzard einen umfangreichen Datensatz mit Millionen von StarCraft II-Spielen, die von menschlichen Spielern gespielt wurden, veröffentlicht hat. Diese Arbeit nutzt dies und etabliert einen Benchmark, genannt AlphaStar Unplugged, der bisher unerreichte Herausforderungen für Offline Reinforcement Learning einführt. Wir definieren einen Datensatz (eine Teilmenge der Veröffentlichung von Blizzard), Tools zur Standardisierung einer API für maschinelle Lernmethoden und ein Evaluationsprotokoll. Wir präsentieren auch Baseline-Agenten, einschließlich Behavior Cloning, Offline-Varianten von Actor-Critic und MuZero. Wir verbessern den Stand der Technik von Agenten, die ausschließlich Offline-Daten verwenden, und erreichen eine Gewinnrate von 90 % gegen den zuvor veröffentlichten AlphaStar Behavior Cloning Agenten.
English
StarCraft II is one of the most challenging simulated reinforcement learning environments; it is partially observable, stochastic, multi-agent, and mastering StarCraft II requires strategic planning over long time horizons with real-time low-level execution. It also has an active professional competitive scene. StarCraft II is uniquely suited for advancing offline RL algorithms, both because of its challenging nature and because Blizzard has released a massive dataset of millions of StarCraft II games played by human players. This paper leverages that and establishes a benchmark, called AlphaStar Unplugged, introducing unprecedented challenges for offline reinforcement learning. We define a dataset (a subset of Blizzard's release), tools standardizing an API for machine learning methods, and an evaluation protocol. We also present baseline agents, including behavior cloning, offline variants of actor-critic and MuZero. We improve the state of the art of agents using only offline data, and we achieve 90% win rate against previously published AlphaStar behavior cloning agent.
PDF270December 15, 2024