ChatPaper.aiChatPaper

AlphaStar Desconectado: Aprendizado por Reforço Offline em Grande Escala

AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning

August 7, 2023
Autores: Michaël Mathieu, Sherjil Ozair, Srivatsan Srinivasan, Caglar Gulcehre, Shangtong Zhang, Ray Jiang, Tom Le Paine, Richard Powell, Konrad Żołna, Julian Schrittwieser, David Choi, Petko Georgiev, Daniel Toyama, Aja Huang, Roman Ring, Igor Babuschkin, Timo Ewalds, Mahyar Bordbar, Sarah Henderson, Sergio Gómez Colmenarejo, Aäron van den Oord, Wojciech Marian Czarnecki, Nando de Freitas, Oriol Vinyals
cs.AI

Resumo

StarCraft II é um dos ambientes de aprendizado por reforço simulado mais desafiadores; ele é parcialmente observável, estocástico, multiagente, e dominar StarCraft II requer planejamento estratégico em horizontes temporais longos com execução em tempo real em nível baixo. Ele também possui uma cena competitiva profissional ativa. StarCraft II é especialmente adequado para avançar algoritmos de RL offline, tanto por sua natureza desafiadora quanto porque a Blizzard liberou um conjunto massivo de dados com milhões de partidas de StarCraft II jogadas por humanos. Este artigo aproveita isso e estabelece um benchmark, chamado AlphaStar Unplugged, introduzindo desafios sem precedentes para o aprendizado por reforço offline. Definimos um conjunto de dados (um subconjunto do lançamento da Blizzard), ferramentas que padronizam uma API para métodos de aprendizado de máquina e um protocolo de avaliação. Também apresentamos agentes de linha de base, incluindo clonagem comportamental, variantes offline de actor-critic e MuZero. Melhoramos o estado da arte de agentes que usam apenas dados offline e alcançamos uma taxa de vitória de 90% contra o agente de clonagem comportamental do AlphaStar previamente publicado.
English
StarCraft II is one of the most challenging simulated reinforcement learning environments; it is partially observable, stochastic, multi-agent, and mastering StarCraft II requires strategic planning over long time horizons with real-time low-level execution. It also has an active professional competitive scene. StarCraft II is uniquely suited for advancing offline RL algorithms, both because of its challenging nature and because Blizzard has released a massive dataset of millions of StarCraft II games played by human players. This paper leverages that and establishes a benchmark, called AlphaStar Unplugged, introducing unprecedented challenges for offline reinforcement learning. We define a dataset (a subset of Blizzard's release), tools standardizing an API for machine learning methods, and an evaluation protocol. We also present baseline agents, including behavior cloning, offline variants of actor-critic and MuZero. We improve the state of the art of agents using only offline data, and we achieve 90% win rate against previously published AlphaStar behavior cloning agent.
PDF280February 8, 2026