ChatPaper.aiChatPaper

AlphaStar Unplugged: Масштабное обучение с подкреплением в автономном режиме

AlphaStar Unplugged: Large-Scale Offline Reinforcement Learning

August 7, 2023
Авторы: Michaël Mathieu, Sherjil Ozair, Srivatsan Srinivasan, Caglar Gulcehre, Shangtong Zhang, Ray Jiang, Tom Le Paine, Richard Powell, Konrad Żołna, Julian Schrittwieser, David Choi, Petko Georgiev, Daniel Toyama, Aja Huang, Roman Ring, Igor Babuschkin, Timo Ewalds, Mahyar Bordbar, Sarah Henderson, Sergio Gómez Colmenarejo, Aäron van den Oord, Wojciech Marian Czarnecki, Nando de Freitas, Oriol Vinyals
cs.AI

Аннотация

StarCraft II представляет собой одну из самых сложных сред для обучения с подкреплением в симуляции; она частично наблюдаема, стохастична, многопользовательская, и для мастерского владения StarCraft II требуется стратегическое планирование на длительных временных горизонтах с выполнением действий в реальном времени. Кроме того, в этой игре существует активная профессиональная соревновательная сцена. StarCraft II особенно подходит для продвижения алгоритмов обучения с подкреплением на основе оффлайн-данных, как из-за своей сложности, так и благодаря тому, что компания Blizzard выпустила огромный набор данных, содержащий миллионы игр StarCraft II, сыгранных людьми. В данной работе используется этот набор данных и создается бенчмарк под названием AlphaStar Unplugged, который вводит беспрецедентные вызовы для оффлайн-обучения с подкреплением. Мы определяем набор данных (подмножество выпущенных Blizzard данных), инструменты для стандартизации API для методов машинного обучения и протокол оценки. Также представлены базовые агенты, включая поведенческое клонирование, оффлайн-варианты актор-критик и MuZero. Мы улучшаем современное состояние агентов, использующих только оффлайн-данные, и достигаем 90% уровня побед против ранее опубликованного агента AlphaStar, основанного на поведенческом клонировании.
English
StarCraft II is one of the most challenging simulated reinforcement learning environments; it is partially observable, stochastic, multi-agent, and mastering StarCraft II requires strategic planning over long time horizons with real-time low-level execution. It also has an active professional competitive scene. StarCraft II is uniquely suited for advancing offline RL algorithms, both because of its challenging nature and because Blizzard has released a massive dataset of millions of StarCraft II games played by human players. This paper leverages that and establishes a benchmark, called AlphaStar Unplugged, introducing unprecedented challenges for offline reinforcement learning. We define a dataset (a subset of Blizzard's release), tools standardizing an API for machine learning methods, and an evaluation protocol. We also present baseline agents, including behavior cloning, offline variants of actor-critic and MuZero. We improve the state of the art of agents using only offline data, and we achieve 90% win rate against previously published AlphaStar behavior cloning agent.
PDF270December 15, 2024