ChatPaper.aiChatPaper

MaxInfoRL: Увеличение исследования в обучении с подкреплением через максимизацию прироста информации

MaxInfoRL: Boosting exploration in reinforcement learning through information gain maximization

December 16, 2024
Авторы: Bhavya Sukhija, Stelian Coros, Andreas Krause, Pieter Abbeel, Carmelo Sferrazza
cs.AI

Аннотация

Алгоритмы обучения с подкреплением (RL) нацелены на балансировку между использованием текущей лучшей стратегии и исследованием новых вариантов, которые могут привести к более высоким вознаграждениям. Большинство распространенных алгоритмов RL используют ненаправленное исследование, т.е. выбирают случайные последовательности действий. Исследование также может быть направленным с использованием внутренних вознаграждений, таких как любопытство или эпистемическая неопределенность модели. Однако эффективное балансирование задач и внутренних вознаграждений является сложной задачей и часто зависит от задачи. В данной работе мы представляем фреймворк MaxInfoRL для балансировки внутреннего и внешнего исследования. MaxInfoRL направляет исследование на информативные переходы, максимизируя внутренние вознаграждения, такие как прирост информации о базовой задаче. При комбинировании с исследованием Больцмана, этот подход естественным образом балансирует максимизацию функции ценности с энтропией по состояниям, вознаграждениям и действиям. Мы показываем, что наш подход достигает сублинейного регрета в упрощенной среде многоруких бандитов. Затем мы применяем эту общую формулировку к различным методам RL без модели для непрерывных пространств состояний-действий, создавая новые алгоритмы, которые достигают превосходной производительности в сложных задачах и сценариях, таких как задачи визуального управления.
English
Reinforcement learning (RL) algorithms aim to balance exploiting the current best strategy with exploring new options that could lead to higher rewards. Most common RL algorithms use undirected exploration, i.e., select random sequences of actions. Exploration can also be directed using intrinsic rewards, such as curiosity or model epistemic uncertainty. However, effectively balancing task and intrinsic rewards is challenging and often task-dependent. In this work, we introduce a framework, MaxInfoRL, for balancing intrinsic and extrinsic exploration. MaxInfoRL steers exploration towards informative transitions, by maximizing intrinsic rewards such as the information gain about the underlying task. When combined with Boltzmann exploration, this approach naturally trades off maximization of the value function with that of the entropy over states, rewards, and actions. We show that our approach achieves sublinear regret in the simplified setting of multi-armed bandits. We then apply this general formulation to a variety of off-policy model-free RL methods for continuous state-action spaces, yielding novel algorithms that achieve superior performance across hard exploration problems and complex scenarios such as visual control tasks.

Summary

AI-Generated Summary

PDF52December 17, 2024