ChatPaper.aiChatPaper

MaxInfoRL: Impulsando la exploración en aprendizaje por refuerzo a través de la maximización de la ganancia de información

MaxInfoRL: Boosting exploration in reinforcement learning through information gain maximization

December 16, 2024
Autores: Bhavya Sukhija, Stelian Coros, Andreas Krause, Pieter Abbeel, Carmelo Sferrazza
cs.AI

Resumen

Los algoritmos de aprendizaje por refuerzo (RL) tienen como objetivo equilibrar la explotación de la estrategia actualmente óptima con la exploración de nuevas opciones que podrían llevar a recompensas más altas. La mayoría de los algoritmos de RL comunes utilizan exploración no dirigida, es decir, seleccionan secuencias aleatorias de acciones. La exploración también puede ser dirigida utilizando recompensas intrínsecas, como la curiosidad o la incertidumbre epistémica del modelo. Sin embargo, equilibrar efectivamente las recompensas de la tarea y las intrínsecas es desafiante y a menudo depende de la tarea. En este trabajo, presentamos un marco, MaxInfoRL, para equilibrar la exploración intrínseca y extrínseca. MaxInfoRL dirige la exploración hacia transiciones informativas, maximizando recompensas intrínsecas como la ganancia de información sobre la tarea subyacente. Al combinarse con la exploración de Boltzmann, este enfoque intercambia naturalmente la maximización de la función de valor con la entropía sobre estados, recompensas y acciones. Mostramos que nuestro enfoque logra un arrepentimiento sublineal en el entorno simplificado de bandas de brazo múltiple. Luego aplicamos esta formulación general a una variedad de métodos de RL sin modelo fuera de la política para espacios de estado-acción continuos, generando algoritmos novedosos que logran un rendimiento superior en problemas de exploración difíciles y escenarios complejos como tareas de control visual.
English
Reinforcement learning (RL) algorithms aim to balance exploiting the current best strategy with exploring new options that could lead to higher rewards. Most common RL algorithms use undirected exploration, i.e., select random sequences of actions. Exploration can also be directed using intrinsic rewards, such as curiosity or model epistemic uncertainty. However, effectively balancing task and intrinsic rewards is challenging and often task-dependent. In this work, we introduce a framework, MaxInfoRL, for balancing intrinsic and extrinsic exploration. MaxInfoRL steers exploration towards informative transitions, by maximizing intrinsic rewards such as the information gain about the underlying task. When combined with Boltzmann exploration, this approach naturally trades off maximization of the value function with that of the entropy over states, rewards, and actions. We show that our approach achieves sublinear regret in the simplified setting of multi-armed bandits. We then apply this general formulation to a variety of off-policy model-free RL methods for continuous state-action spaces, yielding novel algorithms that achieve superior performance across hard exploration problems and complex scenarios such as visual control tasks.

Summary

AI-Generated Summary

PDF52December 17, 2024