ChatPaper.aiChatPaper

MOMAland: Un conjunto de referencias para el Aprendizaje por Refuerzo Multi-Objetivo Multi-Agente.

MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning

July 23, 2024
Autores: Florian Felten, Umut Ucak, Hicham Azmani, Gao Peng, Willem Röpke, Hendrik Baier, Patrick Mannion, Diederik M. Roijers, Jordan K. Terry, El-Ghazali Talbi, Grégoire Danoy, Ann Nowé, Roxana Rădulescu
cs.AI

Resumen

Muchas tareas desafiantes, como la gestión de sistemas de tráfico, redes eléctricas o cadenas de suministro, implican procesos de toma de decisiones complejos que deben equilibrar múltiples objetivos conflictivos y coordinar las acciones de varios tomadores de decisiones independientes (DMs). Una perspectiva para formalizar y abordar tales tareas es el aprendizaje por refuerzo multiobjetivo multiagente (MOMARL). MOMARL amplía el aprendizaje por refuerzo (RL) a problemas con múltiples agentes, cada uno necesitando considerar múltiples objetivos en su proceso de aprendizaje. En la investigación de aprendizaje por refuerzo, los puntos de referencia son cruciales para facilitar el progreso, la evaluación y la reproducibilidad. La importancia de los puntos de referencia se subraya por la existencia de numerosos marcos de referencia desarrollados para varios paradigmas de RL, incluido RL de un solo agente (por ejemplo, Gymnasium), RL multiagente (por ejemplo, PettingZoo) y RL de un solo agente multiobjetivo (por ejemplo, MO-Gymnasium). Para apoyar el avance del campo de MOMARL, presentamos MOMAland, la primera colección de entornos estandarizados para el aprendizaje por refuerzo multiobjetivo multiagente. MOMAland aborda la necesidad de una evaluación integral en este campo emergente, ofreciendo más de 10 entornos diversos que varían en el número de agentes, representaciones de estado, estructuras de recompensa y consideraciones de utilidad. Para proporcionar líneas base sólidas para futuras investigaciones, MOMAland también incluye algoritmos capaces de aprender políticas en tales entornos.
English
Many challenging tasks such as managing traffic systems, electricity grids, or supply chains involve complex decision-making processes that must balance multiple conflicting objectives and coordinate the actions of various independent decision-makers (DMs). One perspective for formalising and addressing such tasks is multi-objective multi-agent reinforcement learning (MOMARL). MOMARL broadens reinforcement learning (RL) to problems with multiple agents each needing to consider multiple objectives in their learning process. In reinforcement learning research, benchmarks are crucial in facilitating progress, evaluation, and reproducibility. The significance of benchmarks is underscored by the existence of numerous benchmark frameworks developed for various RL paradigms, including single-agent RL (e.g., Gymnasium), multi-agent RL (e.g., PettingZoo), and single-agent multi-objective RL (e.g., MO-Gymnasium). To support the advancement of the MOMARL field, we introduce MOMAland, the first collection of standardised environments for multi-objective multi-agent reinforcement learning. MOMAland addresses the need for comprehensive benchmarking in this emerging field, offering over 10 diverse environments that vary in the number of agents, state representations, reward structures, and utility considerations. To provide strong baselines for future research, MOMAland also includes algorithms capable of learning policies in such settings.

Summary

AI-Generated Summary

PDF123November 28, 2024