ChatPaper.aiChatPaper

MOMAland: Una serie di benchmark per il Reinforcement Learning Multi-Agente a Obiettivi Multipli

MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning

July 23, 2024
Autori: Florian Felten, Umut Ucak, Hicham Azmani, Gao Peng, Willem Röpke, Hendrik Baier, Patrick Mannion, Diederik M. Roijers, Jordan K. Terry, El-Ghazali Talbi, Grégoire Danoy, Ann Nowé, Roxana Rădulescu
cs.AI

Abstract

Molte attività complesse come la gestione dei sistemi di traffico, delle reti elettriche o delle catene di approvvigionamento implicano processi decisionali articolati che devono bilanciare molteplici obiettivi conflittuali e coordinare le azioni di vari decisori indipendenti (DM). Una prospettiva per formalizzare e affrontare tali compiti è l'apprendimento per rinforzo multi-obiettivo e multi-agente (MOMARL). Il MOMARL estende l'apprendimento per rinforzo (RL) a problemi con più agenti, ciascuno dei quali deve considerare molteplici obiettivi nel proprio processo di apprendimento. Nella ricerca sull'apprendimento per rinforzo, i benchmark sono cruciali per facilitare il progresso, la valutazione e la riproducibilità. L'importanza dei benchmark è sottolineata dall'esistenza di numerosi framework di benchmark sviluppati per vari paradigmi di RL, tra cui RL a singolo agente (ad esempio, Gymnasium), RL multi-agente (ad esempio, PettingZoo) e RL multi-obiettivo a singolo agente (ad esempio, MO-Gymnasium). Per supportare l'avanzamento del campo del MOMARL, introduciamo MOMAland, la prima raccolta di ambienti standardizzati per l'apprendimento per rinforzo multi-obiettivo e multi-agente. MOMAland risponde alla necessità di benchmarking completo in questo campo emergente, offrendo oltre 10 ambienti diversificati che variano nel numero di agenti, nelle rappresentazioni degli stati, nelle strutture di ricompensa e nelle considerazioni di utilità. Per fornire solide basi per la ricerca futura, MOMAland include anche algoritmi in grado di apprendere politiche in tali contesti.
English
Many challenging tasks such as managing traffic systems, electricity grids, or supply chains involve complex decision-making processes that must balance multiple conflicting objectives and coordinate the actions of various independent decision-makers (DMs). One perspective for formalising and addressing such tasks is multi-objective multi-agent reinforcement learning (MOMARL). MOMARL broadens reinforcement learning (RL) to problems with multiple agents each needing to consider multiple objectives in their learning process. In reinforcement learning research, benchmarks are crucial in facilitating progress, evaluation, and reproducibility. The significance of benchmarks is underscored by the existence of numerous benchmark frameworks developed for various RL paradigms, including single-agent RL (e.g., Gymnasium), multi-agent RL (e.g., PettingZoo), and single-agent multi-objective RL (e.g., MO-Gymnasium). To support the advancement of the MOMARL field, we introduce MOMAland, the first collection of standardised environments for multi-objective multi-agent reinforcement learning. MOMAland addresses the need for comprehensive benchmarking in this emerging field, offering over 10 diverse environments that vary in the number of agents, state representations, reward structures, and utility considerations. To provide strong baselines for future research, MOMAland also includes algorithms capable of learning policies in such settings.
PDF123November 28, 2024