ChatPaper.aiChatPaper

MOMAland: Набор бенчмарков для многокритериального многоагентного обучения с подкреплением.

MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning

July 23, 2024
Авторы: Florian Felten, Umut Ucak, Hicham Azmani, Gao Peng, Willem Röpke, Hendrik Baier, Patrick Mannion, Diederik M. Roijers, Jordan K. Terry, El-Ghazali Talbi, Grégoire Danoy, Ann Nowé, Roxana Rădulescu
cs.AI

Аннотация

Многие сложные задачи, такие как управление транспортными системами, электросетями или цепочками поставок, включают в себя сложные процессы принятия решений, которые должны учитывать несколько конфликтующих целей и координировать действия различных независимых принимающих решения лиц (DMs). Один из подходов к формализации и решению таких задач - это многокритериальное многоагентное обучение с подкреплением (MOMARL). MOMARL расширяет обучение с подкреплением (RL) на проблемы с несколькими агентами, каждому из которых необходимо учитывать несколько целей в своем процессе обучения. В исследованиях по обучению с подкреплением, эталоны имеют важное значение для облегчения прогресса, оценки и воспроизводимости. Значимость эталонов подчеркивается наличием множества фреймворков эталонов, разработанных для различных парадигм RL, включая RL для одного агента (например, Gymnasium), RL для нескольких агентов (например, PettingZoo) и многокритериальное RL для одного агента (например, MO-Gymnasium). Для поддержки развития области MOMARL мы представляем MOMAland, первую коллекцию стандартизированных сред для многокритериального многоагентного обучения с подкреплением. MOMAland решает потребность в комплексной оценке в этом новом направлении, предлагая более 10 разнообразных сред, отличающихся числом агентов, представлением состояний, структурами вознаграждения и учетом полезности. Для обеспечения надежных базовых значений для будущих исследований, MOMAland также включает алгоритмы, способные обучаться политикам в таких условиях.
English
Many challenging tasks such as managing traffic systems, electricity grids, or supply chains involve complex decision-making processes that must balance multiple conflicting objectives and coordinate the actions of various independent decision-makers (DMs). One perspective for formalising and addressing such tasks is multi-objective multi-agent reinforcement learning (MOMARL). MOMARL broadens reinforcement learning (RL) to problems with multiple agents each needing to consider multiple objectives in their learning process. In reinforcement learning research, benchmarks are crucial in facilitating progress, evaluation, and reproducibility. The significance of benchmarks is underscored by the existence of numerous benchmark frameworks developed for various RL paradigms, including single-agent RL (e.g., Gymnasium), multi-agent RL (e.g., PettingZoo), and single-agent multi-objective RL (e.g., MO-Gymnasium). To support the advancement of the MOMARL field, we introduce MOMAland, the first collection of standardised environments for multi-objective multi-agent reinforcement learning. MOMAland addresses the need for comprehensive benchmarking in this emerging field, offering over 10 diverse environments that vary in the number of agents, state representations, reward structures, and utility considerations. To provide strong baselines for future research, MOMAland also includes algorithms capable of learning policies in such settings.

Summary

AI-Generated Summary

PDF123November 28, 2024