ChatPaper.aiChatPaper

戦略家:LLMによるバイレベル木探索を通じた戦略スキルの学習

Strategist: Learning Strategic Skills by LLMs via Bi-Level Tree Search

August 20, 2024
著者: Jonathan Light, Min Cai, Weiqin Chen, Guanzhi Wang, Xiusi Chen, Wei Cheng, Yisong Yue, Ziniu Hu
cs.AI

要旨

本論文では、LLM(Large Language Models)を活用した新しい手法Strategistを提案し、自己改善プロセスを通じてマルチエージェントゲームをプレイするための新しいスキルを獲得します。当手法は、Monte Carlo tree searchとLLMベースの反映を用いた自己対戦シミュレーションによって質の高いフィードバックを収集し、それを活用して低レベルの実行を導く状態の評価方法など、高レベルの戦略スキルを学習します。当手法がゲームの行動計画と対話生成の両方で活用され、ゲームの文脈で良好なパフォーマンスを達成する方法を示します。具体的には、当手法が、GOP(Game of Pure Strategy)やThe Resistance: Avalonなどのゲームにおいて、従来の強化学習ベースのアプローチや他のLLMベースのスキル学習アプローチよりも優れたパフォーマンスを持つエージェントのトレーニングを支援できることを示します。
English
In this paper, we propose a new method Strategist that utilizes LLMs to acquire new skills for playing multi-agent games through a self-improvement process. Our method gathers quality feedback through self-play simulations with Monte Carlo tree search and LLM-based reflection, which can then be used to learn high-level strategic skills such as how to evaluate states that guide the low-level execution.We showcase how our method can be used in both action planning and dialogue generation in the context of games, achieving good performance on both tasks. Specifically, we demonstrate that our method can help train agents with better performance than both traditional reinforcement learning-based approaches and other LLM-based skill learning approaches in games including the Game of Pure Strategy (GOPS) and The Resistance: Avalon.

Summary

AI-Generated Summary

PDF152November 16, 2024