ChatPaper.aiChatPaper

マルチエージェント討論のための文脈学習

Context Learning for Multi-Agent Discussion

February 2, 2026
著者: Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang, Ju Ren
cs.AI

要旨

マルチエージェント討論(MAD)は近年注目を集めており、複数のLLMインスタンスが構造化された討論を通じて協調的に問題解決を行う手法である。しかし、現在のMAD手法では、個々のエージェント間のコンテキストの不一致により、討論の一貫性が損なわれ、LLMが首尾一貫した解決策に到達できない問題が生じやすい。本論文では、各エージェントに対してコンテキスト生成器を学習させるマルチLLMコンテキスト学習法(M2CL)を提案する。この生成器は、自動的な情報の整理と洗練を通じて、討論ラウンドごとに動的にコンテキスト指示を生成することが可能である。具体的には、コンテキスト指示に関する理論的知見に基づき、M2CLは自己適応機構を精巧に設計し、生成器がコンテキストの一貫性と出力の乖離を制御するように学習する。これにより、LLMは多数派ノイズへの早期収束を回避し、正しい合意へ段階的に到達できる。M2CLを学術的推論、具身化タスク、モバイル制御といった難易度の高いタスクで評価した結果、その性能は既存手法を20%~50%大幅に上回り、優れた転移性と計算効率を兼ね備えることが示された。
English
Multi-Agent Discussion (MAD) has garnered increasing attention very recently, where multiple LLM instances collaboratively solve problems via structured discussion. However, we find that current MAD methods easily suffer from discussion inconsistency, LLMs fail to reach a coherent solution, due to the misalignment between their individual contexts.In this paper, we introduce a multi-LLM context learning method (M2CL) that learns a context generator for each agent, capable of dynamically generating context instructions per discussion round via automatic information organization and refinement. Specifically, inspired by our theoretical insights on the context instruction, M2CL train the generators to control context coherence and output discrepancies via a carefully crafted self-adaptive mechanism.It enables LLMs to avoid premature convergence on majority noise and progressively reach the correct consensus. We evaluate M2CL on challenging tasks, including academic reasoning, embodied tasks, and mobile control. The results show that the performance of M2CL significantly surpasses existing methods by 20%--50%, while enjoying favorable transferability and computational efficiency.
PDF41February 6, 2026