チームを拡張するか、時間を拡張するか?LLMマルチエージェントシステムにおけるメモリ対応生涯学習
Scaling Teams or Scaling Time? Memory Enabled Lifelong Learning in LLM Multi-Agent Systems
March 27, 2026
著者: Shanglin Wu, Yuyang Luo, Yueqing Liang, Kaiwen Shi, Yanfang Ye, Ali Payani, Kai Shu
cs.AI
要旨
大規模言語モデル(LLM)マルチエージェントシステムは、エージェント数の増加と、時間の経過に伴う経験の蓄積による改善という、2つの異なる次元でスケーリングが可能である。従来の研究はこれらの次元を個別に検討してきたが、現実的なコスト制約下での両者の相互作用は未解明なままである。本論文では、チームサイズと生涯学習能力を統合的に考慮するマルチエージェントシステムの概念的スケーリング観を提示し、メモリ設計がこの景観をどう共有するかを考察する。この目的のために、柔軟なメモリトポロジーを備えたLLMマルチエージェントシステム向け生涯記憶フレームワーク「LLMA-Mem」を提案する。LLMA-Memを、コーディング、研究、データベース環境を含むMultiAgentBenchで評価した。実験結果から、LLMA-Memはベースラインと比較して長期的な性能を一貫して向上させつつ、コストを削減できることが示された。さらに分析により、非単調なスケーリング景観が明らかになった:大規模なチームが常に優れた長期的性能を発揮するわけではなく、メモリが経験の再利用を適切に支援できる場合、小規模なチームが大規模チームを凌駕し得る。これらの知見は、メモリ設計がマルチエージェントシステムを時間の経過とともに効果的かつ効率的にスケーリングする実用的な方途であることを示唆する。
English
Large language model (LLM) multi-agent systems can scale along two distinct dimensions: by increasing the number of agents and by improving through accumulated experience over time. Although prior work has studied these dimensions separately, their interaction under realistic cost constraints remains unclear. In this paper, we introduce a conceptual scaling view of multi-agent systems that jointly considers team size and lifelong learning ability, and we study how memory design shares this landscape. To this end, we propose LLMA-Mem, a lifelong memory framework for LLM multi-agent systems under flexible memory topologies. We evaluate LLMA-Mem on MultiAgentBench across coding, research, and database environments. Empirically, LLMA-Mem consistently improves long-horizon performance over baselines while reducing cost. Our analysis further reveals a non-monotonic scaling landscape: larger teams do not always produce better long-term performance, and smaller teams can outperform larger ones when memory better supports the reuse of experience. These findings position memory design as a practical path for scaling multi-agent systems more effectively and more efficiently over time.