ChatPaper.aiChatPaper

팀 규모 확장인가, 시간 확장인가? LLM 다중 에이전트 시스템에서 메모리 기반 평생 학습 구현

Scaling Teams or Scaling Time? Memory Enabled Lifelong Learning in LLM Multi-Agent Systems

March 27, 2026
저자: Shanglin Wu, Yuyang Luo, Yueqing Liang, Kaiwen Shi, Yanfang Ye, Ali Payani, Kai Shu
cs.AI

초록

대규모 언어 모델(LLM) 다중 에이전트 시스템은 두 가지 차원에서 확장될 수 있습니다: 에이전트 수를 증가시키는 것과 시간이 지남에 따라 축적된 경험을 통해 개선하는 것입니다. 기존 연구에서는 이러한 차원을 개별적으로 연구했지만, 현실적인 비용 제약 하에서 이들의 상호작용은 여전히 명확하지 않습니다. 본 논문에서는 팀 규모와 평생 학습 능력을 함께 고려하는 다중 에이전트 시스템의 개념적 확장 관점을 소개하고, 메모리 설계가 이 환경을 어떻게 공유하는지 연구합니다. 이를 위해 우리는 유연한 메모리 토폴로지 하에서 LLM 다중 에이전트 시스템을 위한 평생 메모리 프레임워크인 LLMA-Mem을 제안합니다. 우리는 LLMA-Mem을 코딩, 연구, 데이터베이스 환경을 아우르는 MultiAgentBench에서 평가합니다. 실험 결과, LLMA-Mem은 비용을 절감하면서 장기적 성능을 기준선 대비 지속적으로 향상시켰습니다. 우리의 분석은 더 큰 팀이 항상 더 나은 장기 성능을 내지는 않는 비단조적 확장 환경을 추가로 보여주며, 메모리가 경험 재사용을 더 잘 지원할 때 규모가 작은 팀이 더 큰 팀을 능가할 수 있음을 밝혔습니다. 이러한 발견들은 메모리 설계를 시간이 지남에 따라 다중 에이전트 시스템을 더 효과적이고 효율적으로 확장하기 위한 실용적인 경로로 자리매김합니다.
English
Large language model (LLM) multi-agent systems can scale along two distinct dimensions: by increasing the number of agents and by improving through accumulated experience over time. Although prior work has studied these dimensions separately, their interaction under realistic cost constraints remains unclear. In this paper, we introduce a conceptual scaling view of multi-agent systems that jointly considers team size and lifelong learning ability, and we study how memory design shares this landscape. To this end, we propose LLMA-Mem, a lifelong memory framework for LLM multi-agent systems under flexible memory topologies. We evaluate LLMA-Mem on MultiAgentBench across coding, research, and database environments. Empirically, LLMA-Mem consistently improves long-horizon performance over baselines while reducing cost. Our analysis further reveals a non-monotonic scaling landscape: larger teams do not always produce better long-term performance, and smaller teams can outperform larger ones when memory better supports the reuse of experience. These findings position memory design as a practical path for scaling multi-agent systems more effectively and more efficiently over time.
PDF11April 8, 2026