LatentMem: 다중 에이전트 시스템을 위한 잠재 메모리 맞춤화
LatentMem: Customizing Latent Memory for Multi-Agent Systems
February 3, 2026
저자: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI
초록
대규모 언어 모델(LLM) 기반 다중 에이전트 시스템(MAS)은 놀라운 집단 지능을 보여주며, 여기서 다중 에이전트 메모리는 지속적인 적응을 위한 핵심 메커니즘으로 작용합니다. 그러나 기존의 다중 에이전트 메모리 설계는 두 가지 근본적인 병목 현상에 의해 제약을 받고 있습니다: (i) 역할 인지 맞춤화의 부재로 인한 메모리 동질화, 그리고 (ii) 과도하게 세분화된 메모리 항목으로 인한 정보 과부하입니다. 이러한 한계를 해결하기 위해, 본 연구에서는 에이전트별 메모리를 토큰 효율적인 방식으로 맞춤화하는 학습 가능한 다중 에이전트 메모리 프레임워크인 LatentMem을 제안합니다. 구체적으로, LatentMem은 원시 상호작용 궤적을 경량 형태로 저장하는 경험 은행(experience bank)과, 검색된 경험 및 에이전트별 컨텍스트에 조건부로 작동하여 간결한 잠재 메모리를 합성하는 메모리 작곡가(memory composer)로 구성됩니다. 더 나아가, 작업 수준 최적화 신호를 잠재 메모리를 통해 작곡가로 전파하여 간결하고 유용성이 높은 표현을 생성하도록 유도하는 Latent Memory Policy Optimization(LMPO)을 도입합니다. 다양한 벤치마크와 주류 MAS 프레임워크에서 수행한 폭넓은 실험 결과, LatentMem은 기본 설정 대비 최대 19.36%의 성능 향상을 달성하고 기존 메모리 아키텍처를 지속적으로 능가하며, 기반 프레임워크의 어떠한 수정도 필요로 하지 않음을 보여줍니다.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.