LatentMem: マルチエージェントシステムのための潜在メモリのカスタマイズ
LatentMem: Customizing Latent Memory for Multi-Agent Systems
February 3, 2026
著者: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI
要旨
大規模言語モデル(LLM)を中核とするマルチエージェントシステム(MAS)は、顕著な集団的知性を発揮し、その中でマルチエージェントメモリは継続的適応のための重要なメカニズムとして機能する。しかし、既存のマルチエージェントメモリ設計は、以下の二つの根本的なボトルネックに制約されている:(i)役割を考慮したカスタマイズの欠如に起因するメモリの均質化、(ii)過度に細粒度なメモリエントリによって引き起こされる情報過負荷。これらの課題を解決するため、本論文ではLatentMemを提案する。これは、エージェント固有のメモリをトークン効率の良い方法でカスタマイズする学習可能なマルチエージェントメモリフレームワークである。具体的には、LatentMemは、生のインタラクション軌跡を軽量な形式で保存する経験バンクと、検索された経験とエージェント固有の文脈に基づいてコンパクトな潜在メモリを合成するメモリコンポーザーで構成される。さらに、タスクレベルの最適化信号を潜在メモリを介してコンポーザーに伝播させ、コンパクトで高効用な表現の生成を促進するLatent Memory Policy Optimization(LMPO)を導入する。多様なベンチマークと主流のMASフレームワークを用いた広範な実験により、LatentMemがベースライン設定に対して最大19.36%の性能向上を達成し、基盤となるフレームワークへの変更を一切必要とせず、既存のメモリアーキテクチャを一貫して上回ることを実証する。
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.