LatentMem : Personnalisation de la mémoire latente pour les systèmes multi-agents
LatentMem: Customizing Latent Memory for Multi-Agent Systems
February 3, 2026
papers.authors: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI
papers.abstract
Les systèmes multi-agents (SMA) pilotés par des grands modèles de langage (LLM) démontrent une intelligence collective remarquable, où la mémoire multi-agents sert de mécanisme pivot pour l'adaptation continue. Cependant, les conceptions existantes de mémoire multi-agents restent limitées par deux goulots d'étranglement fondamentaux : (i) l'homogénéisation de la mémoire résultant de l'absence de personnalisation tenant compte des rôles, et (ii) la surcharge informationnelle induite par des entrées mémoire excessivement granulaires. Pour résoudre ces limitations, nous proposons LatentMem, un framework de mémoire multi-agents apprenable conçu pour personnaliser les mémoires spécifiques aux agents de manière économe en tokens. Plus précisément, LatentMem comprend une banque d'expériences qui stocke les trajectoires d'interaction brutes sous une forme légère, et un compositeur de mémoire qui synthétise des mémoires latentes compactes conditionnées par l'expérience récupérée et les contextes spécifiques aux agents. De plus, nous introduisons l'Optimisation de Politique par Mémoire Latente (LMPO), qui propage les signaux d'optimisation au niveau de la tâche à travers les mémoires latentes vers le compositeur, l'incitant à produire des représentations compactes et à haute utilité. Des expériences approfondies sur divers benchmarks et frameworks SMA grand public montrent que LatentMem atteint un gain de performance allant jusqu'à 19,36% par rapport aux paramètres de base et surpasse constamment les architectures mémoire existantes, sans nécessiter aucune modification des frameworks sous-jacents.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.