LatentMem: Personalización de la Memoria Latente para Sistemas Multi-Agente
LatentMem: Customizing Latent Memory for Multi-Agent Systems
February 3, 2026
Autores: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI
Resumen
Los sistemas multiagente (SMA) impulsados por modelos de lenguaje grandes (LLM) demuestran una notable inteligencia colectiva, donde la memoria multiagente sirve como mecanismo pivotal para la adaptación continua. Sin embargo, los diseños de memoria multiagente existentes siguen limitados por dos cuellos de botella fundamentales: (i) la homogeneización de la memoria derivada de la ausencia de personalización consciente de los roles, y (ii) la sobrecarga de información inducida por entradas de memoria excesivamente granulares. Para abordar estas limitaciones, proponemos LatentMem, un marco de memoria multiagente entrenable diseñado para personalizar memorias específicas por agente de manera eficiente en tokens. Específicamente, LatentMem comprende un banco de experiencias que almacena trayectorias de interacción en bruto en una forma ligera, y un compositor de memoria que sintetiza memorias latentes compactas condicionadas por la experiencia recuperada y los contextos específicos del agente. Además, presentamos la Optimización de Políticas de Memoria Latente (LMPO), que propaga señales de optimización a nivel de tarea a través de las memorias latentes hacia el compositor, incentivándolo a producir representaciones compactas y de alta utilidad. Experimentos exhaustivos en diversos benchmarks y frameworks SMA principales muestran que LatentMem alcanza una mejora de rendimiento de hasta el 19.36% sobre configuraciones básicas y supera consistentemente a las arquitecturas de memoria existentes, sin requerir modificaciones en los frameworks subyacentes.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.