ChatPaper.aiChatPaper

LatentMem: Personalização da Memória Latente para Sistemas Multiagente

LatentMem: Customizing Latent Memory for Multi-Agent Systems

February 3, 2026
Autores: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI

Resumo

Os sistemas multiagente (SMA) baseados em grandes modelos de linguagem (LLM) demonstram uma inteligência coletiva notável, nos quais a memória multiagente atua como um mecanismo fundamental para a adaptação contínua. No entanto, os projetos de memória multiagente existentes permanecem limitados por dois gargalos fundamentais: (i) a homogeneização da memória decorrente da ausência de personalização consciente de papéis, e (ii) a sobrecarga de informação induzida por entradas de memória excessivamente granulares. Para superar essas limitações, propomos o LatentMem, uma estrutura de memória multiagente treinável projetada para personalizar memórias específicas por agente de forma eficiente em tokens. Especificamente, o LatentMem compreende um banco de experiências que armazena trajetórias de interação brutas de forma leve, e um compositor de memória que sintetiza memórias latentes compactas condicionadas à experiência recuperada e a contextos específicos do agente. Adicionalmente, introduzimos a Otimização de Política por Memória Latente (LMPO), que propaga sinais de otimização em nível de tarefa através das memórias latentes para o compositor, incentivando-o a produzir representações compactas e de alta utilidade. Experimentos extensos em diversos benchmarks e estruturas de SMA principais mostram que o LatentMem alcança um ganho de desempenho de até 19,36% em relação a configurações básicas e supera consistentemente as arquiteturas de memória existentes, sem exigir qualquer modificação nas estruturas subjacentes.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.
PDF93February 7, 2026