ChatPaper.aiChatPaper

LatentMem: Personalizzazione della Memoria Latente per Sistemi Multi-Agente

LatentMem: Customizing Latent Memory for Multi-Agent Systems

February 3, 2026
Autori: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI

Abstract

I sistemi multi-agente (MAS) alimentati da grandi modelli linguistici (LLM) dimostrano una notevole intelligenza collettiva, in cui la memoria multi-agente funge da meccanismo cruciale per l'adattamento continuo. Tuttavia, le attuali progettazioni della memoria multi-agente rimangono limitate da due colli di bottiglia fondamentali: (i) l'omogeneizzazione della memoria derivante dall'assenza di personalizzazione basata sui ruoli, e (ii) il sovraccarico informativo indotto da voci di memoria eccessivamente granulari. Per affrontare queste limitazioni, proponiamo LatentMem, un framework di memoria multi-agente apprendibile progettato per personalizzare le memorie specifiche degli agenti in modo efficiente in termini di token. Nello specifico, LatentMem comprende una banca esperienziale che archivia le traiettorie di interazione grezze in forma leggera, e un compositore di memoria che sintetizza memorie latenti compatte condizionate dall'esperienza recuperata e dai contesti specifici degli agenti. Inoltre, introduciamo la Latent Memory Policy Optimization (LMPO), che propaga i segnali di ottimizzazione a livello di compito attraverso le memorie latenti al compositore, incoraggiandolo a produrre rappresentazioni compatte e ad alta utilità. Esperimenti estesi su diversi benchmark e framework MAS mainstream mostrano che LatentMem raggiunge un miglioramento delle prestazioni fino al 19,36% rispetto alle impostazioni standard e supera costantemente le architetture di memoria esistenti, senza richiedere alcuna modifica ai framework sottostanti.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.
PDF143April 1, 2026