ChatPaper.aiChatPaper

LatentMem: Aanpassing van Latent Geheugen voor Multi-Agent Systemen

LatentMem: Customizing Latent Memory for Multi-Agent Systems

February 3, 2026
Auteurs: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI

Samenvatting

Door grote taalmodellen (LLM) aangedreven multi-agent systemen (MAS) vertonen opmerkelijke collectieve intelligentie, waarbij multi-agent geheugen fungeert als een cruciaal mechanisme voor continue aanpassing. Bestaande ontwerpen van multi-agent geheugen kampen echter met twee fundamentele knelpunten: (i) geheugenhomogenisatie door het ontbreken van rolbewuste maatwerk, en (ii) informatie-overload veroorzaakt door excessief fijnmazige geheugenitems. Om deze beperkingen aan te pakken, presenteren wij LatentMem, een leerbaar multi-agent geheugenkader dat agentspecifieke geheugens op een token-efficiënte wijze kan aanpassen. Concreet bestaat LatentMem uit een ervaringsbank die ruwe interactietrajecten in een lichtgewicht vorm opslaat, en een geheugencomponist die compacte latente geheugens synthetiseert op basis van opgehaalde ervaringen en agentspecifieke contexten. Verder introduceren wij Latent Memory Policy Optimization (LMPO), dat taakniveau-optimalisatiesignalen via latente geheugens doorvoert naar de componist om deze aan te moedigen compacte en hoogwaardige representaties te produceren. Uitgebreide experimenten met diverse benchmarks en gangbare MAS-kaders tonen aan dat LatentMem een prestatieverbetering tot 19,36% bereikt ten opzichte van basissystemen en consequent superieur presteert aan bestaande geheugenarchitecturen, zonder enige aanpassingen aan de onderliggende kaders.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.
PDF93February 7, 2026