ChatPaper.aiChatPaper

LatentMem: Anpassung des latenten Gedächtnisses für Multi-Agenten-Systeme

LatentMem: Customizing Latent Memory for Multi-Agent Systems

February 3, 2026
papers.authors: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI

papers.abstract

Von großen Sprachmodellen (LLM) gestützte Multi-Agenten-Systeme (MAS) demonstrieren eine bemerkenswerte kollektive Intelligenz, wobei der Multi-Agenten-Speicher als zentraler Mechanismus für kontinuierliche Anpassung dient. Bestehende Speicherdesigns für Multi-Agenten-Systeme sind jedoch nach wie vor durch zwei grundlegende Engpässe eingeschränkt: (i) Speicherhomogenisierung aufgrund fehlender rollenbasierter Anpassung und (ii) Informationsüberflutung durch übermäßig detaillierte Speichereinträge. Um diese Einschränkungen zu überwinden, schlagen wir LatentMem vor, ein lernfähiges Multi-Agenten-Speicherframework, das agentspezifische Speicherinhalte auf token-effiziente Weise anpasst. Konkret besteht LatentMem aus einer Erfahrungsbank, die Rohinteraktionsverläufe in leichtgewichtiger Form speichert, und einem Speicherkomponisten, der kompakte latente Speicherinhalte auf Basis abgerufener Erfahrungen und agentspezifischer Kontexte synthetisiert. Darüber hinaus führen wir Latent Memory Policy Optimization (LMPO) ein, das Aufgabenoptimierungssignale über latente Speicherinhalte an den Komponisten weiterleitet und ihn so zur Erzeugung kompakter und hochwertiger Repräsentationen anregt. Umfangreiche Experimente in verschiedenen Benchmarks und mit gängigen MAS-Frameworks zeigen, dass LatentMem eine Leistungssteigerung von bis zu 19,36 % gegenüber Standardeinstellungen erzielt und bestehende Speicherarchitekturen konsistent übertrifft, ohne dass Änderungen an den zugrundeliegenden Frameworks erforderlich sind.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.
PDF82February 7, 2026