LatentMem: Настройка латентной памяти для мультиагентных систем
LatentMem: Customizing Latent Memory for Multi-Agent Systems
February 3, 2026
Авторы: Muxin Fu, Guibin Zhang, Xiangyuan Xue, Yafu Li, Zefeng He, Siyuan Huang, Xiaoye Qu, Yu Cheng, Yang Yang
cs.AI
Аннотация
Многоагентные системы (MAS), основанные на больших языковых моделях (LLM), демонстрируют впечатляющий коллективный интеллект, в котором многoагентная память служит ключевым механизмом для непрерывной адаптации. Однако существующие архитектуры многoагентной памяти ограничены двумя фундаментальными проблемами: (i) гомогенизацией памяти, вызванной отсутствием адаптации к ролям агентов, и (ii) информационной перегрузкой, обусловленной избыточно детализированными записями памяти. Для преодоления этих ограничений мы предлагаем LatentMem — обучаемую структуру многoагентной памяти, предназначенную для настройки памяти, специфичной для агента, с эффективным использованием токенов. В частности, LatentMem состоит из банка опыта, который хранит сырые траектории взаимодействия в облегченной форме, и компоновщика памяти, который синтезирует компактные латентные воспоминания на основе извлеченного опыта и контекста, специфичного для агента. Кроме того, мы представляем Latent Memory Policy Optimization (LMPO) — метод, который распространяет сигналы оптимизации на уровне задачи через латентные воспоминания на компоновщик, побуждая его генерировать компактные и высокоэффективные представления. Многочисленные эксперименты на различных бенчмарках и в рамках основных структур MAS показывают, что LatentMem обеспечивает прирост производительности до 19,36% по сравнению с базовыми настройками и стабильно превосходит существующие архитектуры памяти, не требуя каких-либо изменений в базовых фреймворках.
English
Large language model (LLM)-powered multi-agent systems (MAS) demonstrate remarkable collective intelligence, wherein multi-agent memory serves as a pivotal mechanism for continual adaptation. However, existing multi-agent memory designs remain constrained by two fundamental bottlenecks: (i) memory homogenization arising from the absence of role-aware customization, and (ii) information overload induced by excessively fine-grained memory entries. To address these limitations, we propose LatentMem, a learnable multi-agent memory framework designed to customize agent-specific memories in a token-efficient manner. Specifically, LatentMem comprises an experience bank that stores raw interaction trajectories in a lightweight form, and a memory composer that synthesizes compact latent memories conditioned on retrieved experience and agent-specific contexts. Further, we introduce Latent Memory Policy Optimization (LMPO), which propagates task-level optimization signals through latent memories to the composer, encouraging it to produce compact and high-utility representations. Extensive experiments across diverse benchmarks and mainstream MAS frameworks show that LatentMem achieves a performance gain of up to 19.36% over vanilla settings and consistently outperforms existing memory architectures, without requiring any modifications to the underlying frameworks.