UMEM: Estrutura Unificada de Extração e Gerenciamento de Memória para Memória Generalizável
UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory
February 11, 2026
Autores: Yongshi Ye, Hui Jiang, Feihu Jiang, Tian Lan, Yichao Du, Biao Fu, Xiaodong Shi, Qianghuai Jia, Longyue Wang, Weihua Luo
cs.AI
Resumo
A memória de auto-evolução serve como parâmetros treináveis para agentes baseados em Modelos de Linguagem de Grande Porte (LLMs), onde a extração (destilação de insights a partir da experiência) e a gestão (atualização do banco de memória) devem estar estritamente coordenadas. Os métodos existentes otimizam predominantemente a gestão da memória enquanto tratam a extração de memória como um processo estático, resultando em baixa generalização, onde os agentes acumulam ruído específico da instância em vez de memórias robustas. Para resolver isso, propomos o Gerenciamento e Extração de Memória Unificada (UMEM), uma estrutura de agente auto-evolutiva que otimiza conjuntamente um Modelo de Linguagem de Grande Porte para extrair e gerenciar memórias simultaneamente. Para mitigar o sobreajuste a instâncias específicas, introduzimos a Modelagem de Vizinhança Semântica e otimizamos o modelo com uma recompensa de utilidade marginal a nível de vizinhança via GRPO. Esta abordagem garante a generalização da memória ao avaliar a utilidade da memória em clusters de consultas semanticamente relacionadas. Extensos experimentos em cinco benchmarks demonstram que o UMEM supera significativamente baselines altamente competitivos, alcançando uma melhoria de até 10,67% em tarefas interativas multi-turno. Além disso, o UMEM mantém uma curva de crescimento monotônico durante a evolução contínua. Os códigos e modelos serão disponibilizados publicamente.
English
Self-evolving memory serves as the trainable parameters for Large Language Models (LLMs)-based agents, where extraction (distilling insights from experience) and management (updating the memory bank) must be tightly coordinated. Existing methods predominately optimize memory management while treating memory extraction as a static process, resulting in poor generalization, where agents accumulate instance-specific noise rather than robust memories. To address this, we propose Unified Memory Extraction and Management (UMEM), a self-evolving agent framework that jointly optimizes a Large Language Model to simultaneous extract and manage memories. To mitigate overfitting to specific instances, we introduce Semantic Neighborhood Modeling and optimize the model with a neighborhood-level marginal utility reward via GRPO. This approach ensures memory generalizability by evaluating memory utility across clusters of semantically related queries. Extensive experiments across five benchmarks demonstrate that UMEM significantly outperforms highly competitive baselines, achieving up to a 10.67% improvement in multi-turn interactive tasks. Futhermore, UMEM maintains a monotonic growth curve during continuous evolution. Codes and models will be publicly released.