ChatPaper.aiChatPaper

UMEM : Cadre unifié d'extraction et de gestion de la mémoire pour une mémoire généralisable

UMEM: Unified Memory Extraction and Management Framework for Generalizable Memory

February 11, 2026
papers.authors: Yongshi Ye, Hui Jiang, Feihu Jiang, Tian Lan, Yichao Du, Biao Fu, Xiaodong Shi, Qianghuai Jia, Longyue Wang, Weihua Luo
cs.AI

papers.abstract

La mémoire auto-évolutive sert de paramètres entraînables pour les agents basés sur les grands modèles de langage (LLM), où l'extraction (distiller les insights de l'expérience) et la gestion (mettre à jour la banque de mémoire) doivent être étroitement coordonnées. Les méthodes existantes optimisent principalement la gestion de la mémoire tout en traitant l'extraction de mémoire comme un processus statique, ce qui entraîne une mauvaise généralisation, où les agents accumulent du bruit spécifique aux instances plutôt que des mémoires robustes. Pour résoudre ce problème, nous proposons l'Extraction et Gestion Unifiée de la Mémoire (UMEM), un cadre d'agent auto-évolutif qui optimise conjointement un grand modèle de langage pour extraire et gérer simultanément les mémoires. Pour atténuer le surapprentissage à des instances spécifiques, nous introduisons la Modélisation des Voisinages Sémantiques et optimisons le modèle avec une récompense d'utilité marginale au niveau du voisinage via GRPO. Cette approche assure la généralisabilité de la mémoire en évaluant l'utilité de la mémoire sur des clusters de requêtes sémantiquement liées. Des expériences approfondies sur cinq benchmarks démontrent qu'UMEM surpasse significativement des bases de référence très compétitives, atteignant une amélioration allant jusqu'à 10,67 % dans les tâches interactives multi-tours. De plus, UMEM maintient une courbe de croissance monotone lors de l'évolution continue. Les codes et modèles seront publiquement disponibles.
English
Self-evolving memory serves as the trainable parameters for Large Language Models (LLMs)-based agents, where extraction (distilling insights from experience) and management (updating the memory bank) must be tightly coordinated. Existing methods predominately optimize memory management while treating memory extraction as a static process, resulting in poor generalization, where agents accumulate instance-specific noise rather than robust memories. To address this, we propose Unified Memory Extraction and Management (UMEM), a self-evolving agent framework that jointly optimizes a Large Language Model to simultaneous extract and manage memories. To mitigate overfitting to specific instances, we introduce Semantic Neighborhood Modeling and optimize the model with a neighborhood-level marginal utility reward via GRPO. This approach ensures memory generalizability by evaluating memory utility across clusters of semantically related queries. Extensive experiments across five benchmarks demonstrate that UMEM significantly outperforms highly competitive baselines, achieving up to a 10.67% improvement in multi-turn interactive tasks. Futhermore, UMEM maintains a monotonic growth curve during continuous evolution. Codes and models will be publicly released.
PDF21February 13, 2026