ChatPaper.aiChatPaper

MemEvolve : Méta-évolution des systèmes de mémoire des agents

MemEvolve: Meta-Evolution of Agent Memory Systems

December 21, 2025
papers.authors: Guibin Zhang, Haotian Ren, Chong Zhan, Zhenhong Zhou, Junhao Wang, He Zhu, Wangchunshu Zhou, Shuicheng Yan
cs.AI

papers.abstract

Les systèmes de mémoire auto-évolutifs redéfinissent de manière inédite le paradigme évolutif des agents basés sur les grands modèles de langage (LLM). Les travaux antérieurs reposaient principalement sur des architectures de mémoire conçues manuellement pour stocker les trajectoires, distiller l'expérience et synthétiser des outils réutilisables, permettant aux agents d'évoluer dynamiquement lors des interactions avec leur environnement. Cependant, ce paradigme est fondamentalement limité par la staticité du système de mémoire lui-même : si la mémoire facilite l'évolution au niveau de l'agent, l'architecture de mémoire sous-jacente ne peut pas être méta-adaptée à des contextes de tâches diversifiés. Pour combler cette lacune, nous proposons MemEvolve, un cadre méta-évolutif qui fait évoluer conjointement les connaissances expérientielles des agents et leur architecture de mémoire, permettant aux systèmes d'agents non seulement d'accumuler de l'expérience mais aussi d'affiner progressivement la manière dont ils apprennent de celle-ci. Pour ancrer MemEvolve dans la recherche antérieure et favoriser l'ouverture des futurs systèmes auto-évolutifs, nous présentons EvolveLab, une base de code unifiée de mémoire auto-évolutive qui condense douze systèmes de mémoire représentatifs en un espace de conception modulaire (encoder, stocker, récupérer, gérer), offrant à la fois un substrat de mise en œuvre standardisé et une arène expérimentale équitable. Des évaluations approfondies sur quatre benchmarks exigeants pour agents démontrent que MemEvolve atteint (I) des gains de performance substantiels, améliorant des frameworks tels que SmolAgent et Flash-Searcher jusqu'à 17,06 % ; et (II) une forte généralisation inter-tâches et inter-LLM, concevant des architectures de mémoire qui se transfèrent efficacement à travers divers benchmarks et modèles de base.
English
Self-evolving memory systems are unprecedentedly reshaping the evolutionary paradigm of large language model (LLM)-based agents. Prior work has predominantly relied on manually engineered memory architectures to store trajectories, distill experience, and synthesize reusable tools, enabling agents to evolve on the fly within environment interactions. However, this paradigm is fundamentally constrained by the staticity of the memory system itself: while memory facilitates agent-level evolving, the underlying memory architecture cannot be meta-adapted to diverse task contexts. To address this gap, we propose MemEvolve, a meta-evolutionary framework that jointly evolves agents' experiential knowledge and their memory architecture, allowing agent systems not only to accumulate experience but also to progressively refine how they learn from it. To ground MemEvolve in prior research and foster openness in future self-evolving systems, we introduce EvolveLab, a unified self-evolving memory codebase that distills twelve representative memory systems into a modular design space (encode, store, retrieve, manage), providing both a standardized implementation substrate and a fair experimental arena. Extensive evaluations on four challenging agentic benchmarks demonstrate that MemEvolve achieves (I) substantial performance gains, improving frameworks such as SmolAgent and Flash-Searcher by up to 17.06%; and (II) strong cross-task and cross-LLM generalization, designing memory architectures that transfer effectively across diverse benchmarks and backbone models.
PDF191December 25, 2025