ChatPaper.aiChatPaper

MemEvolve: Meta-Evoluzione dei Sistemi di Memoria degli Agenti

MemEvolve: Meta-Evolution of Agent Memory Systems

December 21, 2025
Autori: Guibin Zhang, Haotian Ren, Chong Zhan, Zhenhong Zhou, Junhao Wang, He Zhu, Wangchunshu Zhou, Shuicheng Yan
cs.AI

Abstract

I sistemi di memoria auto-evolutivi stanno rimodellando in modo senza precedenti il paradigma evolutivo degli agenti basati su Large Language Model (LLM). I lavori precedenti si sono prevalentemente basati su architetture di memoria progettate manualmente per memorizzare traiettorie, distillare esperienze e sintetizzare strumenti riutilizzabili, consentendo agli agenti di evolversi al volo durante le interazioni con l'ambiente. Tuttavia, questo paradigma è fondamentalmente limitato dalla staticità del sistema di memoria stesso: sebbene la memoria faciliti l'evoluzione a livello di agente, l'architettura di memoria sottostante non può essere meta-adattata a contesti di task diversi. Per colmare questa lacuna, proponiamo MemEvolve, un framework meta-evolutivo che evolve congiuntamente la conoscenza esperienziale degli agenti e la loro architettura di memoria, consentendo ai sistemi agente non solo di accumulare esperienza ma anche di affinare progressivamente il modo in cui apprendono da essa. Per ancorare MemEvolve alla ricerca precedente e promuovere l'apertura nei futuri sistemi auto-evolutivi, introduciamo EvolveLab, un codebase unificato per la memoria auto-evolutiva che condensa dodici sistemi di memoria rappresentativi in uno spazio di progettazione modulare (codifica, memorizzazione, recupero, gestione), fornendo sia un substrato di implementazione standardizzato che un'arena sperimentale equa. Valutazioni estensive su quattro benchmark agentici complessi dimostrano che MemEvolve raggiunge (I) miglioramenti prestazionali sostanziali, potenziando framework come SmolAgent e Flash-Searcher fino al 17,06%; e (II) una forte generalizzazione cross-task e cross-LLM, progettando architetture di memoria che si trasferiscono efficacemente attraverso benchmark e modelli backbone diversi.
English
Self-evolving memory systems are unprecedentedly reshaping the evolutionary paradigm of large language model (LLM)-based agents. Prior work has predominantly relied on manually engineered memory architectures to store trajectories, distill experience, and synthesize reusable tools, enabling agents to evolve on the fly within environment interactions. However, this paradigm is fundamentally constrained by the staticity of the memory system itself: while memory facilitates agent-level evolving, the underlying memory architecture cannot be meta-adapted to diverse task contexts. To address this gap, we propose MemEvolve, a meta-evolutionary framework that jointly evolves agents' experiential knowledge and their memory architecture, allowing agent systems not only to accumulate experience but also to progressively refine how they learn from it. To ground MemEvolve in prior research and foster openness in future self-evolving systems, we introduce EvolveLab, a unified self-evolving memory codebase that distills twelve representative memory systems into a modular design space (encode, store, retrieve, manage), providing both a standardized implementation substrate and a fair experimental arena. Extensive evaluations on four challenging agentic benchmarks demonstrate that MemEvolve achieves (I) substantial performance gains, improving frameworks such as SmolAgent and Flash-Searcher by up to 17.06%; and (II) strong cross-task and cross-LLM generalization, designing memory architectures that transfer effectively across diverse benchmarks and backbone models.
PDF191December 25, 2025