MemEvolve: Meta-Evolution von Agentengedächtnissystemen
MemEvolve: Meta-Evolution of Agent Memory Systems
December 21, 2025
papers.authors: Guibin Zhang, Haotian Ren, Chong Zhan, Zhenhong Zhou, Junhao Wang, He Zhu, Wangchunshu Zhou, Shuicheng Yan
cs.AI
papers.abstract
Selbst-evolvierende Gedächtnissysteme verändern den evolutionären Paradigmenwechsel von Agenten auf Basis großer Sprachmodelle (LLM) in bisher ungekannter Weise. Bisherige Arbeiten stützten sich überwiegend auf manuell konstruierte Gedächtnisarchitekturen, um Trajektorien zu speichern, Erfahrungen zu destillieren und wiederverwendbare Werkzeuge zu synthetisieren, was es Agenten ermöglicht, sich während der Interaktion mit ihrer Umgebung dynamisch weiterzuentwickeln. Dieses Paradigma ist jedoch grundlegend durch die Statik des Gedächtnissystems selbst begrenzt: Während das Gedächtnis die Evolution auf Agentenebene ermöglicht, kann die zugrundeliegende Gedächtnisarchitektur nicht meta-adaptiv an verschiedene Aufgabenkontexte angepasst werden. Um diese Lücke zu schließen, schlagen wir MemEvolve vor, einen meta-evolutionären Rahmen, der sowohl das Erfahrungswissen der Agenten als auch ihre Gedächtnisarchitektur gemeinsam weiterentwickelt. Dies ermöglicht es Agentsystemen, nicht nur Erfahrungen anzusammeln, sondern auch schrittweise zu verfeinern, wie sie aus diesen Erfahrungen lernen. Um MemEvolve in vorheriger Forschung zu verankern und Offenheit in zukünftigen selbst-evolvierenden Systemen zu fördern, führen wir EvolveLab ein, eine vereinheitlichte Codebasis für selbst-evolvierendes Gedächtnis. Sie destilliert zwölf repräsentative Gedächtnissysteme in einen modularen Designraum (Enkodieren, Speichern, Abrufen, Verwalten) und bietet sowohl eine standardisierte Implementierungsgrundlage als auch eine faire experimentelle Arena. Umfangreiche Evaluierungen auf vier anspruchsvollen Agenten-Benchmarks zeigen, dass MemEvolve (I) erhebliche Leistungssteigerungen erzielt und Frameworks wie SmolAgent und Flash-Searcher um bis zu 17,06% verbessert; und (II) eine starke Generalisierung über Aufgaben und LLMs hinweg aufweist, indem es Gedächtnisarchitekturen entwirft, die effektiv über verschiedene Benchmarks und Basismodelle übertragbar sind.
English
Self-evolving memory systems are unprecedentedly reshaping the evolutionary paradigm of large language model (LLM)-based agents. Prior work has predominantly relied on manually engineered memory architectures to store trajectories, distill experience, and synthesize reusable tools, enabling agents to evolve on the fly within environment interactions. However, this paradigm is fundamentally constrained by the staticity of the memory system itself: while memory facilitates agent-level evolving, the underlying memory architecture cannot be meta-adapted to diverse task contexts. To address this gap, we propose MemEvolve, a meta-evolutionary framework that jointly evolves agents' experiential knowledge and their memory architecture, allowing agent systems not only to accumulate experience but also to progressively refine how they learn from it. To ground MemEvolve in prior research and foster openness in future self-evolving systems, we introduce EvolveLab, a unified self-evolving memory codebase that distills twelve representative memory systems into a modular design space (encode, store, retrieve, manage), providing both a standardized implementation substrate and a fair experimental arena. Extensive evaluations on four challenging agentic benchmarks demonstrate that MemEvolve achieves (I) substantial performance gains, improving frameworks such as SmolAgent and Flash-Searcher by up to 17.06%; and (II) strong cross-task and cross-LLM generalization, designing memory architectures that transfer effectively across diverse benchmarks and backbone models.