MemSkill: Erlernen und Entwickeln von Gedächtnisfähigkeiten für sich selbst weiterentwickelnde Agenten
MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
February 2, 2026
papers.authors: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI
papers.abstract
Die meisten Speichersysteme für große Sprachmodelle (LLM-Agenten) stützen sich auf eine kleine Anzahl statischer, manuell entworfener Operationen zur Speicherextraktion. Diese festgelegten Verfahren kodieren menschliche Vorannahmen darüber, was gespeichert werden soll und wie der Speicher aktualisiert werden muss, was sie unflexibel bei unterschiedlichen Interaktionsmustern und ineffizient bei langen Verläufen macht. Daher stellen wir MemSkill vor, das diese Operationen als erlernbare und weiterentwickelbare Speicherfähigkeiten neu konzipiert – strukturierte und wiederverwendbare Routinen zum Extrahieren, Konsolidieren und Bereinigen von Informationen aus Interaktionsverläufen. Inspiriert durch das Gestaltungskonzept von Agentenfähigkeiten setzt MemSkill einen Controller ein, der lernt, eine kleine Gruppe relevanter Fähigkeiten auszuwählen, gepaart mit einem LLM-basierten Executor, der fähigkeitsgesteuerte Erinnerungen erzeugt. Über das Erlernen der Fähigkeitsauswahl hinaus führt MemSkill einen Designer ein, der regelmäßig schwierige Fälle überprüft, in denen ausgewählte Fähigkeiten zu fehlerhaften oder unvollständigen Erinnerungen führen, und den Fähigkeitensatz durch das Vorschlagen von Verfeinerungen und neuen Fähigkeiten weiterentwickelt. Zusammen bildet MemSkill ein geschlossenes Verfahren, das sowohl die Richtlinie zur Fähigkeitsauswahl als auch den Fähigkeitensatz selbst verbessert. Experimente mit LoCoMo, LongMemEval, HotpotQA und ALFWorld zeigen, dass MemSkill die Aufgabenerfüllung im Vergleich zu starken Baseline-Modellen verbessert und sich gut über verschiedene Einstellungen hinweg verallgemeinern lässt. Weitere Analysen beleuchten, wie sich Fähigkeiten entwickeln, und liefern Erkenntnisse für ein adaptiveres, sich selbst weiterentwickelndes Speichermanagement für LLM-Agenten.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.