MemSkill: Aanleren en Evolueren van Geheugenvaardigheden voor Zelf-evoluerende Agenten
MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
February 2, 2026
Auteurs: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI
Samenvatting
De meeste geheugensystemen voor grootschalige taalmodel (LLM) agenten vertrouwen op een beperkte set statische, handmatig ontworpen operaties voor het extraheren van geheugen. Deze vaste procedures leggen menselijke aannames vast over wat opgeslagen moet worden en hoe geheugen moet worden herzien, waardoor ze rigide zijn bij diverse interactiepatronen en inefficiënt bij lange geschiedenissen. Daarom presenteren wij MemSkill, dat deze operaties herformuleert als leerbare en evolueerbare geheugenvaardigheden: gestructureerde en herbruikbare routines voor het extraheren, consolideren en snoeien van informatie uit interactiesporen. Geïnspireerd door de ontwerpfilosofie van agentvaardigheden, gebruikt MemSkill een controller die leert om een kleine set relevante vaardigheden te selecteren, gekoppeld aan een op LLM gebaseerde executor die vaardigheidsgestuurd geheugen produceert. Naast het leren van vaardigheidsselectie introduceert MemSkill een ontwerper die periodiek lastige gevallen analyseert waarin geselecteerde vaardigheden incorrecte of incomplete herinneringen opleveren, en die de vaardighedenset evolueert door verfijningen en nieuwe vaardigheden voor te stellen. Samen vormt MemSkill een gesloten-lusprocedure die zowel het vaardigheidsselectiebeleid als de vaardighedenset zelf verbetert. Experimenten op LoCoMo, LongMemEval, HotpotQA en ALFWorld tonen aan dat MemSkill de taakprestaties verbetert ten opzichte van sterke baseline-methoden en goed generaliseert over verschillende settings. Verdere analyses belichten hoe vaardigheden evolueren, wat inzichten biedt richting adaptiever, zelf-evoluerend geheugenbeheer voor LLM-agenten.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.