ChatPaper.aiChatPaper

MemSkill: Apprendimento ed Evoluzione di Abilità di Memoria per Agenti Auto-Evolutivi

MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

February 2, 2026
Autori: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI

Abstract

La maggior parte dei sistemi di memoria per agenti basati su Large Language Model (LLM) si affida a un piccolo insieme di operazioni statiche e progettate manualmente per l'estrazione dei ricordi. Queste procedure fisse codificano rigidamente i preconcetti umani su cosa memorizzare e come revisionare la memoria, rendendole inflessibili sotto diversi pattern di interazione e inefficienti su cronologie lunghe. A tal fine, presentiamo MemSkill, che riformula queste operazioni come abilità di memoria apprendibili ed evolvibili, ovvero routine strutturate e riutilizzabili per estrarre, consolidare e sfoltire le informazioni dalle tracce di interazione. Ispirandosi alla filosofia progettuale delle abilità degli agenti, MemSkill impiega un controller che apprende a selezionare un piccolo insieme di abilità rilevanti, abbinato a un esecutore basato su LLM che produce ricordi guidati dalle abilità. Oltre ad apprendere la selezione delle abilità, MemSkill introduce un progettista che revisiona periodicamente i casi difficili in cui le abilità selezionate producono ricordi errati o incompleti, ed evolve l'insieme di abilità proponendo raffinamenti e nuove abilità. Insieme, MemSkill forma una procedura a ciclo chiuso che migliora sia la politica di selezione delle abilità che l'insieme di abilità stesso. Esperimenti su LoCoMo, LongMemEval, HotpotQA e ALFWorld dimostrano che MemSkill migliora le prestazioni dei compiti rispetto a baseline solide e generalizza bene across diverse impostazioni. Ulteriori analisi chiariscono come le abilità si evolvono, offrendo spunti verso una gestione della memoria più adattiva e auto-evolutiva per gli agenti LLM.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
PDF624April 1, 2026