ChatPaper.aiChatPaper

MemSkill: Aprendizagem e Evolução de Habilidades de Memória para Agentes de Auto-evolução

MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

February 2, 2026
Autores: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI

Resumo

A maioria dos sistemas de memória para agentes de Modelos de Língua de Grande Porte (LLM) depende de um pequeno conjunto de operações estáticas e manualmente projetadas para extrair memória. Esses procedimentos fixos codificam rigidamente pré-concepções humanas sobre o que armazenar e como revisar a memória, tornando-os inflexíveis sob padrões de interação diversos e ineficientes em históricos longos. Para tanto, apresentamos o MemSkill, que reformula essas operações como habilidades de memória aprendíveis e evolutivas – rotinas estruturadas e reutilizáveis para extrair, consolidar e podar informações de traços de interação. Inspirado pela filosofia de design de habilidades de agente, o MemSkill emprega um controlador que aprende a selecionar um pequeno conjunto de habilidades relevantes, emparelhado com um executor baseado em LLM que produz memórias guiadas por habilidades. Além de aprender a seleção de habilidades, o MemSkill introduz um designer que revisa periodicamente casos difíceis, nos quais as habilidades selecionadas produzem memórias incorretas ou incompletas, e evolui o conjunto de habilidades propondo refinamentos e novas habilidades. Juntos, o MemSkill forma um procedimento de ciclo fechado que melhora tanto a política de seleção de habilidades quanto o próprio conjunto de habilidades. Experimentos no LoCoMo, LongMemEval, HotpotQA e ALFWorld demonstram que o MemSkill melhora o desempenho em tarefas em relação a baselines fortes e generaliza bem em diferentes configurações. Análises adicionais elucidam como as habilidades evoluem, oferecendo insights para um gerenciamento de memória mais adaptativo e auto-evolutivo para agentes de LLM.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
PDF423February 7, 2026