ChatPaper.aiChatPaper

MemSkill : Apprentissage et évolution de compétences mémorielles pour agents auto-évolutifs

MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

February 2, 2026
papers.authors: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI

papers.abstract

La plupart des systèmes de mémoire des agents à modèle de langage (LLM) reposent sur un petit ensemble d'opérations statiques et prédéfinies pour extraire les souvenirs. Ces procédures figées intègrent de manière rigide des préconceptions humaines sur ce qu'il faut stocker et comment réviser la mémoire, les rendant peu flexibles face à des schémas d'interaction diversifiés et inefficaces sur de longues histoires. Pour pallier cela, nous présentons MemSkill, qui reformule ces opérations en compétences mémorielles apprenables et évolutives, c'est-à-dire des routines structurées et réutilisables pour extraire, consolider et élaguer l'information à partir des traces d'interaction. S'inspirant de la philosophie de conception des compétences d'agents, MemSkill utilise un contrôleur qui apprend à sélectionner un petit ensemble de compétences pertinentes, couplé à un exécuteur basé sur un LLM qui produit des souvenirs guidés par ces compétences. Au-delà de l'apprentissage de la sélection des compétences, MemSkill introduit un concepteur qui examine périodiquement les cas difficiles où les compétences sélectionnées produisent des souvenirs incorrects ou incomplets, et fait évoluer l'ensemble des compétences en proposant des améliorations et de nouvelles compétences. Ensemble, MemSkill forme une procédure en boucle fermée qui améliore à la fois la politique de sélection des compétences et l'ensemble des compétences lui-même. Les expériences sur LoCoMo, LongMemEval, HotpotQA et ALFWorld démontrent que MemSkill améliore les performances des tâches par rapport à des bases de référence solides et généralise bien across différents contextes. Des analyses plus poussées éclairent la manière dont les compétences évoluent, offrant des perspectives vers une gestion de mémoire plus adaptative et auto-évolutive pour les agents LLM.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
PDF313February 7, 2026