ChatPaper.aiChatPaper

MemSkill: Aprendizaje y Evolución de Habilidades de Memoria para Agentes de Auto-evolución

MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

February 2, 2026
Autores: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI

Resumen

La mayoría de los sistemas de memoria para agentes basados en Modelos de Lenguaje a Gran Escala (LLM) dependen de un pequeño conjunto de operaciones estáticas y diseñadas manualmente para extraer recuerdos. Estos procedimientos fijos codifican de forma rígida los prejuicios humanos sobre qué almacenar y cómo revisar la memoria, lo que los hace inflexibles ante diversos patrones de interacción e ineficientes con historiales largos. Para abordar este problema, presentamos MemSkill, un sistema que replantea estas operaciones como habilidades de memoria aprendibles y evolutivas: rutinas estructuradas y reutilizables para extraer, consolidar y podar información de las trazas de interacción. Inspirado por la filosofía de diseño de las habilidades de los agentes, MemSkill emplea un controlador que aprende a seleccionar un pequeño conjunto de habilidades relevantes, junto con un ejecutor basado en un LLM que produce recuerdos guiados por dichas habilidades. Más allá de aprender la selección de habilidades, MemSkill introduce un diseñador que revisa periódicamente casos difíciles donde las habilidades seleccionadas producen recuerdos incorrectos o incompletos, y hace evolucionar el conjunto de habilidades proponiendo refinamientos y nuevas habilidades. En conjunto, MemSkill forma un procedimiento de bucle cerrado que mejora tanto la política de selección de habilidades como el conjunto de habilidades en sí. Los experimentos en LoCoMo, LongMemEval, HotpotQA y ALFWorld demuestran que MemSkill mejora el rendimiento en las tareas respecto a líneas base sólidas y se generaliza bien en diferentes entornos. Análisis adicionales arrojan luz sobre cómo evolucionan las habilidades, ofreciendo insights hacia una gestión de memoria más adaptable y auto-evolutiva para agentes LLM.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
PDF313February 7, 2026