ChatPaper.aiChatPaper

MemSkill: Обучение и развитие навыков работы с памятью для саморазвивающихся агентов

MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents

February 2, 2026
Авторы: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI

Аннотация

Большинство систем памяти агентов на основе больших языковых моделей (LLM) полагаются на небольшой набор статических, заранее заданных операций для извлечения воспоминаний. Эти фиксированные процедуры жестко кодируют человеческие априорные представления о том, что сохранять и как обновлять память, что делает их негибкими при разнообразных сценариях взаимодействия и неэффективными при работе с длинными историями. Для решения этой проблемы мы представляем MemSkill — подход, который переосмысливает эти операции как обучаемые и развивающиеся навыки работы с памятью, структурированные и переиспользуемые процедуры для извлечения, консолидации и очистки информации из историй взаимодействия. Вдохновленные философией проектирования агентских навыков, мы реализуем в MemSkill контроллер, который обучается выбирать небольшой набор релевантных навыков, в паре с исполнителем на основе LLM, который формирует воспоминания под руководством выбранных навыков. Помимо обучения выбору навыков, MemSkill включает модуль проектировщика, который периодически анализирует сложные случаи, когда выбранные навыки приводят к некорректным или неполным воспоминаниям, и развивает набор навыков, предлагая их уточнение или создание новых. В совокупности MemSkill формирует замкнутый цикл, который улучшает как политику выбора навыков, так и сам набор навыков. Эксперименты на LoCoMo, LongMemEval, HotpotQA и ALFWorld демонстрируют, что MemSkill превосходит по эффективности решения задач сильные базовые методы и хорошо обобщается в различных условиях. Дополнительный анализ проливает свет на то, как эволюционируют навыки, открывая путь к более адаптивному, саморазвивающемуся управлению памятью для LLM-агентов.
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.
PDF232February 7, 2026