MemSkill: 自己進化エージェントのためのメモリスキルの学習と進化
MemSkill: Learning and Evolving Memory Skills for Self-Evolving Agents
February 2, 2026
著者: Haozhen Zhang, Quanyu Long, Jianzhu Bao, Tao Feng, Weizhi Zhang, Haodong Yue, Wenya Wang
cs.AI
要旨
大規模言語モデル(LLM)エージェントのメモリシステムの多くは、メモリを抽出するための静的な手動作成の操作セットに依存しています。これらの固定された手順は、何を記憶すべきか、どのようにメモリを更新すべきかについての人間の事前知識をハードコードしており、多様なインタラクションパターンに対して硬直的で、長い履歴に対して非効率となっています。この課題に対処するため、我々はMemSkillを提案します。これはメモリ操作を学習可能で進化可能な「メモリスキル」として再定義するもので、インタラクション履歴から情報を抽出・統合・剪定する構造化された再利用可能なルーチンです。エージェントスキルの設計哲学に着想を得て、MemSkillは関連する少数のスキルを選択するコントローラと、スキルに導かれてメモリを生成するLLMベースのエグゼキュータを組み合わせます。スキル選択の学習に加えて、MemSkillは定期的に困難なケース(選択されたスキルが不正確または不完全なメモリを生成した場合)をレビューし、スキルの改良や新規スキルの提案を通じてスキルセットを進化させるデザイナを導入します。これらが一体となり、MemSkillはスキル選択ポリシーとスキルセット自体の両方を改善する閉ループ手順を形成します。LoCoMo、LongMemEval、HotpotQA、ALFWorldにおける実験により、MemSkillが強力なベースラインを上回るタスク性能を達成し、様々な設定にわたって良好な汎化性能を示すことを実証しました。さらに分析を通じて、スキルがどのように進化するかを明らかにし、LLMエージェントのより適応的で自己進化するメモリ管理に向けた知見を提供します。
English
Most Large Language Model (LLM) agent memory systems rely on a small set of static, hand-designed operations for extracting memory. These fixed procedures hard-code human priors about what to store and how to revise memory, making them rigid under diverse interaction patterns and inefficient on long histories. To this end, we present MemSkill, which reframes these operations as learnable and evolvable memory skills, structured and reusable routines for extracting, consolidating, and pruning information from interaction traces. Inspired by the design philosophy of agent skills, MemSkill employs a controller that learns to select a small set of relevant skills, paired with an LLM-based executor that produces skill-guided memories. Beyond learning skill selection, MemSkill introduces a designer that periodically reviews hard cases where selected skills yield incorrect or incomplete memories, and evolves the skill set by proposing refinements and new skills. Together, MemSkill forms a closed-loop procedure that improves both the skill-selection policy and the skill set itself. Experiments on LoCoMo, LongMemEval, HotpotQA, and ALFWorld demonstrate that MemSkill improves task performance over strong baselines and generalizes well across settings. Further analyses shed light on how skills evolve, offering insights toward more adaptive, self-evolving memory management for LLM agents.