ChatPaper.aiChatPaper

制御可能なメモリ使用量:長期的な人間-エージェント相互作用における安定性と革新性のバランス

Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction

January 8, 2026
著者: Muzhao Tian, Zisu Huang, Xiaohua Wang, Jingwen Xu, Zhengkang Guo, Qi Qian, Yuanzhe Shen, Kaitao Song, Jiakang Yuan, Changze Lv, Xiaoqing Zheng
cs.AI

要旨

大規模言語モデル(LLM)ベースのエージェントが長期インタラクションで活用されるにつれ、累積的な記憶はパーソナライゼーションと文体的一貫性の維持において重要性を増している。しかし、既存システムの多くは記憶利用において「全てか無か」のアプローチを採用している。すなわち、関連する過去情報を全て取り込むとMemory Anchoring(記憶固定化)が生じエージェントが過去のインタラクションに束縛される一方、記憶を完全に排除すると利用不足や重要な対話履歴の喪失を招く。本論文では、エージェントの記憶依存性を明示的かつユーザ制御可能な次元としてモデル化できることを示す。まず、過去のインタラクションが現在の出力に与える影響を定量化するため、記憶依存性の行動指標を提案する。次に、Steerable Memory Agent(SteeM)フレームワークを開発し、イノベーションを促進する新規開始モードから、対話履歴を厳密に遵守する高忠実度モードまで、ユーザが記憶依存度を動的に調整できる機能を実現する。多様なシナリオでの実験により、本手法が従来のプロンプト手法や硬直的な記憶マスキング戦略を一貫して凌駕し、パーソナライズされた人間-エージェント協働のためにより繊細で効果的な制御を実現することを実証する。
English
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to Memory Anchoring, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose Steerable Memory Agent, SteeM, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.
PDF234January 31, 2026