ChatPaper.aiChatPaper

제어 가능한 메모리 사용: 장기적 인간-에이전트 상호작용에서의 정착과 혁신 균형

Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction

January 8, 2026
저자: Muzhao Tian, Zisu Huang, Xiaohua Wang, Jingwen Xu, Zhengkang Guo, Qi Qian, Yuanzhe Shen, Kaitao Song, Jiakang Yuan, Changze Lv, Xiaoqing Zheng
cs.AI

초록

LLM 기반 에이전트가 장기 상호작용에 점점 더 많이 활용됨에 따라 누적 메모리는 개인화를 가능하게 하고 스타일 일관성을 유지하는 데 핵심적입니다. 그러나 대부분의 기존 시스템은 메모리 사용에 있어 '전부 또는 무(all-or-nothing)' 방식을 채택하고 있습니다: 관련된 모든 과거 정보를 포함하면 에이전트가 과거 상호작용에 얽매이는 '메모리 앵커링(Memory Anchoring)' 현상이 발생할 수 있는 반면, 메모리를 완전히 배제하면 활용도가 낮아지고 중요한 상호작용 기록이 손실됩니다. 우리는 에이전트의 메모리 의존도를 명시적이고 사용자가 제어 가능한 차원으로 모델링할 수 있음을 보여줍니다. 먼저 과거 상호작용이 현재 출력에 미치는 영향을 정량화하기 위해 메모리 의존도에 대한 행동 지표를 소개합니다. 그런 다음 사용자가 메모리 의존도를 동적으로 조절할 수 있는 프레임워크인 Steerable Memory Agent(SteeM)를 제안합니다. 이 프레임워크는 혁신을 촉진하는 새로 시작 모드(fresh-start mode)부터 상호작용 기록을 충실히 따르는 고정확도 모드(high-fidelity mode)까지 다양한 조절을 지원합니다. 다양한 시나리오에서의 실험을 통해 우리의 접근 방식이 기존의 프롬프팅 및 경직된 메모리 마스킹 전략을 일관되게 능가하며, 개인화된 인간-에이전트 협업을 위한 더욱 세밀하고 효과적인 제어를 제공함을 입증합니다.
English
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to Memory Anchoring, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose Steerable Memory Agent, SteeM, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.
PDF234January 31, 2026