Steuerbarer Speicherverbrauch: Abwägung zwischen Verankerung und Innovation in der langfristigen Mensch-Agenten-Interaktion
Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction
January 8, 2026
papers.authors: Muzhao Tian, Zisu Huang, Xiaohua Wang, Jingwen Xu, Zhengkang Guo, Qi Qian, Yuanzhe Shen, Kaitao Song, Jiakang Yuan, Changze Lv, Xiaoqing Zheng
cs.AI
papers.abstract
Da LLM-basierte Agenten zunehmend in langfristigen Interaktionen eingesetzt werden, ist kumulatives Gedächtnis entscheidend für Personalisierung und die Beibehaltung stilistischer Konsistenz. Allerdings verwenden die meisten bestehenden Systeme einen „Alles-oder-nichts“-Ansatz zur Gedächtnisnutzung: Die Einbeziehung aller relevanten Vergangenheitsinformationen kann zu „Memory Anchoring“ führen, bei dem der Agent in vergangenen Interaktionen gefangen ist, während der vollständige Ausschluss des Gedächtnisses zu Unterauslastung und Verlust wichtiger Interaktionshistorie führt. Wir zeigen, dass die Abhängigkeit eines Agenten vom Gedächtnis als explizite und benutzerkontrollierbare Dimension modelliert werden kann. Wir führen zunächst eine behavioralistische Metrik der Gedächtnisabhängigkeit ein, um den Einfluss vergangener Interaktionen auf aktuelle Outputs zu quantifizieren. Anschließend schlagen wir den Steerable Memory Agent (SteeM) vor – ein Framework, das Benutzern ermöglicht, die Gedächtnisabhängigkeit dynamisch zu regulieren, von einem Neustart-Modus, der Innovation fördert, bis zu einem Hochpräzisions-Modus, der eng der Interaktionshistorie folgt. Experimente in verschiedenen Szenarien zeigen, dass unser Ansatz konventionelle Prompting-Strategien und rigide Gedächtnismaskierung durchgängig übertrifft und eine differenziertere und effektivere Steuerung für personalisierte Mensch-Agent-Kollaboration ermöglicht.
English
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to Memory Anchoring, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose Steerable Memory Agent, SteeM, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.