Uso Controlável de Memória: Equilibrando Ancoragem e Inovação na Interação Humano-Agente de Longo Prazo
Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction
January 8, 2026
Autores: Muzhao Tian, Zisu Huang, Xiaohua Wang, Jingwen Xu, Zhengkang Guo, Qi Qian, Yuanzhe Shen, Kaitao Song, Jiakang Yuan, Changze Lv, Xiaoqing Zheng
cs.AI
Resumo
Com o aumento do uso de agentes baseados em LLM em interações de longo prazo, a memória cumulativa é fundamental para permitir a personalização e manter a consistência estilística. No entanto, a maioria dos sistemas existentes adota uma abordagem de "tudo ou nada" para o uso da memória: incorporar todas as informações passadas relevantes pode levar à Ancoragem de Memória, onde o agente fica preso a interações passadas, enquanto excluir completamente a memória resulta em subutilização e na perda do histórico importante de interações. Mostramos que a dependência de memória de um agente pode ser modelada como uma dimensão explícita e controlável pelo utilizador. Primeiro, introduzimos uma métrica comportamental de dependência de memória para quantificar a influência das interações passadas nas saídas atuais. Em seguida, propomos o Agente de Memória Orientável, SteeM, uma estrutura que permite aos utilizadores regular dinamicamente a dependência da memória, variando de um modo de reinício que promove a inovação até um modo de alta fidelidade que segue de perto o histórico de interações. Experiências em diferentes cenários demonstram que a nossa abordagem supera consistentemente as estratégias convencionais de *prompting* e de mascaramento rígido de memória, proporcionando um controlo mais subtil e eficaz para a colaboração personalizada entre humanos e agentes.
English
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to Memory Anchoring, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose Steerable Memory Agent, SteeM, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.