Uso Controlable de Memoria: Equilibrando el Anclaje y la Innovación en la Interacción Humano-Agente a Largo Plazo
Controllable Memory Usage: Balancing Anchoring and Innovation in Long-Term Human-Agent Interaction
January 8, 2026
Autores: Muzhao Tian, Zisu Huang, Xiaohua Wang, Jingwen Xu, Zhengkang Guo, Qi Qian, Yuanzhe Shen, Kaitao Song, Jiakang Yuan, Changze Lv, Xiaoqing Zheng
cs.AI
Resumen
A medida que los agentes basados en LLM se utilizan cada vez más en interacciones a largo plazo, la memoria acumulativa es crucial para permitir la personalización y mantener la coherencia estilística. Sin embargo, la mayoría de los sistemas existentes adoptan un enfoque de "todo o nada" en el uso de la memoria: incorporar toda la información pasada relevante puede conducir a un Anclaje de Memoria, donde el agente queda atrapado por interacciones pasadas, mientras que excluir la memoria por completo resulta en una subutilización y la pérdida de un historial de interacciones importante. Demostramos que la dependencia de la memoria de un agente puede modelarse como una dimensión explícita y controlable por el usuario. Primero introducimos una métrica conductual de dependencia de memoria para cuantificar la influencia de interacciones pasadas en las salidas actuales. Luego proponemos Steerable Memory Agent, SteeM, un marco que permite a los usuarios regular dinámicamente la dependencia de la memoria, desde un modo de inicio fresco que promueve la innovación hasta un modo de alta fidelidad que sigue estrechamente el historial de interacciones. Experimentos en distintos escenarios demuestran que nuestro enfoque supera consistentemente a la inducción convencional y a las estrategias rígidas de enmascaramiento de memoria, logrando un control más matizado y efectivo para la colaboración personalizada entre humanos y agentes.
English
As LLM-based agents are increasingly used in long-term interactions, cumulative memory is critical for enabling personalization and maintaining stylistic consistency. However, most existing systems adopt an ``all-or-nothing'' approach to memory usage: incorporating all relevant past information can lead to Memory Anchoring, where the agent is trapped by past interactions, while excluding memory entirely results in under-utilization and the loss of important interaction history. We show that an agent's reliance on memory can be modeled as an explicit and user-controllable dimension. We first introduce a behavioral metric of memory dependence to quantify the influence of past interactions on current outputs. We then propose Steerable Memory Agent, SteeM, a framework that allows users to dynamically regulate memory reliance, ranging from a fresh-start mode that promotes innovation to a high-fidelity mode that closely follows interaction history. Experiments across different scenarios demonstrate that our approach consistently outperforms conventional prompting and rigid memory masking strategies, yielding a more nuanced and effective control for personalized human-agent collaboration.