AdaMem: Memoria Adaptativa Centrada en el Usuario para Agentes de Diálogo de Largo Horizonte
AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents
March 17, 2026
Autores: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI
Resumen
Los agentes de modelos de lenguaje grande (LLM) dependen cada vez más de la memoria externa para respaldar interacciones de largo horizonte, asistencia personalizada y razonamiento de múltiples pasos. Sin embargo, los sistemas de memoria existentes aún enfrentan tres desafíos centrales: a menudo dependen excesivamente de la similitud semántica, lo que puede pasar por alto evidencia crucial para la comprensión centrada en el usuario; frecuentemente almacenan experiencias relacionadas como fragmentos aislados, debilitando la coherencia temporal y causal; y típicamente utilizan granularidades de memoria estáticas que no se adaptan bien a los requisitos de diferentes preguntas. Proponemos AdaMem, un marco de memoria adaptativo y centrado en el usuario para agentes de diálogo de largo horizonte. AdaMem organiza el historial de diálogo en memorias de trabajo, episódica, de persona y de grafo, permitiendo al sistema preservar el contexto reciente, experiencias estructuradas a largo plazo, rasgos estables del usuario y conexiones conscientes de las relaciones dentro de un marco unificado. En el momento de la inferencia, AdaMem primero resuelve el participante objetivo, luego construye una ruta de recuperación condicionada por la pregunta que combina la recuperación semántica con la expansión de grafos consciente de las relaciones solo cuando es necesario, y finalmente produce la respuesta mediante una canalización especializada por roles para la síntesis de evidencia y la generación de respuestas. Evaluamos AdaMem en los benchmarks LoCoMo y PERSONAMEM para el razonamiento de largo horizonte y el modelado de usuarios. Los resultados experimentales muestran que AdaMem logra un rendimiento de vanguardia en ambos benchmarks. El código se liberará tras la aceptación.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.