AdaMem: Memória Adaptativa Centrada no Usuário para Agentes de Diálogo de Longo Horizonte
AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents
March 17, 2026
Autores: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI
Resumo
Os agentes de modelos de linguagem de grande porte (LLM) dependem cada vez mais de memória externa para suportar interações de longo horizonte, assistência personalizada e raciocínio de múltiplos passos. No entanto, os sistemas de memória existentes ainda enfrentam três desafios principais: frequentemente dependem excessivamente de similaridade semântica, o que pode ignorar evidências cruciais para a compreensão centrada no usuário; armazenam frequentemente experiências relacionadas como fragmentos isolados, enfraquecendo a coerência temporal e causal; e geralmente utilizam granularidades de memória estáticas que não se adaptam bem aos requisitos de diferentes questões. Propomos o AdaMem, uma estrutura de memória adaptativa e centrada no usuário para agentes de diálogo de longo horizonte. O AdaMem organiza o histórico de diálogo em memórias de trabalho, episódica, de persona e em grafo, permitindo que o sistema preserve o contexto recente, experiências estruturadas de longo prazo, traços estáveis do usuário e conexões conscientes das relações dentro de uma estrutura unificada. No momento da inferência, o AdaMem primeiro resolve o participante alvo, depois constrói uma rota de recuperação condicionada pela questão que combina a recuperação semântica com a expansão de grafo consciente das relações apenas quando necessário, e finalmente produz a resposta através de um pipeline especializado por função para síntese de evidências e geração de respostas. Avaliamos o AdaMem nos benchmarks LoCoMo e PERSONAMEM para modelagem de usuário e raciocínio de longo horizonte. Os resultados experimentais mostram que o AdaMem alcança desempenho de última geração em ambos os benchmarks. O código será liberado após a aceitação.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.