ChatPaper.aiChatPaper

AdaMem : Mémoire adaptative centrée sur l'utilisateur pour les agents de dialogue à long terme

AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents

March 17, 2026
Auteurs: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI

Résumé

Les agents de modèles de langage de grande taille (LLM) s'appuient de plus en plus sur une mémoire externe pour prendre en charge les interactions à long terme, l'assistance personnalisée et le raisonnement à étapes multiples. Cependant, les systèmes de mémoire existants sont encore confrontés à trois défis fondamentaux : ils reposent souvent trop sur la similarité sémantique, ce qui peut omettre des preuves cruciales pour la compréhension centrée sur l'utilisateur ; ils stockent fréquemment des expériences connexes sous forme de fragments isolés, affaiblissant ainsi la cohérence temporelle et causale ; et ils utilisent généralement des granularités de mémoire statiques qui ne s'adaptent pas bien aux exigences des différentes questions. Nous proposons AdaMem, un framework de mémoire adaptatif et centré sur l'utilisateur pour les agents de dialogue à long terme. AdaMem organise l'historique des dialogues en mémoires de travail, épisodique, de persona et en graphes, permettant au système de préserver le contexte récent, les expériences structurées à long terme, les traits stables de l'utilisateur et les connexions sensibles aux relations dans un cadre unifié. Au moment de l'inférence, AdaMem résout d'abord le participant cible, puis construit une route de récupération conditionnée par la question qui combine la récupération sémantique avec l'expansion de graphe relationnelle uniquement lorsque nécessaire, et produit finalement la réponse grâce à un pipeline spécialisé par rôle pour la synthèse des preuves et la génération de réponses. Nous évaluons AdaMem sur les benchmarks LoCoMo et PERSONAMEM pour le raisonnement à long terme et la modélisation utilisateur. Les résultats expérimentaux montrent qu'AdaMem obtient des performances de pointe sur les deux benchmarks. Le code sera publié après acceptation.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.
PDF103March 20, 2026