ChatPaper.aiChatPaper

AdaMem: Adaptief, gebruikersgericht geheugen voor dialoogagenten met lange-termijnhorizon

AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents

March 17, 2026
Auteurs: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI

Samenvatting

Grote-taalmodel (LLM) agenten vertrouwen steeds meer op extern geheugen om langdurige interactie, gepersonaliseerde ondersteuning en meerstaps redeneren te ondersteunen. Bestaande geheugensystemen kampen echter nog steeds met drie kernuitdagingen: ze steunen vaak te zwaar op semantische gelijkenis, wat cruciale bewijzen voor gebruikersgerichte interpretatie kan missen; ze slaan gerelateerde ervaringen vaak op als geïsoleerde fragmenten, wat de temporele en causale samenhang verzwakt; en ze gebruiken typisch statische geheugengranulariteiten die zich niet goed aanpassen aan de eisen van verschillende vragen. Wij stellen AdaMem voor, een adaptief, gebruikersgericht geheugenkader voor langdurige dialoogagenten. AdaMem organiseert dialooggeschiedenis in werk-, episodisch-, persona- en grafiekgeheugen, waardoor het systeem recente context, gestructureerde langetermijnervaringen, stabiele gebruikerskenmerken en relatiebewuste verbindingen binnen een uniform kader kan behouden. Tijdens inferentie lost AdaMem eerst de doeldeelnemer op, bouwt vervolgens een vraag-gestuurde ophaalroute die semantische retrievel combineert met relatiebewuste grafiekuitbreiding alleen wanneer nodig, en produceert ten slotte het antwoord via een rollengespecialiseerde pijplijn voor bewijssynthese en antwoordgeneratie. We evalueren AdaMem op de LoCoMo- en PERSONAMEM-benchmarks voor langetermijnredenering en gebruikersmodellering. Experimentele resultaten tonen aan dat AdaMem state-of-the-art prestaties behaalt op beide benchmarks. De code wordt vrijgegeven na acceptatie.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.
PDF103March 21, 2026