AdaMem: Memoria Adattiva Centrata sull'Utente per Agenti di Dialogo a Lungo Orizzonte
AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents
March 17, 2026
Autori: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) agenti si affidano sempre più a memorie esterne per supportare interazioni a lungo termine, assistenza personalizzata e ragionamenti multi-step. Tuttavia, i sistemi di memoria esistenti affrontano ancora tre sfide fondamentali: spesso fanno troppo affidamento sulla similarità semantica, che può tralasciare evidenze cruciali per una comprensione centrata sull'utente; memorizzano frequentemente esperienze correlate come frammenti isolati, indebolendo la coerenza temporale e causale; e tipicamente utilizzano granularità di memoria statiche che non si adattano bene alle esigenze di diverse domande. Proponiamo AdaMem, un framework di memoria adattivo e centrato sull'utente per agenti di dialogo a lungo termine. AdaMem organizza la cronologia del dialogo in memorie di lavoro, episodiche, di persona e a grafo, consentendo al sistema di preservare il contesto recente, esperienze a lungo termine strutturate, tratti utente stabili e connessioni consapevoli delle relazioni all'interno di un framework unificato. Al momento dell'inferenza, AdaMem risolve prima il partecipante target, poi costruisce un percorso di retrieval condizionato alla domanda che combina il retrieval semantico con un'espansione del grafo relation-aware solo quando necessario, e infine produce la risposta attraverso una pipeline specializzata per ruolo per la sintesi delle evidenze e la generazione della risposta. Valutiamo AdaMem sui benchmark LoCoMo e PERSONAMEM per il ragionamento a lungo termine e la modellazione dell'utente. I risultati sperimentali mostrano che AdaMem raggiunge prestazioni state-of-the-art su entrambi i benchmark. Il codice verrà rilasciato al momento dell'accettazione.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.