AdaMem: Adaptiver nutzerzentrierter Speicher für Dialogagenten mit langem Zeithorizont
AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents
March 17, 2026
Autoren: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI
Zusammenfassung
Große Sprachmodell-Agenten (LLM) greifen zunehmend auf externen Speicher zurück, um langfristige Interaktionen, personalisierte Assistenz und mehrstufige Schlussfolgerungen zu unterstützen. Allerdings stehen bestehende Speichersysteme nach wie vor vor drei zentralen Herausforderungen: Sie stützen sich oft zu stark auf semantische Ähnlichkeit, was für ein nutzerzentriertes Verständnis entscheidende Beweise übersehen kann; sie speichern verwandte Erfahrungen häufig als isolierte Fragmente, was die zeitliche und kausale Kohärenz schwächt; und sie verwenden typischerweise statische Speichergranularitäten, die sich nicht gut an die Anforderungen verschiedener Fragen anpassen. Wir schlagen AdaMem vor, ein adaptives, nutzerzentriertes Speicherframework für Agenten in langfristigen Dialogen. AdaMem organisiert den Dialogverlauf in Arbeits-, Episoden-, Personen- und Graph-Speicher, was es dem System ermöglicht, recenten Kontext, strukturierte Langzeiterfahrungen, stabile Nutzermerkmale und relationsbewusste Verbindungen innerhalb eines einheitlichen Frameworks zu bewahren. Zum Inferenzzeitpunkt löst AdaMem zunächst den Zielteilnehmer auf, erstellt dann eine fragengesteuerte Abfrage-Route, die semantische Abfrage mit relationsbewusster Grapherweiterung nur bei Bedarf kombiniert, und erzeugt schließlich die Antwort durch eine rollenspezialisierte Pipeline zur Beweissynthese und Antwortgenerierung. Wir evaluieren AdaMem auf den Benchmarks LoCoMo und PERSONAMEM für langfristiges Reasoning und Nutzermodellierung. Experimentelle Ergebnisse zeigen, dass AdaMem auf beiden Benchmarks state-of-the-art Leistung erzielt. Der Code wird bei Annahme der Arbeit veröffentlicht.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.