ChatPaper.aiChatPaper

AdaMem: 장기 대화 에이전트를 위한 적응형 사용자 중심 메모리

AdaMem: Adaptive User-Centric Memory for Long-Horizon Dialogue Agents

March 17, 2026
저자: Shannan Yan, Jingchen Ni, Leqi Zheng, Jiajun Zhang, Peixi Wu, Dacheng Yin, Jing Lyu, Chun Yuan, Fengyun Rao
cs.AI

초록

대규모 언어 모델(LLM) 에이전트는 장기적 상호작용, 맞춤형 지원, 다단계 추론을 지원하기 위해 외부 메모리에 점점 더 의존하고 있습니다. 그러나 기존 메모리 시스템은 여전히 세 가지 핵심 과제에 직면해 있습니다: 의미적 유사성에 지나치게 의존하여 사용자 중심 이해에 중요한 증거를 놓치는 경우가 많고, 관련 경험을 고립된 단편으로 저장하여 시간적 및 인과적 일관성을 약화시키며, 일반적으로 다양한 질문의 요구 사항에 잘 적응하지 못하는 정적 메모리 세분화를 사용합니다. 우리는 장기 대화 에이전트를 위한 적응형 사용자 중심 메모리 프레임워크인 AdaMem을 제안합니다. AdaMem은 대화 기록을 작업 메모리, 에피소드 메모리, 페르소나 메모리, 그래프 메모리로 구성하여 최근 맥락, 구조화된 장기 경험, 안정적인 사용자 특성, 관계 인식 연결을 통합 프레임워크 내에서 보존할 수 있도록 합니다. 추론 시 AdaMem은 먼저 대상 참여자를 확인한 후, 필요할 때만 의미 검색과 관계 인식 그래프 확장을 결합한 질문 조건 기반 검색 경로를 구축하고, 증거 종합 및 응답 생성을 위한 역할 특화 파이프라인을 통해 최종 답변을 생성합니다. 우리는 장기적 추론 및 사용자 모델링을 위한 LoCoMo 및 PERSONAMEM 벤치마크에서 AdaMem을 평가했습니다. 실험 결과 AdaMem은 두 벤치마크에서 최첨단 성능을 달성함을 보여줍니다. 코드는 게재 승인 시 공개될 예정입니다.
English
Large language model (LLM) agents increasingly rely on external memory to support long-horizon interaction, personalized assistance, and multi-step reasoning. However, existing memory systems still face three core challenges: they often rely too heavily on semantic similarity, which can miss evidence crucial for user-centric understanding; they frequently store related experiences as isolated fragments, weakening temporal and causal coherence; and they typically use static memory granularities that do not adapt well to the requirements of different questions. We propose AdaMem, an adaptive user-centric memory framework for long-horizon dialogue agents. AdaMem organizes dialogue history into working, episodic, persona, and graph memories, enabling the system to preserve recent context, structured long-term experiences, stable user traits, and relation-aware connections within a unified framework. At inference time, AdaMem first resolves the target participant, then builds a question-conditioned retrieval route that combines semantic retrieval with relation-aware graph expansion only when needed, and finally produces the answer through a role-specialized pipeline for evidence synthesis and response generation. We evaluate AdaMem on the LoCoMo and PERSONAMEM benchmarks for long-horizon reasoning and user modeling. Experimental results show that AdaMem achieves state-of-the-art performance on both benchmarks. The code will be released upon acceptance.
PDF103March 20, 2026