ChatPaper.aiChatPaper

PersonalAI: 개인화된 LLM 에이전트를 위한 지식 그래프 저장 및 검색 접근법의 체계적 비교

PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents

April 12, 2026
저자: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI

초록

사용자 상호작용 기록을 효과적으로 통합하여 언어 모델을 개인화하는 것은 적응형 AI 시스템 개발의 핵심 과제로 남아 있습니다. 대규모 언어 모델(LLM)과 검증 증강 생성(RAG)을 결합하면 사실적 정확도는 향상되었지만, 구조화된 메모리가 부족하고 복잡한 장기 상호작용에서 확장성이 떨어지는 경우가 많습니다. 이를 해결하기 위해 우리는 LLM에 의해 자동으로 구축 및 갱신되는 지식 그래프 기반의 유연한 외부 메모리 프레임워크를 제안합니다. AriGraph 아키텍처를 기반으로, 표준 간선과 두 종류의 초간선을 모두 지원하여 풍부하고 동적인 의미론적 및 시간적 표현을 가능하게 하는 새로운 하이브리드 그래프 설계를 소개합니다. 우리의 프레임워크는 A* 알고리즘, WaterCircles 순회, 빔 서치, 하이브리드 방법 등 다양한 검색 메커니즘을 지원하여 서로 다른 데이터셋과 LLM 성능에 적응할 수 있습니다. 우리는 TriviaQA, HotpotQA, DiaASQ 벤치마크에서 시스템을 평가하고, 작업에 따라 서로 다른 메모리 및 검색 구성이 최적의 성능을 보인다는 것을 입증합니다. 또한, 우리는 DiaASQ 벤치마크를 시간적 주석과 내부적으로 모순되는 문장으로 확장하여 우리 시스템이 시간적 의존성 관리와 상황 인식 추론에서 견고하고 효과적으로 작동함을 보여줍니다.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning
PDF11April 25, 2026