ChatPaper.aiChatPaper

PersonalAI: パーソナライズドLLMエージェントのための知識グラフストレージと検索アプローチの体系的比較

PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents

April 12, 2026
著者: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI

要旨

ユーザーの対話履歴を効果的に組み込むことで言語モデルを個人化することは、適応型AIシステムの開発における中心的な課題である。検索拡張生成(RAG)と組み合わせた大規模言語モデル(LLM)は事実の正確性を向上させたが、構造化されたメモリを欠き、複雑で長期的な対話においてスケーラビリティに課題がある。この問題に対処するため、我々はLLMによって自動構築・更新される知識グラフに基づく柔軟な外部メモリフレームワークを提案する。AriGraphアーキテクチャを発展させ、標準エッジと2種類のハイパーエッジをサポートする新しいハイブリッドグラフ設計を導入し、豊かで動的な意味的・時間的表現を可能にする。本フレームワークは、A*探索、WaterCirclesトラバーサル、ビームサーチ、ハイブリッド手法など多様な検索メカニズムをサポートし、異なるデータセットやLLMの能力に適応可能である。TriviaQA、HotpotQA、DiaASQベンチマークによる評価では、タスクに応じて異なるメモリと検索の構成が最適な性能を発揮することを実証した。さらに、DiaASQベンチマークを時間的アノテーションと内部矛盾する文で拡張し、提案システムが時間的依存関係の管理と文脈を考慮した推論において堅牢かつ効果的であることを示す。
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning
PDF11April 25, 2026