ChatPaper.aiChatPaper

PersonalAI : Comparaison systématique des approches de stockage et de récupération de graphes de connaissances pour des agents LLM personnalisés

PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents

April 12, 2026
Auteurs: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI

Résumé

La personnalisation des modèles de langage par l'intégration efficace de l'historique des interactions utilisateur demeure un défi central dans le développement de systèmes d'IA adaptatifs. Bien que les grands modèles de langage (LLM), combinés à la génération augmentée par retrieval (RAG), aient amélioré la précision factuelle, ils manquent souvent de mémoire structurée et peinent à passer à l'échelle dans des interactions complexes et à long terme. Pour résoudre ce problème, nous proposons un cadre de mémoire externe flexible basé sur un graphe de connaissances qui est construit et mis à jour automatiquement par le LLM. En nous appuyant sur l'architecture AriGraph, nous introduisons une conception hybride de graphe novatrice qui prend en charge à la fois les arêtes standard et deux types d'hyper-arêtes, permettant des représentations sémantiques et temporelles riches et dynamiques. Notre cadre prend également en charge divers mécanismes de retrieval, incluant le parcours A*, WaterCircles, la recherche par faisceau et des méthodes hybrides, le rendant adaptable à différents jeux de données et capacités de LLM. Nous évaluons notre système sur les benchmarks TriviaQA, HotpotQA et DiaASQ et démontrons que différentes configurations de mémoire et de retrieval produisent des performances optimales selon la tâche. De plus, nous étendons le benchmark DiaASQ avec des annotations temporelles et des énoncés internes contradictoires, montrant que notre système reste robuste et efficace dans la gestion des dépendances temporelles et du raisonnement contextuel.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning
PDF11April 25, 2026