PersonalAI: Систематическое сравнение подходов к хранению и извлечению данных из графов знаний для персонализированных LLM-агентов
PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
April 12, 2026
Авторы: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI
Аннотация
Персонализация языковых моделей за счет эффективного включения истории взаимодействий с пользователем остается ключевой проблемой в разработке адаптивных систем искусственного интеллекта. Хотя большие языковые модели (БЯМ) в сочетании с генерацией, дополненной извлечением данных (RAG), повысили фактическую точность, они часто не имеют структурированной памяти и не масштабируются в условиях сложных долгосрочных взаимодействий. Для решения этой проблемы мы предлагаем гибкую фреймворк внешней памяти на основе графа знаний, который автоматически строится и обновляется БЯМ. Основываясь на архитектуре AriGraph, мы представляем новую гибридную структуру графа, поддерживающую как стандартные ребра, так и два типа гиперребер, что позволяет создавать богатые и динамичные семантические и временные представления. Наш фреймворк также поддерживает разнообразные механизмы извлечения, включая алгоритм A*, обход WaterCircles, лучевой поиск и гибридные методы, что делает его адаптируемым к различным наборам данных и возможностям БЯМ. Мы оцениваем нашу систему на бенчмарках TriviaQA, HotpotQA и DiaASQ и показываем, что различные конфигурации памяти и извлечения дают оптимальную производительность в зависимости от задачи. Кроме того, мы расширяем бенчмарк DiaASQ временными аннотациями и внутренне противоречивыми утверждениями, демонстрируя, что наша система сохраняет надежность и эффективность в управлении временными зависимостями и контекстно-зависимыми рассуждениями.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning