PersonalAI: Comparación Sistemática de Enfoques de Almacenamiento y Recuperación de Grafos de Conocimiento para Agentes de LLM Personalizados
PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
April 12, 2026
Autores: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI
Resumen
La personalización de modelos de lenguaje mediante la incorporación efectiva del historial de interacciones del usuario sigue siendo un desafío central en el desarrollo de sistemas de IA adaptativos. Si bien los modelos de lenguaje grandes (LLM), combinados con Generación Aumentada por Recuperación (RAG), han mejorado la precisión factual, a menudo carecen de memoria estructurada y no escalan adecuadamente en interacciones complejas y a largo plazo. Para abordar este problema, proponemos un marco de memoria externa flexible basado en un grafo de conocimiento que es construido y actualizado automáticamente por el LLM. Sobre la arquitectura AriGraph, introducimos un diseño novedoso de grafo híbrido que admite tanto aristas estándar como dos tipos de hiperaristas, permitiendo representaciones semánticas y temporales ricas y dinámicas. Nuestro marco también admite diversos mecanismos de recuperación, incluyendo recorridos A*, WaterCircles, búsqueda por haz y métodos híbridos, lo que lo hace adaptable a diferentes conjuntos de datos y capacidades de LLM. Evaluamos nuestro sistema en los benchmarks TriviaQA, HotpotQA y DiaASQ, y demostramos que diferentes configuraciones de memoria y recuperación producen un rendimiento óptimo según la tarea. Adicionalmente, extendemos el benchmark DiaASQ con anotaciones temporales y declaraciones internamente contradictorias, mostrando que nuestro sistema mantiene su robustez y efectividad en el manejo de dependencias temporales y el razonamiento consciente del contexto.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning