PersonalAI: Uma Comparação Sistemática de Abordagens de Armazenamento e Recuperação em Grafos de Conhecimento para Agentes de LLM Personalizados
PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
April 12, 2026
Autores: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI
Resumo
A personalização de modelos de linguagem através da incorporação eficaz do histórico de interações do usuário permanece um desafio central no desenvolvimento de sistemas de IA adaptativos. Embora os grandes modelos de linguagem (LLMs), combinados com a Geração Aumentada por Recuperação (RAG), tenham melhorado a precisão factual, eles frequentemente carecem de memória estruturada e falham em escalar em interações complexas e de longo prazo. Para resolver isso, propomos uma estrutura flexível de memória externa baseada em um grafo de conhecimento que é construído e atualizado automaticamente pelo LLM. Com base na arquitetura AriGraph, introduzimos um novo design híbrido de grafo que suporta tanto arestas padrão quanto dois tipos de hiperarestas, permitindo representações semânticas e temporais ricas e dinâmicas. Nossa estrutura também suporta diversos mecanismos de recuperação, incluindo travessia A*, WaterCircles, busca em feixe e métodos híbridos, tornando-a adaptável a diferentes conjuntos de dados e capacidades de LLM. Avaliamos nosso sistema nos benchmarks TriviaQA, HotpotQA e DiaASQ e demonstramos que diferentes configurações de memória e recuperação produzem desempenho ideal dependendo da tarefa. Adicionalmente, estendemos o benchmark DiaASQ com anotações temporais e declarações internamente contraditórias, mostrando que nosso sistema permanece robusto e eficaz no gerenciamento de dependências temporais e no raciocínio consciente do contexto.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning