PersonalAI: Un confronto sistematico degli approcci di archiviazione e recupero di grafi della conoscenza per agenti LLM personalizzati
PersonalAI: A Systematic Comparison of Knowledge Graph Storage and Retrieval Approaches for Personalized LLM agents
April 12, 2026
Autori: Mikhail Menschikov, Dmitry Evseev, Victoria Dochkina, Ruslan Kostoev, Ilia Perepechkin, Petr Anokhin, Nikita Semenov, Evgeny Burnaev
cs.AI
Abstract
La personalizzazione dei modelli linguistici attraverso un'incorporazione efficace della cronologia delle interazioni utente rimane una sfida centrale nello sviluppo di sistemi di IA adattivi. Sebbene i grandi modelli linguistici (LLM), combinati con la Generazione Aumentata dal Recupero (RAG), abbiano migliorato l'accuratezza fattuale, essi spesso mancano di una memoria strutturata e non riescono a scalare in interazioni complesse e a lungo termine. Per affrontare questo problema, proponiamo un framework flessibile di memoria esterna basato su un grafo della conoscenza che viene costruito e aggiornato automaticamente dall'LLM. Basandoci sull'architettura AriGraph, introduciamo una nuova progettazione di grafo ibrido che supporta sia archi standard sia due tipi di iper-archi, consentendo rappresentazioni semantiche e temporali ricche e dinamiche. Il nostro framework supporta inoltre meccanismi di recupero diversificati, inclusi l'algoritmo A*, l'attraversamento WaterCircles, la ricerca a fascio e metodi ibridi, rendendolo adattabile a diversi dataset e capacità degli LLM. Valutiamo il nostro sistema sui benchmark TriviaQA, HotpotQA e DiaASQ e dimostriamo che diverse configurazioni di memoria e recupero producono prestazioni ottimali a seconda del compito. Inoltre, estendiamo il benchmark DiaASQ con annotazioni temporali e affermazioni internamente contraddittorie, mostrando che il nostro sistema rimane robusto ed efficace nella gestione delle dipendenze temporali e del ragionamento consapevole del contesto.
English
Personalizing language models by effectively incorporating user interaction history remains a central challenge in the development of adaptive AI systems. While large language models (LLMs), combined with Retrieval-Augmented Generation (RAG), have improved factual accuracy, they often lack structured memory and fail to scale in complex, long-term interactions. To address this, we propose a flexible external memory framework based on a knowledge graph that is constructed and updated automatically by the LLM. Building upon the AriGraph architecture, we introduce a novel hybrid graph design that supports both standard edges and two types of hyper-edges, enabling rich and dynamic semantic and temporal representations. Our framework also supports diverse retrieval mechanisms, including A*, WaterCircles traversal, beam search, and hybrid methods, making it adaptable to different datasets and LLM capacities. We evaluate our system on TriviaQA, HotpotQA, DiaASQ benchmarks and demonstrate that different memory and retrieval configurations yield optimal performance depending on the task. Additionally, we extend the DiaASQ benchmark with temporal annotations and internally contradictory statements, showing that our system remains robust and effective in managing temporal dependencies and context-aware reasoning