ChatPaper.aiChatPaper

LUMINA: Rilevamento di Allucinazioni nei Sistemi RAG mediante Segnali di Contesto-Conoscenza

LUMINA: Detecting Hallucinations in RAG System with Context-Knowledge Signals

September 26, 2025
Autori: Min-Hsuan Yeh, Yixuan Li, Tanwi Mallick
cs.AI

Abstract

La Generazione Aumentata dal Recupero (RAG) mira a mitigare le allucinazioni nei grandi modelli linguistici (LLM) basando le risposte su documenti recuperati. Tuttavia, i LLM basati su RAG continuano a produrre allucinazioni anche quando viene fornito un contesto corretto e sufficiente. Una crescente linea di ricerca suggerisce che ciò derivi da uno squilibrio tra il modo in cui i modelli utilizzano il contesto esterno e la loro conoscenza interna, e diversi approcci hanno tentato di quantificare questi segnali per il rilevamento delle allucinazioni. Tuttavia, i metodi esistenti richiedono un'ampia ottimizzazione degli iperparametri, limitandone la generalizzabilità. Proponiamo LUMINA, un nuovo framework che rileva le allucinazioni nei sistemi RAG attraverso segnali contesto-conoscenza: l'utilizzo del contesto esterno viene quantificato tramite distanza distributiva, mentre l'utilizzo della conoscenza interna viene misurato monitorando come i token previsti si evolvono attraverso i livelli del trasformatore. Introduciamo inoltre un framework per la validazione statistica di queste misurazioni. Esperimenti su benchmark comuni di allucinazioni RAG e su quattro LLM open-source dimostrano che LUMINA raggiunge punteggi AUROC e AUPRC costantemente elevati, superando i metodi basati sull'utilizzo precedenti fino a +13% AUROC su HalluRAG. Inoltre, LUMINA rimane robusto in condizioni di ipotesi rilassate sulla qualità del recupero e sulla corrispondenza del modello, offrendo sia efficacia che praticità.
English
Retrieval-Augmented Generation (RAG) aims to mitigate hallucinations in large language models (LLMs) by grounding responses in retrieved documents. Yet, RAG-based LLMs still hallucinate even when provided with correct and sufficient context. A growing line of work suggests that this stems from an imbalance between how models use external context and their internal knowledge, and several approaches have attempted to quantify these signals for hallucination detection. However, existing methods require extensive hyperparameter tuning, limiting their generalizability. We propose LUMINA, a novel framework that detects hallucinations in RAG systems through context-knowledge signals: external context utilization is quantified via distributional distance, while internal knowledge utilization is measured by tracking how predicted tokens evolve across transformer layers. We further introduce a framework for statistically validating these measurements. Experiments on common RAG hallucination benchmarks and four open-source LLMs show that LUMINA achieves consistently high AUROC and AUPRC scores, outperforming prior utilization-based methods by up to +13% AUROC on HalluRAG. Moreover, LUMINA remains robust under relaxed assumptions about retrieval quality and model matching, offering both effectiveness and practicality.
PDF92September 30, 2025