ChatPaper.aiChatPaper

REFIND: 大規模言語モデルにおける検索拡張型事実性幻覚検出

REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models

February 19, 2025
著者: DongGeon Lee, Hwanjo Yu
cs.AI

要旨

大規模言語モデル(LLM)の出力における幻覚(hallucination)は、質問応答などの知識集約型タスクにおける信頼性を著しく制限する。この課題に対処するため、我々はREFIND(Retrieval-augmented Factuality hallucINation Detection)を提案する。これは、検索された文書を直接活用してLLM出力内の幻覚スパンを検出する新しいフレームワークである。REFINDの一部として、LLM出力の検索エビデンスに対する感度を定量化する新たな指標であるContext Sensitivity Ratio(CSR)を提案する。この革新的なアプローチにより、REFINDは既存の手法と一線を画し、効率的かつ正確に幻覚を検出することが可能となる。評価において、REFINDは低リソース環境を含む9つの言語にわたる堅牢性を示し、ベースラインモデルを大幅に上回り、幻覚スパンの識別において優れたIoUスコアを達成した。本研究は、幻覚検出における文脈感度の定量化の有効性を強調し、多様な言語におけるより信頼性の高いLLMアプリケーションの道を開くものである。
English
Hallucinations in large language model (LLM) outputs severely limit their reliability in knowledge-intensive tasks such as question answering. To address this challenge, we introduce REFIND (Retrieval-augmented Factuality hallucINation Detection), a novel framework that detects hallucinated spans within LLM outputs by directly leveraging retrieved documents. As part of the REFIND, we propose the Context Sensitivity Ratio (CSR), a novel metric that quantifies the sensitivity of LLM outputs to retrieved evidence. This innovative approach enables REFIND to efficiently and accurately detect hallucinations, setting it apart from existing methods. In the evaluation, REFIND demonstrated robustness across nine languages, including low-resource settings, and significantly outperformed baseline models, achieving superior IoU scores in identifying hallucinated spans. This work highlights the effectiveness of quantifying context sensitivity for hallucination detection, thereby paving the way for more reliable and trustworthy LLM applications across diverse languages.

Summary

AI-Generated Summary

PDF42February 20, 2025