ChatPaper.aiChatPaper

REFIND: Обнаружение фактических галлюцинаций в больших языковых моделях с использованием поискового усиления

REFIND: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models

February 19, 2025
Авторы: DongGeon Lee, Hwanjo Yu
cs.AI

Аннотация

Галлюцинации в выводах больших языковых моделей (LLM) существенно ограничивают их надежность в задачах, требующих глубоких знаний, таких как ответы на вопросы. Для решения этой проблемы мы представляем REFIND (Retrieval-augmented Factuality hallucINation Detection) — новый фреймворк, который обнаруживает галлюцинированные фрагменты в выводах LLM, напрямую используя извлеченные документы. В рамках REFIND мы предлагаем Context Sensitivity Ratio (CSR) — новую метрику, которая количественно оценивает чувствительность выводов LLM к извлеченным доказательствам. Этот инновационный подход позволяет REFIND эффективно и точно обнаруживать галлюцинации, выделяя его среди существующих методов. В ходе оценки REFIND продемонстрировал устойчивость в девяти языках, включая низкоресурсные среды, и значительно превзошел базовые модели, достигнув превосходных показателей IoU в идентификации галлюцинированных фрагментов. Эта работа подчеркивает эффективность количественной оценки чувствительности к контексту для обнаружения галлюцинаций, прокладывая путь к более надежным и доверенным приложениям LLM на различных языках.
English
Hallucinations in large language model (LLM) outputs severely limit their reliability in knowledge-intensive tasks such as question answering. To address this challenge, we introduce REFIND (Retrieval-augmented Factuality hallucINation Detection), a novel framework that detects hallucinated spans within LLM outputs by directly leveraging retrieved documents. As part of the REFIND, we propose the Context Sensitivity Ratio (CSR), a novel metric that quantifies the sensitivity of LLM outputs to retrieved evidence. This innovative approach enables REFIND to efficiently and accurately detect hallucinations, setting it apart from existing methods. In the evaluation, REFIND demonstrated robustness across nine languages, including low-resource settings, and significantly outperformed baseline models, achieving superior IoU scores in identifying hallucinated spans. This work highlights the effectiveness of quantifying context sensitivity for hallucination detection, thereby paving the way for more reliable and trustworthy LLM applications across diverse languages.

Summary

AI-Generated Summary

PDF42February 20, 2025