ChatPaper.aiChatPaper

HalluGuard: Modelos de Raciocínio Pequenos Baseados em Evidências para Mitigar Alucinações em Geração Aumentada por Recuperação

HalluGuard: Evidence-Grounded Small Reasoning Models to Mitigate Hallucinations in Retrieval-Augmented Generation

October 1, 2025
Autores: Loris Bergeron, Ioana Buhnila, Jérôme François, Radu State
cs.AI

Resumo

Os Modelos de Linguagem de Grande Escala (LLMs) se destacam em muitas tarefas de PLN, mas ainda são propensos a alucinações, o que limita a confiança em aplicações do mundo real. Apresentamos o HalluGuard, um Modelo de Raciocínio Pequeno (SRM) com 4 bilhões de parâmetros, projetado para mitigar alucinações na Geração Aumentada por Recuperação (RAG). O HalluGuard classifica pares de documento-afirmação como fundamentados ou alucinados e produz justificativas baseadas em evidências para transparência. Nossa abordagem combina (i) um conjunto de dados sintético agnóstico a domínios, derivado do FineWeb e refinado por meio de curadoria em múltiplos estágios e reformulação de dados, (ii) afirmações sintéticas fundamentadas e alucinadas, e (iii) ajuste fino baseado em preferências com Otimização de Preferência por Razão de Chances para destilar o raciocínio de modelos grandes em uma arquitetura menor. No subconjunto RAGTruth do benchmark LLM-AggreFact, o HalluGuard alcança 84,0% de acurácia balanceada (BAcc), rivalizando com modelos especializados, como MiniCheck (7B; 84,0%) e Granite Guardian 3.3 (8B; 82,2%), enquanto utiliza aproximadamente metade dos parâmetros. No benchmark completo, ele atinge 75,7% de BAcc, equiparando-se a LLMs de propósito geral maiores, como GPT-4o (75,9%). Liberaremos o HalluGuard e os conjuntos de dados sob a licença Apache 2.0 após a aceitação.
English
Large Language Models (LLMs) excel in many NLP tasks but remain prone to hallucinations, limiting trust in real-world applications. We present HalluGuard, a 4B-parameter Small Reasoning Model (SRM) for mitigating hallucinations in Retrieval-Augmented Generation (RAG). HalluGuard classifies document-claim pairs as grounded or hallucinated and produces evidence-grounded justifications for transparency. Our approach combines (i) a domain-agnostic synthetic dataset derived from FineWeb and refined through multi-stage curation and data reformation, (ii) synthetic grounded and hallucinated claims, and (iii) preference-based fine-tuning with Odds Ratio Preference Optimization to distill large-model reasoning into a smaller backbone. On the RAGTruth subset of the LLM-AggreFact benchmark, HalluGuard achieves 84.0% balanced accuracy (BAcc), rivaling specialized models, MiniCheck (7B; 84.0%) and Granite Guardian 3.3 (8B; 82.2%) while using roughly half their parameters. Over the full benchmark it reaches 75.7% BAcc, matching larger general-purpose LLMs such as GPT-4o (75.9%). We will release HalluGuard and datasets under Apache 2.0 upon acceptance.
PDF02October 8, 2025