ChatPaper.aiChatPaper

Melhorando a Fidelidade de Contexto por meio de Raciocínio Aumentado por Recuperação Nativa

Improving Context Fidelity via Native Retrieval-Augmented Reasoning

September 17, 2025
Autores: Suyuchen Wang, Jinlin Wang, Xinyu Wang, Shiqi Li, Xiangru Tang, Sirui Hong, Xiao-Wen Chang, Chenglin Wu, Bang Liu
cs.AI

Resumo

Grandes modelos de linguagem (LLMs) frequentemente enfrentam dificuldades com a fidelidade ao contexto, produzindo respostas inconsistentes ao responder a perguntas baseadas em informações fornecidas. As abordagens existentes ou dependem de ajuste fino supervisionado custoso para gerar evidências após a resposta ou treinam modelos para realizar buscas na web sem necessariamente melhorar a utilização do contexto fornecido. Propomos o CARE, uma nova estrutura de raciocínio aumentado por recuperação nativa que ensina LLMs a integrar explicitamente evidências no contexto em seu processo de raciocínio com as próprias capacidades de recuperação do modelo. Nosso método requer dados de evidência rotulados limitados, enquanto melhora significativamente tanto a precisão da recuperação quanto o desempenho da geração de respostas por meio de tokens recuperados estrategicamente na cadeia de raciocínio. Experimentos extensivos em múltiplos benchmarks de QA do mundo real e contrafactuais demonstram que nossa abordagem supera substancialmente o ajuste fino supervisionado, métodos tradicionais de geração aumentada por recuperação e soluções de recuperação externa. Este trabalho representa um avanço fundamental em tornar LLMs mais precisos, confiáveis e eficientes para tarefas intensivas em conhecimento.
English
Large language models (LLMs) often struggle with context fidelity, producing inconsistent answers when responding to questions based on provided information. Existing approaches either rely on expensive supervised fine-tuning to generate evidence post-answer or train models to perform web searches without necessarily improving utilization of the given context. We propose CARE, a novel native retrieval-augmented reasoning framework that teaches LLMs to explicitly integrate in-context evidence within their reasoning process with the model's own retrieval capabilities. Our method requires limited labeled evidence data while significantly enhancing both retrieval accuracy and answer generation performance through strategically retrieved in-context tokens in the reasoning chain. Extensive experiments on multiple real-world and counterfactual QA benchmarks demonstrate that our approach substantially outperforms supervised fine-tuning, traditional retrieval-augmented generation methods, and external retrieval solutions. This work represents a fundamental advancement in making LLMs more accurate, reliable, and efficient for knowledge-intensive tasks.
PDF82September 18, 2025