ChatPaper.aiChatPaper

Verbesserung der Kontexttreue durch native retrievergestützte Argumentation

Improving Context Fidelity via Native Retrieval-Augmented Reasoning

September 17, 2025
papers.authors: Suyuchen Wang, Jinlin Wang, Xinyu Wang, Shiqi Li, Xiangru Tang, Sirui Hong, Xiao-Wen Chang, Chenglin Wu, Bang Liu
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) haben oft Schwierigkeiten mit der Kontexttreue und liefern inkonsistente Antworten, wenn sie Fragen auf der Grundlage bereitgestellter Informationen beantworten sollen. Bestehende Ansätze verlassen sich entweder auf teures überwachtes Fein-Tuning, um nach der Antwort Beweise zu generieren, oder trainieren Modelle, um Websuchen durchzuführen, ohne unbedingt die Nutzung des gegebenen Kontexts zu verbessern. Wir schlagen CARE vor, ein neuartiges natives, retrieval-augmentiertes Reasoning-Framework, das LLMs beibringt, explizit kontextinterne Beweise in ihren Reasoning-Prozess zu integrieren, indem sie die eigenen Retrieval-Fähigkeiten des Modells nutzen. Unsere Methode erfordert nur begrenzte annotierte Beweisdaten und verbessert sowohl die Retrieval-Genauigkeit als auch die Antwortgenerierungsleistung durch strategisch abgerufene kontextinterne Tokens in der Reasoning-Kette. Umfangreiche Experimente auf mehreren realen und kontrafaktischen QA-Benchmarks zeigen, dass unser Ansatz überwachtes Fein-Tuning, traditionelle retrieval-augmentierte Generierungsmethoden und externe Retrieval-Lösungen deutlich übertrifft. Diese Arbeit stellt einen grundlegenden Fortschritt dar, um LLMs für wissensintensive Aufgaben genauer, zuverlässiger und effizienter zu machen.
English
Large language models (LLMs) often struggle with context fidelity, producing inconsistent answers when responding to questions based on provided information. Existing approaches either rely on expensive supervised fine-tuning to generate evidence post-answer or train models to perform web searches without necessarily improving utilization of the given context. We propose CARE, a novel native retrieval-augmented reasoning framework that teaches LLMs to explicitly integrate in-context evidence within their reasoning process with the model's own retrieval capabilities. Our method requires limited labeled evidence data while significantly enhancing both retrieval accuracy and answer generation performance through strategically retrieved in-context tokens in the reasoning chain. Extensive experiments on multiple real-world and counterfactual QA benchmarks demonstrate that our approach substantially outperforms supervised fine-tuning, traditional retrieval-augmented generation methods, and external retrieval solutions. This work represents a fundamental advancement in making LLMs more accurate, reliable, and efficient for knowledge-intensive tasks.
PDF51September 18, 2025