ChatPaper.aiChatPaper

OpenDecoder: Offene Decodierung großer Sprachmodelle zur Integration von Dokumentqualität in RAG

OpenDecoder: Open Large Language Model Decoding to Incorporate Document Quality in RAG

January 13, 2026
papers.authors: Fengran Mo, Zhan Su, Yuchen Hui, Jinghan Zhang, Jia Ao Sun, Zheyuan Liu, Chao Zhang, Tetsuya Sakai, Jian-Yun Nie
cs.AI

papers.abstract

Die Entwicklung großer Sprachmodelle (LLM) hat überlegene Leistungen in einer Reihe von nachgelagerten Aufgaben erzielt, einschließlich der auf LLM basierenden retrieval-augmentierten Generierung (RAG). Die Qualität der generierten Inhalte hängt stark vom Nutzen der abgerufenen Informationen und von der Fähigkeit des internen Informationsverarbeitungsmechanismus der LLMs ab, diese in die Antwortgenerierung einzubeziehen. Allgemein wird angenommen, dass die abgerufenen Informationen für die Frage relevant sind. Die abgerufenen Informationen können jedoch je nach Frage und Dokumentensammlung einen unterschiedlichen Grad an Relevanz und Nützlichkeit aufweisen. Es ist wichtig, die Relevanz der abgerufenen Informationen bei der Antwortgenerierung zu berücksichtigen. In diesem Artikel schlagen wir OpenDecoder vor, einen neuen Ansatz, der die explizite Bewertung der abgerufenen Informationen als Qualitätsindikator-Merkmale für die Generierung nutzt. Unser Ziel ist es, ein RAG-Modell zu entwickeln, das robuster gegenüber unterschiedlichen Graden von Rauschen im Kontext ist. Drei Arten von expliziten Bewertungsinformationen werden berücksichtigt: Relevanz-Score, Ranking-Score und QPP-Score (Query Performance Prediction). Die experimentellen Ergebnisse auf fünf Benchmark-Datensätzen demonstrieren die Wirksamkeit und bessere Robustheit von OpenDecoder, indem verschiedene Baseline-Methoden übertroffen werden. Wichtig ist, dass dieses Paradigma flexibel in das Nachtraining von LLMs für beliebige Zwecke integriert und mit jeder Art von externen Indikatoren kombiniert werden kann.
English
The development of large language models (LLMs) has achieved superior performance in a range of downstream tasks, including LLM-based retrieval-augmented generation (RAG). The quality of generated content heavily relies on the usefulness of the retrieved information and the capacity of LLMs' internal information processing mechanism to incorporate it in answer generation. It is generally assumed that the retrieved information is relevant to the question. However, the retrieved information may have a variable degree of relevance and usefulness, depending on the question and the document collection. It is important to take into account the relevance of the retrieved information in answer generation. In this paper, we propose OpenDecoder, a new approach that leverages explicit evaluation of the retrieved information as quality indicator features for generation. We aim to build a RAG model that is more robust to varying levels of noisy context. Three types of explicit evaluation information are considered: relevance score, ranking score, and QPP (query performance prediction) score. The experimental results on five benchmark datasets demonstrate the effectiveness and better robustness of OpenDecoder by outperforming various baseline methods. Importantly, this paradigm is flexible to be integrated with the post-training of LLMs for any purposes and incorporated with any type of external indicators.
PDF171January 16, 2026