OpenDecoder: 文書品質をRAGに組み込むための大規模言語モデルオープンデコーディング
OpenDecoder: Open Large Language Model Decoding to Incorporate Document Quality in RAG
January 13, 2026
著者: Fengran Mo, Zhan Su, Yuchen Hui, Jinghan Zhang, Jia Ao Sun, Zheyuan Liu, Chao Zhang, Tetsuya Sakai, Jian-Yun Nie
cs.AI
要旨
大規模言語モデル(LLM)の発展は、LLMベースの検索拡張生成(RAG)を含む様々な下流タスクにおいて優れた性能を達成している。生成されるコンテンツの品質は、検索された情報の有用性と、回答生成にそれを組み込むLLM内部の情報処理メカニズムの能力に大きく依存する。一般に、検索された情報は質問に関連していると仮定されるが、実際には質問や文書コレクションによって、その関連性と有用性の度合いは変動し得る。回答生成において検索情報の関連性を考慮することは重要である。本論文では、検索情報の明示的評価を品質指標特徴量として生成に活用する新しいアプローチ「OpenDecoder」を提案する。我々は、様々なレベルのノイズを含む文脈に対してより頑健なRAGモデルの構築を目指す。関連性スコア、順位スコア、QPP(クエリ性能予測)スコアの3種類の明示的評価情報を考慮する。5つのベンチマークデータセットによる実験結果は、OpenDecoderが様々なベースラインメソッドを上回り、有効性と優れた頑健性を実証する。重要な点として、このパラダイムはあらゆる目的でのLLMの事後学習と統合可能であり、あらゆる種類の外部指標と組み込む柔軟性を有している。
English
The development of large language models (LLMs) has achieved superior performance in a range of downstream tasks, including LLM-based retrieval-augmented generation (RAG). The quality of generated content heavily relies on the usefulness of the retrieved information and the capacity of LLMs' internal information processing mechanism to incorporate it in answer generation. It is generally assumed that the retrieved information is relevant to the question. However, the retrieved information may have a variable degree of relevance and usefulness, depending on the question and the document collection. It is important to take into account the relevance of the retrieved information in answer generation. In this paper, we propose OpenDecoder, a new approach that leverages explicit evaluation of the retrieved information as quality indicator features for generation. We aim to build a RAG model that is more robust to varying levels of noisy context. Three types of explicit evaluation information are considered: relevance score, ranking score, and QPP (query performance prediction) score. The experimental results on five benchmark datasets demonstrate the effectiveness and better robustness of OpenDecoder by outperforming various baseline methods. Importantly, this paradigm is flexible to be integrated with the post-training of LLMs for any purposes and incorporated with any type of external indicators.