深層推論を伴うエージェンシックRAGに向けて:LLMにおけるRAG推論システムのサーベイ
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
著者: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
要旨
検索拡張生成(RAG)は、外部知識を注入することで大規模言語モデル(LLM)の事実性を向上させるが、多段階の推論を必要とする問題には不十分である。一方、純粋に推論指向のアプローチは、しばしば事実を誤って生成したり、誤った根拠に基づいたりする。本調査では、これら二つの流れを統一的な推論-検索の視点で統合する。まず、高度な推論がRAGの各段階をどのように最適化するかをマッピングする(推論強化型RAG)。次に、異なる種類の検索された知識が、欠落した前提を補い、複雑な推論のための文脈を拡張する方法を示す(RAG強化型推論)。最後に、検索と推論を反復的に交互に行うことで、知識集約型ベンチマークで最先端の性能を達成する(エージェント型)LLMを中心とした新興のシナジーRAG-推論フレームワークに焦点を当てる。本調査では、手法、データセット、未解決の課題を分類し、より効果的で、マルチモーダルに適応可能で、信頼性が高く、人間中心の深層RAG-推論システムに向けた研究の方向性を概説する。コレクションはhttps://github.com/DavidZWZ/Awesome-RAG-Reasoningで公開されている。
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.