Vers une RAG Agentique avec Raisonnement Profond : Un Panorama des Systèmes RAG-Raisonnement dans les LLM
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
papers.authors: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
papers.abstract
La Génération Augmentée par Récupération (RAG) améliore la factualité des Modèles de Langage à Grande Échelle (LLMs) en injectant des connaissances externes, mais elle montre des limites face aux problèmes nécessitant une inférence en plusieurs étapes ; à l'inverse, les approches purement orientées vers le raisonnement produisent souvent des hallucinations ou des erreurs de fondement factuel. Cette synthèse intègre ces deux axes sous une perspective unifiée de raisonnement-récupération. Nous commençons par montrer comment un raisonnement avancé optimise chaque étape de RAG (RAG Amélioré par le Raisonnement). Ensuite, nous illustrons comment les connaissances récupérées de différents types fournissent des prémisses manquantes et élargissent le contexte pour des inférences complexes (Raisonnement Amélioré par RAG). Enfin, nous mettons en lumière les cadres émergents de RAG-Raisonnement Synergisé, où les LLMs (agentiques) entrelacent de manière itérative recherche et raisonnement pour atteindre des performances de pointe sur des benchmarks intensifs en connaissances. Nous catégorisons les méthodes, les jeux de données et les défis ouverts, et esquissons des pistes de recherche vers des systèmes RAG-Raisonnement plus profonds, plus efficaces, adaptatifs multimodaux, fiables et centrés sur l'humain. La collection est disponible à l'adresse https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.