Naar Agentische RAG met Diep Redeneren: Een Overzicht van RAG-Redeneersystemen in LLM's
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
Auteurs: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
Samenvatting
Retrieval-Augmented Generation (RAG) verbetert de feitelijkheid van Large Language Models (LLMs) door externe kennis toe te voegen, maar schiet tekort bij problemen die multi-step inferentie vereisen; omgekeerd hallucineren of misgronden puur op redenering gerichte benaderingen vaak feiten. Dit overzicht brengt beide stromingen samen onder een verenigd redenering-retrieval perspectief. We beginnen met het in kaart brengen van hoe geavanceerde redenering elke fase van RAG optimaliseert (Reasoning-Enhanced RAG). Vervolgens laten we zien hoe opgehaalde kennis van verschillende typen ontbrekende premissen aanvult en de context voor complexe inferentie uitbreidt (RAG-Enhanced Reasoning). Ten slotte belichten we opkomende Synergized RAG-Reasoning frameworks, waarbij (agentische) LLMs iteratief zoeken en redeneren combineren om state-of-the-art prestaties te behalen op kennisintensieve benchmarks. We categoriseren methoden, datasets en open uitdagingen, en schetsen onderzoeksrichtingen naar diepere RAG-Reasoning systemen die effectiever, multimodaal-adaptief, betrouwbaarder en mensgerichter zijn. De collectie is beschikbaar op https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.