ChatPaper.aiChatPaper

Naar Agentische RAG met Diep Redeneren: Een Overzicht van RAG-Redeneersystemen in LLM's

Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs

July 13, 2025
Auteurs: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI

Samenvatting

Retrieval-Augmented Generation (RAG) verbetert de feitelijkheid van Large Language Models (LLMs) door externe kennis toe te voegen, maar schiet tekort bij problemen die multi-step inferentie vereisen; omgekeerd hallucineren of misgronden puur op redenering gerichte benaderingen vaak feiten. Dit overzicht brengt beide stromingen samen onder een verenigd redenering-retrieval perspectief. We beginnen met het in kaart brengen van hoe geavanceerde redenering elke fase van RAG optimaliseert (Reasoning-Enhanced RAG). Vervolgens laten we zien hoe opgehaalde kennis van verschillende typen ontbrekende premissen aanvult en de context voor complexe inferentie uitbreidt (RAG-Enhanced Reasoning). Ten slotte belichten we opkomende Synergized RAG-Reasoning frameworks, waarbij (agentische) LLMs iteratief zoeken en redeneren combineren om state-of-the-art prestaties te behalen op kennisintensieve benchmarks. We categoriseren methoden, datasets en open uitdagingen, en schetsen onderzoeksrichtingen naar diepere RAG-Reasoning systemen die effectiever, multimodaal-adaptief, betrouwbaarder en mensgerichter zijn. De collectie is beschikbaar op https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language Models (LLMs) by injecting external knowledge, yet it falls short on problems that demand multi-step inference; conversely, purely reasoning-oriented approaches often hallucinate or mis-ground facts. This survey synthesizes both strands under a unified reasoning-retrieval perspective. We first map how advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then, we show how retrieved knowledge of different type supply missing premises and expand context for complex inference (RAG-Enhanced Reasoning). Finally, we spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs iteratively interleave search and reasoning to achieve state-of-the-art performance across knowledge-intensive benchmarks. We categorize methods, datasets, and open challenges, and outline research avenues toward deeper RAG-Reasoning systems that are more effective, multimodally-adaptive, trustworthy, and human-centric. The collection is available at https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
PDF862December 22, 2025