Verso un RAG Agente con Ragionamento Profondo: Una Rassegna dei Sistemi RAG-Ragionamento nei Modelli Linguistici di Grande Dimensione
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
Autori: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
Abstract
La Generazione Aumentata dal Recupero (RAG) migliora la fattualità dei Modelli Linguistici di Grande Dimensione (LLM) iniettando conoscenza esterna, ma risulta carente nei problemi che richiedono inferenze multi-step; al contrario, approcci puramente orientati al ragionamento spesso producono allucinazioni o basano erroneamente i fatti. Questa rassegna sintetizza entrambe le linee di ricerca sotto una prospettiva unificata di ragionamento-recupero. In primo luogo, mappiamo come il ragionamento avanzato ottimizzi ogni fase del RAG (RAG Potenziato dal Ragionamento). Poi, mostriamo come la conoscenza recuperata di diverso tipo fornisca premesse mancanti e amplii il contesto per inferenze complesse (Ragionamento Potenziato dal RAG). Infine, mettiamo in luce i nuovi framework Sinergizzati RAG-Ragionamento, in cui LLM (agenti) intercalano iterativamente ricerca e ragionamento per raggiungere prestazioni all'avanguardia su benchmark intensivi di conoscenza. Categorizziamo metodi, dataset e sfide aperte, e delineamo percorsi di ricerca verso sistemi RAG-Ragionamento più profondi, efficaci, adattabili multimodalmente, affidabili e centrati sull'uomo. La raccolta è disponibile all'indirizzo https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.