ChatPaper.aiChatPaper

Verso un RAG Agente con Ragionamento Profondo: Una Rassegna dei Sistemi RAG-Ragionamento nei Modelli Linguistici di Grande Dimensione

Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs

July 13, 2025
Autori: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI

Abstract

La Generazione Aumentata dal Recupero (RAG) migliora la fattualità dei Modelli Linguistici di Grande Dimensione (LLM) iniettando conoscenza esterna, ma risulta carente nei problemi che richiedono inferenze multi-step; al contrario, approcci puramente orientati al ragionamento spesso producono allucinazioni o basano erroneamente i fatti. Questa rassegna sintetizza entrambe le linee di ricerca sotto una prospettiva unificata di ragionamento-recupero. In primo luogo, mappiamo come il ragionamento avanzato ottimizzi ogni fase del RAG (RAG Potenziato dal Ragionamento). Poi, mostriamo come la conoscenza recuperata di diverso tipo fornisca premesse mancanti e amplii il contesto per inferenze complesse (Ragionamento Potenziato dal RAG). Infine, mettiamo in luce i nuovi framework Sinergizzati RAG-Ragionamento, in cui LLM (agenti) intercalano iterativamente ricerca e ragionamento per raggiungere prestazioni all'avanguardia su benchmark intensivi di conoscenza. Categorizziamo metodi, dataset e sfide aperte, e delineamo percorsi di ricerca verso sistemi RAG-Ragionamento più profondi, efficaci, adattabili multimodalmente, affidabili e centrati sull'uomo. La raccolta è disponibile all'indirizzo https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language Models (LLMs) by injecting external knowledge, yet it falls short on problems that demand multi-step inference; conversely, purely reasoning-oriented approaches often hallucinate or mis-ground facts. This survey synthesizes both strands under a unified reasoning-retrieval perspective. We first map how advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then, we show how retrieved knowledge of different type supply missing premises and expand context for complex inference (RAG-Enhanced Reasoning). Finally, we spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs iteratively interleave search and reasoning to achieve state-of-the-art performance across knowledge-intensive benchmarks. We categorize methods, datasets, and open challenges, and outline research avenues toward deeper RAG-Reasoning systems that are more effective, multimodally-adaptive, trustworthy, and human-centric. The collection is available at https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
PDF792July 17, 2025