Rumo à RAG Agente com Raciocínio Profundo: Uma Análise de Sistemas de Raciocínio-RAG em LLMs
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
Autores: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
Resumo
A Geração Aumentada por Recuperação (RAG, na sigla em inglês) eleva a factualidade dos Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) ao injetar conhecimento externo, mas ainda apresenta limitações em problemas que exigem inferência em múltiplas etapas; por outro lado, abordagens puramente orientadas ao raciocínio frequentemente alucinam ou fundamentam fatos de maneira incorreta. Este estudo sintetiza ambas as vertentes sob uma perspectiva unificada de raciocínio-recuperação. Primeiro, mapeamos como o raciocínio avançado otimiza cada estágio do RAG (RAG Aprimorado por Raciocínio). Em seguida, mostramos como o conhecimento recuperado de diferentes tipos fornece premissas ausentes e expande o contexto para inferências complexas (Raciocínio Aprimorado por RAG). Por fim, destacamos os emergentes frameworks de RAG-Raciocínio Sinergizados, onde LLMs (agentes) intercalam iterativamente busca e raciocínio para alcançar desempenho de ponta em benchmarks intensivos em conhecimento. Categorizamos métodos, conjuntos de dados e desafios em aberto, e delineamos caminhos de pesquisa para sistemas RAG-Raciocínio mais profundos, que sejam mais eficazes, adaptáveis multimodalmente, confiáveis e centrados no ser humano. A coleção está disponível em https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.