Hacia RAG Agéntico con Razonamiento Profundo: Una Revisión de Sistemas RAG-Razonamiento en LLMs
Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs
July 13, 2025
Autores: Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
cs.AI
Resumen
La Generación Aumentada por Recuperación (RAG, por sus siglas en inglés) mejora la factualidad de los Modelos de Lenguaje de Gran Escala (LLMs) mediante la inyección de conocimiento externo, aunque se queda corta en problemas que requieren inferencia de múltiples pasos; por el contrario, los enfoques puramente orientados al razonamiento a menudo alucinan o malinterpretan hechos. Este estudio sintetiza ambas líneas bajo una perspectiva unificada de razonamiento-recuperación. Primero, mapeamos cómo el razonamiento avanzado optimiza cada etapa de RAG (Razonamiento Mejorado por RAG). Luego, mostramos cómo el conocimiento recuperado de diferentes tipos proporciona premisas faltantes y expande el contexto para inferencias complejas (Razonamiento Mejorado por RAG). Finalmente, destacamos los marcos emergentes de RAG-Razonamiento Sinergizado, donde los LLMs (agentes) intercalan iterativamente búsqueda y razonamiento para alcanzar un rendimiento de vanguardia en benchmarks intensivos en conocimiento. Categorizamos métodos, conjuntos de datos y desafíos abiertos, y esbozamos vías de investigación hacia sistemas RAG-Razonamiento más profundos que sean más efectivos, multimodalmente adaptativos, confiables y centrados en el ser humano. La colección está disponible en https://github.com/DavidZWZ/Awesome-RAG-Reasoning.
English
Retrieval-Augmented Generation (RAG) lifts the factuality of Large Language
Models (LLMs) by injecting external knowledge, yet it falls short on problems
that demand multi-step inference; conversely, purely reasoning-oriented
approaches often hallucinate or mis-ground facts. This survey synthesizes both
strands under a unified reasoning-retrieval perspective. We first map how
advanced reasoning optimizes each stage of RAG (Reasoning-Enhanced RAG). Then,
we show how retrieved knowledge of different type supply missing premises and
expand context for complex inference (RAG-Enhanced Reasoning). Finally, we
spotlight emerging Synergized RAG-Reasoning frameworks, where (agentic) LLMs
iteratively interleave search and reasoning to achieve state-of-the-art
performance across knowledge-intensive benchmarks. We categorize methods,
datasets, and open challenges, and outline research avenues toward deeper
RAG-Reasoning systems that are more effective, multimodally-adaptive,
trustworthy, and human-centric. The collection is available at
https://github.com/DavidZWZ/Awesome-RAG-Reasoning.