Agente-R: Aprendizaje de Recuperación para Búsqueda Agéntica
Agentic-R: Learning to Retrieve for Agentic Search
January 17, 2026
Autores: Wenhan Liu, Xinyu Ma, Yutao Zhu, Yuchen Li, Daiting Shi, Dawei Yin, Zhicheng Dou
cs.AI
Resumen
La búsqueda agéntica ha surgido recientemente como un paradigma poderoso, en el que un agente intercala razonamiento de múltiples pasos con recuperación bajo demanda para resolver preguntas complejas. A pesar de su éxito, cómo diseñar un recuperador para la búsqueda agéntica sigue estando en gran medida inexplorado. Los agentes de búsqueda existentes suelen depender de recuperadores basados en similitud, mientras que los pasajes similares no siempre son útiles para la generación de la respuesta final. En este artículo, proponemos un novedoso marco de entrenamiento para recuperadores específicamente diseñado para la búsqueda agéntica. A diferencia de los recuperadores diseñados para la generación aumentada por recuperación (RAG) de un solo turno, que solo dependen de la utilidad local del pasaje, proponemos utilizar tanto la relevancia local consulta-pasaje como la corrección global de la respuesta para medir la utilidad del pasaje en una búsqueda agéntica de múltiples turnos. Además, introducimos una estrategia de entrenamiento iterativo, en la que el agente de búsqueda y el recuperador se optimizan bidireccional e iterativamente. A diferencia de los recuperadores RAG, que se entrenan una sola vez con preguntas fijas, nuestro recuperador se mejora continuamente utilizando consultas evolutivas y de mayor calidad provenientes del agente. Experimentos exhaustivos en siete benchmarks de QA de salto único y múltiples saltos demuestran que nuestro recuperador, denominado , supera consistentemente a los baselines sólidos en diferentes agentes de búsqueda. Nuestros códigos están disponibles en: https://github.com/8421BCD/Agentic-R.
English
Agentic search has recently emerged as a powerful paradigm, where an agent interleaves multi-step reasoning with on-demand retrieval to solve complex questions. Despite its success, how to design a retriever for agentic search remains largely underexplored. Existing search agents typically rely on similarity-based retrievers, while similar passages are not always useful for final answer generation. In this paper, we propose a novel retriever training framework tailored for agentic search. Unlike retrievers designed for single-turn retrieval-augmented generation (RAG) that only rely on local passage utility, we propose to use both local query-passage relevance and global answer correctness to measure passage utility in a multi-turn agentic search. We further introduce an iterative training strategy, where the search agent and the retriever are optimized bidirectionally and iteratively. Different from RAG retrievers that are only trained once with fixed questions, our retriever is continuously improved using evolving and higher-quality queries from the agent. Extensive experiments on seven single-hop and multi-hop QA benchmarks demonstrate that our retriever, termed , consistently outperforms strong baselines across different search agents. Our codes are available at: https://github.com/8421BCD/Agentic-R.