ChatPaper.aiChatPaper

Agentic-R: Lernen des Retrievals für agentenbasiertes Suchen

Agentic-R: Learning to Retrieve for Agentic Search

January 17, 2026
papers.authors: Wenhan Liu, Xinyu Ma, Yutao Zhu, Yuchen Li, Daiting Shi, Dawei Yin, Zhicheng Dou
cs.AI

papers.abstract

Agentic Search hat sich kürzlich als leistungsstarkes Paradigma etabliert, bei dem ein Agent mehrstufiges Reasoning mit bedarfsgesteuerter Informationsbeschaffung (Retrieval) verknüpft, um komplexe Fragen zu lösen. Trotz dieser Erfolge ist die Frage, wie ein Retriever für Agentic Search zu gestalten ist, weitgehend unerforscht. Bestehende Suchagenten setzen typischerweise auf ähnlichkeitsbasierte Retriever, während ähnliche Passagen nicht immer nützlich für die Generierung der endgültigen Antwort sind. In diesem Artikel schlagen wir einen neuartigen Trainingsrahmen für Retriever vor, der speziell auf Agentic Search zugeschnitten ist. Im Gegensatz zu Retrievern, die für einstufiges Retrieval-Augmented Generation (RAG) entwickelt wurden und nur auf lokaler Passagennützlichkeit basieren, schlagen wir vor, sowohl die lokale Abfrage-Passagen-Relevanz als auch die globale Antwortkorrektheit zu nutzen, um die Nützlichkeit von Passagen in einer mehrstufigen Agentic Search zu bewerten. Wir führen weiterhin eine iterative Trainingsstrategie ein, bei der der Suchagent und der Retriever bidirektional und iterativ optimiert werden. Im Unterschied zu RAG-Retrievern, die nur einmal mit festen Fragen trainiert werden, wird unser Retriever kontinuierlich mit sich entwickelnden und qualitativ hochwertigeren Abfragen des Agents verbessert. Umfangreiche Experimente auf sieben Single-Hop- und Multi-Hop-QA-Benchmarks zeigen, dass unser Retriever, bezeichnet als , durchgängig starke Baseline-Methoden über verschiedene Suchagenten hinweg übertrifft. Unser Code ist verfügbar unter: https://github.com/8421BCD/Agentic-R.
English
Agentic search has recently emerged as a powerful paradigm, where an agent interleaves multi-step reasoning with on-demand retrieval to solve complex questions. Despite its success, how to design a retriever for agentic search remains largely underexplored. Existing search agents typically rely on similarity-based retrievers, while similar passages are not always useful for final answer generation. In this paper, we propose a novel retriever training framework tailored for agentic search. Unlike retrievers designed for single-turn retrieval-augmented generation (RAG) that only rely on local passage utility, we propose to use both local query-passage relevance and global answer correctness to measure passage utility in a multi-turn agentic search. We further introduce an iterative training strategy, where the search agent and the retriever are optimized bidirectionally and iteratively. Different from RAG retrievers that are only trained once with fixed questions, our retriever is continuously improved using evolving and higher-quality queries from the agent. Extensive experiments on seven single-hop and multi-hop QA benchmarks demonstrate that our retriever, termed , consistently outperforms strong baselines across different search agents. Our codes are available at: https://github.com/8421BCD/Agentic-R.
PDF101January 22, 2026