ChatPaper.aiChatPaper

Grondslagen van Reinforcement Learning voor Diepe Onderzoekssystemen: Een Overzicht

Reinforcement Learning Foundations for Deep Research Systems: A Survey

September 8, 2025
Auteurs: Wenjun Li, Zhi Chen, Jingru Lin, Hannan Cao, Wei Han, Sheng Liang, Zhi Zhang, Kuicai Dong, Dexun Li, Chen Zhang, Yong Liu
cs.AI

Samenvatting

Diepe onderzoekssystemen, agent-gebaseerde AI die complexe, meerstaps taken oplossen door redenering te coördineren, te zoeken over het open web en gebruikersbestanden, en gereedschappen te gebruiken, bewegen zich richting hiërarchische implementaties met een Planner, Coördinator en Uitvoerders. In de praktijk blijft het trainen van volledige stacks end-to-end onpraktisch, dus de meeste werkzaamheden trainen een enkele planner die is verbonden met kernhulpmiddelen zoals zoeken, browsen en code. Hoewel SFT protocolgetrouwheid biedt, lijdt het onder imitatie- en blootstellingsvooroordelen en maakt het onvoldoende gebruik van omgevingsfeedback. Voorkeursuitlijningsmethoden zoals DPO zijn schema- en proxy-afhankelijk, off-policy, en zwak voor langetermijntoewijzing van credits en multi-objectieve afwegingen. Een verdere beperking van SFT en DPO is hun afhankelijkheid van door mensen gedefinieerde beslissingspunten en subvaardigheden via schemadesign en gelabelde vergelijkingen. Reinforcement learning sluit aan bij gesloten-lus, gereedschapsinteractieonderzoek door trajectniveau-beleid te optimaliseren, waardoor exploratie, herstelgedrag en principiële toewijzing van credits mogelijk worden, en het vermindert de afhankelijkheid van dergelijke menselijke aannames en beoordelaarsvooroordelen. Deze survey is, voor zover wij weten, de eerste die gewijd is aan de RL-fundamenten van diepe onderzoekssystemen. Het systemiseert werk na DeepSeek-R1 langs drie assen: (i) datasynthese en -curatie; (ii) RL-methoden voor agent-gebaseerd onderzoek die stabiliteit, steekproefefficiëntie, lange contextverwerking, belonings- en creditdesign, multi-objectieve optimalisatie en multimodale integratie omvatten; en (iii) agent-gebaseerde RL-trainingssystemen en -frameworks. We behandelen ook agentarchitectuur en -coördinatie, evenals evaluatie en benchmarks, waaronder recente QA, VQA, lange-synthese en domeingebonden, gereedschapsinteractietaken. We destilleren terugkerende patronen, identificeren infrastructuurknelpunten en bieden praktische richtlijnen voor het trainen van robuuste, transparante diepe onderzoeksagenten met RL.
English
Deep research systems, agentic AI that solve complex, multi-step tasks by coordinating reasoning, search across the open web and user files, and tool use, are moving toward hierarchical deployments with a Planner, Coordinator, and Executors. In practice, training entire stacks end-to-end remains impractical, so most work trains a single planner connected to core tools such as search, browsing, and code. While SFT imparts protocol fidelity, it suffers from imitation and exposure biases and underuses environment feedback. Preference alignment methods such as DPO are schema and proxy-dependent, off-policy, and weak for long-horizon credit assignment and multi-objective trade-offs. A further limitation of SFT and DPO is their reliance on human defined decision points and subskills through schema design and labeled comparisons. Reinforcement learning aligns with closed-loop, tool-interaction research by optimizing trajectory-level policies, enabling exploration, recovery behaviors, and principled credit assignment, and it reduces dependence on such human priors and rater biases. This survey is, to our knowledge, the first dedicated to the RL foundations of deep research systems. It systematizes work after DeepSeek-R1 along three axes: (i) data synthesis and curation; (ii) RL methods for agentic research covering stability, sample efficiency, long context handling, reward and credit design, multi-objective optimization, and multimodal integration; and (iii) agentic RL training systems and frameworks. We also cover agent architecture and coordination, as well as evaluation and benchmarks, including recent QA, VQA, long-form synthesis, and domain-grounded, tool-interaction tasks. We distill recurring patterns, surface infrastructure bottlenecks, and offer practical guidance for training robust, transparent deep research agents with RL.
PDF312September 9, 2025