Diepgaand Onderzoek: Een Systematische Verkenning
Deep Research: A Systematic Survey
November 24, 2025
Auteurs: Zhengliang Shi, Yiqun Chen, Haitao Li, Weiwei Sun, Shiyu Ni, Yougang Lyu, Run-Ze Fan, Bowen Jin, Yixuan Weng, Minjun Zhu, Qiujie Xie, Xinyu Guo, Qu Yang, Jiayi Wu, Jujia Zhao, Xiaqiang Tang, Xinbei Ma, Cunxiang Wang, Jiaxin Mao, Qingyao Ai, Jen-Tse Huang, Wenxuan Wang, Yue Zhang, Yiming Yang, Zhaopeng Tu, Zhaochun Ren
cs.AI
Samenvatting
Grote taalmodellen (LLM's) zijn in rap tempo geëvolueerd van tekstgeneratoren tot krachtige probleemoplossers. Toch vereisen veel open taken kritisch denken, multi-bronevaluatie en verifieerbare resultaten, wat verder gaat dan enkelvoudige prompting of standaard retrieval-augmented generation. Recentelijk hebben talrijke studies Deep Research (DR) onderzocht, dat als doel heeft de redeneervermogens van LLM's te combineren met externe tools, zoals zoekmachines, om zo LLM's in staat te stellen als onderzoeksagenten complexe, open-eindtaken te voltooien. Dit overzichtsartikel biedt een uitgebreid en systematisch overzicht van deep research-systemen, inclusief een duidelijke routekaart, fundamentele componenten, praktische implementatietechnieken, belangrijke uitdagingen en toekomstige richtingen. Specifiek zijn onze belangrijkste bijdragen als volgt: (i) we formaliseren een driestappen routekaart en onderscheiden deep research van verwante paradigma's; (ii) we introduceren vier kerncomponenten: queryplanning, informatieverwerving, geheugenbeheer en antwoordgeneratie, elk voorzien van fijnmazige sub-taxonomieën; (iii) we vatten optimalisatietechnieken samen, waaronder prompting, supervised fine-tuning en agentic reinforcement learning; en (iv) we consolideren evaluatiecriteria en open uitdagingen, met als doel toekomstige ontwikkeling te begeleiden en te vergemakkelijken. Aangezien het vakgebied van deep research zich snel blijft ontwikkelen, zijn wij vastberaden dit overzicht continu bij te werken om de nieuwste voortgang op dit gebied te weerspiegelen.
English
Large language models (LLMs) have rapidly evolved from text generators into powerful problem solvers. Yet, many open tasks demand critical thinking, multi-source, and verifiable outputs, which are beyond single-shot prompting or standard retrieval-augmented generation. Recently, numerous studies have explored Deep Research (DR), which aims to combine the reasoning capabilities of LLMs with external tools, such as search engines, thereby empowering LLMs to act as research agents capable of completing complex, open-ended tasks. This survey presents a comprehensive and systematic overview of deep research systems, including a clear roadmap, foundational components, practical implementation techniques, important challenges, and future directions. Specifically, our main contributions are as follows: (i) we formalize a three-stage roadmap and distinguish deep research from related paradigms; (ii) we introduce four key components: query planning, information acquisition, memory management, and answer generation, each paired with fine-grained sub-taxonomies; (iii) we summarize optimization techniques, including prompting, supervised fine-tuning, and agentic reinforcement learning; and (iv) we consolidate evaluation criteria and open challenges, aiming to guide and facilitate future development. As the field of deep research continues to evolve rapidly, we are committed to continuously updating this survey to reflect the latest progress in this area.