深層研究:体系的調査
Deep Research: A Systematic Survey
November 24, 2025
著者: Zhengliang Shi, Yiqun Chen, Haitao Li, Weiwei Sun, Shiyu Ni, Yougang Lyu, Run-Ze Fan, Bowen Jin, Yixuan Weng, Minjun Zhu, Qiujie Xie, Xinyu Guo, Qu Yang, Jiayi Wu, Jujia Zhao, Xiaqiang Tang, Xinbei Ma, Cunxiang Wang, Jiaxin Mao, Qingyao Ai, Jen-Tse Huang, Wenxuan Wang, Yue Zhang, Yiming Yang, Zhaopeng Tu, Zhaochun Ren
cs.AI
要旨
大規模言語モデル(LLM)は、テキスト生成ツールから強力な問題解決ツールへと急速に進化を遂げている。しかし、多くの未解決タスクには、批判的思考、複数情報源の統合、検証可能な出力が求められ、単一プロンプトによる生成や標準的な検索拡張生成では対応が困難である。近年、多くの研究が「深層研究(Deep Research: DR)」に着目している。これはLLMの推論能力を検索エンジンなどの外部ツールと組み合わせることで、LLMを複雑な未定義タスクを遂行可能な研究エージェントとして機能させることを目的とする。本調査は、深層研究システムについて、明確なロードマップ、基本構成要素、実装技術、重要な課題、将来の方向性を含む体系的かつ包括的な概観を提供する。具体的な主な貢献は以下の通りである:(i)3段階のロードマップを形式化し、深層研究と関連パラダイムを明確に区別する、(ii)クエリ計画策定、情報収集、メモリ管理、回答生成という4つの主要構成要素と、それぞれに対応する詳細な分類体系を提示する、(iii)プロンプト設計、教師ありファインチューニング、エージェント強化学習を含む最適化技術をまとめる、(iv)評価基準と未解決課題を整理し、将来の発展を導く枠組みを提供する。深層研究の分野が急速に進化し続ける中、本調査はこの領域の最新進展を反映すべく継続的に更新することを約束する。
English
Large language models (LLMs) have rapidly evolved from text generators into powerful problem solvers. Yet, many open tasks demand critical thinking, multi-source, and verifiable outputs, which are beyond single-shot prompting or standard retrieval-augmented generation. Recently, numerous studies have explored Deep Research (DR), which aims to combine the reasoning capabilities of LLMs with external tools, such as search engines, thereby empowering LLMs to act as research agents capable of completing complex, open-ended tasks. This survey presents a comprehensive and systematic overview of deep research systems, including a clear roadmap, foundational components, practical implementation techniques, important challenges, and future directions. Specifically, our main contributions are as follows: (i) we formalize a three-stage roadmap and distinguish deep research from related paradigms; (ii) we introduce four key components: query planning, information acquisition, memory management, and answer generation, each paired with fine-grained sub-taxonomies; (iii) we summarize optimization techniques, including prompting, supervised fine-tuning, and agentic reinforcement learning; and (iv) we consolidate evaluation criteria and open challenges, aiming to guide and facilitate future development. As the field of deep research continues to evolve rapidly, we are committed to continuously updating this survey to reflect the latest progress in this area.