깊이 있는 연구: 체계적 문헌 고찰
Deep Research: A Systematic Survey
November 24, 2025
저자: Zhengliang Shi, Yiqun Chen, Haitao Li, Weiwei Sun, Shiyu Ni, Yougang Lyu, Run-Ze Fan, Bowen Jin, Yixuan Weng, Minjun Zhu, Qiujie Xie, Xinyu Guo, Qu Yang, Jiayi Wu, Jujia Zhao, Xiaqiang Tang, Xinbei Ma, Cunxiang Wang, Jiaxin Mao, Qingyao Ai, Jen-Tse Huang, Wenxuan Wang, Yue Zhang, Yiming Yang, Zhaopeng Tu, Zhaochun Ren
cs.AI
초록
대규모 언어 모델(LLM)은 텍스트 생성기에서 강력한 문제 해결사로 빠르게 진화해 왔습니다. 그러나 많은 개방형 과제는 비판적 사고, 다중 출처 정보 활용, 검증 가능한 출력을 요구하며, 이는 단일 프롬프트 처리나 표준 검색 증강 생성의 범위를 벗어납니다. 최근 들어 검색 엔진과 같은 외부 도구와 LLM의 추론 능력을 결합하여 복잡하고 개방형 과제를 수행할 수 있는 연구 에이전트로서 LLM의 역량을 강화하는 것을 목표로 하는 딥 리서치(DR)를 탐구하는 수많은 연구가 진행되고 있습니다. 본 논문은 딥 리서치 시스템에 대한 포괄적이고 체계적인 개요를 제시하며, 명확한 로드맵, 핵심 구성 요소, 실제 구현 기술, 주요 과제 및 향후 방향을 다룹니다. 구체적으로 본 논문의 주요 기여는 다음과 같습니다: (i) 3단계 로드맵을 정형화하고 딥 리서치를 관련 패러다임과 구분합니다; (ii) 쿼리 계획, 정보 획득, 메모리 관리, 답변 생성이라는 네 가지 핵심 구성 요소와 각각에 대한 세분화된 하위 분류 체계를 소개합니다; (iii) 프롬프팅, 지도 미세 조정, 에이전트 강화 학습을 포함한 최적화 기술을 요약합니다; (iv) 평가 기준과 해결 과제를 통합하여 향후 발전을 안내하고 촉진하는 데 기여하고자 합니다. 딥 리서치 분야가 빠르게 진화함에 따라, 본 논문은 이 분야의 최신 동향을 반영하기 위해 지속적으로 업데이트될 예정입니다.
English
Large language models (LLMs) have rapidly evolved from text generators into powerful problem solvers. Yet, many open tasks demand critical thinking, multi-source, and verifiable outputs, which are beyond single-shot prompting or standard retrieval-augmented generation. Recently, numerous studies have explored Deep Research (DR), which aims to combine the reasoning capabilities of LLMs with external tools, such as search engines, thereby empowering LLMs to act as research agents capable of completing complex, open-ended tasks. This survey presents a comprehensive and systematic overview of deep research systems, including a clear roadmap, foundational components, practical implementation techniques, important challenges, and future directions. Specifically, our main contributions are as follows: (i) we formalize a three-stage roadmap and distinguish deep research from related paradigms; (ii) we introduce four key components: query planning, information acquisition, memory management, and answer generation, each paired with fine-grained sub-taxonomies; (iii) we summarize optimization techniques, including prompting, supervised fine-tuning, and agentic reinforcement learning; and (iv) we consolidate evaluation criteria and open challenges, aiming to guide and facilitate future development. As the field of deep research continues to evolve rapidly, we are committed to continuously updating this survey to reflect the latest progress in this area.