Tiefgehende Forschung: Eine systematische Übersicht
Deep Research: A Systematic Survey
November 24, 2025
papers.authors: Zhengliang Shi, Yiqun Chen, Haitao Li, Weiwei Sun, Shiyu Ni, Yougang Lyu, Run-Ze Fan, Bowen Jin, Yixuan Weng, Minjun Zhu, Qiujie Xie, Xinyu Guo, Qu Yang, Jiayi Wu, Jujia Zhao, Xiaqiang Tang, Xinbei Ma, Cunxiang Wang, Jiaxin Mao, Qingyao Ai, Jen-Tse Huang, Wenxuan Wang, Yue Zhang, Yiming Yang, Zhaopeng Tu, Zhaochun Ren
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) haben sich rasch von Textgeneratoren zu leistungsfähigen Problemlösern entwickelt. Dennoch erfordern viele offene Aufgaben kritisches Denken, multi-quellenbasierte und überprüfbare Ergebnisse, die über einfaches Prompting oder standardmäßige retrieval-augmentierte Generierung hinausgehen. In jüngster Zeit haben zahlreiche Studien Deep Research (DR) untersucht, das darauf abzielt, die Denkfähigkeiten von LLMs mit externen Werkzeugen wie Suchmaschinen zu kombinieren, um LLMs als Forschungsagenten zu befähigen, die komplexe, offene Aufgaben bewältigen können. Dieser Übersichtsartikel bietet einen umfassenden und systematischen Überblick über Deep-Research-Systeme, einschließlich einer klaren Roadmap, grundlegender Komponenten, praktischer Implementierungstechniken, wichtiger Herausforderungen und zukünftiger Richtungen. Konkret sind unsere Hauptbeiträge wie folgt: (i) Wir formalisieren eine dreistufige Roadmap und grenzen Deep Research von verwandten Paradigmen ab; (ii) Wir führen vier Schlüsselkomponenten ein: Abfrageplanung, Informationsbeschaffung, Speicherverwaltung und Antwortgenerierung, jeweils mit feingranularen Untertaxonomien; (iii) Wir fassen Optimierungstechniken zusammen, einschließlich Prompting, supervised Fine-Tuning und agentenbasierter verstärkender Lernverfahren; und (iv) Wir bündeln Bewertungskriterien und offene Herausforderungen, um die zukünftige Entwicklung zu leiten und zu erleichtern. Da sich das Feld der Deep Research weiterhin schnell entwickelt, sind wir bestrebt, diesen Übersichtsartikel kontinuierlich zu aktualisieren, um die neuesten Fortschritte in diesem Bereich widerzuspiegeln.
English
Large language models (LLMs) have rapidly evolved from text generators into powerful problem solvers. Yet, many open tasks demand critical thinking, multi-source, and verifiable outputs, which are beyond single-shot prompting or standard retrieval-augmented generation. Recently, numerous studies have explored Deep Research (DR), which aims to combine the reasoning capabilities of LLMs with external tools, such as search engines, thereby empowering LLMs to act as research agents capable of completing complex, open-ended tasks. This survey presents a comprehensive and systematic overview of deep research systems, including a clear roadmap, foundational components, practical implementation techniques, important challenges, and future directions. Specifically, our main contributions are as follows: (i) we formalize a three-stage roadmap and distinguish deep research from related paradigms; (ii) we introduce four key components: query planning, information acquisition, memory management, and answer generation, each paired with fine-grained sub-taxonomies; (iii) we summarize optimization techniques, including prompting, supervised fine-tuning, and agentic reinforcement learning; and (iv) we consolidate evaluation criteria and open challenges, aiming to guide and facilitate future development. As the field of deep research continues to evolve rapidly, we are committed to continuously updating this survey to reflect the latest progress in this area.