Pesquisa Aprofundada: Um Estudo Sistemático
Deep Research: A Systematic Survey
November 24, 2025
Autores: Zhengliang Shi, Yiqun Chen, Haitao Li, Weiwei Sun, Shiyu Ni, Yougang Lyu, Run-Ze Fan, Bowen Jin, Yixuan Weng, Minjun Zhu, Qiujie Xie, Xinyu Guo, Qu Yang, Jiayi Wu, Jujia Zhao, Xiaqiang Tang, Xinbei Ma, Cunxiang Wang, Jiaxin Mao, Qingyao Ai, Jen-Tse Huang, Wenxuan Wang, Yue Zhang, Yiming Yang, Zhaopeng Tu, Zhaochun Ren
cs.AI
Resumo
Os grandes modelos de linguagem (LLMs) evoluíram rapidamente de geradores de texto para solucionadores de problemas poderosos. No entanto, muitas tarefas abertas exigem pensamento crítico, integração de múltiplas fontes e resultados verificáveis, indo além do *prompting* único ou da geração aumentada por recuperação padrão. Recentemente, numerosos estudos exploraram a Pesquisa Profunda (PP), que visa combinar as capacidades de raciocínio dos LLMs com ferramentas externas, como motores de busca, capacitando assim os LLMs a atuarem como agentes de pesquisa capazes de completar tarefas complexas e de natureza aberta. Este estudo apresenta uma visão geral abrangente e sistemática dos sistemas de pesquisa profunda, incluindo um roteiro claro, componentes fundamentais, técnicas de implementação prática, desafios importantes e direções futuras. Especificamente, nossas principais contribuições são as seguintes: (i) formalizamos um roteiro de três estágios e distinguimos a pesquisa profunda de paradigmas relacionados; (ii) introduzimos quatro componentes-chave: planeamento de consultas, aquisição de informação, gestão de memória e geração de respostas, cada um emparelhado com subtaxonomias de granularidade fina; (iii) resumimos técnicas de otimização, incluindo *prompting*, afinação supervisionada e aprendizagem por reforço agentiva; e (iv) consolidamos critérios de avaliação e desafios em aberto, visando orientar e facilitar o desenvolvimento futuro. À medida que o campo da pesquisa profunda continua a evoluir rapidamente, comprometemo-nos a atualizar continuamente este estudo para refletir os progressos mais recentes nesta área.
English
Large language models (LLMs) have rapidly evolved from text generators into powerful problem solvers. Yet, many open tasks demand critical thinking, multi-source, and verifiable outputs, which are beyond single-shot prompting or standard retrieval-augmented generation. Recently, numerous studies have explored Deep Research (DR), which aims to combine the reasoning capabilities of LLMs with external tools, such as search engines, thereby empowering LLMs to act as research agents capable of completing complex, open-ended tasks. This survey presents a comprehensive and systematic overview of deep research systems, including a clear roadmap, foundational components, practical implementation techniques, important challenges, and future directions. Specifically, our main contributions are as follows: (i) we formalize a three-stage roadmap and distinguish deep research from related paradigms; (ii) we introduce four key components: query planning, information acquisition, memory management, and answer generation, each paired with fine-grained sub-taxonomies; (iii) we summarize optimization techniques, including prompting, supervised fine-tuning, and agentic reinforcement learning; and (iv) we consolidate evaluation criteria and open challenges, aiming to guide and facilitate future development. As the field of deep research continues to evolve rapidly, we are committed to continuously updating this survey to reflect the latest progress in this area.