ChatPaper.aiChatPaper

通义深研技术报告

Tongyi DeepResearch Technical Report

October 28, 2025
Autores: Tongyi DeepResearch Team, Baixuan Li, Bo Zhang, Dingchu Zhang, Fei Huang, Guangyu Li, Guoxin Chen, Huifeng Yin, Jialong Wu, Jingren Zhou, Kuan Li, Liangcai Su, Litu Ou, Liwen Zhang, Pengjun Xie, Rui Ye, Wenbiao Yin, Xinmiao Yu, Xinyu Wang, Xixi Wu, Xuanzhong Chen, Yida Zhao, Zhen Zhang, Zhengwei Tao, Zhongwang Zhang, Zile Qiao, Chenxi Wang, Donglei Yu, Gang Fu, Haiyang Shen, Jiayin Yang, Jun Lin, Junkai Zhang, Kui Zeng, Li Yang, Hailong Yin, Maojia Song, Ming Yan, Peng Xia, Qian Xiao, Rui Min, Ruixue Ding, Runnan Fang, Shaowei Chen, Shen Huang, Shihang Wang, Shihao Cai, Weizhou Shen, Xiaobin Wang, Xin Guan, Xinyu Geng, Yingcheng Shi, Yuning Wu, Zhuo Chen, Zijian Li, Yong Jiang
cs.AI

Resumo

Apresentamos o Tongyi DeepResearch, um modelo de linguagem de grande escala agentivo, especificamente concebido para tarefas de pesquisa profunda e de longo prazo que exigem busca intensiva de informação. Para incentivar a autonomia em pesquisas profundas, o Tongyi DeepResearch foi desenvolvido através de um framework de treinamento de ponta a ponta que combina *mid-training* e *pós-treinamento agentivos*, permitindo raciocínio escalável e busca de informação em tarefas complexas. Projetamos um *pipeline* de síntese de dados altamente escalável, totalmente automático, que não depende de dispendiosas anotações humanas e sustenta todas as etapas de treinamento. Ao construir ambientes personalizados para cada fase, nosso sistema permite interações estáveis e consistentes ao longo de todo o processo. O Tongyi DeepResearch, que possui um total de 30,5 mil milhões de parâmetros, com apenas 3,3 mil milhões ativados por *token*, alcança um desempenho de última geração numa série de *benchmarks* de pesquisa profunda agentiva, incluindo Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES e xbench-DeepSearch-2510. Disponibilizamos como *open-source* o modelo, o *framework* e as soluções completas para capacitar a comunidade.
English
We present Tongyi DeepResearch, an agentic large language model, which is specifically designed for long-horizon, deep information-seeking research tasks. To incentivize autonomous deep research agency, Tongyi DeepResearch is developed through an end-to-end training framework that combines agentic mid-training and agentic post-training, enabling scalable reasoning and information seeking across complex tasks. We design a highly scalable data synthesis pipeline that is fully automatic, without relying on costly human annotation, and empowers all training stages. By constructing customized environments for each stage, our system enables stable and consistent interactions throughout. Tongyi DeepResearch, featuring 30.5 billion total parameters, with only 3.3 billion activated per token, achieves state-of-the-art performance across a range of agentic deep research benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES and xbench-DeepSearch-2510. We open-source the model, framework, and complete solutions to empower the community.
PDF1014February 7, 2026