通義DeepResearch技術報告書
Tongyi DeepResearch Technical Report
October 28, 2025
著者: Tongyi DeepResearch Team, Baixuan Li, Bo Zhang, Dingchu Zhang, Fei Huang, Guangyu Li, Guoxin Chen, Huifeng Yin, Jialong Wu, Jingren Zhou, Kuan Li, Liangcai Su, Litu Ou, Liwen Zhang, Pengjun Xie, Rui Ye, Wenbiao Yin, Xinmiao Yu, Xinyu Wang, Xixi Wu, Xuanzhong Chen, Yida Zhao, Zhen Zhang, Zhengwei Tao, Zhongwang Zhang, Zile Qiao, Chenxi Wang, Donglei Yu, Gang Fu, Haiyang Shen, Jiayin Yang, Jun Lin, Junkai Zhang, Kui Zeng, Li Yang, Hailong Yin, Maojia Song, Ming Yan, Peng Xia, Qian Xiao, Rui Min, Ruixue Ding, Runnan Fang, Shaowei Chen, Shen Huang, Shihang Wang, Shihao Cai, Weizhou Shen, Xiaobin Wang, Xin Guan, Xinyu Geng, Yingcheng Shi, Yuning Wu, Zhuo Chen, Zijian Li, Yong Jiang
cs.AI
要旨
我々はTongyi DeepResearchを発表します。これは自律的な深層情報探索研究タスクに特化したエージェント型大規模言語モデルです。自律的な深層研究エージェンシーを促進するため、Tongyi DeepResearchはエージェント型中間訓練とエージェント型事後訓練を組み合わせたエンドツーエンドの訓練フレームワークを通じて開発され、複雑なタスクにわたるスケーラブルな推論と情報探索を可能にします。我々は、コストの高い人手による注釈に依存しない完全自動の高い拡張性を持つデータ合成パイプラインを設計し、全ての訓練段階を強化します。各段階にカスタマイズされた環境を構築することで、システムは一貫した安定した相互作用を実現します。総パラメータ数305億(トークンごとに活性化されるのは33億のみ)のTongyi DeepResearchは、Humanity's Last Exam、BrowseComp、BrowseComp-ZH、WebWalkerQA、xbench-DeepSearch、FRAMES、xbench-DeepSearch-2510を含む一連のエージェント型深層研究ベンチマークで最先端の性能を達成します。我々はモデル、フレームワーク、および完全なソリューションをオープンソース化し、コミュニティの発展を支援します。
English
We present Tongyi DeepResearch, an agentic large language model, which is
specifically designed for long-horizon, deep information-seeking research
tasks. To incentivize autonomous deep research agency, Tongyi DeepResearch is
developed through an end-to-end training framework that combines agentic
mid-training and agentic post-training, enabling scalable reasoning and
information seeking across complex tasks. We design a highly scalable data
synthesis pipeline that is fully automatic, without relying on costly human
annotation, and empowers all training stages. By constructing customized
environments for each stage, our system enables stable and consistent
interactions throughout. Tongyi DeepResearch, featuring 30.5 billion total
parameters, with only 3.3 billion activated per token, achieves
state-of-the-art performance across a range of agentic deep research
benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH,
WebWalkerQA, xbench-DeepSearch, FRAMES and xbench-DeepSearch-2510. We
open-source the model, framework, and complete solutions to empower the
community.