ChatPaper.aiChatPaper

Tongyi DeepResearch Technischer Bericht

Tongyi DeepResearch Technical Report

October 28, 2025
papers.authors: Tongyi DeepResearch Team, Baixuan Li, Bo Zhang, Dingchu Zhang, Fei Huang, Guangyu Li, Guoxin Chen, Huifeng Yin, Jialong Wu, Jingren Zhou, Kuan Li, Liangcai Su, Litu Ou, Liwen Zhang, Pengjun Xie, Rui Ye, Wenbiao Yin, Xinmiao Yu, Xinyu Wang, Xixi Wu, Xuanzhong Chen, Yida Zhao, Zhen Zhang, Zhengwei Tao, Zhongwang Zhang, Zile Qiao, Chenxi Wang, Donglei Yu, Gang Fu, Haiyang Shen, Jiayin Yang, Jun Lin, Junkai Zhang, Kui Zeng, Li Yang, Hailong Yin, Maojia Song, Ming Yan, Peng Xia, Qian Xiao, Rui Min, Ruixue Ding, Runnan Fang, Shaowei Chen, Shen Huang, Shihang Wang, Shihao Cai, Weizhou Shen, Xiaobin Wang, Xin Guan, Xinyu Geng, Yingcheng Shi, Yuning Wu, Zhuo Chen, Zijian Li, Yong Jiang
cs.AI

papers.abstract

Wir stellen Tongyi DeepResearch vor, ein agentenbasiertes Großsprachmodell, das speziell für langfristige, tiefgehende Informationsrecherche-Aufgaben konzipiert wurde. Um autonome tiefgehende Recherchefähigkeiten zu fördern, wird Tongyi DeepResearch durch ein End-to-End-Trainingsframework entwickelt, das agentenbasierte Mid-Training- und Post-Training-Verfahren kombiniert und damit skalierbares Reasoning und Informationsbeschaffung über komplexe Aufgaben hinweg ermöglicht. Wir entwickelten eine hochskalierbare Data-Synthesis-Pipeline, die vollautomatisch abläuft, ohne auf kostspielige menschliche Annotation angewiesen zu sein, und alle Trainingsphasen unterstützt. Durch die Konstruktion maßgeschneiderter Umgebungen für jede Phase ermöglicht unser System stabile und konsistente Interaktionen throughout. Tongyi DeepResearch verfügt über insgesamt 30,5 Milliarden Parameter, wobei pro Token nur 3,3 Milliarden aktiviert werden, und erzielt state-of-the-art Leistungen in einer Reihe von agentenbasierten Deep-Research-Benchmarks, darunter Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES und xbench-DeepSearch-2510. Wir stellen das Modell, das Framework und die vollständigen Lösungen als Open Source zur Verfügung, um die Community zu befähigen.
English
We present Tongyi DeepResearch, an agentic large language model, which is specifically designed for long-horizon, deep information-seeking research tasks. To incentivize autonomous deep research agency, Tongyi DeepResearch is developed through an end-to-end training framework that combines agentic mid-training and agentic post-training, enabling scalable reasoning and information seeking across complex tasks. We design a highly scalable data synthesis pipeline that is fully automatic, without relying on costly human annotation, and empowers all training stages. By constructing customized environments for each stage, our system enables stable and consistent interactions throughout. Tongyi DeepResearch, featuring 30.5 billion total parameters, with only 3.3 billion activated per token, achieves state-of-the-art performance across a range of agentic deep research benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES and xbench-DeepSearch-2510. We open-source the model, framework, and complete solutions to empower the community.
PDF954December 1, 2025