Технический отчет Tongyi DeepResearch
Tongyi DeepResearch Technical Report
October 28, 2025
Авторы: Tongyi DeepResearch Team, Baixuan Li, Bo Zhang, Dingchu Zhang, Fei Huang, Guangyu Li, Guoxin Chen, Huifeng Yin, Jialong Wu, Jingren Zhou, Kuan Li, Liangcai Su, Litu Ou, Liwen Zhang, Pengjun Xie, Rui Ye, Wenbiao Yin, Xinmiao Yu, Xinyu Wang, Xixi Wu, Xuanzhong Chen, Yida Zhao, Zhen Zhang, Zhengwei Tao, Zhongwang Zhang, Zile Qiao, Chenxi Wang, Donglei Yu, Gang Fu, Haiyang Shen, Jiayin Yang, Jun Lin, Junkai Zhang, Kui Zeng, Li Yang, Hailong Yin, Maojia Song, Ming Yan, Peng Xia, Qian Xiao, Rui Min, Ruixue Ding, Runnan Fang, Shaowei Chen, Shen Huang, Shihang Wang, Shihao Cai, Weizhou Shen, Xiaobin Wang, Xin Guan, Xinyu Geng, Yingcheng Shi, Yuning Wu, Zhuo Chen, Zijian Li, Yong Jiang
cs.AI
Аннотация
Мы представляем Tongyi DeepResearch — агентную большую языковую модель, специально разработанную для решения долгосрочных задач углубленного информационного поиска. Для стимулирования автономной деятельности в области глубоких исследований Tongyi DeepResearch разработана с использованием сквозной框架 обучения, сочетающей агентное промежуточное обучение и агентное пост-обучение, что обеспечивает масштабируемое логическое мышление и информационный поиск в сложных задачах. Мы создали высокомасштабируемый конвейер синтеза данных, полностью автоматизированный и не требующий дорогостоящей человеческой разметки, который поддерживает все этапы обучения. Благодаря построению специализированных сред для каждого этапа, наша система гарантирует стабильное и последовательное взаимодействие на протяжении всего процесса. Tongyi DeepResearch, обладающая общим объемом 30,5 миллиардов параметров при активации всего 3,3 миллиарда на токен, демонстрирует передовые результаты в серии бенчмарков агентного глубокого поиска, включая Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES и xbench-DeepSearch-2510. Мы открываем исходный код модели,框架 и полные решения для расширения возможностей научного сообщества.
English
We present Tongyi DeepResearch, an agentic large language model, which is
specifically designed for long-horizon, deep information-seeking research
tasks. To incentivize autonomous deep research agency, Tongyi DeepResearch is
developed through an end-to-end training framework that combines agentic
mid-training and agentic post-training, enabling scalable reasoning and
information seeking across complex tasks. We design a highly scalable data
synthesis pipeline that is fully automatic, without relying on costly human
annotation, and empowers all training stages. By constructing customized
environments for each stage, our system enables stable and consistent
interactions throughout. Tongyi DeepResearch, featuring 30.5 billion total
parameters, with only 3.3 billion activated per token, achieves
state-of-the-art performance across a range of agentic deep research
benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH,
WebWalkerQA, xbench-DeepSearch, FRAMES and xbench-DeepSearch-2510. We
open-source the model, framework, and complete solutions to empower the
community.