ChatPaper.aiChatPaper

Informe Técnico de Tongyi DeepResearch

Tongyi DeepResearch Technical Report

October 28, 2025
Autores: Tongyi DeepResearch Team, Baixuan Li, Bo Zhang, Dingchu Zhang, Fei Huang, Guangyu Li, Guoxin Chen, Huifeng Yin, Jialong Wu, Jingren Zhou, Kuan Li, Liangcai Su, Litu Ou, Liwen Zhang, Pengjun Xie, Rui Ye, Wenbiao Yin, Xinmiao Yu, Xinyu Wang, Xixi Wu, Xuanzhong Chen, Yida Zhao, Zhen Zhang, Zhengwei Tao, Zhongwang Zhang, Zile Qiao, Chenxi Wang, Donglei Yu, Gang Fu, Haiyang Shen, Jiayin Yang, Jun Lin, Junkai Zhang, Kui Zeng, Li Yang, Hailong Yin, Maojia Song, Ming Yan, Peng Xia, Qian Xiao, Rui Min, Ruixue Ding, Runnan Fang, Shaowei Chen, Shen Huang, Shihang Wang, Shihao Cai, Weizhou Shen, Xiaobin Wang, Xin Guan, Xinyu Geng, Yingcheng Shi, Yuning Wu, Zhuo Chen, Zijian Li, Yong Jiang
cs.AI

Resumen

Presentamos Tongyi DeepResearch, un modelo de lenguaje grande agéntico diseñado específicamente para tareas de investigación profunda con búsqueda de información de largo alcance. Para incentivar la capacidad autónoma de investigación profunda, Tongyi DeepResearch se desarrolla mediante un marco de entrenamiento integral que combina entrenamiento intermedio agéntico y entrenamiento posterior agéntico, permitiendo razonamiento escalable y búsqueda de información en tareas complejas. Diseñamos una canalización de síntesis de datos altamente escalable, completamente automática y que no depende de costosas anotaciones humanas, potenciando todas las etapas de entrenamiento. Mediante la construcción de entornos personalizados para cada fase, nuestro sistema permite interacciones estables y consistentes en todo el proceso. Tongyi DeepResearch, con 30.5 mil millones de parámetros totales y solo 3.3 mil millones activados por token, logra un rendimiento de vanguardia en diversos benchmarks de investigación profunda agéntica, incluyendo Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES y xbench-DeepSearch-2510. Liberamos como código abierto el modelo, el marco y las soluciones completas para empoderar a la comunidad.
English
We present Tongyi DeepResearch, an agentic large language model, which is specifically designed for long-horizon, deep information-seeking research tasks. To incentivize autonomous deep research agency, Tongyi DeepResearch is developed through an end-to-end training framework that combines agentic mid-training and agentic post-training, enabling scalable reasoning and information seeking across complex tasks. We design a highly scalable data synthesis pipeline that is fully automatic, without relying on costly human annotation, and empowers all training stages. By constructing customized environments for each stage, our system enables stable and consistent interactions throughout. Tongyi DeepResearch, featuring 30.5 billion total parameters, with only 3.3 billion activated per token, achieves state-of-the-art performance across a range of agentic deep research benchmarks, including Humanity's Last Exam, BrowseComp, BrowseComp-ZH, WebWalkerQA, xbench-DeepSearch, FRAMES and xbench-DeepSearch-2510. We open-source the model, framework, and complete solutions to empower the community.
PDF954December 1, 2025