Technisch Rapport Step-DeepResearch
Step-DeepResearch Technical Report
December 23, 2025
Auteurs: Chen Hu, Haikuo Du, Heng Wang, Lin Lin, Mingrui Chen, Peng Liu, Ruihang Miao, Tianchi Yue, Wang You, Wei Ji, Wei Yuan, Wenjin Deng, Xiaojian Yuan, Xiaoyun Zhang, Xiangyu Liu, Xikai Liu, Yanming Xu, Yicheng Cao, Yifei Zhang, Yongyao Wang, Yubo Shu, Yurong Zhang, Yuxiang Zhang, Zheng Gong, Zhichao Chang, Binyan Li, Dan Ma, Furong Jia, Hongyuan Wang, Jiayu Liu, Jing Bai, Junlan Liu, Manjiao Liu, Na Wang, Qiuping Wu, Qinxin Du, Shiwei Li, Wen Sun, Yifeng Gong, Yonglin Chen, Yuling Zhao, Yuxuan Lin, Ziqi Ren, Zixuan Wang, Aihu Zhang, Brian Li, Buyun Ma, Kang An, Li Xie, Mingliang Li, Pan Li, Shidong Yang, Xi Chen, Xiaojia Liu, Yuchu Luo, Yuan Song, YuanHao Ding, Yuanwei Liang, Zexi Li, Zhaoning Zhang, Zixin Zhang, Binxing Jiao, Daxin Jiang, Jiansheng Chen, Jing Li, Xiangyu Zhang, Yibo Zhu
cs.AI
Samenvatting
Naarmate LLM's zich ontwikkelen naar autonome agents, is Deep Research een cruciale maatstaf geworden. Bestaande academische benchmarks zoals BrowseComp voldoen echter vaak niet aan de praktische eisen voor open-ended onderzoek, dat robuuste vaardigheden vereist in intentieherkenning, besluitvorming over lange tijdshorizons en kruisbronverificatie. Om dit aan te pakken, introduceren we Step-DeepResearch, een kosteneffectieve, end-to-end agent. We presenteren een datasynthesestrategie gebaseerd op atomische capaciteiten om planning en rapportschrijven te versterken, gecombineerd met een progressief trainingspad van agentic mid-training naar SFT en RL. Versterkt door een checklist-stijl beoordelaar verbetert deze aanpak de robuustheid aanzienlijk. Verder richten we ADR-Bench op voor realistische deep research-scenario's om de evaluatiekloof in het Chinese taalgebied te overbruggen. Experimentele resultaten tonen aan dat Step-DeepResearch (32B) 61,4% scoort op de Scale AI Research Rubrics. Op ADR-Bench presteert het significant beter dan vergelijkbare modellen en kan het concurreren met state-of-the-art gesloten modellen zoals OpenAI en Gemini DeepResearch. Deze bevindingen bewijzen dat verfijnde training middelgrote modellen in staat stelt expertniveau te bereiken met toonaangevende kostenefficiëntie.
English
As LLMs shift toward autonomous agents, Deep Research has emerged as a pivotal metric. However, existing academic benchmarks like BrowseComp often fail to meet real-world demands for open-ended research, which requires robust skills in intent recognition, long-horizon decision-making, and cross-source verification. To address this, we introduce Step-DeepResearch, a cost-effective, end-to-end agent. We propose a Data Synthesis Strategy Based on Atomic Capabilities to reinforce planning and report writing, combined with a progressive training path from agentic mid-training to SFT and RL. Enhanced by a Checklist-style Judger, this approach significantly improves robustness. Furthermore, to bridge the evaluation gap in the Chinese domain, we establish ADR-Bench for realistic deep research scenarios. Experimental results show that Step-DeepResearch (32B) scores 61.4% on Scale AI Research Rubrics. On ADR-Bench, it significantly outperforms comparable models and rivals SOTA closed-source models like OpenAI and Gemini DeepResearch. These findings prove that refined training enables medium-sized models to achieve expert-level capabilities at industry-leading cost-efficiency.