Step-DeepResearch Technischer Bericht
Step-DeepResearch Technical Report
December 23, 2025
papers.authors: Chen Hu, Haikuo Du, Heng Wang, Lin Lin, Mingrui Chen, Peng Liu, Ruihang Miao, Tianchi Yue, Wang You, Wei Ji, Wei Yuan, Wenjin Deng, Xiaojian Yuan, Xiaoyun Zhang, Xiangyu Liu, Xikai Liu, Yanming Xu, Yicheng Cao, Yifei Zhang, Yongyao Wang, Yubo Shu, Yurong Zhang, Yuxiang Zhang, Zheng Gong, Zhichao Chang, Binyan Li, Dan Ma, Furong Jia, Hongyuan Wang, Jiayu Liu, Jing Bai, Junlan Liu, Manjiao Liu, Na Wang, Qiuping Wu, Qinxin Du, Shiwei Li, Wen Sun, Yifeng Gong, Yonglin Chen, Yuling Zhao, Yuxuan Lin, Ziqi Ren, Zixuan Wang, Aihu Zhang, Brian Li, Buyun Ma, Kang An, Li Xie, Mingliang Li, Pan Li, Shidong Yang, Xi Chen, Xiaojia Liu, Yuchu Luo, Yuan Song, YuanHao Ding, Yuanwei Liang, Zexi Li, Zhaoning Zhang, Zixin Zhang, Binxing Jiao, Daxin Jiang, Jiansheng Chen, Jing Li, Xiangyu Zhang, Yibo Zhu
cs.AI
papers.abstract
Mit der Entwicklung von LLMs hin zu autonomen Agenten hat sich Deep Research als zentraler Bewertungsmaßstab etabliert. Allerdings erfüllen bestehende akademische Benchmarks wie BrowseComp häufig nicht die praktischen Anforderungen an offene Rechercheaufgaben, die robuste Fähigkeiten in der Intentionserkennung, langfristigen Entscheidungsfindung und quellenübergreifenden Verifikation erfordern. Um diese Lücke zu schließen, stellen wir Step-DeepResearch vor, einen kosteneffizienten End-to-End-Agenten. Wir entwickeln eine Datensynthese-Strategie basierend auf atomaren Fähigkeiten, um die Planung und Erstellung von Berichten zu stärken, kombiniert mit einem progressiven Trainingspfad von agentenbasiertem Mid-Training über SFT bis hin zu RL. Durch einen Checklisten-basierten Judger wird die Robustheit signifikant verbessert. Zudem etablieren wir ADR-Bench für realistische Deep-Research-Szenarien, um die Evaluationslücke im chinesischen Sprachraum zu schließen. Experimentelle Ergebnisse zeigen, dass Step-DeepResearch (32B) auf den Scale AI Research Rubrics 61,4 % erreicht. Auf ADR-Bench übertrifft es vergleichbare Modelle deutlich und kann sich mit geschlossenen SOTA-Modellen wie OpenAI und Gemini DeepResearch messen. Diese Ergebnisse belegen, dass verfeinertes Training mittelgroßen Modellen ermöglicht, Expertenfähigkeiten bei branchenführender Kosteneffizienz zu erreichen.
English
As LLMs shift toward autonomous agents, Deep Research has emerged as a pivotal metric. However, existing academic benchmarks like BrowseComp often fail to meet real-world demands for open-ended research, which requires robust skills in intent recognition, long-horizon decision-making, and cross-source verification. To address this, we introduce Step-DeepResearch, a cost-effective, end-to-end agent. We propose a Data Synthesis Strategy Based on Atomic Capabilities to reinforce planning and report writing, combined with a progressive training path from agentic mid-training to SFT and RL. Enhanced by a Checklist-style Judger, this approach significantly improves robustness. Furthermore, to bridge the evaluation gap in the Chinese domain, we establish ADR-Bench for realistic deep research scenarios. Experimental results show that Step-DeepResearch (32B) scores 61.4% on Scale AI Research Rubrics. On ADR-Bench, it significantly outperforms comparable models and rivals SOTA closed-source models like OpenAI and Gemini DeepResearch. These findings prove that refined training enables medium-sized models to achieve expert-level capabilities at industry-leading cost-efficiency.