ChatPaper.aiChatPaper

Технический отчет Step-DeepResearch

Step-DeepResearch Technical Report

December 23, 2025
Авторы: Chen Hu, Haikuo Du, Heng Wang, Lin Lin, Mingrui Chen, Peng Liu, Ruihang Miao, Tianchi Yue, Wang You, Wei Ji, Wei Yuan, Wenjin Deng, Xiaojian Yuan, Xiaoyun Zhang, Xiangyu Liu, Xikai Liu, Yanming Xu, Yicheng Cao, Yifei Zhang, Yongyao Wang, Yubo Shu, Yurong Zhang, Yuxiang Zhang, Zheng Gong, Zhichao Chang, Binyan Li, Dan Ma, Furong Jia, Hongyuan Wang, Jiayu Liu, Jing Bai, Junlan Liu, Manjiao Liu, Na Wang, Qiuping Wu, Qinxin Du, Shiwei Li, Wen Sun, Yifeng Gong, Yonglin Chen, Yuling Zhao, Yuxuan Lin, Ziqi Ren, Zixuan Wang, Aihu Zhang, Brian Li, Buyun Ma, Kang An, Li Xie, Mingliang Li, Pan Li, Shidong Yang, Xi Chen, Xiaojia Liu, Yuchu Luo, Yuan Song, YuanHao Ding, Yuanwei Liang, Zexi Li, Zhaoning Zhang, Zixin Zhang, Binxing Jiao, Daxin Jiang, Jiansheng Chen, Jing Li, Xiangyu Zhang, Yibo Zhu
cs.AI

Аннотация

По мере перехода языковых моделей к автономным агентам, метрика Deep Research приобрела ключевое значение. Однако существующие академические бенчмарки, такие как BrowseComp, часто не отвечают реальным требованиям к открытым исследованиям, которые предполагают развитые навыки распознавания намерений, долгосрочного планирования и кросс-источниковой верификации. Для решения этой проблемы мы представляем Step-DeepResearch — экономичного сквозного агента. Мы предлагаем стратегию синтеза данных на основе атомарных возможностей для усиления планирования и написания отчетов в сочетании с прогрессивным путем обучения: от агентского mid-training к SFT и RL. Усиленный чеклист-оценщиком, данный подход значительно повышает устойчивость. Кроме того, для преодоления разрыва в оценке в китайскоязычной сфере мы создали ADR-Bench для реалистичных сценариев глубокого исследования. Эксперименты показывают, что Step-DeepResearch (32B) набирает 61,4% по Scale AI Research Rubrics. На ADR-Bench модель значительно превосходит аналогичные решения и конкурирует с закрытыми SOTA-моделями, такими как OpenAI и Gemini DeepResearch. Эти результаты доказывают, что оптимизированное обучение позволяет моделям среднего размера достигать экспертного уровня при рекордной отраслевой рентабельности.
English
As LLMs shift toward autonomous agents, Deep Research has emerged as a pivotal metric. However, existing academic benchmarks like BrowseComp often fail to meet real-world demands for open-ended research, which requires robust skills in intent recognition, long-horizon decision-making, and cross-source verification. To address this, we introduce Step-DeepResearch, a cost-effective, end-to-end agent. We propose a Data Synthesis Strategy Based on Atomic Capabilities to reinforce planning and report writing, combined with a progressive training path from agentic mid-training to SFT and RL. Enhanced by a Checklist-style Judger, this approach significantly improves robustness. Furthermore, to bridge the evaluation gap in the Chinese domain, we establish ADR-Bench for realistic deep research scenarios. Experimental results show that Step-DeepResearch (32B) scores 61.4% on Scale AI Research Rubrics. On ADR-Bench, it significantly outperforms comparable models and rivals SOTA closed-source models like OpenAI and Gemini DeepResearch. These findings prove that refined training enables medium-sized models to achieve expert-level capabilities at industry-leading cost-efficiency.
PDF121December 25, 2025