ChatPaper.aiChatPaper

Технический отчет Skywork Open Reasoner 1

Skywork Open Reasoner 1 Technical Report

May 28, 2025
Авторы: Jujie He, Jiacai Liu, Chris Yuhao Liu, Rui Yan, Chaojie Wang, Peng Cheng, Xiaoyu Zhang, Fuxiang Zhang, Jiacheng Xu, Wei Shen, Siyuan Li, Liang Zeng, Tianwen Wei, Cheng Cheng, Bo An, Yang Liu, Yahui Zhou
cs.AI

Аннотация

Успех DeepSeek-R1 подчеркивает значительную роль обучения с подкреплением (RL) в улучшении способностей к рассуждению у крупных языковых моделей (LLM). В данной работе мы представляем Skywork-OR1 — эффективную и масштабируемую реализацию RL для моделей с длинными цепочками рассуждений (CoT). Основываясь на серии моделей DeepSeek-R1-Distill, наш подход RL демонстрирует значительное улучшение производительности, увеличивая среднюю точность на наборах данных AIME24, AIME25 и LiveCodeBench с 57,8% до 72,8% (+15,0%) для 32B-модели и с 43,6% до 57,5% (+13,9%) для 7B-модели. Наша модель Skywork-OR1-32B превосходит как DeepSeek-R1, так и Qwen3-32B на бенчмарках AIME24 и AIME25, показывая сопоставимые результаты на LiveCodeBench. Модели Skywork-OR1-7B и Skywork-OR1-Math-7B демонстрируют конкурентоспособные способности к рассуждению среди моделей схожего размера. Мы проводим всесторонние исследования ключевых компонентов нашего конвейера обучения, чтобы подтвердить их эффективность. Кроме того, мы тщательно исследуем феномен коллапса энтропии, выявляем ключевые факторы, влияющие на динамику энтропии, и показываем, что предотвращение преждевременного коллапса энтропии критически важно для улучшения тестовой производительности. Для поддержки исследований сообщества мы полностью открываем исходные коды наших моделей, обучающего кода и наборов данных.
English
The success of DeepSeek-R1 underscores the significant role of reinforcement learning (RL) in enhancing the reasoning capabilities of large language models (LLMs). In this work, we present Skywork-OR1, an effective and scalable RL implementation for long Chain-of-Thought (CoT) models. Building on the DeepSeek-R1-Distill model series, our RL approach achieves notable performance gains, increasing average accuracy across AIME24, AIME25, and LiveCodeBench from 57.8% to 72.8% (+15.0%) for the 32B model and from 43.6% to 57.5% (+13.9%) for the 7B model. Our Skywork-OR1-32B model surpasses both DeepSeek-R1 and Qwen3-32B on the AIME24 and AIME25 benchmarks, while achieving comparable results on LiveCodeBench. The Skywork-OR1-7B and Skywork-OR1-Math-7B models demonstrate competitive reasoning capabilities among models of similar size. We perform comprehensive ablation studies on the core components of our training pipeline to validate their effectiveness. Additionally, we thoroughly investigate the phenomenon of entropy collapse, identify key factors affecting entropy dynamics, and demonstrate that mitigating premature entropy collapse is critical for improved test performance. To support community research, we fully open-source our model weights, training code, and training datasets.

Summary

AI-Generated Summary

PDF526May 29, 2025