AceReason-Nemotron: Улучшение математического и программного мышления с помощью обучения с подкреплением
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Авторы: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Аннотация
Несмотря на недавние успехи в масштабном обучении с подкреплением (RL) для задач рассуждений, рецепт обучения для создания высокопроизводительных моделей рассуждений остается неясным. Ключевые детали реализации передовых моделей, таких как DeepSeek-R1, включая стратегии подготовки данных и рецепт обучения RL, часто опускаются. Более того, последние исследования показывают, что дистилляция остается более эффективной, чем RL, для небольших моделей. В данной работе мы демонстрируем, что масштабное RL может значительно улучшить способности к рассуждениям у сильных моделей малого и среднего размера, достигая результатов, превосходящих модели, основанные на дистилляции. Мы систематически изучаем процесс обучения RL с помощью обширных экспериментов и предлагаем простой, но эффективный подход: сначала обучение на математических задачах, затем на задачах, связанных с кодом. Примечательно, что RL на математических задачах не только значительно улучшает производительность сильных дистиллированных моделей на математических тестах (например, +14,6% / +17,2% на AIME 2025 для моделей 7B / 14B), но и на задачах, связанных с кодом (например, +6,8% / +5,8% на LiveCodeBench для моделей 7B / 14B). Кроме того, дополнительные итерации RL на задачах, связанных с кодом, еще больше улучшают производительность на тестах по коду с минимальным или нулевым ухудшением результатов по математике. Мы разрабатываем надежный конвейер подготовки данных для сбора сложных задач с высококачественными, проверяемыми ответами и тестовыми примерами, что позволяет использовать RL с проверкой в обеих областях. Наконец, мы выявляем ключевые экспериментальные инсайты, включая обучение по учебному плану с постепенным увеличением длины ответов и стабилизирующий эффект обновления параметров на основе текущей политики. Мы обнаруживаем, что RL не только раскрывает базовые способности к рассуждениям, приобретенные на этапах предварительного обучения и тонкой настройки с учителем (например, дистилляции), но и расширяет границы способностей модели к рассуждениям, позволяя ей решать задачи, которые ранее были неразрешимы.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.Summary
AI-Generated Summary