AceReason-Nemotron: Fortschritte in mathematischem und programmtechnischem Denken durch Reinforcement Learning
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Autoren: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Zusammenfassung
Trotz jüngster Fortschritte im Bereich des groß angelegten Reinforcement Learning (RL) für das logische Denken bleibt das Trainingsrezept zur Entwicklung hochleistungsfähiger Denkmodelle schwer fassbar. Wichtige Implementierungsdetails von Spitzenmodellen wie DeepSeek-R1, einschließlich Strategien zur Datenkuratierung und RL-Trainingsrezepten, werden oft nicht offengelegt. Darüber hinaus zeigt aktuelle Forschung, dass die Destillation für kleinere Modelle nach wie vor effektiver ist als RL. In dieser Arbeit demonstrieren wir, dass groß angelegtes RL die Denkfähigkeiten starker, kleiner und mittelgroßer Modelle erheblich verbessern kann und Ergebnisse erzielt, die diejenigen von state-of-the-art Destillationsmodellen übertreffen. Wir untersuchen den RL-Trainingsprozess systematisch durch umfangreiche Ablationen und schlagen einen einfachen, aber effektiven Ansatz vor: Zuerst Training mit ausschließlich mathematischen Prompts, gefolgt von Training mit ausschließlich Code-Prompts. Bemerkenswerterweise stellen wir fest, dass RL mit rein mathematischen Prompts nicht nur die Leistung starker destillierter Modelle bei mathematischen Benchmarks signifikant steigert (z. B. +14,6 % / +17,2 % bei AIME 2025 für die 7B / 14B Modelle), sondern auch bei Code-Denkaufgaben (z. B. +6,8 % / +5,8 % bei LiveCodeBench für die 7B / 14B Modelle). Darüber hinaus verbessern zusätzliche RL-Iterationen mit reinen Code-Prompts die Leistung bei Code-Benchmarks weiter, mit minimaler oder keiner Verschlechterung der mathematischen Ergebnisse. Wir entwickeln eine robuste Datenkuratierungspipeline, um herausfordernde Prompts mit hochwertigen, überprüfbaren Antworten und Testfällen zu sammeln, um verifikationsbasiertes RL in beiden Domänen zu ermöglichen. Schließlich identifizieren wir wichtige experimentelle Erkenntnisse, darunter Curriculum-Learning mit progressiv ansteigenden Antwortlängen und die stabilisierende Wirkung von On-Policy-Parameteraktualisierungen. Wir stellen fest, dass RL nicht nur die grundlegenden Denkfähigkeiten, die während des Vortrainings und des überwachten Feinabstimmens (z. B. Destillation) erworben wurden, hervorruft, sondern auch die Grenzen der Denkfähigkeit des Modells erweitert, sodass es Probleme lösen kann, die zuvor unlösbar waren.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.Summary
AI-Generated Summary