AceReason-Nemotron: Avanzare nel Ragionamento Matematico e nel Codice attraverso l'Apprendimento per Rinforzo
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Autori: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Abstract
Nonostante i recenti progressi nell'apprendimento per rinforzo (RL) su larga scala per il ragionamento, la ricetta di addestramento per costruire modelli di ragionamento ad alte prestazioni rimane sfuggente. I dettagli chiave di implementazione dei modelli all'avanguardia, come DeepSeek-R1, inclusi le strategie di curatela dei dati e la ricetta di addestramento RL, sono spesso omessi. Inoltre, ricerche recenti indicano che la distillazione rimane più efficace dell'RL per modelli più piccoli. In questo lavoro, dimostriamo che l'RL su larga scala può migliorare significativamente le capacità di ragionamento di modelli forti di piccole e medie dimensioni, ottenendo risultati che superano quelli dei modelli basati su distillazione all'avanguardia. Studiamo sistematicamente il processo di addestramento RL attraverso ampie ablazioni e proponiamo un approccio semplice ma efficace: addestrare prima su prompt esclusivamente matematici, poi su prompt esclusivamente di codice. In particolare, scopriamo che l'RL esclusivamente matematico non solo migliora significativamente le prestazioni di modelli distillati forti su benchmark matematici (ad esempio, +14,6% / +17,2% su AIME 2025 per i modelli 7B / 14B), ma anche su compiti di ragionamento di codice (ad esempio, +6,8% / +5,8% su LiveCodeBench per i modelli 7B / 14B). Inoltre, iterazioni estese di RL esclusivamente di codice migliorano ulteriormente le prestazioni sui benchmark di codice con un degrado minimo o nullo nei risultati matematici. Sviluppiamo una pipeline robusta di curatela dei dati per raccogliere prompt impegnativi con risposte verificabili di alta qualità e casi di test per abilitare l'RL basato sulla verifica in entrambi i domini. Infine, identifichiamo intuizioni sperimentali chiave, tra cui l'apprendimento curriculare con lunghezze di risposta progressivamente crescenti e l'effetto stabilizzante degli aggiornamenti dei parametri on-policy. Scopriamo che l'RL non solo elicita le capacità di ragionamento fondamentali acquisite durante il pre-addestramento e la messa a punto supervisionata (ad esempio, la distillazione), ma spinge anche i limiti della capacità di ragionamento del modello, consentendogli di risolvere problemi che in precedenza erano irrisolvibili.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.