AceReason-Nemotron: Vooruitgang in Wiskundig en Code Redeneren via Reinforcement Learning
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Auteurs: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Samenvatting
Ondanks recente vooruitgang in grootschalige reinforcement learning (RL) voor redeneren, blijft het trainingsrecept voor het bouwen van hoogpresterende redeneermodellen ongrijpbaar. Belangrijke implementatiedetails van grensverleggende modellen, zoals DeepSeek-R1, inclusief datacuratiestrategieën en het RL-trainingsrecept, worden vaak weggelaten. Bovendien wijst recent onderzoek uit dat distillatie effectiever blijft dan RL voor kleinere modellen. In dit werk tonen we aan dat grootschalige RL de redeneervaardigheden van sterke, kleine en middelgrote modellen aanzienlijk kan verbeteren, met resultaten die die van state-of-the-art distillatiegebaseerde modellen overtreffen. We bestuderen het RL-trainingsproces systematisch door middel van uitgebreide ablatie-experimenten en stellen een eenvoudige maar effectieve aanpak voor: eerst trainen op alleen wiskundige prompts, daarna op alleen code-prompts. Opmerkelijk is dat RL met alleen wiskunde niet alleen de prestaties van sterke gedistilleerde modellen op wiskundige benchmarks aanzienlijk verbetert (bijv. +14,6% / +17,2% op AIME 2025 voor de 7B / 14B modellen), maar ook op code-redeneertaken (bijv. +6,8% / +5,8% op LiveCodeBench voor de 7B / 14B modellen). Daarnaast verbeteren uitgebreide RL-iteraties met alleen code de prestaties op code-benchmarks verder, met minimale of geen verslechtering van de wiskundige resultaten. We ontwikkelen een robuuste datacuratiepipeline om uitdagende prompts te verzamelen met hoogwaardige, verifieerbare antwoorden en testcases om verificatiegebaseerde RL in beide domeinen mogelijk te maken. Tot slot identificeren we belangrijke experimentele inzichten, waaronder curriculumleren met progressief toenemende responslengtes en het stabiliserende effect van on-policy parameterupdates. We constateren dat RL niet alleen de fundamentele redeneervaardigheden die tijdens de pretraining en supervised fine-tuning (bijv. distillatie) zijn verworven, naar voren haalt, maar ook de grenzen van het redeneervermogen van het model verlegt, waardoor het problemen kan oplossen die voorheen onoplosbaar waren.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.