AceReason-Nemotron: Avançando o Raciocínio Matemático e de Código por meio de Aprendizado por Reforço
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Autores: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Resumo
Apesar dos recentes avanços no aprendizado por reforço (RL) em larga escala para raciocínio, a receita de treinamento para construir modelos de alto desempenho em raciocínio permanece evasiva. Detalhes-chave de implementação de modelos de fronteira, como o DeepSeek-R1, incluindo estratégias de curadoria de dados e a receita de treinamento de RL, são frequentemente omitidos. Além disso, pesquisas recentes indicam que a destilação continua sendo mais eficaz do que o RL para modelos menores. Neste trabalho, demonstramos que o RL em larga escala pode aprimorar significativamente as capacidades de raciocínio de modelos pequenos e médios já robustos, alcançando resultados que superam os dos modelos baseados em destilação de última geração. Estudamos sistematicamente o processo de treinamento de RL por meio de extensas ablações e propomos uma abordagem simples, porém eficaz: primeiro treinar em prompts exclusivamente matemáticos, depois em prompts exclusivamente de código. Notavelmente, descobrimos que o RL apenas em matemática não apenas melhora significativamente o desempenho de modelos destilados robustos em benchmarks matemáticos (por exemplo, +14,6% / +17,2% no AIME 2025 para os modelos 7B / 14B), mas também em tarefas de raciocínio em código (por exemplo, +6,8% / +5,8% no LiveCodeBench para os modelos 7B / 14B). Além disso, iterações estendidas de RL apenas em código melhoram ainda mais o desempenho em benchmarks de código com degradação mínima ou nula nos resultados matemáticos. Desenvolvemos um pipeline robusto de curadoria de dados para coletar prompts desafiadores com respostas e casos de teste de alta qualidade e verificáveis, permitindo o RL baseado em verificação em ambos os domínios. Por fim, identificamos insights experimentais-chave, incluindo o aprendizado curricular com comprimentos de resposta progressivamente maiores e o efeito estabilizador de atualizações de parâmetros on-policy. Descobrimos que o RL não apenas elicita as capacidades fundamentais de raciocínio adquiridas durante o pré-treinamento e o ajuste fino supervisionado (por exemplo, destilação), mas também expande os limites da capacidade de raciocínio do modelo, permitindo que ele resolva problemas que antes eram insolúveis.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.