AceReason-Nemotron: Avanzando en el razonamiento matemático y de código mediante aprendizaje por refuerzo
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
May 22, 2025
Autores: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI
Resumen
A pesar de los recientes avances en el aprendizaje por refuerzo (RL) a gran escala para el razonamiento, la receta de entrenamiento para construir modelos de razonamiento de alto rendimiento sigue siendo esquiva. Los detalles clave de implementación de modelos de vanguardia, como DeepSeek-R1, incluyendo estrategias de curación de datos y la receta de entrenamiento de RL, a menudo se omiten. Además, investigaciones recientes indican que la destilación sigue siendo más efectiva que el RL para modelos más pequeños. En este trabajo, demostramos que el RL a gran escala puede mejorar significativamente las capacidades de razonamiento de modelos pequeños y medianos fuertes, logrando resultados que superan a los de los modelos basados en destilación más avanzados. Estudiamos sistemáticamente el proceso de entrenamiento de RL a través de extensas ablaciones y proponemos un enfoque simple pero efectivo: primero entrenar con indicaciones solo de matemáticas, luego con indicaciones solo de código. Notablemente, encontramos que el RL solo de matemáticas no solo mejora significativamente el rendimiento de modelos destilados fuertes en benchmarks de matemáticas (por ejemplo, +14.6% / +17.2% en AIME 2025 para los modelos de 7B / 14B), sino también en tareas de razonamiento de código (por ejemplo, +6.8% / +5.8% en LiveCodeBench para los modelos de 7B / 14B). Además, iteraciones extendidas de RL solo de código mejoran aún más el rendimiento en benchmarks de código con una degradación mínima o nula en los resultados de matemáticas. Desarrollamos una robusta tubería de curación de datos para recopilar indicaciones desafiantes con respuestas verificables de alta calidad y casos de prueba para permitir RL basado en verificación en ambos dominios. Finalmente, identificamos insights experimentales clave, incluyendo el aprendizaje curricular con longitudes de respuesta progresivamente crecientes y el efecto estabilizador de las actualizaciones de parámetros on-policy. Encontramos que el RL no solo elicita las capacidades fundamentales de razonamiento adquiridas durante el preentrenamiento y el ajuste fino supervisado (por ejemplo, destilación), sino que también empuja los límites de la capacidad de razonamiento del modelo, permitiéndole resolver problemas que antes eran irresolubles.
English
Despite recent progress in large-scale reinforcement learning (RL) for
reasoning, the training recipe for building high-performing reasoning models
remains elusive. Key implementation details of frontier models, such as
DeepSeek-R1, including data curation strategies and RL training recipe, are
often omitted. Moreover, recent research indicates distillation remains more
effective than RL for smaller models. In this work, we demonstrate that
large-scale RL can significantly enhance the reasoning capabilities of strong,
small- and mid-sized models, achieving results that surpass those of
state-of-the-art distillation-based models. We systematically study the RL
training process through extensive ablations and propose a simple yet effective
approach: first training on math-only prompts, then on code-only prompts.
Notably, we find that math-only RL not only significantly enhances the
performance of strong distilled models on math benchmarks (e.g., +14.6% /
+17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks
(e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition,
extended code-only RL iterations further improve performance on code benchmarks
with minimal or no degradation in math results. We develop a robust data
curation pipeline to collect challenging prompts with high-quality, verifiable
answers and test cases to enable verification-based RL across both domains.
Finally, we identify key experimental insights, including curriculum learning
with progressively increasing response lengths and the stabilizing effect of
on-policy parameter updates. We find that RL not only elicits the foundational
reasoning capabilities acquired during pretraining and supervised fine-tuning
(e.g., distillation), but also pushes the limits of the model's reasoning
ability, enabling it to solve problems that were previously unsolvable.Summary
AI-Generated Summary