ChatPaper.aiChatPaper

AceReason-Nemotron: Avanzando en el razonamiento matemático y de código mediante aprendizaje por refuerzo

AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning

May 22, 2025
Autores: Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
cs.AI

Resumen

A pesar de los recientes avances en el aprendizaje por refuerzo (RL) a gran escala para el razonamiento, la receta de entrenamiento para construir modelos de razonamiento de alto rendimiento sigue siendo esquiva. Los detalles clave de implementación de modelos de vanguardia, como DeepSeek-R1, incluyendo estrategias de curación de datos y la receta de entrenamiento de RL, a menudo se omiten. Además, investigaciones recientes indican que la destilación sigue siendo más efectiva que el RL para modelos más pequeños. En este trabajo, demostramos que el RL a gran escala puede mejorar significativamente las capacidades de razonamiento de modelos pequeños y medianos fuertes, logrando resultados que superan a los de los modelos basados en destilación más avanzados. Estudiamos sistemáticamente el proceso de entrenamiento de RL a través de extensas ablaciones y proponemos un enfoque simple pero efectivo: primero entrenar con indicaciones solo de matemáticas, luego con indicaciones solo de código. Notablemente, encontramos que el RL solo de matemáticas no solo mejora significativamente el rendimiento de modelos destilados fuertes en benchmarks de matemáticas (por ejemplo, +14.6% / +17.2% en AIME 2025 para los modelos de 7B / 14B), sino también en tareas de razonamiento de código (por ejemplo, +6.8% / +5.8% en LiveCodeBench para los modelos de 7B / 14B). Además, iteraciones extendidas de RL solo de código mejoran aún más el rendimiento en benchmarks de código con una degradación mínima o nula en los resultados de matemáticas. Desarrollamos una robusta tubería de curación de datos para recopilar indicaciones desafiantes con respuestas verificables de alta calidad y casos de prueba para permitir RL basado en verificación en ambos dominios. Finalmente, identificamos insights experimentales clave, incluyendo el aprendizaje curricular con longitudes de respuesta progresivamente crecientes y el efecto estabilizador de las actualizaciones de parámetros on-policy. Encontramos que el RL no solo elicita las capacidades fundamentales de razonamiento adquiridas durante el preentrenamiento y el ajuste fino supervisado (por ejemplo, destilación), sino que también empuja los límites de la capacidad de razonamiento del modelo, permitiéndole resolver problemas que antes eran irresolubles.
English
Despite recent progress in large-scale reinforcement learning (RL) for reasoning, the training recipe for building high-performing reasoning models remains elusive. Key implementation details of frontier models, such as DeepSeek-R1, including data curation strategies and RL training recipe, are often omitted. Moreover, recent research indicates distillation remains more effective than RL for smaller models. In this work, we demonstrate that large-scale RL can significantly enhance the reasoning capabilities of strong, small- and mid-sized models, achieving results that surpass those of state-of-the-art distillation-based models. We systematically study the RL training process through extensive ablations and propose a simple yet effective approach: first training on math-only prompts, then on code-only prompts. Notably, we find that math-only RL not only significantly enhances the performance of strong distilled models on math benchmarks (e.g., +14.6% / +17.2% on AIME 2025 for the 7B / 14B models), but also code reasoning tasks (e.g., +6.8% / +5.8% on LiveCodeBench for the 7B / 14B models). In addition, extended code-only RL iterations further improve performance on code benchmarks with minimal or no degradation in math results. We develop a robust data curation pipeline to collect challenging prompts with high-quality, verifiable answers and test cases to enable verification-based RL across both domains. Finally, we identify key experimental insights, including curriculum learning with progressively increasing response lengths and the stabilizing effect of on-policy parameter updates. We find that RL not only elicits the foundational reasoning capabilities acquired during pretraining and supervised fine-tuning (e.g., distillation), but also pushes the limits of the model's reasoning ability, enabling it to solve problems that were previously unsolvable.

Summary

AI-Generated Summary

PDF182May 23, 2025