ChatPaper.aiChatPaper

RL-PLUS: Contrarrestando el Colapso de los Límites de Capacidad en los LLMs en Aprendizaje por Refuerzo con Optimización de Política Híbrida

RL-PLUS: Countering Capability Boundary Collapse of LLMs in Reinforcement Learning with Hybrid-policy Optimization

July 31, 2025
Autores: Yihong Dong, Xue Jiang, Yongding Tao, Huanyu Liu, Kechi Zhang, Lili Mou, Rongyu Cao, Yingwei Ma, Jue Chen, Binhua Li, Zhi Jin, Fei Huang, Yongbin Li, Ge Li
cs.AI

Resumen

El Aprendizaje por Refuerzo con Recompensa Verificable (RLVR, por sus siglas en inglés) ha avanzado significativamente las capacidades de razonamiento complejo de los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés). Sin embargo, enfrenta dificultades para superar los límites inherentes de capacidad del LLM base, debido a su estrategia esencialmente on-policy combinada con el amplio espacio de acciones y la recompensa dispersa de los LLMs. De manera crítica, RLVR puede llevar al colapso del límite de capacidad, reduciendo el alcance de resolución de problemas del LLM. Para abordar este problema, proponemos RL-PLUS, un novedoso enfoque de optimización de política híbrida para LLMs que sinergiza la explotación interna con datos externos para lograr capacidades de razonamiento más robustas y superar los límites de los modelos base. RL-PLUS integra dos componentes principales: el Muestreo de Importancia Múltiple para abordar el desajuste distribucional de los datos externos, y la Función de Ventaja Basada en Exploración para guiar al modelo hacia caminos de razonamiento de alto valor y no explorados. Proporcionamos tanto análisis teórico como experimentos extensos para demostrar la superioridad y generalizabilidad de nuestro enfoque. En comparación con los métodos RLVR existentes, RL-PLUS logra: 1) un rendimiento de vanguardia en seis benchmarks de razonamiento matemático; 2) un rendimiento superior en seis tareas de razonamiento fuera de distribución; 3) ganancias consistentes y significativas en diversas familias de modelos, con mejoras relativas promedio de hasta el 69,2%. Además, el análisis de las curvas Pass@k indica que RL-PLUS resuelve efectivamente el problema del colapso del límite de capacidad.
English
Reinforcement Learning with Verifiable Reward (RLVR) has significantly advanced the complex reasoning abilities of Large Language Models (LLMs). However, it struggles to break through the inherent capability boundaries of the base LLM, due to its essentially on-policy strategy coupled with LLM's immense action space and sparse reward. Critically, RLVR can lead to the capability boundary collapse, narrowing the LLM's problem-solving scope. To address this problem, we propose RL-PLUS, a novel hybrid-policy optimization approach for LLMs that synergizes internal exploitation with external data to achieve stronger reasoning capabilities and surpass the boundaries of base models. RL-PLUS integrates two core components, i.e., Multiple Importance Sampling to address distributional mismatch from external data, and Exploration-Based Advantage Function to guide the model towards high-value, unexplored reasoning paths. We provide both theoretical analysis and extensive experiments to demonstrate the superiority and generalizability of our approach. Compared with existing RLVR methods, RL-PLUS achieves 1) state-of-the-art performance on six math reasoning benchmarks; 2) superior performance on six out-of-distribution reasoning tasks; 3) consistent and significant gains across diverse model families, with average relative improvements up to 69.2\%. Moreover, the analysis of Pass@k curves indicates that RL-PLUS effectively resolves the capability boundary collapse problem.
PDF62August 7, 2025