ChatPaper.aiChatPaper

RL-PLUS: Противодействие коллапсу границ возможностей крупных языковых моделей в обучении с подкреплением с помощью гибридной оптимизации политик

RL-PLUS: Countering Capability Boundary Collapse of LLMs in Reinforcement Learning with Hybrid-policy Optimization

July 31, 2025
Авторы: Yihong Dong, Xue Jiang, Yongding Tao, Huanyu Liu, Kechi Zhang, Lili Mou, Rongyu Cao, Yingwei Ma, Jue Chen, Binhua Li, Zhi Jin, Fei Huang, Yongbin Li, Ge Li
cs.AI

Аннотация

Обучение с подкреплением с верифицируемой наградой (RLVR) значительно улучшило способности крупных языковых моделей (LLM) к сложным рассуждениям. Однако этот подход сталкивается с трудностями в преодолении внутренних ограничений базовой LLM из-за своей по сути он-политичной стратегии, сочетающейся с огромным пространством действий и редкими наградами в LLM. Критически важно, что RLVR может привести к коллапсу границ возможностей, сужая спектр решаемых LLM задач. Для решения этой проблемы мы предлагаем RL-PLUS — новый гибридный подход к оптимизации политик для LLM, который сочетает внутреннее использование возможностей модели с внешними данными для достижения более сильных способностей к рассуждениям и преодоления ограничений базовых моделей. RL-PLUS интегрирует два ключевых компонента: множественное важностное сэмплирование для устранения несоответствия распределений внешних данных и функцию преимущества на основе исследования, которая направляет модель к высокоценным, неизученным путям рассуждений. Мы предоставляем как теоретический анализ, так и обширные эксперименты, демонстрирующие превосходство и универсальность нашего подхода. По сравнению с существующими методами RLVR, RL-PLUS достигает: 1) наилучших результатов на шести бенчмарках математических рассуждений; 2) превосходной производительности на шести задачах рассуждений вне распределения; 3) стабильного и значительного улучшения в различных семействах моделей, с относительным улучшением до 69,2%. Кроме того, анализ кривых Pass@k показывает, что RL-PLUS эффективно решает проблему коллапса границ возможностей.
English
Reinforcement Learning with Verifiable Reward (RLVR) has significantly advanced the complex reasoning abilities of Large Language Models (LLMs). However, it struggles to break through the inherent capability boundaries of the base LLM, due to its essentially on-policy strategy coupled with LLM's immense action space and sparse reward. Critically, RLVR can lead to the capability boundary collapse, narrowing the LLM's problem-solving scope. To address this problem, we propose RL-PLUS, a novel hybrid-policy optimization approach for LLMs that synergizes internal exploitation with external data to achieve stronger reasoning capabilities and surpass the boundaries of base models. RL-PLUS integrates two core components, i.e., Multiple Importance Sampling to address distributional mismatch from external data, and Exploration-Based Advantage Function to guide the model towards high-value, unexplored reasoning paths. We provide both theoretical analysis and extensive experiments to demonstrate the superiority and generalizability of our approach. Compared with existing RLVR methods, RL-PLUS achieves 1) state-of-the-art performance on six math reasoning benchmarks; 2) superior performance on six out-of-distribution reasoning tasks; 3) consistent and significant gains across diverse model families, with average relative improvements up to 69.2\%. Moreover, the analysis of Pass@k curves indicates that RL-PLUS effectively resolves the capability boundary collapse problem.
PDF62August 7, 2025