ChatPaper.aiChatPaper

BroRL: Масштабирование обучения с подкреплением через расширенное исследование

BroRL: Scaling Reinforcement Learning via Broadened Exploration

October 1, 2025
Авторы: Jian Hu, Mingjie Liu, Ximing Lu, Fang Wu, Zaid Harchaoui, Shizhe Diao, Yejin Choi, Pavlo Molchanov, Jun Yang, Jan Kautz, Yi Dong
cs.AI

Аннотация

Обучение с подкреплением с верифицируемыми наградами (RLVR) стало ключевым элементом для раскрытия сложных способностей к рассуждению в крупных языковых моделях. Недавняя работа ProRL показала перспективность масштабирования RL за счет увеличения количества шагов обучения. Однако производительность выходит на плато после тысяч шагов, с явным уменьшением отдачи от выделения дополнительных вычислительных ресурсов на обучение. В данной работе мы исследуем дополнительную парадигму масштабирования RL, BroRL, увеличивая количество прогонов на каждый пример до сотен для исчерпывающего расширения исследования, что приводит к непрерывному улучшению производительности за пределами точки насыщения, наблюдаемой в ProRL при масштабировании количества шагов обучения. Наш подход мотивирован анализом уравнения баланса масс, позволяющим охарактеризовать скорость изменения вероятностной массы для правильных и неправильных токенов в процессе подкрепления. Мы показываем, что в предположении одношагового RL токены, полученные в результате прогонов, всегда способствуют расширению правильной массы, тогда как токены вне прогонов могут приводить к увеличению или уменьшению в зависимости от их распределения и баланса наград. Важно, что с увеличением количества прогонов на пример N влияние непрогонных токенов уменьшается, обеспечивая общее расширение правильной массы. Для проверки нашего теоретического анализа мы проводим симуляции в более мягких условиях и обнаруживаем, что достаточно большой размер прогона N, соответствующий обширному исследованию, гарантирует увеличение вероятностной массы всех правильных токенов. Эмпирически BroRL оживляет модели, достигшие насыщения после 3K шагов обучения ProRL, и демонстрирует устойчивое, непрерывное улучшение, достигая передовых результатов для модели на 1,5 млрд параметров на различных бенчмарках.
English
Reinforcement Learning with Verifiable Rewards (RLVR) has emerged as a key ingredient for unlocking complex reasoning capabilities in large language models. Recent work ProRL has shown promise in scaling RL by increasing the number of training steps. However, performance plateaus after thousands of steps, with clear diminishing returns from allocating more computation to additional training. In this work, we investigate a complementary paradigm for scaling RL, BroR-Lincreasing the number of rollouts per example to hundreds to exhaustively Broaden exploration, which yields continuous performance gains beyond the saturation point observed in ProRL when scaling the number of training steps. Our approach is motivated by a mass balance equation analysis allowing us to characterize the rate of change in probability mass for correct and incorrect tokens during the reinforcement process. We show that under a one-step RL assumption, sampled rollout tokens always contribute to correct-mass expansion, while unsampled tokens outside rollouts may lead to gains or losses depending on their distribution and the net reward balance. Importantly, as the number of rollouts per example N increases, the effect of unsampled terms diminishes, ensuring overall correct-mass expansion. To validate our theoretical analysis, we conduct simulations under more relaxed conditions and find that a sufficiently large rollout size N-corresponding to ample exploration-guarantees an increase in the probability mass of all correct tokens. Empirically, BroRL revives models saturated after 3K ProRL training steps and demonstrates robust, continuous improvement, achieving state-of-the-art results for the 1.5B model across diverse benchmarks.
PDF162October 2, 2025