ChatPaper.aiChatPaper

Reinforce-Ada: Адаптивная фреймворк сэмплирования для обучения языковых моделей в стиле Reinforce

Reinforce-Ada: An Adaptive Sampling Framework for Reinforce-Style LLM Training

October 6, 2025
Авторы: Wei Xiong, Chenlu Ye, Baohao Liao, Hanze Dong, Xinxing Xu, Christof Monz, Jiang Bian, Nan Jiang, Tong Zhang
cs.AI

Аннотация

Применение обучения с подкреплением к большим языковым моделям (LLM) для задач логического вывода часто сталкивается с проблемой нестабильных оценок градиента из-за фиксированного и равномерного сэмплирования ответов на различные запросы. Предыдущие работы, такие как GVM-RAFT, решают эту проблему путем динамического распределения вычислительного бюджета на каждый запрос для минимизации дисперсии стохастического градиента при ограниченном бюджете. Вдохновленные этим подходом, мы предлагаем Reinforce-Ada — адаптивную систему сэмплирования для онлайн-обучения с подкреплением LLM, которая непрерывно перераспределяет усилия по сэмплированию на запросы с наибольшей неопределенностью или потенциалом для обучения. В отличие от традиционных двухэтапных методов распределения, Reinforce-Ada чередует оценку и сэмплирование в процессе онлайн-последовательного исключения и автоматически прекращает сэмплирование для запроса, как только собирается достаточный сигнал. Для стабилизации обновлений мы формируем группы фиксированного размера с обеспечением разнообразия наград и вычисляем базовые значения преимуществ с использованием глобальной статистики, агрегированной на этапе адаптивного сэмплирования. Экспериментальные результаты на множестве архитектур моделей и тестовых наборов для логического вывода показывают, что Reinforce-Ada ускоряет сходимость и улучшает итоговую производительность по сравнению с GRPO, особенно при использовании варианта сбалансированного сэмплирования. Наша работа подчеркивает ключевую роль адаптивного управления данными с учетом дисперсии для обеспечения эффективного и надежного обучения с подкреплением LLM, способных к логическому выводу. Код доступен по адресу https://github.com/RLHFlow/Reinforce-Ada.
English
Reinforcement learning applied to large language models (LLMs) for reasoning tasks is often bottlenecked by unstable gradient estimates due to fixed and uniform sampling of responses across prompts. Prior work such as GVM-RAFT addresses this by dynamically allocating inference budget per prompt to minimize stochastic gradient variance under a budget constraint. Inspired by this insight, we propose Reinforce-Ada, an adaptive sampling framework for online RL post-training of LLMs that continuously reallocates sampling effort to the prompts with the greatest uncertainty or learning potential. Unlike conventional two-stage allocation methods, Reinforce-Ada interleaves estimation and sampling in an online successive elimination process, and automatically stops sampling for a prompt once sufficient signal is collected. To stabilize updates, we form fixed-size groups with enforced reward diversity and compute advantage baselines using global statistics aggregated over the adaptive sampling phase. Empirical results across multiple model architectures and reasoning benchmarks show that Reinforce-Ada accelerates convergence and improves final performance compared to GRPO, especially when using the balanced sampling variant. Our work highlights the central role of variance-aware, adaptive data curation in enabling efficient and reliable reinforcement learning for reasoning-capable LLMs. Code is available at https://github.com/RLHFlow/Reinforce-Ada.
PDF142October 7, 2025