Усиление процесса через неявные вознаграждения
Process Reinforcement through Implicit Rewards
February 3, 2025
Авторы: Ganqu Cui, Lifan Yuan, Zefan Wang, Hanbin Wang, Wendi Li, Bingxiang He, Yuchen Fan, Tianyu Yu, Qixin Xu, Weize Chen, Jiarui Yuan, Huayu Chen, Kaiyan Zhang, Xingtai Lv, Shuo Wang, Yuan Yao, Xu Han, Hao Peng, Yu Cheng, Zhiyuan Liu, Maosong Sun, Bowen Zhou, Ning Ding
cs.AI
Аннотация
Плотные процессные вознаграждения доказали свою более эффективную альтернативу разреженным вознаграждениям на уровне исходных данных при масштабировании крупных языковых моделей (ЯМ), особенно в задачах, требующих сложного многошагового рассуждения. В то время как плотные вознаграждения также предлагают привлекательный выбор для обучения с подкреплением (ОП) ЯМ, поскольку их детализированные вознаграждения имеют потенциал решить некоторые врожденные проблемы исходных вознаграждений, такие как эффективность обучения и распределение заслуг, этот потенциал остается в значительной степени неиспользованным. Это можно в первую очередь объяснить сложностями обучения моделей процессных вознаграждений (ПВ) в режиме онлайн, где сбор высококачественных меток процесса является чрезмерно дорогостоящим, что делает их особенно уязвимыми для взлома вознаграждения. Для решения этих проблем мы предлагаем PRIME (Process Reinforcement through IMplicit rEwards), который позволяет обновлять ПВ онлайн, используя только прокрутки политики и метки исходных данных через неявные процессные вознаграждения. PRIME хорошо сочетается с различными функциями преимущества и отказывается от этапа обучения специализированной модели вознаграждения, который требуют существующие подходы, что существенно снижает накладные расходы на разработку. Мы демонстрируем эффективность PRIME в математике и программировании. Начиная с Qwen2.5-Math-7B-Base, PRIME достигает среднего улучшения на 15.1% по нескольким ключевым бенчмаркам рассуждения по сравнению с моделью SFT. Заметим, что наша результирующая модель, Eurus-2-7B-PRIME, превосходит Qwen2.5-Math-7B-Instruct на семи бенчмарках рассуждения с использованием 10% его обучающих данных.
English
Dense process rewards have proven a more effective alternative to the sparse
outcome-level rewards in the inference-time scaling of large language models
(LLMs), particularly in tasks requiring complex multi-step reasoning. While
dense rewards also offer an appealing choice for the reinforcement learning
(RL) of LLMs since their fine-grained rewards have the potential to address
some inherent issues of outcome rewards, such as training efficiency and credit
assignment, this potential remains largely unrealized. This can be primarily
attributed to the challenges of training process reward models (PRMs) online,
where collecting high-quality process labels is prohibitively expensive, making
them particularly vulnerable to reward hacking. To address these challenges, we
propose PRIME (Process Reinforcement through IMplicit rEwards), which enables
online PRM updates using only policy rollouts and outcome labels through
implict process rewards. PRIME combines well with various advantage functions
and forgoes the dedicated reward model training phrase that existing approaches
require, substantially reducing the development overhead. We demonstrate
PRIME's effectiveness on competitional math and coding. Starting from
Qwen2.5-Math-7B-Base, PRIME achieves a 15.1% average improvement across several
key reasoning benchmarks over the SFT model. Notably, our resulting model,
Eurus-2-7B-PRIME, surpasses Qwen2.5-Math-7B-Instruct on seven reasoning
benchmarks with 10% of its training data.Summary
AI-Generated Summary