예산 상대 정책 최적화를 통한 언제든지 추론 최적화
Optimizing Anytime Reasoning via Budget Relative Policy Optimization
May 19, 2025
저자: Penghui Qi, Zichen Liu, Tianyu Pang, Chao Du, Wee Sun Lee, Min Lin
cs.AI
초록
테스트 시간 계산 능력을 확장하는 것은 대규모 언어 모델(LLM)의 추론 능력을 향상시키는 데 있어 중요합니다. 기존의 접근 방식은 일반적으로 강화 학습(RL)을 활용하여 추론 과정의 끝에서 얻을 수 있는 검증 가능한 보상을 극대화합니다. 그러나 이러한 방법은 고정된 큰 토큰 예산 하에서 최종 성능만을 최적화하므로, 학습 및 배포 과정에서 효율성이 저해됩니다. 본 연구에서는 다양한 토큰 예산 제약 하에서 토큰 효율성과 추론의 유연성을 개선하기 위해, AnytimeReasoner라는 새로운 프레임워크를 제안합니다. 이를 위해, 우리는 사전 분포에서 샘플링된 토큰 예산에 맞추어 전체 사고 과정을 단축하고, 모델이 각 단축된 사고에 대해 최적의 답을 요약하여 검증하도록 강제합니다. 이는 추론 과정에 검증 가능한 밀집 보상을 도입함으로써 RL 최적화에서 더 효과적인 신용 할당을 가능하게 합니다. 이후, 우리는 누적 보상을 극대화하기 위해 사고 정책과 요약 정책을 분리하여 최적화합니다. 또한, 사고 정책을 강화할 때 학습 과정의 견고성과 효율성을 높이기 위해 Budget Relative Policy Optimization(BRPO)이라는 새로운 분산 감소 기법을 도입합니다. 수학적 추론 과제에서의 실험 결과는 우리의 방법이 다양한 사전 분포 하에서 모든 사고 예산에 걸쳐 GRPO를 일관되게 능가하며, 학습 및 토큰 효율성을 모두 향상시킴을 보여줍니다.
English
Scaling test-time compute is crucial for enhancing the reasoning capabilities
of large language models (LLMs). Existing approaches typically employ
reinforcement learning (RL) to maximize a verifiable reward obtained at the end
of reasoning traces. However, such methods optimize only the final performance
under a large and fixed token budget, which hinders efficiency in both training
and deployment. In this work, we present a novel framework, AnytimeReasoner, to
optimize anytime reasoning performance, which aims to improve token efficiency
and the flexibility of reasoning under varying token budget constraints. To
achieve this, we truncate the complete thinking process to fit within sampled
token budgets from a prior distribution, compelling the model to summarize the
optimal answer for each truncated thinking for verification. This introduces
verifiable dense rewards into the reasoning process, facilitating more
effective credit assignment in RL optimization. We then optimize the thinking
and summary policies in a decoupled manner to maximize the cumulative reward.
Additionally, we introduce a novel variance reduction technique, Budget
Relative Policy Optimization (BRPO), to enhance the robustness and efficiency
of the learning process when reinforcing the thinking policy. Empirical results
in mathematical reasoning tasks demonstrate that our method consistently
outperforms GRPO across all thinking budgets under various prior distributions,
enhancing both training and token efficiency.Summary
AI-Generated Summary