予算を考慮した識別検証によるテスト時スケーリング
Budget-aware Test-time Scaling via Discriminative Verification
October 16, 2025
著者: Kyle Montgomery, Sijun Tan, Yuqi Chen, Siyuan Zhuang, Tianjun Zhang, Raluca Ada Popa, Chenguang Wang
cs.AI
要旨
テストタイムスケーリングは、大規模言語モデルの複雑な推論タスクにおける性能向上に有効な戦略である。最先端のアプローチでは、候補プールから最適な解を選択するために生成的検証器を利用することが多いが、この方法は計算コストが非常に高く、実用性が制限される。本研究では、より予算を意識したパラダイムである識別的検証に焦点を当てる。徹底的な実証分析を行い、識別的検証器は単独では性能が劣るものの、自己一貫性と組み合わせたハイブリッドアプローチにより、強力で効率的なテストタイムスケーリングメカニズムが実現されることを示す。特に、固定された計算予算の下では、このハイブリッドアプローチは最先端の生成的検証を大幅に上回り、AIME2025において最大15.3%の精度向上を達成した。我々の知見は、実用的な現実世界のアプリケーションにおいて、識別的検証器を用いた予算を意識したスケーリングが、自己一貫性に対する「無料」のアップグレードであるだけでなく、高コストな生成的手法よりも効果的で効率的な代替手段であることを確立する。コードはhttps://github.com/wang-research-lab/verificationで公開されている。
English
Test-time scaling is a powerful strategy for boosting the performance of
large language models on complex reasoning tasks. While state-of-the-art
approaches often employ generative verifiers to select the best solution from a
pool of candidates, this method incurs prohibitive computational costs,
limiting its practicality. In this work, we shift the focus to a more
budget-aware paradigm: discriminative verification. We conduct a thorough
empirical analysis and demonstrate that while discriminative verifiers may
underperform in isolation, combining them with self-consistency in a hybrid
approach creates a powerful and efficient test-time scaling mechanism. Notably,
under a fixed compute budget, this hybrid approach surpasses state-of-the-art
generative verification by a significant margin: achieving up to 15.3\% higher
accuracy on AIME2025. Our findings establish that for practical, real-world
applications, budget-aware scaling with discriminative verifiers is not only a
"free" upgrade over self-consistency, but also a more effective and efficient
alternative to costly generative techniques. Code is available at
https://github.com/wang-research-lab/verification.