PETS: 効率的なテスト時自己一貫性のための最適軌道割り当てに向けた原則的フレームワーク
PETS: A Principled Framework Towards Optimal Trajectory Allocation for Efficient Test-Time Self-Consistency
February 18, 2026
著者: Zhangyi Liu, Huaizhi Qu, Xiaowei Yin, He Sun, Yanjun Han, Tianlong Chen, Zhun Deng
cs.AI
要旨
テストタイムスケーリングは、確率的な推論軌道を集約することでモデル性能を向上させ得る。しかし、限られた予算下で効率的なテストタイム自己一貫性を実現することは未解決の課題である。本論文ではPETS(Principled and Efficient Test-Time Self-Consistency)を提案し、最適化フレームワークを通じた軌道割り当ての原理的検討を開始する。我々の手法の中核は、無限予算時の多数決結果との一致率として定義される新たな指標「自己一貫性率」である。この定式化により、理論的根拠に基づいた効率的なテストタイム割り当てが可能となり、厳密な解析が容易となる。オフライン設定とオンライン設定の双方を検討する。全問題が事前に分かっているオフライン設定では、推論軌道を作業者と見做すことで、軌道割り当て問題を古典的かつ成熟した領域であるクラウドソーシングに関連付ける。この視点により、既存の豊富な理論を活用し、理論的保証と効率的な多数決ベースの割り当てアルゴリズムを導出する。問題が逐次的に到着し、割り当てをその場で決定する必要があるオンラインストリーミング設定では、オフライン枠組みに着想を得た新手法を提案する。本手法は、強力な理論的保証と計算効率を維持しつつ、問題難易度に応じて予算を適応的に割り当てる。実験により、PETSが一様割り当てを常に上回ることを示す。GPQAデータセットでは、PETSは両設定で完全な自己一貫性を達成し、一様割り当てと比較してサンプリング予算をオフライン設定で最大75%、オンライン設定で55%削減する。コードはhttps://github.com/ZDCSlab/PETSで公開されている。
English
Test-time scaling can improve model performance by aggregating stochastic reasoning trajectories. However, achieving sample-efficient test-time self-consistency under a limited budget remains an open challenge. We introduce PETS (Principled and Efficient Test-TimeSelf-Consistency), which initiates a principled study of trajectory allocation through an optimization framework. Central to our approach is the self-consistency rate, a new measure defined as agreement with the infinite-budget majority vote. This formulation makes sample-efficient test-time allocation theoretically grounded and amenable to rigorous analysis. We study both offline and online settings. In the offline regime, where all questions are known in advance, we connect trajectory allocation to crowdsourcing, a classic and well-developed area, by modeling reasoning traces as workers. This perspective allows us to leverage rich existing theory, yielding theoretical guarantees and an efficient majority-voting-based allocation algorithm. In the online streaming regime, where questions arrive sequentially and allocations must be made on the fly, we propose a novel method inspired by the offline framework. Our approach adapts budgets to question difficulty while preserving strong theoretical guarantees and computational efficiency. Experiments show that PETS consistently outperforms uniform allocation. On GPQA, PETS achieves perfect self-consistency in both settings while reducing the sampling budget by up to 75% (offline) and 55% (online) relative to uniform allocation. Code is available at https://github.com/ZDCSlab/PETS.