PETS : Un Cadre Fondé sur des Principes pour une Allocation Optimale des Trajectoires vers une Auto-Cohérence Efficace en Phase de Test
PETS: A Principled Framework Towards Optimal Trajectory Allocation for Efficient Test-Time Self-Consistency
February 18, 2026
Auteurs: Zhangyi Liu, Huaizhi Qu, Xiaowei Yin, He Sun, Yanjun Han, Tianlong Chen, Zhun Deng
cs.AI
Résumé
L'ajustement à l'inférence peut améliorer les performances du modèle en agrégeant des trajectoires de raisonnement stochastiques. Cependant, atteindre une auto-cohérence à l'inférence efficace en échantillons sous un budget limité reste un défi non résolu. Nous présentons PETS (Principled and Efficient Test-Time Self-Consistency), qui initie une étude principielle de l'allocation des trajectoires via un cadre d'optimisation. Au cœur de notre approche se trouve le taux d'auto-cohérence, une nouvelle mesure définie comme l'accord avec le vote majoritaire à budget infini. Cette formulation donne une base théorique à l'allocation efficace en échantillons à l'inférence et la rend propice à une analyse rigoureuse. Nous étudions les régimes hors-ligne et en-ligne. Dans le régime hors-ligne, où toutes les questions sont connues à l'avance, nous relions l'allocation des trajectoires au crowdsourcing, un domaine classique et bien développé, en modélisant les traces de raisonnement comme des travailleurs. Cette perspective nous permet de tirer parti d'une théorie existante riche, produisant des garanties théoriques et un algorithme d'allocation efficace basé sur le vote majoritaire. Dans le régime de flux en-ligne, où les questions arrivent séquentiellement et les allocations doivent être faites à la volée, nous proposons une nouvelle méthode inspirée par le cadre hors-ligne. Notre approche adapte les budgets à la difficulté des questions tout en préservant de solides garanties théoriques et une efficacité computationnelle. Les expériences montrent que PETS surpasse constamment l'allocation uniforme. Sur GPQA, PETS atteint une auto-cohérence parfaite dans les deux régimes tout en réduisant le budget d'échantillonnage jusqu'à 75% (hors-ligne) et 55% (en-ligne) par rapport à l'allocation uniforme. Le code est disponible à l'adresse https://github.com/ZDCSlab/PETS.
English
Test-time scaling can improve model performance by aggregating stochastic reasoning trajectories. However, achieving sample-efficient test-time self-consistency under a limited budget remains an open challenge. We introduce PETS (Principled and Efficient Test-TimeSelf-Consistency), which initiates a principled study of trajectory allocation through an optimization framework. Central to our approach is the self-consistency rate, a new measure defined as agreement with the infinite-budget majority vote. This formulation makes sample-efficient test-time allocation theoretically grounded and amenable to rigorous analysis. We study both offline and online settings. In the offline regime, where all questions are known in advance, we connect trajectory allocation to crowdsourcing, a classic and well-developed area, by modeling reasoning traces as workers. This perspective allows us to leverage rich existing theory, yielding theoretical guarantees and an efficient majority-voting-based allocation algorithm. In the online streaming regime, where questions arrive sequentially and allocations must be made on the fly, we propose a novel method inspired by the offline framework. Our approach adapts budgets to question difficulty while preserving strong theoretical guarantees and computational efficiency. Experiments show that PETS consistently outperforms uniform allocation. On GPQA, PETS achieves perfect self-consistency in both settings while reducing the sampling budget by up to 75% (offline) and 55% (online) relative to uniform allocation. Code is available at https://github.com/ZDCSlab/PETS.