ChatPaper.aiChatPaper

Croyez en votre modèle : Calibration de confiance guidée par la distribution

Believe Your Model: Distribution-Guided Confidence Calibration

March 4, 2026
Auteurs: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI

Résumé

Les grands modèles de raisonnement ont démontré des performances remarquables grâce au développement des techniques de mise à l’échelle au moment du test, qui améliorent la précision des prédictions en générant plusieurs réponses candidates et en sélectionnant la réponse la plus fiable. Si les travaux antérieurs ont montré que les signaux internes des modèles, tels que les scores de confiance, peuvent partiellement indiquer l’exactitude des réponses et présenter une corrélation distributionnelle avec la précision, cette information distributionnelle n’a pas été pleinement exploitée pour guider la sélection des réponses. Motivés par ce constat, nous proposons DistriVoting, qui intègre des a priori distributionnels comme signal supplémentaire aux côtés de la confiance lors du vote. Plus précisément, notre méthode (1) décompose d’abord la distribution mixte des confiances en composantes positive et négative à l’aide de modèles de mélange gaussiens, (2) applique ensuite un filtre de rejet basé sur des échantillons positifs/négatifs issus de celles-ci pour atténuer le chevauchement entre les deux distributions. Par ailleurs, pour further réduire ce chevauchement du point de vue de la distribution elle-même, nous proposons SelfStepConf, qui utilise la confiance au niveau des étapes pour ajuster dynamiquement le processus d’inférence, augmentant ainsi la séparation entre les deux distributions afin d’améliorer la fiabilité des confiances dans le vote. Les expériences menées sur 16 modèles et 5 benchmarks montrent que notre méthode surpasse significativement les approches state-of-the-art.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.
PDF383March 16, 2026