Vertrauen Sie Ihrem Modell: Verteilungsgesteuerte Konfidenzkalibrierung
Believe Your Model: Distribution-Guided Confidence Calibration
March 4, 2026
Autoren: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI
Zusammenfassung
Große Reasoning-Modelle haben mit der Weiterentwicklung von Test-Time-Scaling-Techniken bemerkenswerte Leistungen gezeigt, welche die Vorhersagegenauigkeit verbessern, indem mehrere Kandidatenantworten generiert und die zuverlässigste Antwort ausgewählt wird. Während frühere Arbeiten analysiert haben, dass interne Modellsignale wie Konfidenzscores die Antwortkorrektheit teilweise anzeigen und eine Verteilungskorrelation mit der Genauigkeit aufweisen, wurde solche Verteilungsinformation nicht vollständig zur Steuerung der Antwortauswahl genutzt. Daraus motiviert schlagen wir DistriVoting vor, das Verteilungs-Priors als weiteres Signal neben der Konfidenz während der Abstimmung einbezieht. Konkret zerlegt unsere Methode (1) zunächst die gemischte Konfidenzverteilung mittels Gaußscher Mischmodelle in positive und negative Komponenten, (2) wendet dann einen Reject-Filter basierend auf positiven/negativen Stichproben daraus an, um Überlappungen zwischen den beiden Verteilungen zu reduzieren. Zusätzlich schlagen wir zur weiteren Linderung der Überlappung aus Perspektive der Verteilung selbst SelfStepConf vor, das schrittweise Konfidenz nutzt, um den Inferenzprozess dynamisch anzupassen, die Trennung zwischen den beiden Verteilungen zu vergrößern und so die Zuverlässigkeit der Konfidenzen bei der Abstimmung zu verbessern. Experimente über 16 Modelle und 5 Benchmarks zeigen, dass unsere Methode state-of-the-art-Ansätze signifikant übertrifft.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.