Credi al Tuo Modello: Calibrazione della Confidenza Guidata dalla Distribuzione
Believe Your Model: Distribution-Guided Confidence Calibration
March 4, 2026
Autori: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI
Abstract
I modelli di ragionamento su larga scala hanno dimostrato prestazioni notevoli con l'avanzamento delle tecniche di scaling al momento del test, che migliorano l'accuratezza predittiva generando molteplici risposte candidate e selezionando la risposta più affidabile. Sebbene lavori precedenti abbiano analizzato come segnali interni del modello, come i punteggi di confidenza, possano in parte indicare la correttezza della risposta ed esibire una correlazione distribuzionale con l'accuratezza, tali informazioni distributive non sono state pienamente utilizzate per guidare la selezione della risposta. Motivati da ciò, proponiamo DistriVoting, che incorpora prior distributivi come un ulteriore segnale insieme alla confidenza durante la votazione. Nello specifico, il nostro metodo (1) scompone prima la distribuzione mista di confidenza in componenti positiva e negativa utilizzando Modelli di Mistura Gaussiana, (2) applica poi un filtro di scarto basato su campioni positivi/negativi da esse per mitigare la sovrapposizione tra le due distribuzioni. Inoltre, per alleviare ulteriormente la sovrapposizione dalla prospettiva della distribuzione stessa, proponiamo SelfStepConf, che utilizza la confidenza a livello di step per regolare dinamicamente il processo di inferenza, aumentando la separazione tra le due distribuzioni per migliorare l'affidabilità delle confidenze nella votazione. Esperimenti su 16 modelli e 5 benchmark dimostrano che il nostro metodo supera significativamente gli approcci allo stato dell'arte.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.