Acredite no Seu Modelo: Calibragem de Confiança Orientada por Distribuição
Believe Your Model: Distribution-Guided Confidence Calibration
March 4, 2026
Autores: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI
Resumo
Os Grandes Modelos de Raciocínio demonstraram desempenho notável com o avanço das técnicas de escalonamento no momento do teste, que melhoram a precisão da previsão ao gerar múltiplas respostas candidatas e selecionar a resposta mais confiável. Embora trabalhos anteriores tenham analisado que sinais internos do modelo, como escores de confiança, podem indicar parcialmente a correção da resposta e exibir uma correlação distribucional com a precisão, tal informação distribucional não foi totalmente utilizada para orientar a seleção de respostas. Motivados por isso, propomos o DistriVoting, que incorpora prioridades distribucionais como outro sinal juntamente com a confiança durante a votação. Especificamente, nosso método (1) primeiro decompõe a distribuição mista de confiança em componentes positivos e negativos usando Modelos de Mistura Gaussianos, (2) depois aplica um filtro de rejeição baseado em amostras positivas/negativas deles para mitigar a sobreposição entre as duas distribuições. Além disso, para aliviar ainda mais a sobreposição sob a perspectiva da própria distribuição, propomos o SelfStepConf, que usa a confiança a nível de etapa para ajustar dinamicamente o processo de inferência, aumentando a separação entre as duas distribuições para melhorar a confiabilidade das confianças na votação. Experimentos em 16 modelos e 5 benchmarks demonstram que nosso método supera significativamente as abordagens state-of-the-art.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.