Confía en tu Modelo: Calibración de Confianza Guiada por la Distribución
Believe Your Model: Distribution-Guided Confidence Calibration
March 4, 2026
Autores: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI
Resumen
Los Grandes Modelos de Razonamiento han demostrado un rendimiento notable con el avance de las técnicas de escalado en tiempo de prueba, que mejoran la precisión de las predicciones generando múltiples respuestas candidatas y seleccionando la respuesta más confiable. Si bien trabajos previos han analizado que señales internas del modelo, como las puntuaciones de confianza, pueden indicar parcialmente la corrección de las respuestas y exhibir una correlación distribucional con la precisión, dicha información distribucional no se ha utilizado completamente para guiar la selección de respuestas. Motivados por esto, proponemos DistriVoting, que incorpora previos distribucionales como otra señal junto con la confianza durante la votación. Específicamente, nuestro método (1) primero descompone la distribución mixta de confianza en componentes positivos y negativos utilizando Modelos de Mezcla Gaussianos, (2) luego aplica un filtro de rechazo basado en muestras positivas/negativas de estos para mitigar el solapamiento entre las dos distribuciones. Además, para aliviar aún más el solapamiento desde la perspectiva de la distribución misma, proponemos SelfStepConf, que utiliza la confianza a nivel de paso para ajustar dinámicamente el proceso de inferencia, aumentando la separación entre las dos distribuciones para mejorar la confiabilidad de las puntuaciones de confianza en la votación. Los experimentos en 16 modelos y 5 benchmarks demuestran que nuestro método supera significativamente a los enfoques más avanzados.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.