ChatPaper.aiChatPaper

Верьте своей модели: калибровка уверенности с учетом распределения

Believe Your Model: Distribution-Guided Confidence Calibration

March 4, 2026
Авторы: Xizhong Yang, Haotian Zhang, Huiming Wang, Mofei Song
cs.AI

Аннотация

Крупные языковые модели с рассуждениями продемонстрировали выдающиеся результаты благодаря развитию методов масштабирования на этапе тестирования, которые повышают точность прогнозирования за счет генерации нескольких кандидатных ответов и выбора наиболее надежного варианта. Хотя предыдущие исследования показали, что внутренние сигналы модели, такие как оценки уверенности, частично указывают на правильность ответа и демонстрируют распределительную корреляцию с точностью, эта распределительная информация не использовалась в полной мере для руководства выбором ответа. Мотивируясь этим, мы предлагаем метод DistriVoting, который включает априорные распределения в качестве дополнительного сигнала наряду с уверенностью при голосовании. Конкретно наш метод (1) сначала декомпозирует смешанное распределение уверенности на положительную и отрицательную компоненты с помощью гауссовских смесей, (2) затем применяет фильтр отклонения на основе положительных/отрицательных выборок из них, чтобы уменьшить перекрытие между двумя распределениями. Кроме того, для дальнейшего снижения перекрытия с точки зрения самого распределения мы предлагаем SelfStepConf, который использует покомпонентную уверенность для динамической корректировки процесса вывода, увеличивая разделение между двумя распределениями для повышения надежности оценок уверенности при голосовании. Эксперименты на 16 моделях и 5 тестовых наборах данных показывают, что наш метод значительно превосходит современные подходы.
English
Large Reasoning Models have demonstrated remarkable performance with the advancement of test-time scaling techniques, which enhances prediction accuracy by generating multiple candidate responses and selecting the most reliable answer. While prior work has analyzed that internal model signals like confidence scores can partly indicate response correctness and exhibit a distributional correlation with accuracy, such distributional information has not been fully utilized to guide answer selection. Motivated by this, we propose DistriVoting, which incorporates distributional priors as another signal alongside confidence during voting. Specifically, our method (1) first decomposes the mixed confidence distribution into positive and negative components using Gaussian Mixture Models, (2) then applies a reject filter based on positive/negative samples from them to mitigate overlap between the two distributions. Besides, to further alleviate the overlap from the perspective of distribution itself, we propose SelfStepConf, which uses step-level confidence to dynamically adjust inference process, increasing the separation between the two distributions to improve the reliability of confidences in voting. Experiments across 16 models and 5 benchmarks demonstrate that our method significantly outperforms state-of-the-art approaches.
PDF383March 16, 2026