ChatPaper.aiChatPaper

Les modèles de raisonnement expriment mieux leur niveau de confiance

Reasoning Models Better Express Their Confidence

May 20, 2025
Auteurs: Dongkeun Yoon, Seungone Kim, Sohee Yang, Sunkyoung Kim, Soyeon Kim, Yongil Kim, Eunbi Choi, Yireun Kim, Minjoon Seo
cs.AI

Résumé

Malgré leurs forces, les grands modèles de langage (LLMs) échouent souvent à communiquer leur confiance avec précision, rendant difficile l'évaluation de leurs erreurs potentielles et limitant ainsi leur fiabilité. Dans ce travail, nous démontrons que les modèles de raisonnement - des LLMs qui s'engagent dans un raisonnement en chaîne de pensée (CoT) étendu - présentent des performances supérieures non seulement en résolution de problèmes, mais aussi dans l'expression précise de leur confiance. Plus précisément, nous évaluons six modèles de raisonnement sur six ensembles de données et constatons qu'ils obtiennent une calibration de la confiance strictement meilleure que leurs homologues non raisonneurs dans 33 des 36 configurations. Notre analyse détaillée révèle que ces gains en calibration découlent des comportements de "pensée lente" des modèles de raisonnement - tels que l'exploration d'approches alternatives et le retour en arrière - qui leur permettent d'ajuster leur confiance de manière dynamique tout au long de leur CoT, la rendant progressivement plus précise. En particulier, nous observons que les modèles de raisonnement deviennent de mieux en mieux calibrés au fur et à mesure que leur CoT se déroule, une tendance absente chez les modèles non raisonneurs. De plus, la suppression des comportements de pensée lente du CoT entraîne une baisse significative de la calibration. Enfin, nous montrons que ces gains ne sont pas exclusifs aux modèles de raisonnement - les modèles non raisonneurs en bénéficient également lorsqu'ils sont guidés pour adopter une pensée lente via l'apprentissage en contexte.
English
Despite their strengths, large language models (LLMs) often fail to communicate their confidence accurately, making it difficult to assess when they might be wrong and limiting their reliability. In this work, we demonstrate that reasoning models-LLMs that engage in extended chain-of-thought (CoT) reasoning-exhibit superior performance not only in problem-solving but also in accurately expressing their confidence. Specifically, we benchmark six reasoning models across six datasets and find that they achieve strictly better confidence calibration than their non-reasoning counterparts in 33 out of the 36 settings. Our detailed analysis reveals that these gains in calibration stem from the slow thinking behaviors of reasoning models-such as exploring alternative approaches and backtracking-which enable them to adjust their confidence dynamically throughout their CoT, making it progressively more accurate. In particular, we find that reasoning models become increasingly better calibrated as their CoT unfolds, a trend not observed in non-reasoning models. Moreover, removing slow thinking behaviors from the CoT leads to a significant drop in calibration. Lastly, we show that these gains are not exclusive to reasoning models-non-reasoning models also benefit when guided to perform slow thinking via in-context learning.

Summary

AI-Generated Summary

PDF121May 21, 2025