ChatPaper.aiChatPaper

Modelos de Raciocínio Expressam Melhor Sua Confiança

Reasoning Models Better Express Their Confidence

May 20, 2025
Autores: Dongkeun Yoon, Seungone Kim, Sohee Yang, Sunkyoung Kim, Soyeon Kim, Yongil Kim, Eunbi Choi, Yireun Kim, Minjoon Seo
cs.AI

Resumo

Apesar de seus pontos fortes, os grandes modelos de linguagem (LLMs, na sigla em inglês) frequentemente falham em comunicar sua confiança com precisão, tornando difícil avaliar quando eles podem estar errados e limitando sua confiabilidade. Neste trabalho, demonstramos que modelos de raciocínio — LLMs que se engajam em cadeias de pensamento (CoT, na sigla em inglês) estendidas — apresentam desempenho superior não apenas na resolução de problemas, mas também na expressão precisa de sua confiança. Especificamente, avaliamos seis modelos de raciocínio em seis conjuntos de dados e descobrimos que eles alcançam uma calibração de confiança estritamente melhor do que suas contrapartes não baseadas em raciocínio em 33 das 36 configurações. Nossa análise detalhada revela que esses ganhos em calibração decorrem dos comportamentos de "pensamento lento" dos modelos de raciocínio — como explorar abordagens alternativas e retroceder —, que permitem que eles ajustem sua confiança dinamicamente ao longo de sua CoT, tornando-a progressivamente mais precisa. Em particular, observamos que os modelos de raciocínio se tornam cada vez melhor calibrados à medida que sua CoT se desenrola, uma tendência não observada em modelos não baseados em raciocínio. Além disso, a remoção dos comportamentos de pensamento lento da CoT leva a uma queda significativa na calibração. Por fim, mostramos que esses ganhos não são exclusivos dos modelos de raciocínio — modelos não baseados em raciocínio também se beneficiam quando orientados a realizar pensamento lento por meio de aprendizado em contexto.
English
Despite their strengths, large language models (LLMs) often fail to communicate their confidence accurately, making it difficult to assess when they might be wrong and limiting their reliability. In this work, we demonstrate that reasoning models-LLMs that engage in extended chain-of-thought (CoT) reasoning-exhibit superior performance not only in problem-solving but also in accurately expressing their confidence. Specifically, we benchmark six reasoning models across six datasets and find that they achieve strictly better confidence calibration than their non-reasoning counterparts in 33 out of the 36 settings. Our detailed analysis reveals that these gains in calibration stem from the slow thinking behaviors of reasoning models-such as exploring alternative approaches and backtracking-which enable them to adjust their confidence dynamically throughout their CoT, making it progressively more accurate. In particular, we find that reasoning models become increasingly better calibrated as their CoT unfolds, a trend not observed in non-reasoning models. Moreover, removing slow thinking behaviors from the CoT leads to a significant drop in calibration. Lastly, we show that these gains are not exclusive to reasoning models-non-reasoning models also benefit when guided to perform slow thinking via in-context learning.
PDF202December 16, 2025