ChatPaper.aiChatPaper

Est-ce votre réponse finale ? La mise à l'échelle au moment du test améliore la sélection des réponses aux questions

Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering

February 19, 2025
Auteurs: William Jurayj, Jeffrey Cheng, Benjamin Van Durme
cs.AI

Résumé

L'augmentation des ressources de calcul au moment de l'inférence pour les grands modèles de langage a démontré des performances impressionnantes sur les benchmarks de raisonnement. Cependant, les évaluations existantes de cette mise à l'échelle reposent sur l'hypothèse forte qu'un système de raisonnement devrait toujours fournir une réponse à toute question posée. Cela néglige les préoccupations concernant la confiance du modèle dans sa réponse et la pertinence de toujours fournir une réponse. Pour aborder ces questions, nous extrayons des scores de confiance pendant le raisonnement afin de filtrer les réponses du modèle. Nous constatons qu'augmenter le budget de calcul au moment de l'inférence aide non seulement les modèles à répondre correctement à plus de questions, mais augmente également leur confiance dans les réponses correctes. Nous étendons ensuite le paradigme actuel des réponses à risque zéro lors de l'évaluation en considérant des contextes avec des niveaux de risque de réponse non nuls, et proposons une méthode pour rapporter les évaluations dans ces contextes.
English
Scaling the test-time compute of large language models has demonstrated impressive performance on reasoning benchmarks. However, existing evaluations of test-time scaling make the strong assumption that a reasoning system should always give an answer to any question provided. This overlooks concerns about whether a model is confident in its answer, and whether it is appropriate to always provide a response. To address these concerns, we extract confidence scores during reasoning for thresholding model responses. We find that increasing compute budget at inference time not only helps models answer more questions correctly, but also increases confidence in correct responses. We then extend the current paradigm of zero-risk responses during evaluation by considering settings with non-zero levels of response risk, and suggest a recipe for reporting evaluations under these settings.

Summary

AI-Generated Summary

PDF31February 20, 2025