ChatPaper.aiChatPaper

Benchmark d'auto-correction : Révéler et traiter le point aveugle de l'auto-correction dans les modèles de langage de grande taille

Self-Correction Bench: Revealing and Addressing the Self-Correction Blind Spot in LLMs

July 3, 2025
Auteurs: Ken Tsui
cs.AI

Résumé

Bien que les grands modèles de langage (LLM) soient devenus transformateurs, ils commettent encore des erreurs et peuvent explorer des raisonnements improductifs. L'auto-correction est une capacité essentielle pour un LLM fiable, en particulier un LLM autorégressif. Si les LLM peuvent identifier les erreurs dans les entrées utilisateur, ils présentent un "angle mort d'auto-correction" systématique - échouant à corriger des erreurs identiques dans leurs propres sorties. Pour étudier systématiquement ce phénomène, nous introduisons Self-Correction Bench, un cadre systématique pour mesurer ce phénomène via l'injection contrôlée d'erreurs à trois niveaux de complexité. En testant 14 modèles, nous observons un taux moyen d'angle mort de 64,5%. Nous trouvons plusieurs preuves que cette limitation est liée à la composition des données d'entraînement : les démonstrations humaines montrent principalement des réponses sans erreur plutôt que des séquences de correction, contrairement aux modèles entraînés par RL qui apprennent la correction via un retour sur les résultats. Fait remarquable, l'ajout simple de "Attendez" réduit les angles morts de 89,3%, suggérant que la capacité existe mais nécessite une activation. Notre travail met en lumière une limitation critique des LLM actuels et propose des pistes potentielles pour améliorer leur fiabilité et leur crédibilité.
English
Although large language models (LLMs) have become transformative, they still make mistakes and can explore unproductive reasoning paths. Self-correction is an important capability for a trustworthy LLM, particularly an autoregressive LLM. While LLMs can identify error in user input, they exhibit a systematic 'Self-Correction Blind Spot' - failing to correct identical error in their own outputs. To systematically study this phenomenon, we introduce Self-Correction Bench, a systematic framework to measure this phenomenon through controlled error injection at three complexity levels. Testing 14 models, we find an average 64.5% blind spot rate. We find multiple evidences that this limitation relates to training data composition: human training demonstrations predominantly show error-free responses rather than error-correction sequences, unlike RL-trained models that learn error correction through outcome feedback. Remarkably, simply appending "Wait" reduces blind spots by 89.3%, suggesting that the capability exists but requires activation. Our work highlights a critical limitation in current LLMs and offers potential avenues for improving their reliability and trustworthiness.
PDF63July 4, 2025