De la métrique passive au signal actif : l'évolution du rôle de la quantification de l'incertitude dans les grands modèles de langage
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
papers.authors: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
papers.abstract
Si les grands modèles de langage (LLM) démontrent des capacités remarquables, leur manque de fiabilité demeure un obstacle critique à leur déploiement dans des domaines à haut risque. Cette étude retrace une évolution fonctionnelle dans la réponse à ce défi : l'évolution de l'incertitude, d'une métrique de diagnostic passive vers un signal de contrôle actif guidant le comportement du modèle en temps réel. Nous démontrons comment l'incertitude est exploitée comme un signal de contrôle actif sur trois fronts : dans le raisonnement avancé pour optimiser le calcul et déclencher l'auto-correction ; dans les agents autonomes pour régir les décisions métacognitives concernant l'utilisation d'outils et la recherche d'information ; et dans l'apprentissage par renforcement pour atténuer le détournement de récompense et permettre l'auto-amélioration via des récompenses intrinsèques. En ancrant ces avancées dans des cadres théoriques émergents comme les méthodes bayésiennes et la Prédiction Conforme, nous offrons une perspective unifiée sur cette tendance transformationnelle. Cette étude fournit une vue d'ensemble complète, une analyse critique et des modèles de conception pratiques, soutenant que la maîtrise de cette nouvelle approche de l'incertitude est essentielle pour construire la prochaine génération d'IA évolutive, fiable et digne de confiance.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.