От пассивной метрики к активному сигналу: эволюция роли количественной оценки неопределенности в больших языковых моделях
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
Авторы: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
Аннотация
Хотя большие языковые модели (LLM) демонстрируют впечатляющие возможности, их ненадежность остается серьезным препятствием для развертывания в областях с высокими ставками. В данном обзоре прослеживается функциональная эволюция в решении этой проблемы: эволюция неопределенности от пассивного диагностического показателя к активному управляющему сигналу, направляющему поведение модели в реальном времени. Мы показываем, как неопределенность используется в качестве активного управляющего сигнала на трех направлениях: в рамках расширенного логического вывода для оптимизации вычислений и запуска самокоррекции; в автономных агентах для управления метакогнитивными решениями об использовании инструментов и поиске информации; а также в обучении с подкреплением для смягчения проблемы взлома функции вознаграждения и обеспечения самоусовершенствования за счет внутренних вознаграждений. Обосновывая эти достижения в emerging теоретических рамках, таких как байесовские методы и конформное прогнозирование, мы предлагаем единую перспективу этого преобразующего тренда. Настоящий обзор предоставляет всесторонний обзор, критический анализ и практические шаблоны проектирования, утверждая, что овладение новой тенденцией работы с неопределенностью необходимо для создания следующего поколения масштабируемого, надежного и заслуживающего доверия искусственного интеллекта.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.