ChatPaper.aiChatPaper

От пассивной метрики к активному сигналу: эволюция роли количественной оценки неопределенности в больших языковых моделях

From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models

January 22, 2026
Авторы: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI

Аннотация

Хотя большие языковые модели (LLM) демонстрируют впечатляющие возможности, их ненадежность остается серьезным препятствием для развертывания в областях с высокими ставками. В данном обзоре прослеживается функциональная эволюция в решении этой проблемы: эволюция неопределенности от пассивного диагностического показателя к активному управляющему сигналу, направляющему поведение модели в реальном времени. Мы показываем, как неопределенность используется в качестве активного управляющего сигнала на трех направлениях: в рамках расширенного логического вывода для оптимизации вычислений и запуска самокоррекции; в автономных агентах для управления метакогнитивными решениями об использовании инструментов и поиске информации; а также в обучении с подкреплением для смягчения проблемы взлома функции вознаграждения и обеспечения самоусовершенствования за счет внутренних вознаграждений. Обосновывая эти достижения в emerging теоретических рамках, таких как байесовские методы и конформное прогнозирование, мы предлагаем единую перспективу этого преобразующего тренда. Настоящий обзор предоставляет всесторонний обзор, критический анализ и практические шаблоны проектирования, утверждая, что овладение новой тенденцией работы с неопределенностью необходимо для создания следующего поколения масштабируемого, надежного и заслуживающего доверия искусственного интеллекта.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.
PDF11January 24, 2026