受動的指標から能動的シグナルへ:大規模言語モデルにおける不確実性定量化の役割の進化
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
著者: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
要旨
大規模言語モデル(LLM)は顕著な能力を示す一方で、その信頼性の低さは、高い利害が伴う領域への展開における重大な障壁となっている。本サーベイ論文は、この課題に取り組む機能的な進化、すなわち、不確実性が受動的な診断指標から、リアルタイムのモデル挙動を導く能動的な制御信号へと進化した過程を体系的に整理する。我々は、不確実性が以下の3つのフロンティアにおいて能動的な制御信号としてどのように活用されているかを示す:計算の最適化と自己修正のトリガーを行う高度な推論において、ツール利用や情報探索に関するメタ認知的決定を司る自律エージェントにおいて、そして、報酬ハッキングを軽減し内在的報酬による自己改善を可能にする強化学習において。これらの進展をベイズ手法やコンフォーマル予測といった新興の理論的枠組みに位置づけることで、この変革的な潮流に対する統一的な視点を提供する。本サーベイ論文は、網羅的な概観、批判的分析、実践的なデザインパターンを提供し、不確実性という新たな潮流を掌握することが、スケーラブルで信頼性が高く信頼に足る次世代AIを構築するために不可欠であると論じる。
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.