수동적 지표에서 능동적 신호로: 대규모 언어 모델에서 불확실성 정량화의 진화하는 역할
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
저자: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
초록
대규모 언어 모델(LLM)이 놀라운 능력을 보여주고 있지만, 그 신뢰성 부족 문제는 높은 위험을 수반하는 분야에의 배치를 가로막는 중요한 장벽으로 남아있다. 본 고는 이러한 과제 해결을 위한 기능적 진화, 즉 불확실성이 수동적 진단 지표에서 실시간 모델 행동을 안내하는 능동적 제어 신호로 진화하는 과정을 조명한다. 우리는 불확실성이 세 가지 최전선 영역에서 어떻게 능동적 제어 신호로 활용되는지 보여준다: 계산 최적화 및 자기 수정 촉발을 위한 고급 추론 분야, 도구 사용 및 정보 탐색에 대한 메타인지적 결정을 관리하는 자율 에이전트 분야, 보장 해킹 완화 및 내재적 보상을 통한 자기 개선을 가능하게 하는 강화 학습 분야. 베이지안 방법 및 콘포멀 예측과 같은 신흥 이론적 프레임워크에 이러한 발전을 근거하여 우리는 이러한 변혁적 추세에 대한 통합적 관점을 제시한다. 본 고는 포괄적 개요, 비판적 분석 및 실용적 설계 패턴을 제공하며, 불확실성이라는 새로운 추세를 숙달하는 것이 확장 가능하고 신뢰할 수 있으며 신뢰성 있는 차세대 AI 구축에 필수적임을 주장한다.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.