ChatPaper.aiChatPaper

수동적 지표에서 능동적 신호로: 대규모 언어 모델에서 불확실성 정량화의 진화하는 역할

From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models

January 22, 2026
저자: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI

초록

대규모 언어 모델(LLM)이 놀라운 능력을 보여주고 있지만, 그 신뢰성 부족 문제는 높은 위험을 수반하는 분야에의 배치를 가로막는 중요한 장벽으로 남아있다. 본 고는 이러한 과제 해결을 위한 기능적 진화, 즉 불확실성이 수동적 진단 지표에서 실시간 모델 행동을 안내하는 능동적 제어 신호로 진화하는 과정을 조명한다. 우리는 불확실성이 세 가지 최전선 영역에서 어떻게 능동적 제어 신호로 활용되는지 보여준다: 계산 최적화 및 자기 수정 촉발을 위한 고급 추론 분야, 도구 사용 및 정보 탐색에 대한 메타인지적 결정을 관리하는 자율 에이전트 분야, 보장 해킹 완화 및 내재적 보상을 통한 자기 개선을 가능하게 하는 강화 학습 분야. 베이지안 방법 및 콘포멀 예측과 같은 신흥 이론적 프레임워크에 이러한 발전을 근거하여 우리는 이러한 변혁적 추세에 대한 통합적 관점을 제시한다. 본 고는 포괄적 개요, 비판적 분석 및 실용적 설계 패턴을 제공하며, 불확실성이라는 새로운 추세를 숙달하는 것이 확장 가능하고 신뢰할 수 있으며 신뢰성 있는 차세대 AI 구축에 필수적임을 주장한다.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.
PDF11January 24, 2026