Da Métrica Passiva ao Sinal Ativo: A Evolução do Papel da Quantificação de Incerteza em Modelos de Linguagem de Grande Escala
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
Autores: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
Resumo
Embora os Modelos de Língua Grande (LLMs) demonstrem capacidades notáveis, sua falta de confiabilidade permanece uma barreira crítica para a implantação em domínios de alto risco. Este estudo traça uma evolução funcional no enfrentamento desse desafio: a evolução da incerteza de uma métrica de diagnóstico passiva para um sinal de controle ativo que orienta o comportamento do modelo em tempo real. Demonstramos como a incerteza é aproveitada como um sinal de controle ativo em três frentes: no raciocínio avançado para otimizar a computação e acionar a autocorreção; em agentes autônomos para governar decisões metacognitivas sobre o uso de ferramentas e a busca de informação; e no aprendizado por reforço para mitigar a manipulação de recompensas e permitir a autoaprimoração por meio de recompensas intrínsecas. Ao fundamentar esses avanços em estruturas teóricas emergentes, como métodos Bayesianos e Predição Conformal, oferecemos uma perspectiva unificada sobre essa tendência transformadora. Este estudo fornece uma visão geral abrangente, uma análise crítica e padrões de projeto práticos, argumentando que dominar a nova tendência da incerteza é essencial para construir a próxima geração de IA escalável, confiável e segura.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.