Dalla metrica passiva al segnale attivo: il ruolo evolutivo della quantificazione dell'incertezza nei modelli linguistici di grandi dimensioni
From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models
January 22, 2026
Autori: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI
Abstract
Sebbene i Large Language Model (LLM) mostrino capacità notevoli, la loro inaffidabilità rimane una barriera critica per il dispiegamento in domini ad alto rischio. Questa rassegna traccia un'evoluzione funzionale nell'affrontare questa sfida: l'evoluzione dell'incertezza da metrica diagnostica passiva a segnale di controllo attivo che guida il comportamento del modello in tempo reale. Dimostriamo come l'incertezza venga sfruttata come segnale di controllo attivo su tre frontieri: nel ragionamento avanzato per ottimizzare il calcolo e innescare l'autocorrezione; negli agenti autonomi per governare le decisioni metacognitive sull'uso di strumenti e la ricerca di informazioni; e nell'apprendimento per rinforzo per mitigare il reward hacking e abilitare il miglioramento autonomo tramite ricompense intrinseche. Radicando questi progressi in quadri teorici emergenti come i metodi bayesiani e la Conformal Prediction, forniamo una prospettiva unificata su questa tendenza trasformativa. Questa rassegna fornisce una panoramica completa, un'analisi critica e modelli di progettazione pratici, sostenendo che padroneggiare la nuova tendenza dell'incertezza sia essenziale per costruire la prossima generazione di IA scalabili, affidabili e degne di fiducia.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.