ChatPaper.aiChatPaper

Dalla metrica passiva al segnale attivo: il ruolo evolutivo della quantificazione dell'incertezza nei modelli linguistici di grandi dimensioni

From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models

January 22, 2026
Autori: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI

Abstract

Sebbene i Large Language Model (LLM) mostrino capacità notevoli, la loro inaffidabilità rimane una barriera critica per il dispiegamento in domini ad alto rischio. Questa rassegna traccia un'evoluzione funzionale nell'affrontare questa sfida: l'evoluzione dell'incertezza da metrica diagnostica passiva a segnale di controllo attivo che guida il comportamento del modello in tempo reale. Dimostriamo come l'incertezza venga sfruttata come segnale di controllo attivo su tre frontieri: nel ragionamento avanzato per ottimizzare il calcolo e innescare l'autocorrezione; negli agenti autonomi per governare le decisioni metacognitive sull'uso di strumenti e la ricerca di informazioni; e nell'apprendimento per rinforzo per mitigare il reward hacking e abilitare il miglioramento autonomo tramite ricompense intrinseche. Radicando questi progressi in quadri teorici emergenti come i metodi bayesiani e la Conformal Prediction, forniamo una prospettiva unificata su questa tendenza trasformativa. Questa rassegna fornisce una panoramica completa, un'analisi critica e modelli di progettazione pratici, sostenendo che padroneggiare la nuova tendenza dell'incertezza sia essenziale per costruire la prossima generazione di IA scalabili, affidabili e degne di fiducia.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.
PDF42February 8, 2026