Quantificazione dell'Incertezza Agente-Centrica
Agentic Uncertainty Quantification
January 22, 2026
Autori: Jiaxin Zhang, Prafulla Kumar Choubey, Kung-Hsiang Huang, Caiming Xiong, Chien-Sheng Wu
cs.AI
Abstract
Sebbene gli agenti di IA abbiano dimostrato capacità impressionanti nel ragionamento a lungo termine, la loro affidabilità è gravemente compromessa dalla "Spirale di Allucinazione", in cui errori epistemici iniziali si propagano in modo irreversibile. I metodi esistenti affrontano un dilemma: i metodi di quantificazione dell'incertezza (UQ) tipicamente agiscono come sensori passivi, limitandosi a diagnosticare i rischi senza affrontarli, mentre i meccanismi di autoriflessione soffrono di correzioni continue o senza scopo. Per colmare questa lacuna, proponiamo un quadro unificato di Quantificazione Attiva dell'Incertezza Agente (AUQ) a Doppio Processo, che trasforma l'incertezza verbalizzata in segnali di controllo attivi e bidirezionali. La nostra architettura comprende due meccanismi complementari: il Sistema 1 (Memoria Consapevole dell'Incertezza, UAM), che propaga implicitamente la fiducia verbalizzata e le spiegazioni semantiche per prevenire decisioni cieche; e il Sistema 2 (Riflessione Consapevole dell'Incertezza, UAR), che utilizza queste spiegazioni come indizi razionali per innescare una risoluzione mirata al momento dell'inferenza solo quando necessario. Ciò consente all'agente di bilanciare dinamicamente un'esecuzione efficiente e una deliberazione approfondita. Esperimenti estensivi su benchmark a circuito chiuso e su compiti di ricerca approfondita aperti dimostrano che il nostro approccio, che non richiede addestramento, raggiunge prestazioni superiori e una calibrazione a livello di traiettoria. Riteniamo che questo quadro metodologico AUQ rappresenti un passo significativo verso agenti affidabili.
English
Although AI agents have demonstrated impressive capabilities in long-horizon reasoning, their reliability is severely hampered by the ``Spiral of Hallucination,'' where early epistemic errors propagate irreversibly. Existing methods face a dilemma: uncertainty quantification (UQ) methods typically act as passive sensors, only diagnosing risks without addressing them, while self-reflection mechanisms suffer from continuous or aimless corrections. To bridge this gap, we propose a unified Dual-Process Agentic UQ (AUQ) framework that transforms verbalized uncertainty into active, bi-directional control signals. Our architecture comprises two complementary mechanisms: System 1 (Uncertainty-Aware Memory, UAM), which implicitly propagates verbalized confidence and semantic explanations to prevent blind decision-making; and System 2 (Uncertainty-Aware Reflection, UAR), which utilizes these explanations as rational cues to trigger targeted inference-time resolution only when necessary. This enables the agent to balance efficient execution and deep deliberation dynamically. Extensive experiments on closed-loop benchmarks and open-ended deep research tasks demonstrate that our training-free approach achieves superior performance and trajectory-level calibration. We believe this principled framework AUQ represents a significant step towards reliable agents.