Agentische Onzekerheidskwantificering
Agentic Uncertainty Quantification
January 22, 2026
Auteurs: Jiaxin Zhang, Prafulla Kumar Choubey, Kung-Hsiang Huang, Caiming Xiong, Chien-Sheng Wu
cs.AI
Samenvatting
Hoewel AI-agenten indrukwekkende capaciteiten hebben getoond in redeneren over lange tijdshorizons, wordt hun betrouwbaarheid ernstig beperkt door de "Spiraal van Hallucinatie", waarbij vroege epistemische fouten zich onomkeerbaar voortplanten. Bestaande methoden staan voor een dilemma: methoden voor kwantificering van onzekerheid (UQ) fungeren typisch als passieve sensoren, die alleen risico's diagnosticeren zonder deze aan te pakken, terwijl zelfreflectiemechanismen lijden onder continue of doelloze correcties. Om deze kloof te overbruggen, stellen we een verenigd Dual-Process Agentic UQ (AUQ) raamwerk voor dat verbaal uitgedrukte onzekerheid omzet in actieve, bidirectionele controle-signalen. Onze architectuur omvat twee complementaire mechanismen: Systeem 1 (Onzekerheidsbewust Geheugen, UAM), dat verbaal uitgedrukt vertrouwen en semantische verklaringen impliciet propageert om blinde besluitvorming te voorkomen; en Systeem 2 (Onzekerheidsbewuste Reflectie, UAR), dat deze verklaringen gebruikt als rationele aanwijzingen om gerichte resolutie tijdens inferentie af te vuren, alleen wanneer nodig. Hierdoor kan de agent efficiënte uitvoering en diepe deliberatie dynamisch in balans brengen. Uitgebreide experimenten op gesloten-lus benchmarks en open-einde diepgaande onderzoektaken tonen aan dat onze trainingsvrije aanpak superieure prestaties en calibratie op trajectniveau bereikt. Wij geloven dat dit principiële AUQ-raamwerk een significante stap vertegenwoordigt naar betrouwbare agenten.
English
Although AI agents have demonstrated impressive capabilities in long-horizon reasoning, their reliability is severely hampered by the ``Spiral of Hallucination,'' where early epistemic errors propagate irreversibly. Existing methods face a dilemma: uncertainty quantification (UQ) methods typically act as passive sensors, only diagnosing risks without addressing them, while self-reflection mechanisms suffer from continuous or aimless corrections. To bridge this gap, we propose a unified Dual-Process Agentic UQ (AUQ) framework that transforms verbalized uncertainty into active, bi-directional control signals. Our architecture comprises two complementary mechanisms: System 1 (Uncertainty-Aware Memory, UAM), which implicitly propagates verbalized confidence and semantic explanations to prevent blind decision-making; and System 2 (Uncertainty-Aware Reflection, UAR), which utilizes these explanations as rational cues to trigger targeted inference-time resolution only when necessary. This enables the agent to balance efficient execution and deep deliberation dynamically. Extensive experiments on closed-loop benchmarks and open-ended deep research tasks demonstrate that our training-free approach achieves superior performance and trajectory-level calibration. We believe this principled framework AUQ represents a significant step towards reliable agents.