ChatPaper.aiChatPaper

Quantification de l'incertitude agentique

Agentic Uncertainty Quantification

January 22, 2026
papers.authors: Jiaxin Zhang, Prafulla Kumar Choubey, Kung-Hsiang Huang, Caiming Xiong, Chien-Sheng Wu
cs.AI

papers.abstract

Bien que les agents d'IA aient démontré des capacités impressionnantes en matière de raisonnement à long terme, leur fiabilité est gravement compromise par la « Spirale des Hallucinations », où les erreurs épistémiques précoces se propagent de manière irréversible. Les méthodes existantes sont confrontées à un dilemme : les méthodes de quantification de l'incertitude (UQ) agissent généralement comme des capteurs passifs, se contentant de diagnostiquer les risques sans les traiter, tandis que les mécanismes d'auto-réflexion souffrent de corrections continues ou sans but. Pour combler cette lacune, nous proposons un cadre unifié de Quantification de l'Incertitude Agentique à Double Processus (AUQ) qui transforme l'incertitude verbalisée en signaux de contrôle actifs et bidirectionnels. Notre architecture comprend deux mécanismes complémentaires : le Système 1 (Mémoire Sensibilisée à l'Incertitude, UAM), qui propage implicitement la confiance verbalisée et les explications sémantiques pour éviter la prise de décision aveugle ; et le Système 2 (Réflexion Sensibilisée à l'Incertitude, UAR), qui utilise ces explications comme indices rationnels pour déclencher une résolution ciblée au moment de l'inférence, uniquement lorsque cela est nécessaire. Cela permet à l'agent d'équilibrer dynamiquement l'exécution efficace et la délibération approfondie. Des expériences approfondies sur des benchmarks en boucle fermée et des tâches de recherche approfondie ouvertes démontrent que notre approche sans entrainement atteint des performances et une calibration au niveau de la trajectoire supérieures. Nous pensons que ce cadre fondé sur des principes, l'AUQ, représente une avancée significative vers des agents fiables.
English
Although AI agents have demonstrated impressive capabilities in long-horizon reasoning, their reliability is severely hampered by the ``Spiral of Hallucination,'' where early epistemic errors propagate irreversibly. Existing methods face a dilemma: uncertainty quantification (UQ) methods typically act as passive sensors, only diagnosing risks without addressing them, while self-reflection mechanisms suffer from continuous or aimless corrections. To bridge this gap, we propose a unified Dual-Process Agentic UQ (AUQ) framework that transforms verbalized uncertainty into active, bi-directional control signals. Our architecture comprises two complementary mechanisms: System 1 (Uncertainty-Aware Memory, UAM), which implicitly propagates verbalized confidence and semantic explanations to prevent blind decision-making; and System 2 (Uncertainty-Aware Reflection, UAR), which utilizes these explanations as rational cues to trigger targeted inference-time resolution only when necessary. This enables the agent to balance efficient execution and deep deliberation dynamically. Extensive experiments on closed-loop benchmarks and open-ended deep research tasks demonstrate that our training-free approach achieves superior performance and trajectory-level calibration. We believe this principled framework AUQ represents a significant step towards reliable agents.
PDF11January 24, 2026