ChatPaper.aiChatPaper

大規模言語およびビジョン-言語モデルにおいて適応リスク管理のための適合性棄却ポリシーの学習

Learning Conformal Abstention Policies for Adaptive Risk Management in Large Language and Vision-Language Models

February 8, 2025
著者: Sina Tayebati, Divake Kumar, Nastaran Darabi, Dinithi Jayasuriya, Ranganath Krishnan, Amit Ranjan Trivedi
cs.AI

要旨

大規模言語モデルおよびビジョン-言語モデル(LLMs/VLMs)は、安全性に関わるアプリケーションでますます使用されていますが、その不透明な意思決定はリスク評価と信頼性を複雑化させます。不確実性の定量化(UQ)は、予測の信頼度を評価し、不確実性が高い場合には棄却を可能にします。主要なUQ手法である適合性予測(CP)は、統計的な保証を提供しますが、静的な閾値に依存しており、タスクの複雑さやデータ分布の変化に適応できず、精度、カバレッジ、情報量のトレードオフが最適でなくなります。この課題に対処するために、我々は学習可能な適合性棄却を提案し、強化学習(RL)をCPと統合して棄却の閾値を動的に最適化します。CPの閾値を適応的なアクションとして扱うことで、我々の手法は複数の目的をバランスし、予測セットのサイズを最小限に抑えながら信頼性のあるカバレッジを維持します。多様なLLM/VLMベンチマークを通じた包括的な評価により、我々の手法が最も明確な分類器(LAC)および適応的予測セット(APS)を上回り、精度を最大3.2%向上させ、幻覚検出のためのAUROCを22.19%向上させ、不確実性に基づく選択的生成(AUARC)を21.17%向上させ、キャリブレーションエラーを70%〜85%削減します。これらの改善は、複数のモデルとデータセットにわたって一貫して90%のカバレッジ目標を達成しながら成立し、安全性に関わるアプリケーションにおける信頼性のある意思決定のためのより効果的かつ柔軟なソリューションとして我々の手法を確立します。コードはこちらで入手可能です:{https://github.com/sinatayebati/vlm-uncertainty}。
English
Large Language and Vision-Language Models (LLMs/VLMs) are increasingly used in safety-critical applications, yet their opaque decision-making complicates risk assessment and reliability. Uncertainty quantification (UQ) helps assess prediction confidence and enables abstention when uncertainty is high. Conformal prediction (CP), a leading UQ method, provides statistical guarantees but relies on static thresholds, which fail to adapt to task complexity and evolving data distributions, leading to suboptimal trade-offs in accuracy, coverage, and informativeness. To address this, we propose learnable conformal abstention, integrating reinforcement learning (RL) with CP to optimize abstention thresholds dynamically. By treating CP thresholds as adaptive actions, our approach balances multiple objectives, minimizing prediction set size while maintaining reliable coverage. Extensive evaluations across diverse LLM/VLM benchmarks show our method outperforms Least Ambiguous Classifiers (LAC) and Adaptive Prediction Sets (APS), improving accuracy by up to 3.2%, boosting AUROC for hallucination detection by 22.19%, enhancing uncertainty-guided selective generation (AUARC) by 21.17%, and reducing calibration error by 70%-85%. These improvements hold across multiple models and datasets while consistently meeting the 90% coverage target, establishing our approach as a more effective and flexible solution for reliable decision-making in safety-critical applications. The code is available at: {https://github.com/sinatayebati/vlm-uncertainty}.

Summary

AI-Generated Summary

PDF02February 13, 2025