ChatPaper.aiChatPaper

Aprendizaje de Políticas de Abstención Conformes para la Gestión de Riesgos Adaptativa en Modelos de Lenguaje y Modelos de Visión-Lenguaje a Gran Escala

Learning Conformal Abstention Policies for Adaptive Risk Management in Large Language and Vision-Language Models

February 8, 2025
Autores: Sina Tayebati, Divake Kumar, Nastaran Darabi, Dinithi Jayasuriya, Ranganath Krishnan, Amit Ranjan Trivedi
cs.AI

Resumen

Los Modelos de Lenguaje Grande y Modelos de Visión-Lenguaje (LLMs/VLMs) se utilizan cada vez más en aplicaciones críticas para la seguridad, sin embargo, su toma de decisiones opaca complica la evaluación de riesgos y la fiabilidad. La cuantificación de incertidumbre (UQ) ayuda a evaluar la confianza en las predicciones y permite la abstención cuando la incertidumbre es alta. La predicción conforme (CP), un método líder de UQ, proporciona garantías estadísticas pero se basa en umbrales estáticos, que no se adaptan a la complejidad de la tarea y a las distribuciones de datos cambiantes, lo que lleva a compensaciones subóptimas en precisión, cobertura e informatividad. Para abordar esto, proponemos la abstención conforme aprendible, integrando el aprendizaje por refuerzo (RL) con CP para optimizar dinámicamente los umbrales de abstención. Al tratar los umbrales de CP como acciones adaptables, nuestro enfoque equilibra múltiples objetivos, minimizando el tamaño del conjunto de predicciones manteniendo una cobertura fiable. Evaluaciones extensas en diversos benchmarks de LLM/VLM muestran que nuestro método supera a los Clasificadores Menos Ambiguos (LAC) y a los Conjuntos de Predicción Adaptativos (APS), mejorando la precisión hasta un 3.2%, aumentando el AUROC para la detección de alucinaciones en un 22.19%, mejorando la generación selectiva guiada por incertidumbre (AUARC) en un 21.17%, y reduciendo el error de calibración en un 70%-85%. Estas mejoras se mantienen en varios modelos y conjuntos de datos, cumpliendo consistentemente el objetivo de cobertura del 90%, estableciendo nuestro enfoque como una solución más efectiva y flexible para la toma de decisiones fiable en aplicaciones críticas para la seguridad. El código está disponible en: {https://github.com/sinatayebati/vlm-uncertainty}.
English
Large Language and Vision-Language Models (LLMs/VLMs) are increasingly used in safety-critical applications, yet their opaque decision-making complicates risk assessment and reliability. Uncertainty quantification (UQ) helps assess prediction confidence and enables abstention when uncertainty is high. Conformal prediction (CP), a leading UQ method, provides statistical guarantees but relies on static thresholds, which fail to adapt to task complexity and evolving data distributions, leading to suboptimal trade-offs in accuracy, coverage, and informativeness. To address this, we propose learnable conformal abstention, integrating reinforcement learning (RL) with CP to optimize abstention thresholds dynamically. By treating CP thresholds as adaptive actions, our approach balances multiple objectives, minimizing prediction set size while maintaining reliable coverage. Extensive evaluations across diverse LLM/VLM benchmarks show our method outperforms Least Ambiguous Classifiers (LAC) and Adaptive Prediction Sets (APS), improving accuracy by up to 3.2%, boosting AUROC for hallucination detection by 22.19%, enhancing uncertainty-guided selective generation (AUARC) by 21.17%, and reducing calibration error by 70%-85%. These improvements hold across multiple models and datasets while consistently meeting the 90% coverage target, establishing our approach as a more effective and flexible solution for reliable decision-making in safety-critical applications. The code is available at: {https://github.com/sinatayebati/vlm-uncertainty}.
PDF12February 13, 2025