ChatPaper.aiChatPaper

De la métrica pasiva a la señal activa: La evolución del papel de la cuantificación de la incertidumbre en los modelos de lenguaje grandes

From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models

January 22, 2026
Autores: Jiaxin Zhang, Wendi Cui, Zhuohang Li, Lifu Huang, Bradley Malin, Caiming Xiong, Chien-Sheng Wu
cs.AI

Resumen

Si bien los Modelos de Lenguaje a Gran Escala (LLMs) demuestran capacidades notables, su falta de confiabilidad sigue siendo una barrera crítica para su despliegue en dominios de alto riesgo. Este estudio traza una evolución funcional en el abordaje de este desafío: la evolución de la incertidumbre desde una métrica de diagnóstico pasiva hacia una señal de control activa que guía el comportamiento del modelo en tiempo real. Demostramos cómo se aprovecha la incertidumbre como señal de control activa en tres fronteras: en el razonamiento avanzado para optimizar el cómputo y activar la autocorrección; en agentes autónomos para gobernar decisiones metacognitivas sobre el uso de herramientas y la búsqueda de información; y en el aprendizaje por refuerzo para mitigar la manipulación de recompensas y permitir la automejora mediante recompensas intrínsecas. Al fundamentar estos avances en marcos teóricos emergentes como los métodos bayesianos y la Predicción Conformal, ofrecemos una perspectiva unificada sobre esta tendencia transformadora. Este estudio proporciona una visión general exhaustiva, un análisis crítico y patrones de diseño prácticos, argumentando que dominar la nueva tendencia de la incertidumbre es esencial para construir la próxima generación de IA escalable, confiable y segura.
English
While Large Language Models (LLMs) show remarkable capabilities, their unreliability remains a critical barrier to deployment in high-stakes domains. This survey charts a functional evolution in addressing this challenge: the evolution of uncertainty from a passive diagnostic metric to an active control signal guiding real-time model behavior. We demonstrate how uncertainty is leveraged as an active control signal across three frontiers: in advanced reasoning to optimize computation and trigger self-correction; in autonomous agents to govern metacognitive decisions about tool use and information seeking; and in reinforcement learning to mitigate reward hacking and enable self-improvement via intrinsic rewards. By grounding these advancements in emerging theoretical frameworks like Bayesian methods and Conformal Prediction, we provide a unified perspective on this transformative trend. This survey provides a comprehensive overview, critical analysis, and practical design patterns, arguing that mastering the new trend of uncertainty is essential for building the next generation of scalable, reliable, and trustworthy AI.
PDF11January 24, 2026