ChatPaper.aiChatPaper

Estimación de la Confianza en Modelos de Lenguaje Grandes en Interacciones Multiturno

Confidence Estimation for LLMs in Multi-turn Interactions

January 5, 2026
Autores: Caiqi Zhang, Ruihan Yang, Xiaochen Zhu, Chengzu Li, Tiancheng Hu, Yijiang River Dong, Deqing Yang, Nigel Collier
cs.AI

Resumen

Si bien la estimación de confianza es una dirección prometedora para mitigar las alucinaciones en los Modelos de Lenguaje a Gran Escala (LLMs), la investigación actual se centra predominantemente en entornos de un solo turno. La dinámica de la confianza del modelo en conversaciones multiturno, donde el contexto se acumula y la ambigüedad se resuelve progresivamente, permanece en gran medida inexplorada. Una estimación de confianza fiable en entornos multiturno es crítica para muchas aplicaciones posteriores, como agentes autónomos y sistemas con intervención humana. Este trabajo presenta el primer estudio sistemático de la estimación de confianza en interacciones multiturno, estableciendo un marco formal de evaluación basado en dos desiderata clave: la calibración por turno y la monotonicidad de la confianza a medida que se dispone de más información. Para facilitar esto, introducimos nuevas métricas, incluyendo un Error de Calibración Esperado normalizado por longitud (InfoECE), y un nuevo paradigma de "Adivinador-Indiciador" para generar conjuntos de datos de evaluación controlados. Nuestros experimentos revelan que las técnicas de confianza ampliamente utilizadas tienen dificultades con la calibración y la monotonicidad en diálogos multiturno. Proponemos P(Suficiente), una sonda basada en logits que logra un rendimiento comparativamente mejor, aunque la tarea dista mucho de estar resuelta. Nuestro trabajo proporciona una metodología fundamental para desarrollar agentes conversacionales más fiables y dignos de confianza.
English
While confidence estimation is a promising direction for mitigating hallucinations in Large Language Models (LLMs), current research dominantly focuses on single-turn settings. The dynamics of model confidence in multi-turn conversations, where context accumulates and ambiguity is progressively resolved, remain largely unexplored. Reliable confidence estimation in multi-turn settings is critical for many downstream applications, such as autonomous agents and human-in-the-loop systems. This work presents the first systematic study of confidence estimation in multi-turn interactions, establishing a formal evaluation framework grounded in two key desiderata: per-turn calibration and monotonicity of confidence as more information becomes available. To facilitate this, we introduce novel metrics, including a length-normalized Expected Calibration Error (InfoECE), and a new "Hinter-Guesser" paradigm for generating controlled evaluation datasets. Our experiments reveal that widely-used confidence techniques struggle with calibration and monotonicity in multi-turn dialogues. We propose P(Sufficient), a logit-based probe that achieves comparatively better performance, although the task remains far from solved. Our work provides a foundational methodology for developing more reliable and trustworthy conversational agents.
PDF61January 7, 2026