ChatPaper.aiChatPaper

Stima della Fiducia per LLM nelle Interazioni Multi-turno

Confidence Estimation for LLMs in Multi-turn Interactions

January 5, 2026
Autori: Caiqi Zhang, Ruihan Yang, Xiaochen Zhu, Chengzu Li, Tiancheng Hu, Yijiang River Dong, Deqing Yang, Nigel Collier
cs.AI

Abstract

Sebbene la stima della confidenza sia una direzione promettente per mitigare le allucinazioni nei Large Language Model (LLM), la ricerca attuale si concentra prevalentemente su contesti a turno singolo. La dinamica della confidenza del modello nelle conversazioni multi-turno, in cui il contesto si accumula e l'ambiguità viene risolta progressivamente, rimane in gran parte inesplorata. Una stima affidabile della confidenza in contesti multi-turno è fondamentale per molte applicazioni a valle, come gli agenti autonomi e i sistemi human-in-the-loop. Questo lavoro presenta il primo studio sistematico sulla stima della confidenza nelle interazioni multi-turno, stabilendo una cornice formale di valutazione basata su due desiderata chiave: la calibrazione per turno e la monotonicità della confidenza man mano che diventa disponibile più informazione. Per facilitare ciò, introduciamo nuove metriche, inclusa una versione normalizzata per la lunghezza dell'Expected Calibration Error (InfoECE), e un nuovo paradigma "Hinter-Guesser" per generare dataset di valutazione controllati. I nostri esperimenti rivelano che le tecniche di confidenza ampiamente utilizzate faticano a mantenere calibrazione e monotonicità nei dialoghi multi-turno. Proponiamo P(Sufficient), un probe basato sui logit che raggiunge una performance relativamente migliore, sebbene il problema sia lungi dall'essere risolto. Il nostro lavoro fornisce una metodologia fondamentale per sviluppare agenti conversazionali più affidabili e degni di fiducia.
English
While confidence estimation is a promising direction for mitigating hallucinations in Large Language Models (LLMs), current research dominantly focuses on single-turn settings. The dynamics of model confidence in multi-turn conversations, where context accumulates and ambiguity is progressively resolved, remain largely unexplored. Reliable confidence estimation in multi-turn settings is critical for many downstream applications, such as autonomous agents and human-in-the-loop systems. This work presents the first systematic study of confidence estimation in multi-turn interactions, establishing a formal evaluation framework grounded in two key desiderata: per-turn calibration and monotonicity of confidence as more information becomes available. To facilitate this, we introduce novel metrics, including a length-normalized Expected Calibration Error (InfoECE), and a new "Hinter-Guesser" paradigm for generating controlled evaluation datasets. Our experiments reveal that widely-used confidence techniques struggle with calibration and monotonicity in multi-turn dialogues. We propose P(Sufficient), a logit-based probe that achieves comparatively better performance, although the task remains far from solved. Our work provides a foundational methodology for developing more reliable and trustworthy conversational agents.
PDF173February 27, 2026