ERGO: Reimpostazione Guidata dall'Entropia per l'Ottimizzazione della Generazione nei Modelli Linguistici Multi-turn
ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models
October 15, 2025
Autori: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI
Abstract
I Large Language Model (LLM) subiscono un significativo degrado delle prestazioni nelle conversazioni multi-turn quando le informazioni vengono presentate in modo incrementale. Considerando che le conversazioni multi-turn caratterizzano le interazioni quotidiane con gli LLM, questo degrado rappresenta una sfida critica per l'usabilità nel mondo reale. Ipotesizziamo che improvvisi aumenti dell'incertezza del modello segnalino un disallineamento nelle interazioni multi-turn degli LLM, e sfruttiamo questa intuizione per riallineare dinamicamente il contesto conversazionale. Introduciamo ERGO (Entropy-guided Resetting for Generation Optimization), che quantifica continuamente l'incertezza interna tramite l'entropia di Shannon sulle distribuzioni dei token successivi e attiva un consolidamento adattivo del prompt quando viene rilevato un picco improvviso nell'entropia. Trattando l'incertezza come un segnale di primaria importanza piuttosto che come un fastidio da eliminare, ERGO abbraccia la variabilità del linguaggio e della modellizzazione, rappresentando e rispondendo all'incertezza. In compiti multi-turn con istruzioni rivelate in modo incrementale, ERGO produce un miglioramento medio delle prestazioni del 56,6% rispetto ai baseline standard, aumenta l'abilità (capacità di picco delle prestazioni) del 24,7% e riduce l'inaffidabilità (variabilità delle prestazioni) del 35,3%, dimostrando che interventi consapevoli dell'incertezza possono migliorare sia l'accuratezza che l'affidabilità nell'IA conversazionale.
English
Large Language Models (LLMs) suffer significant performance degradation in
multi-turn conversations when information is presented incrementally. Given
that multi-turn conversations characterize everyday interactions with LLMs,
this degradation poses a severe challenge to real world usability. We
hypothesize that abrupt increases in model uncertainty signal misalignment in
multi-turn LLM interactions, and we exploit this insight to dynamically realign
conversational context. We introduce ERGO (Entropy-guided Resetting for
Generation Optimization), which continuously quantifies internal uncertainty
via Shannon entropy over next token distributions and triggers adaptive prompt
consolidation when a sharp spike in entropy is detected. By treating
uncertainty as a first class signal rather than a nuisance to eliminate, ERGO
embraces variability in language and modeling, representing and responding to
uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO
yields a 56.6% average performance gain over standard baselines, increases
aptitude (peak performance capability) by 24.7%, and decreases unreliability
(variability in performance) by 35.3%, demonstrating that uncertainty aware
interventions can improve both accuracy and reliability in conversational AI.