ChatPaper.aiChatPaper

ERGO: Reimpostazione Guidata dall'Entropia per l'Ottimizzazione della Generazione nei Modelli Linguistici Multi-turn

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
Autori: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

Abstract

I Large Language Model (LLM) subiscono un significativo degrado delle prestazioni nelle conversazioni multi-turn quando le informazioni vengono presentate in modo incrementale. Considerando che le conversazioni multi-turn caratterizzano le interazioni quotidiane con gli LLM, questo degrado rappresenta una sfida critica per l'usabilità nel mondo reale. Ipotesizziamo che improvvisi aumenti dell'incertezza del modello segnalino un disallineamento nelle interazioni multi-turn degli LLM, e sfruttiamo questa intuizione per riallineare dinamicamente il contesto conversazionale. Introduciamo ERGO (Entropy-guided Resetting for Generation Optimization), che quantifica continuamente l'incertezza interna tramite l'entropia di Shannon sulle distribuzioni dei token successivi e attiva un consolidamento adattivo del prompt quando viene rilevato un picco improvviso nell'entropia. Trattando l'incertezza come un segnale di primaria importanza piuttosto che come un fastidio da eliminare, ERGO abbraccia la variabilità del linguaggio e della modellizzazione, rappresentando e rispondendo all'incertezza. In compiti multi-turn con istruzioni rivelate in modo incrementale, ERGO produce un miglioramento medio delle prestazioni del 56,6% rispetto ai baseline standard, aumenta l'abilità (capacità di picco delle prestazioni) del 24,7% e riduce l'inaffidabilità (variabilità delle prestazioni) del 35,3%, dimostrando che interventi consapevoli dell'incertezza possono migliorare sia l'accuratezza che l'affidabilità nell'IA conversazionale.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025