ERGO: Entropie-gestuurde Herinitialisatie voor Generatieoptimalisatie in Meerdere Beurten Taalmodellen
ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models
October 15, 2025
Auteurs: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) vertonen een aanzienlijke prestatieachteruitgang in meerzijdige gesprekken wanneer informatie stapsgewijs wordt gepresenteerd. Gezien het feit dat meerzijdige gesprekken kenmerkend zijn voor alledaagse interacties met LLMs, vormt deze achteruitgang een ernstige uitdaging voor de bruikbaarheid in de praktijk. Wij stellen de hypothese dat abrupte toename van modelonzekerheid een teken is van misalignering in meerzijdige LLM-interacties, en we benutten dit inzicht om de gesprekscontext dynamisch te realigneren. We introduceren ERGO (Entropy-guided Resetting for Generation Optimization), dat continu interne onzekerheid kwantificeert via Shannon-entropie over volgende tokenverdelingen en adaptieve promptconsolidatie activeert wanneer een scherpe piek in entropie wordt gedetecteerd. Door onzekerheid te behandelen als een eersteklas signaal in plaats van een te elimineren overlast, omarmt ERGO variabiliteit in taal en modellering, en representeert en reageert het op onzekerheid. In meerzijdige taken met stapsgewijs onthulde instructies levert ERGO een gemiddelde prestatieverbetering van 56,6% op ten opzichte van standaardbaselines, verhoogt het vermogen (piekprestatiecapaciteit) met 24,7%, en vermindert het onbetrouwbaarheid (variabiliteit in prestaties) met 35,3%, wat aantoont dat onzekerheidsbewuste interventies zowel de nauwkeurigheid als de betrouwbaarheid in conversatie-AI kunnen verbeteren.
English
Large Language Models (LLMs) suffer significant performance degradation in
multi-turn conversations when information is presented incrementally. Given
that multi-turn conversations characterize everyday interactions with LLMs,
this degradation poses a severe challenge to real world usability. We
hypothesize that abrupt increases in model uncertainty signal misalignment in
multi-turn LLM interactions, and we exploit this insight to dynamically realign
conversational context. We introduce ERGO (Entropy-guided Resetting for
Generation Optimization), which continuously quantifies internal uncertainty
via Shannon entropy over next token distributions and triggers adaptive prompt
consolidation when a sharp spike in entropy is detected. By treating
uncertainty as a first class signal rather than a nuisance to eliminate, ERGO
embraces variability in language and modeling, representing and responding to
uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO
yields a 56.6% average performance gain over standard baselines, increases
aptitude (peak performance capability) by 24.7%, and decreases unreliability
(variability in performance) by 35.3%, demonstrating that uncertainty aware
interventions can improve both accuracy and reliability in conversational AI.