ChatPaper.aiChatPaper

ERGO: Entropie-gestuurde Herinitialisatie voor Generatieoptimalisatie in Meerdere Beurten Taalmodellen

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
Auteurs: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) vertonen een aanzienlijke prestatieachteruitgang in meerzijdige gesprekken wanneer informatie stapsgewijs wordt gepresenteerd. Gezien het feit dat meerzijdige gesprekken kenmerkend zijn voor alledaagse interacties met LLMs, vormt deze achteruitgang een ernstige uitdaging voor de bruikbaarheid in de praktijk. Wij stellen de hypothese dat abrupte toename van modelonzekerheid een teken is van misalignering in meerzijdige LLM-interacties, en we benutten dit inzicht om de gesprekscontext dynamisch te realigneren. We introduceren ERGO (Entropy-guided Resetting for Generation Optimization), dat continu interne onzekerheid kwantificeert via Shannon-entropie over volgende tokenverdelingen en adaptieve promptconsolidatie activeert wanneer een scherpe piek in entropie wordt gedetecteerd. Door onzekerheid te behandelen als een eersteklas signaal in plaats van een te elimineren overlast, omarmt ERGO variabiliteit in taal en modellering, en representeert en reageert het op onzekerheid. In meerzijdige taken met stapsgewijs onthulde instructies levert ERGO een gemiddelde prestatieverbetering van 56,6% op ten opzichte van standaardbaselines, verhoogt het vermogen (piekprestatiecapaciteit) met 24,7%, en vermindert het onbetrouwbaarheid (variabiliteit in prestaties) met 35,3%, wat aantoont dat onzekerheidsbewuste interventies zowel de nauwkeurigheid als de betrouwbaarheid in conversatie-AI kunnen verbeteren.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025