ERGO: Entropiegesteuertes Zurücksetzen zur Generationsoptimierung in mehrschrittigen Sprachmodellen
ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models
October 15, 2025
papers.authors: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) zeigen eine erhebliche Leistungsverschlechterung in Mehrfachdialogen, wenn Informationen schrittweise präsentiert werden. Da Mehrfachdialoge die alltägliche Interaktion mit LLMs charakterisieren, stellt diese Verschlechterung eine ernsthafte Herausforderung für die praktische Anwendbarkeit dar. Wir stellen die Hypothese auf, dass abrupte Anstiege der Modellunsicherheit eine Fehlausrichtung in Mehrfachdialog-Interaktionen signalisieren, und nutzen diese Erkenntnis, um den Konversationskontext dynamisch neu auszurichten. Wir führen ERGO (Entropy-guided Resetting for Generation Optimization) ein, das kontinuierlich die interne Unsicherheit über die Shannon-Entropie der nächsten Token-Verteilungen quantifiziert und eine adaptive Prompt-Konsolidierung auslöst, wenn ein starker Anstieg der Entropie festgestellt wird. Indem Unsicherheit als primäres Signal und nicht als zu beseitigendes Ärgernis behandelt wird, umfasst ERGO die Variabilität in Sprache und Modellierung, repräsentiert und reagiert auf Unsicherheit. In Mehrfachaufgaben mit schrittweise offengelegten Anweisungen erzielt ERGO eine durchschnittliche Leistungssteigerung von 56,6 % gegenüber Standard-Baselines, erhöht die Eignung (Spitzenleistungsfähigkeit) um 24,7 % und verringert die Unzuverlässigkeit (Variabilität in der Leistung) um 35,3 %. Dies zeigt, dass unsicherheitsbewusste Interventionen sowohl die Genauigkeit als auch die Zuverlässigkeit in der konversationellen KI verbessern können.
English
Large Language Models (LLMs) suffer significant performance degradation in
multi-turn conversations when information is presented incrementally. Given
that multi-turn conversations characterize everyday interactions with LLMs,
this degradation poses a severe challenge to real world usability. We
hypothesize that abrupt increases in model uncertainty signal misalignment in
multi-turn LLM interactions, and we exploit this insight to dynamically realign
conversational context. We introduce ERGO (Entropy-guided Resetting for
Generation Optimization), which continuously quantifies internal uncertainty
via Shannon entropy over next token distributions and triggers adaptive prompt
consolidation when a sharp spike in entropy is detected. By treating
uncertainty as a first class signal rather than a nuisance to eliminate, ERGO
embraces variability in language and modeling, representing and responding to
uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO
yields a 56.6% average performance gain over standard baselines, increases
aptitude (peak performance capability) by 24.7%, and decreases unreliability
(variability in performance) by 35.3%, demonstrating that uncertainty aware
interventions can improve both accuracy and reliability in conversational AI.