ChatPaper.aiChatPaper

ERGO: Entropiegesteuertes Zurücksetzen zur Generationsoptimierung in mehrschrittigen Sprachmodellen

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
papers.authors: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) zeigen eine erhebliche Leistungsverschlechterung in Mehrfachdialogen, wenn Informationen schrittweise präsentiert werden. Da Mehrfachdialoge die alltägliche Interaktion mit LLMs charakterisieren, stellt diese Verschlechterung eine ernsthafte Herausforderung für die praktische Anwendbarkeit dar. Wir stellen die Hypothese auf, dass abrupte Anstiege der Modellunsicherheit eine Fehlausrichtung in Mehrfachdialog-Interaktionen signalisieren, und nutzen diese Erkenntnis, um den Konversationskontext dynamisch neu auszurichten. Wir führen ERGO (Entropy-guided Resetting for Generation Optimization) ein, das kontinuierlich die interne Unsicherheit über die Shannon-Entropie der nächsten Token-Verteilungen quantifiziert und eine adaptive Prompt-Konsolidierung auslöst, wenn ein starker Anstieg der Entropie festgestellt wird. Indem Unsicherheit als primäres Signal und nicht als zu beseitigendes Ärgernis behandelt wird, umfasst ERGO die Variabilität in Sprache und Modellierung, repräsentiert und reagiert auf Unsicherheit. In Mehrfachaufgaben mit schrittweise offengelegten Anweisungen erzielt ERGO eine durchschnittliche Leistungssteigerung von 56,6 % gegenüber Standard-Baselines, erhöht die Eignung (Spitzenleistungsfähigkeit) um 24,7 % und verringert die Unzuverlässigkeit (Variabilität in der Leistung) um 35,3 %. Dies zeigt, dass unsicherheitsbewusste Interventionen sowohl die Genauigkeit als auch die Zuverlässigkeit in der konversationellen KI verbessern können.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025