ChatPaper.aiChatPaper

ERGO : Réinitialisation guidée par l'entropie pour l'optimisation de la génération dans les modèles de langage multi-tours

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
papers.authors: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

papers.abstract

Les modèles de langage de grande taille (LLMs) subissent une dégradation significative de leurs performances dans les conversations multi-tours lorsque les informations sont présentées de manière incrémentale. Étant donné que les conversations multi-tours caractérisent les interactions quotidiennes avec les LLMs, cette dégradation représente un défi majeur pour leur utilité dans le monde réel. Nous émettons l'hypothèse que des augmentations abruptes de l'incertitude du modèle signalent un désalignement dans les interactions multi-tours des LLMs, et nous exploitons cette intuition pour réaligner dynamiquement le contexte conversationnel. Nous introduisons ERGO (Réinitialisation guidée par l'entropie pour l'optimisation de la génération), qui quantifie en continu l'incertitude interne via l'entropie de Shannon sur les distributions de tokens suivants et déclenche une consolidation adaptative des prompts lorsqu'une forte augmentation de l'entropie est détectée. En traitant l'incertitude comme un signal de premier ordre plutôt que comme une nuisance à éliminer, ERGO embrasse la variabilité du langage et de la modélisation, représentant et répondant à l'incertitude. Dans les tâches multi-tours avec des instructions révélées de manière incrémentale, ERGO permet un gain de performance moyen de 56,6 % par rapport aux bases de référence standard, augmente l'aptitude (capacité de performance maximale) de 24,7 % et réduit l'instabilité (variabilité des performances) de 35,3 %, démontrant que les interventions conscientes de l'incertitude peuvent améliorer à la fois la précision et la fiabilité dans l'IA conversationnelle.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025