ERGO : Réinitialisation guidée par l'entropie pour l'optimisation de la génération dans les modèles de langage multi-tours
ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models
October 15, 2025
papers.authors: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI
papers.abstract
Les modèles de langage de grande taille (LLMs) subissent une dégradation significative de leurs performances dans les conversations multi-tours lorsque les informations sont présentées de manière incrémentale. Étant donné que les conversations multi-tours caractérisent les interactions quotidiennes avec les LLMs, cette dégradation représente un défi majeur pour leur utilité dans le monde réel. Nous émettons l'hypothèse que des augmentations abruptes de l'incertitude du modèle signalent un désalignement dans les interactions multi-tours des LLMs, et nous exploitons cette intuition pour réaligner dynamiquement le contexte conversationnel. Nous introduisons ERGO (Réinitialisation guidée par l'entropie pour l'optimisation de la génération), qui quantifie en continu l'incertitude interne via l'entropie de Shannon sur les distributions de tokens suivants et déclenche une consolidation adaptative des prompts lorsqu'une forte augmentation de l'entropie est détectée. En traitant l'incertitude comme un signal de premier ordre plutôt que comme une nuisance à éliminer, ERGO embrasse la variabilité du langage et de la modélisation, représentant et répondant à l'incertitude. Dans les tâches multi-tours avec des instructions révélées de manière incrémentale, ERGO permet un gain de performance moyen de 56,6 % par rapport aux bases de référence standard, augmente l'aptitude (capacité de performance maximale) de 24,7 % et réduit l'instabilité (variabilité des performances) de 35,3 %, démontrant que les interventions conscientes de l'incertitude peuvent améliorer à la fois la précision et la fiabilité dans l'IA conversationnelle.
English
Large Language Models (LLMs) suffer significant performance degradation in
multi-turn conversations when information is presented incrementally. Given
that multi-turn conversations characterize everyday interactions with LLMs,
this degradation poses a severe challenge to real world usability. We
hypothesize that abrupt increases in model uncertainty signal misalignment in
multi-turn LLM interactions, and we exploit this insight to dynamically realign
conversational context. We introduce ERGO (Entropy-guided Resetting for
Generation Optimization), which continuously quantifies internal uncertainty
via Shannon entropy over next token distributions and triggers adaptive prompt
consolidation when a sharp spike in entropy is detected. By treating
uncertainty as a first class signal rather than a nuisance to eliminate, ERGO
embraces variability in language and modeling, representing and responding to
uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO
yields a 56.6% average performance gain over standard baselines, increases
aptitude (peak performance capability) by 24.7%, and decreases unreliability
(variability in performance) by 35.3%, demonstrating that uncertainty aware
interventions can improve both accuracy and reliability in conversational AI.