ChatPaper.aiChatPaper

ERGO: Reinicialización Guiada por Entropía para la Optimización de la Generación en Modelos de Lenguaje de Múltiples Turnos

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
Autores: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) experimentan una degradación significativa en su rendimiento en conversaciones de múltiples turnos cuando la información se presenta de manera incremental. Dado que las conversaciones de múltiples turnos caracterizan las interacciones cotidianas con los LLMs, esta degradación representa un desafío grave para su usabilidad en el mundo real. Planteamos la hipótesis de que los aumentos abruptos en la incertidumbre del modelo señalan desalineaciones en las interacciones de múltiples turnos con los LLMs, y aprovechamos esta idea para realinear dinámicamente el contexto conversacional. Introducimos ERGO (Reinicio Guiado por Entropía para la Optimización de la Generación), que cuantifica continuamente la incertidumbre interna mediante la entropía de Shannon sobre las distribuciones del siguiente token y activa la consolidación adaptativa de indicaciones cuando se detecta un pico agudo en la entropía. Al tratar la incertidumbre como una señal de primer orden en lugar de una molestia que eliminar, ERGO abraza la variabilidad en el lenguaje y el modelado, representando y respondiendo a la incertidumbre. En tareas de múltiples turnos con instrucciones reveladas incrementalmente, ERGO produce una mejora promedio del 56.6% en el rendimiento sobre los baselines estándar, aumenta la aptitud (capacidad de rendimiento máximo) en un 24.7% y reduce la falta de fiabilidad (variabilidad en el rendimiento) en un 35.3%, demostrando que las intervenciones conscientes de la incertidumbre pueden mejorar tanto la precisión como la fiabilidad en la inteligencia artificial conversacional.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025