ERGO: Reinicialização Guiada por Entropia para Otimização de Geração em Modelos de Linguagem de Múltiplos Turnos
ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models
October 15, 2025
Autores: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI
Resumo
Grandes Modelos de Linguagem (LLMs) sofrem uma degradação significativa de desempenho em conversas de múltiplos turnos quando as informações são apresentadas de forma incremental. Considerando que conversas de múltiplos turnos caracterizam as interações cotidianas com LLMs, essa degradação representa um desafio sério para a usabilidade no mundo real. Nós hipotetizamos que aumentos abruptos na incerteza do modelo sinalizam desalinhamento em interações de múltiplos turnos com LLMs, e exploramos essa percepção para realinhar dinamicamente o contexto da conversa. Introduzimos o ERGO (Entropy-guided Resetting for Generation Optimization), que quantifica continuamente a incerteza interna por meio da entropia de Shannon sobre as distribuições de próximos tokens e aciona a consolidação adaptativa de prompts quando um pico acentuado na entropia é detectado. Ao tratar a incerteza como um sinal de primeira classe em vez de um incômodo a ser eliminado, o ERGO abraça a variabilidade na linguagem e na modelagem, representando e respondendo à incerteza. Em tarefas de múltiplos turnos com instruções reveladas incrementalmente, o ERGO proporciona um ganho médio de desempenho de 56,6% em relação às linhas de base padrão, aumenta a aptidão (capacidade de desempenho máximo) em 24,7% e reduz a falta de confiabilidade (variabilidade no desempenho) em 35,3%, demonstrando que intervenções conscientes da incerteza podem melhorar tanto a precisão quanto a confiabilidade em IA conversacional.
English
Large Language Models (LLMs) suffer significant performance degradation in
multi-turn conversations when information is presented incrementally. Given
that multi-turn conversations characterize everyday interactions with LLMs,
this degradation poses a severe challenge to real world usability. We
hypothesize that abrupt increases in model uncertainty signal misalignment in
multi-turn LLM interactions, and we exploit this insight to dynamically realign
conversational context. We introduce ERGO (Entropy-guided Resetting for
Generation Optimization), which continuously quantifies internal uncertainty
via Shannon entropy over next token distributions and triggers adaptive prompt
consolidation when a sharp spike in entropy is detected. By treating
uncertainty as a first class signal rather than a nuisance to eliminate, ERGO
embraces variability in language and modeling, representing and responding to
uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO
yields a 56.6% average performance gain over standard baselines, increases
aptitude (peak performance capability) by 24.7%, and decreases unreliability
(variability in performance) by 35.3%, demonstrating that uncertainty aware
interventions can improve both accuracy and reliability in conversational AI.