ChatPaper.aiChatPaper

ERGO: Reinicialização Guiada por Entropia para Otimização de Geração em Modelos de Linguagem de Múltiplos Turnos

ERGO: Entropy-guided Resetting for Generation Optimization in Multi-turn Language Models

October 15, 2025
Autores: Haziq Mohammad Khalid, Athikash Jeyaganthan, Timothy Do, Yicheng Fu, Sean O'Brien, Vasu Sharma, Kevin Zhu
cs.AI

Resumo

Grandes Modelos de Linguagem (LLMs) sofrem uma degradação significativa de desempenho em conversas de múltiplos turnos quando as informações são apresentadas de forma incremental. Considerando que conversas de múltiplos turnos caracterizam as interações cotidianas com LLMs, essa degradação representa um desafio sério para a usabilidade no mundo real. Nós hipotetizamos que aumentos abruptos na incerteza do modelo sinalizam desalinhamento em interações de múltiplos turnos com LLMs, e exploramos essa percepção para realinhar dinamicamente o contexto da conversa. Introduzimos o ERGO (Entropy-guided Resetting for Generation Optimization), que quantifica continuamente a incerteza interna por meio da entropia de Shannon sobre as distribuições de próximos tokens e aciona a consolidação adaptativa de prompts quando um pico acentuado na entropia é detectado. Ao tratar a incerteza como um sinal de primeira classe em vez de um incômodo a ser eliminado, o ERGO abraça a variabilidade na linguagem e na modelagem, representando e respondendo à incerteza. Em tarefas de múltiplos turnos com instruções reveladas incrementalmente, o ERGO proporciona um ganho médio de desempenho de 56,6% em relação às linhas de base padrão, aumenta a aptidão (capacidade de desempenho máximo) em 24,7% e reduz a falta de confiabilidade (variabilidade no desempenho) em 35,3%, demonstrando que intervenções conscientes da incerteza podem melhorar tanto a precisão quanto a confiabilidade em IA conversacional.
English
Large Language Models (LLMs) suffer significant performance degradation in multi-turn conversations when information is presented incrementally. Given that multi-turn conversations characterize everyday interactions with LLMs, this degradation poses a severe challenge to real world usability. We hypothesize that abrupt increases in model uncertainty signal misalignment in multi-turn LLM interactions, and we exploit this insight to dynamically realign conversational context. We introduce ERGO (Entropy-guided Resetting for Generation Optimization), which continuously quantifies internal uncertainty via Shannon entropy over next token distributions and triggers adaptive prompt consolidation when a sharp spike in entropy is detected. By treating uncertainty as a first class signal rather than a nuisance to eliminate, ERGO embraces variability in language and modeling, representing and responding to uncertainty. In multi-turn tasks with incrementally revealed instructions, ERGO yields a 56.6% average performance gain over standard baselines, increases aptitude (peak performance capability) by 24.7%, and decreases unreliability (variability in performance) by 35.3%, demonstrating that uncertainty aware interventions can improve both accuracy and reliability in conversational AI.
PDF22October 20, 2025