Raciocínio Eficiente com Pensamento Equilibrado
Efficient Reasoning with Balanced Thinking
March 12, 2026
Autores: Yulin Li, Tengyao Tu, Li Ding, Junjie Wang, Huiling Zhen, Yixin Chen, Yong Li, Zhuotao Tian
cs.AI
Resumo
Os Grandes Modelos de Raciocínio (LRMs) demonstraram capacidades notáveis de raciocínio, mas frequentemente sofrem com *overthinking* (pensar demais), gastando etapas computacionais redundantes em problemas simples, ou *underthinking* (pensar de menos), falhando em explorar caminhos de raciocínio suficientes apesar de suas capacidades inerentes. Esses problemas levam a ineficiências e possíveis imprecisões, limitando a implantação prática em ambientes com recursos limitados. Os métodos existentes para mitigar o *overthinking*, como suprimir palavras-chave reflexivas ou ajustar o comprimento do raciocínio, podem inadvertidamente induzir *underthinking*, comprometendo a precisão. Portanto, propomos o ReBalance, uma estrutura *training-free* (sem necessidade de treinamento) que alcança um raciocínio eficiente com pensamento equilibrado. O ReBalance aproveita a confiança como um indicador contínuo da dinâmica do raciocínio, identificando o *overthinking* através de alta variância de confiança e o *underthinking* via superconfiança consistente. Ao agregar estados ocultos de um conjunto de dados de pequena escala em protótipos de modo de raciocínio, calculamos um vetor de direcionamento para guiar as trajetórias de raciocínio dos LRMs. Uma função de controle dinâmico modula a força e direção deste vetor com base na confiança em tempo real, podando a redundância durante o *overthinking* e promovendo a exploração durante o *underthinking*. Extensos experimentos conduzidos em quatro modelos variando de 0,5B a 32B, e em nove *benchmarks* de raciocínio matemático, perguntas e respostas gerais e tarefas de codificação demonstram que o ReBalance reduz efetivamente a redundância na saída enquanto melhora a precisão, oferecendo uma estratégia geral, *training-free* e *plug-and-play* para uma implantação eficiente e robusta de LRMs. O código está disponível em https://github.com/yu-lin-li/ReBalance.
English
Large Reasoning Models (LRMs) have shown remarkable reasoning capabilities, yet they often suffer from overthinking, expending redundant computational steps on simple problems, or underthinking, failing to explore sufficient reasoning paths despite inherent capabilities. These issues lead to inefficiencies and potential inaccuracies, limiting practical deployment in resource-constrained settings. Existing methods to mitigate overthinking, such as suppressing reflective keywords or adjusting reasoning length, may inadvertently induce underthinking, compromising accuracy. Therefore, we propose ReBalance, a training-free framework that achieves efficient reasoning with balanced thinking. ReBalance leverages confidence as a continuous indicator of reasoning dynamics, identifying overthinking through high confidence variance and underthinking via consistent overconfidence. By aggregating hidden states from a small-scale dataset into reasoning mode prototypes, we compute a steering vector to guide LRMs' reasoning trajectories. A dynamic control function modulates this vector's strength and direction based on real-time confidence, pruning redundancy during overthinking, and promoting exploration during underthinking. Extensive experiments conducted on four models ranging from 0.5B to 32B, and across nine benchmarks in math reasoning, general question answering, and coding tasks demonstrate that ReBalance effectively reduces output redundancy while improving accuracy, offering a general, training-free, and plug-and-play strategy for efficient and robust LRM deployment. Code is available at https://github.com/yu-lin-li/ReBalance .