Razonamiento eficiente con pensamiento equilibrado
Efficient Reasoning with Balanced Thinking
March 12, 2026
Autores: Yulin Li, Tengyao Tu, Li Ding, Junjie Wang, Huiling Zhen, Yixin Chen, Yong Li, Zhuotao Tian
cs.AI
Resumen
Los Modelos de Razonamiento a Gran Escala (LRM) han demostrado capacidades de razonamiento notables, pero a menudo sufren de "sobrerrazonamiento", gastando pasos computacionales redundantes en problemas simples, o de "subrazonamiento", al no explorar suficientes trayectorias de razonamiento a pesar de sus capacidades inherentes. Estos problemas conducen a ineficiencias y posibles imprecisiones, limitando el despliegue práctico en entornos con recursos limitados. Los métodos existentes para mitigar el sobrerrazonamiento, como suprimir palabras clave reflexivas o ajustar la longitud del razonamiento, pueden inducir inadvertidamente un subrazonamiento, comprometiendo la precisión. Por lo tanto, proponemos ReBalance, un marco que no requiere entrenamiento y logra un razonamiento eficiente con un pensamiento equilibrado. ReBalance aprovecha la confianza como un indicador continuo de la dinámica del razonamiento, identificando el sobrerrazonamiento a través de una alta varianza en la confianza y el subrazonamiento mediante una sobreconfianza consistente. Al agregar los estados ocultos de un conjunto de datos a pequeña escala en prototipos de modo de razonamiento, calculamos un vector de dirección para guiar las trayectorias de razonamiento de los LRM. Una función de control dinámico modula la fuerza y dirección de este vector basándose en la confianza en tiempo real, podando la redundancia durante el sobrerrazonamiento y promoviendo la exploración durante el subrazonamiento. Experimentos exhaustivos realizados en cuatro modelos que van desde 0.5B hasta 32B parámetros, y a través de nueve benchmarks de razonamiento matemático, preguntas generales y tareas de codificación, demuestran que ReBalance reduce efectivamente la redundancia en la salida mientras mejora la precisión, ofreciendo una estrategia general, que no requiere entrenamiento y es plug-and-play para un despliegue eficiente y robusto de los LRM. El código está disponible en https://github.com/yu-lin-li/ReBalance.
English
Large Reasoning Models (LRMs) have shown remarkable reasoning capabilities, yet they often suffer from overthinking, expending redundant computational steps on simple problems, or underthinking, failing to explore sufficient reasoning paths despite inherent capabilities. These issues lead to inefficiencies and potential inaccuracies, limiting practical deployment in resource-constrained settings. Existing methods to mitigate overthinking, such as suppressing reflective keywords or adjusting reasoning length, may inadvertently induce underthinking, compromising accuracy. Therefore, we propose ReBalance, a training-free framework that achieves efficient reasoning with balanced thinking. ReBalance leverages confidence as a continuous indicator of reasoning dynamics, identifying overthinking through high confidence variance and underthinking via consistent overconfidence. By aggregating hidden states from a small-scale dataset into reasoning mode prototypes, we compute a steering vector to guide LRMs' reasoning trajectories. A dynamic control function modulates this vector's strength and direction based on real-time confidence, pruning redundancy during overthinking, and promoting exploration during underthinking. Extensive experiments conducted on four models ranging from 0.5B to 32B, and across nine benchmarks in math reasoning, general question answering, and coding tasks demonstrate that ReBalance effectively reduces output redundancy while improving accuracy, offering a general, training-free, and plug-and-play strategy for efficient and robust LRM deployment. Code is available at https://github.com/yu-lin-li/ReBalance .