Raisonnement efficace par une pensée équilibrée
Efficient Reasoning with Balanced Thinking
March 12, 2026
Auteurs: Yulin Li, Tengyao Tu, Li Ding, Junjie Wang, Huiling Zhen, Yixin Chen, Yong Li, Zhuotao Tian
cs.AI
Résumé
Les grands modèles de raisonnement (LRM) ont démontré des capacités de raisonnement remarquables, mais ils souffrent souvent de sur-réflexion, dépensant des étapes de calcul redondantes sur des problèmes simples, ou de sous-réflexion, échouant à explorer suffisamment de chemins de raisonnement malgré leurs capacités intrinsèques. Ces problèmes entraînent des inefficacités et des inexactitudes potentielles, limitant le déploiement pratique dans des contextes à ressources limitées. Les méthodes existantes pour atténuer la sur-réflexion, telles que la suppression de mots-clés réflexifs ou l'ajustement de la longueur du raisonnement, peuvent induire involontairement une sous-réflexion, compromettant la précision. Par conséquent, nous proposons ReBalance, un cadre sans entraînement qui permet un raisonnement efficace avec une réflexion équilibrée. ReBalance utilise la confiance comme indicateur continu de la dynamique du raisonnement, identifiant la sur-réflexion par une variance élevée de la confiance et la sous-réflexion via une surconfiance persistante. En agrégeant les états cachés d'un jeu de données à petite échelle en prototypes de modes de raisonnement, nous calculons un vecteur directeur pour guider les trajectoires de raisonnement des LRM. Une fonction de contrôle dynamique module la force et la direction de ce vecteur en fonction de la confiance en temps réel, élaguant la redondance pendant la sur-réflexion et favorisant l'exploration pendant la sous-réflexion. Des expériences approfondies menées sur quatre modèles allant de 0,5B à 32B paramètres, et sur neuf benchmarks couvrant le raisonnement mathématique, les questions-réponses générales et les tâches de programmation, démontrent que ReBalance réduit efficacement la redondance des sorties tout en améliorant la précision, offrant une stratégie générale, sans entraînement et plug-and-play pour un déploiement efficace et robuste des LRM. Le code est disponible à l'adresse https://github.com/yu-lin-li/ReBalance.
English
Large Reasoning Models (LRMs) have shown remarkable reasoning capabilities, yet they often suffer from overthinking, expending redundant computational steps on simple problems, or underthinking, failing to explore sufficient reasoning paths despite inherent capabilities. These issues lead to inefficiencies and potential inaccuracies, limiting practical deployment in resource-constrained settings. Existing methods to mitigate overthinking, such as suppressing reflective keywords or adjusting reasoning length, may inadvertently induce underthinking, compromising accuracy. Therefore, we propose ReBalance, a training-free framework that achieves efficient reasoning with balanced thinking. ReBalance leverages confidence as a continuous indicator of reasoning dynamics, identifying overthinking through high confidence variance and underthinking via consistent overconfidence. By aggregating hidden states from a small-scale dataset into reasoning mode prototypes, we compute a steering vector to guide LRMs' reasoning trajectories. A dynamic control function modulates this vector's strength and direction based on real-time confidence, pruning redundancy during overthinking, and promoting exploration during underthinking. Extensive experiments conducted on four models ranging from 0.5B to 32B, and across nine benchmarks in math reasoning, general question answering, and coding tasks demonstrate that ReBalance effectively reduces output redundancy while improving accuracy, offering a general, training-free, and plug-and-play strategy for efficient and robust LRM deployment. Code is available at https://github.com/yu-lin-li/ReBalance .