ChatPaper.aiChatPaper

Efficiënt redeneren met gebalanceerd denken

Efficient Reasoning with Balanced Thinking

March 12, 2026
Auteurs: Yulin Li, Tengyao Tu, Li Ding, Junjie Wang, Huiling Zhen, Yixin Chen, Yong Li, Zhuotao Tian
cs.AI

Samenvatting

Grote Redeneermodellen (LRM's) hebben opmerkelijke redeneervermogens getoond, maar lijden vaak aan overdenken, waarbij ze overbodige computationele stappen besteden aan eenvoudige problemen, of aan onderdenken, waarbij ze onvoldoende redeneerpaden verkennen ondanks hun inherente capaciteiten. Deze problemen leiden tot inefficiënties en potentiële onnauwkeurigheden, wat de praktische inzet in resourcebeperkte omgevingen beperkt. Bestaande methoden om overdenken tegen te gaan, zoals het onderdrukken van reflectieve trefwoorden of het aanpassen van de redeneerlengte, kunnen onbedoeld onderdenken veroorzaken en daarmee de nauwkeurigheid aantasten. Daarom stellen we ReBalance voor, een trainingsvrij raamwerk dat efficiënt redeneren met gebalanceerd denken bereikt. ReBalance benut vertrouwen als een continue indicator van redeneerdynamiek, waarbij overdenken wordt geïdentificeerd door hoge variantie in vertrouwen en onderdenken via consistente overmoedigheid. Door verborgen toestanden van een kleinschalige dataset aggregeren tot prototypen van redeneermodi, berekenen we een stuurvector om de redeneertrajecten van LRM's te begeleiden. Een dynamische controlefunctie moduleert de sterkte en richting van deze vector op basis van realtime vertrouwen, waarbij redundantie wordt gesnoeid tijdens overdenken en exploratie wordt bevorderd tijdens onderdenken. Uitgebreide experimenten uitgevoerd op vier modellen variërend van 0,5B tot 32B parameters, en over negen benchmarks in wiskundig redeneren, algemene vraagbeantwoording en codeertaken, tonen aan dat ReBalance effectief outputredundantie vermindert en tegelijkertijd de nauwkeurigheid verbetert. Het biedt zo een algemene, trainingsvrije en plug-and-play strategie voor efficiënte en robuuste inzet van LRM's. Code is beschikbaar op https://github.com/yu-lin-li/ReBalance.
English
Large Reasoning Models (LRMs) have shown remarkable reasoning capabilities, yet they often suffer from overthinking, expending redundant computational steps on simple problems, or underthinking, failing to explore sufficient reasoning paths despite inherent capabilities. These issues lead to inefficiencies and potential inaccuracies, limiting practical deployment in resource-constrained settings. Existing methods to mitigate overthinking, such as suppressing reflective keywords or adjusting reasoning length, may inadvertently induce underthinking, compromising accuracy. Therefore, we propose ReBalance, a training-free framework that achieves efficient reasoning with balanced thinking. ReBalance leverages confidence as a continuous indicator of reasoning dynamics, identifying overthinking through high confidence variance and underthinking via consistent overconfidence. By aggregating hidden states from a small-scale dataset into reasoning mode prototypes, we compute a steering vector to guide LRMs' reasoning trajectories. A dynamic control function modulates this vector's strength and direction based on real-time confidence, pruning redundancy during overthinking, and promoting exploration during underthinking. Extensive experiments conducted on four models ranging from 0.5B to 32B, and across nine benchmarks in math reasoning, general question answering, and coding tasks demonstrate that ReBalance effectively reduces output redundancy while improving accuracy, offering a general, training-free, and plug-and-play strategy for efficient and robust LRM deployment. Code is available at https://github.com/yu-lin-li/ReBalance .
PDF1273March 21, 2026