Wann weiterdenken: Adaptives Umschalten des Denkmodus für effizientes Schließen
When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning
May 21, 2025
Autoren: Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai
cs.AI
Zusammenfassung
Große Reasoning-Modelle (LRMs) erzielen bemerkenswerte Leistungen durch lange Reasoning-Ketten, verursachen jedoch oft übermäßigen Rechenaufwand aufgrund redundanten Reasonings, insbesondere bei einfachen Aufgaben. In dieser Arbeit quantifizieren wir systematisch die oberen Grenzen von LRMs sowohl im Long-Thinking- als auch im No-Thinking-Modus und decken das Phänomen des „Internen Selbstwiederherstellungsmechanismus“ auf, bei dem Modelle das Reasoning implizit während der Antwortgenerierung ergänzen. Aufbauend auf dieser Erkenntnis schlagen wir Adaptive Self-Recovery Reasoning (ASRR) vor, ein Framework, das unnötiges Reasoning unterdrückt und implizite Wiederherstellung ermöglicht. Durch die Einführung einer genauigkeitsbewussten Längenbelohnungsregulierung weist ASRR den Reasoning-Aufwand adaptiv entsprechend der Schwierigkeit der Aufgabe zu und erreicht so hohe Effizienz mit vernachlässigbarem Leistungsverlust. Experimente über mehrere Benchmarks und Modelle hinweg zeigen, dass ASRR im Vergleich zu GRPO den Reasoning-Budget um bis zu 32,5 % (1,5B) und 25,7 % (7B) reduziert, bei minimalem Genauigkeitsverlust (1,2 % und 0,6 % pass@1), und die Harmlosigkeitsraten auf Sicherheits-Benchmarks signifikant steigert (bis zu +21,7 %). Unsere Ergebnisse unterstreichen das Potenzial von ASRR für effizientes, adaptives und sichereres Reasoning in LRMs.
English
Large reasoning models (LRMs) achieve remarkable performance via long
reasoning chains, but often incur excessive computational overhead due to
redundant reasoning, especially on simple tasks. In this work, we
systematically quantify the upper bounds of LRMs under both Long-Thinking and
No-Thinking modes, and uncover the phenomenon of "Internal Self-Recovery
Mechanism" where models implicitly supplement reasoning during answer
generation. Building on this insight, we propose Adaptive Self-Recovery
Reasoning (ASRR), a framework that suppresses unnecessary reasoning and enables
implicit recovery. By introducing accuracy-aware length reward regulation, ASRR
adaptively allocates reasoning effort according to problem difficulty,
achieving high efficiency with negligible performance sacrifice. Experiments
across multiple benchmarks and models show that, compared with GRPO, ASRR
reduces reasoning budget by up to 32.5% (1.5B) and 25.7% (7B) with minimal
accuracy loss (1.2% and 0.6% pass@1), and significantly boosts harmless rates
on safety benchmarks (up to +21.7%). Our results highlight the potential of
ASRR for enabling efficient, adaptive, and safer reasoning in LRMs.Summary
AI-Generated Summary