ChatPaper.aiChatPaper

Wann weiterdenken: Adaptives Umschalten des Denkmodus für effizientes Schließen

When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

May 21, 2025
Autoren: Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai
cs.AI

Zusammenfassung

Große Reasoning-Modelle (LRMs) erzielen bemerkenswerte Leistungen durch lange Reasoning-Ketten, verursachen jedoch oft übermäßigen Rechenaufwand aufgrund redundanten Reasonings, insbesondere bei einfachen Aufgaben. In dieser Arbeit quantifizieren wir systematisch die oberen Grenzen von LRMs sowohl im Long-Thinking- als auch im No-Thinking-Modus und decken das Phänomen des „Internen Selbstwiederherstellungsmechanismus“ auf, bei dem Modelle das Reasoning implizit während der Antwortgenerierung ergänzen. Aufbauend auf dieser Erkenntnis schlagen wir Adaptive Self-Recovery Reasoning (ASRR) vor, ein Framework, das unnötiges Reasoning unterdrückt und implizite Wiederherstellung ermöglicht. Durch die Einführung einer genauigkeitsbewussten Längenbelohnungsregulierung weist ASRR den Reasoning-Aufwand adaptiv entsprechend der Schwierigkeit der Aufgabe zu und erreicht so hohe Effizienz mit vernachlässigbarem Leistungsverlust. Experimente über mehrere Benchmarks und Modelle hinweg zeigen, dass ASRR im Vergleich zu GRPO den Reasoning-Budget um bis zu 32,5 % (1,5B) und 25,7 % (7B) reduziert, bei minimalem Genauigkeitsverlust (1,2 % und 0,6 % pass@1), und die Harmlosigkeitsraten auf Sicherheits-Benchmarks signifikant steigert (bis zu +21,7 %). Unsere Ergebnisse unterstreichen das Potenzial von ASRR für effizientes, adaptives und sichereres Reasoning in LRMs.
English
Large reasoning models (LRMs) achieve remarkable performance via long reasoning chains, but often incur excessive computational overhead due to redundant reasoning, especially on simple tasks. In this work, we systematically quantify the upper bounds of LRMs under both Long-Thinking and No-Thinking modes, and uncover the phenomenon of "Internal Self-Recovery Mechanism" where models implicitly supplement reasoning during answer generation. Building on this insight, we propose Adaptive Self-Recovery Reasoning (ASRR), a framework that suppresses unnecessary reasoning and enables implicit recovery. By introducing accuracy-aware length reward regulation, ASRR adaptively allocates reasoning effort according to problem difficulty, achieving high efficiency with negligible performance sacrifice. Experiments across multiple benchmarks and models show that, compared with GRPO, ASRR reduces reasoning budget by up to 32.5% (1.5B) and 25.7% (7B) with minimal accuracy loss (1.2% and 0.6% pass@1), and significantly boosts harmless rates on safety benchmarks (up to +21.7%). Our results highlight the potential of ASRR for enabling efficient, adaptive, and safer reasoning in LRMs.

Summary

AI-Generated Summary

PDF202May 22, 2025