ChatPaper.aiChatPaper

Quando Continuare a Pensare: Cambio Adattivo della Modalità di Pensiero per un Ragionamento Efficiente

When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

May 21, 2025
Autori: Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai
cs.AI

Abstract

I modelli di ragionamento su larga scala (LRM) raggiungono prestazioni notevoli attraverso catene di ragionamento lunghe, ma spesso comportano un eccessivo sovraccarico computazionale a causa di ragionamenti ridondanti, specialmente su compiti semplici. In questo lavoro, quantifichiamo sistematicamente i limiti superiori degli LRM sia in modalità Pensiero Lungo che in modalità Non Pensiero, e scopriamo il fenomeno del "Meccanismo di Auto-Recupero Interno", in cui i modelli integrano implicitamente il ragionamento durante la generazione delle risposte. Basandoci su questa intuizione, proponiamo il Ragionamento ad Auto-Recupero Adattivo (ASRR), un framework che sopprime i ragionamenti non necessari e abilita il recupero implicito. Introducendo una regolazione della ricompensa basata sulla lunghezza e consapevole dell'accuratezza, l'ASRR alloca adattivamente lo sforzo di ragionamento in base alla difficoltà del problema, raggiungendo un'elevata efficienza con una perdita di prestazioni trascurabile. Esperimenti su più benchmark e modelli dimostrano che, rispetto a GRPO, l'ASRR riduce il budget di ragionamento fino al 32,5% (1,5B) e al 25,7% (7B) con una minima perdita di accuratezza (1,2% e 0,6% pass@1), e aumenta significativamente i tassi di innocuità sui benchmark di sicurezza (fino a +21,7%). I nostri risultati evidenziano il potenziale dell'ASRR per abilitare un ragionamento efficiente, adattivo e più sicuro negli LRM.
English
Large reasoning models (LRMs) achieve remarkable performance via long reasoning chains, but often incur excessive computational overhead due to redundant reasoning, especially on simple tasks. In this work, we systematically quantify the upper bounds of LRMs under both Long-Thinking and No-Thinking modes, and uncover the phenomenon of "Internal Self-Recovery Mechanism" where models implicitly supplement reasoning during answer generation. Building on this insight, we propose Adaptive Self-Recovery Reasoning (ASRR), a framework that suppresses unnecessary reasoning and enables implicit recovery. By introducing accuracy-aware length reward regulation, ASRR adaptively allocates reasoning effort according to problem difficulty, achieving high efficiency with negligible performance sacrifice. Experiments across multiple benchmarks and models show that, compared with GRPO, ASRR reduces reasoning budget by up to 32.5% (1.5B) and 25.7% (7B) with minimal accuracy loss (1.2% and 0.6% pass@1), and significantly boosts harmless rates on safety benchmarks (up to +21.7%). Our results highlight the potential of ASRR for enabling efficient, adaptive, and safer reasoning in LRMs.
PDF232May 22, 2025