ChatPaper.aiChatPaper

Cuándo Continuar Pensando: Cambio Adaptativo de Modos de Pensamiento para un Razonamiento Eficiente

When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

May 21, 2025
Autores: Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai
cs.AI

Resumen

Los modelos de razonamiento a gran escala (LRMs, por sus siglas en inglés) logran un rendimiento notable mediante cadenas de razonamiento extensas, pero a menudo incurren en un exceso de sobrecarga computacional debido a razonamientos redundantes, especialmente en tareas simples. En este trabajo, cuantificamos sistemáticamente los límites superiores de los LRMs en los modos de Pensamiento Largo y Sin Pensamiento, y descubrimos el fenómeno del "Mecanismo de Autorecuperación Interna", donde los modelos complementan implícitamente el razonamiento durante la generación de respuestas. Basándonos en esta observación, proponemos Razonamiento de Autorecuperación Adaptativa (ASRR, por sus siglas en inglés), un marco que suprime el razonamiento innecesario y permite la recuperación implícita. Al introducir una regulación de recompensa de longitud basada en la precisión, ASRR asigna adaptativamente el esfuerzo de razonamiento según la dificultad del problema, logrando alta eficiencia con un sacrificio mínimo de rendimiento. Los experimentos en múltiples benchmarks y modelos muestran que, en comparación con GRPO, ASRR reduce el presupuesto de razonamiento hasta en un 32.5% (1.5B) y un 25.7% (7B) con una pérdida mínima de precisión (1.2% y 0.6% en pass@1), y aumenta significativamente las tasas de inocuidad en benchmarks de seguridad (hasta +21.7%). Nuestros resultados destacan el potencial de ASRR para habilitar un razonamiento eficiente, adaptativo y más seguro en los LRMs.
English
Large reasoning models (LRMs) achieve remarkable performance via long reasoning chains, but often incur excessive computational overhead due to redundant reasoning, especially on simple tasks. In this work, we systematically quantify the upper bounds of LRMs under both Long-Thinking and No-Thinking modes, and uncover the phenomenon of "Internal Self-Recovery Mechanism" where models implicitly supplement reasoning during answer generation. Building on this insight, we propose Adaptive Self-Recovery Reasoning (ASRR), a framework that suppresses unnecessary reasoning and enables implicit recovery. By introducing accuracy-aware length reward regulation, ASRR adaptively allocates reasoning effort according to problem difficulty, achieving high efficiency with negligible performance sacrifice. Experiments across multiple benchmarks and models show that, compared with GRPO, ASRR reduces reasoning budget by up to 32.5% (1.5B) and 25.7% (7B) with minimal accuracy loss (1.2% and 0.6% pass@1), and significantly boosts harmless rates on safety benchmarks (up to +21.7%). Our results highlight the potential of ASRR for enabling efficient, adaptive, and safer reasoning in LRMs.

Summary

AI-Generated Summary

PDF202May 22, 2025