ChatPaper.aiChatPaper

AdaptThink: 추론 모델은 언제 사고해야 하는지 학습할 수 있다

AdaptThink: Reasoning Models Can Learn When to Think

May 19, 2025
저자: Jiajie Zhang, Nianyi Lin, Lei Hou, Ling Feng, Juanzi Li
cs.AI

초록

최근, 대규모 추론 모델들은 인간과 유사한 심층 사고를 활용하여 다양한 과제에서 인상적인 성능을 달성했습니다. 그러나 이러한 긴 사고 과정은 추론 오버헤드를 상당히 증가시켜 효율성이 주요 병목 현상으로 대두되고 있습니다. 본 연구에서는 먼저 비교적 단순한 과제에 대해 사고 과정을 건너뛰고 최종 해결책을 직접 생성하도록 유도하는 NoThinking이 성능과 효율성 측면에서 더 나은 선택임을 입증했습니다. 이를 바탕으로 우리는 문제 난이도에 따라 적응적으로 최적의 사고 모드를 선택하도록 추론 모델을 가르치는 새로운 강화 학습 알고리즘인 AdaptThink을 제안합니다. 구체적으로, AdaptThink은 두 가지 핵심 구성 요소를 특징으로 합니다: (1) 전반적인 성능을 유지하면서 NoThinking을 선택하도록 유도하는 제약 최적화 목표; (2) 온-정책 학습 과정에서 Thinking과 NoThinking 샘플을 균형 있게 조정하는 중요도 샘플링 전략으로, 이를 통해 콜드 스타트를 가능하게 하고 학습 과정 전반에 걸쳐 두 사고 모드를 탐색 및 활용할 수 있도록 합니다. 실험 결과, AdaptThink은 추론 비용을 크게 줄이면서도 성능을 더욱 향상시키는 것으로 나타났습니다. 특히, 세 가지 수학 데이터셋에서 AdaptThink은 DeepSeek-R1-Distill-Qwen-1.5B의 평균 응답 길이를 53% 줄이고 정확도를 2.4% 향상시켜, 추론 품질과 효율성 간의 균형을 최적화하는 적응적 사고 모드 선택의 잠재력을 입증했습니다. 우리의 코드와 모델은 https://github.com/THU-KEG/AdaptThink에서 확인할 수 있습니다.
English
Recently, large reasoning models have achieved impressive performance on various tasks by employing human-like deep thinking. However, the lengthy thinking process substantially increases inference overhead, making efficiency a critical bottleneck. In this work, we first demonstrate that NoThinking, which prompts the reasoning model to skip thinking and directly generate the final solution, is a better choice for relatively simple tasks in terms of both performance and efficiency. Motivated by this, we propose AdaptThink, a novel RL algorithm to teach reasoning models to choose the optimal thinking mode adaptively based on problem difficulty. Specifically, AdaptThink features two core components: (1) a constrained optimization objective that encourages the model to choose NoThinking while maintaining the overall performance; (2) an importance sampling strategy that balances Thinking and NoThinking samples during on-policy training, thereby enabling cold start and allowing the model to explore and exploit both thinking modes throughout the training process. Our experiments indicate that AdaptThink significantly reduces the inference costs while further enhancing performance. Notably, on three math datasets, AdaptThink reduces the average response length of DeepSeek-R1-Distill-Qwen-1.5B by 53% and improves its accuracy by 2.4%, highlighting the promise of adaptive thinking-mode selection for optimizing the balance between reasoning quality and efficiency. Our codes and models are available at https://github.com/THU-KEG/AdaptThink.

Summary

AI-Generated Summary

PDF581May 20, 2025