ChatPaper.aiChatPaper

너무 깊이 생각하지 말자: 효율적인 R1 스타일 대규모 추론 모델에 대한 연구

Don't Overthink It: A Survey of Efficient R1-style Large Reasoning Models

August 4, 2025
저자: Linan Yue, Yichao Du, Yizhi Wang, Weibo Gao, Fangzhou Yao, Li Wang, Ye Liu, Ziyu Xu, Qi Liu, Shimin Di, Min-Ling Zhang
cs.AI

초록

최근, 복잡한 작업 처리에서 뛰어난 성능을 보이며 Large Reasoning Models(LRMs)이 점차 연구의 핫스팟으로 부상하고 있습니다. 이 중에서도 DeepSeek R1은 탁월한 성능과 오픈소스 특성으로 큰 주목을 받으며 R1 스타일 LRMs 연구의 발전을 이끌고 있습니다. 기존의 Large Language Models(LLMs)과 달리, 이러한 모델들은 긴 사고 사슬(long chain-of-thought) 및 강화 학습을 통한 자기 반성(self-reflection)과 같은 메커니즘을 도입하여 추론 과정에서 논리적 추론 및 의사결정 능력을 강화합니다. 그러나 이러한 모델들의 광범위한 적용과 함께 과도한 사고(overthinking) 문제가 점차 대두되고 있습니다. 구체적으로, 답변을 생성할 때 이러한 모델들은 종종 불필요하거나 반복적인 단계로 구성된 지나치게 긴 추론 사슬을 구성하며, 이는 추론 효율성을 저하시키고 최종 답변의 정확성에 영향을 미칠 수 있습니다. 이를 위해 모델 성능과 추론 능력을 저하시키지 않으면서 추론 경로의 길이를 줄이는 다양한 효율적 추론 방법이 제안되었습니다. 본 논문에서는 효율적 추론 방법 분야의 현재 연구 동향을 체계적으로 검토하며, 단일 모델 최적화 대 모델 협업이라는 관점에서 기존 연구를 두 가지 주요 방향으로 분류합니다: (1) 단일 모델을 통한 효율적 추론(Efficient Reasoning with Single Model), 이는 개별 모델의 추론 효율성을 개선하는 데 초점을 맞춥니다; (2) 모델 협업을 통한 효율적 추론(Efficient Reasoning with Model Collaboration), 이는 다중 모델 간의 협업을 통해 추론 경로를 최적화하는 방법을 탐구합니다. 또한, 효율적 추론 방법의 최신 연구 동향을 추적하는 공개 GitHub 저장소를 유지하고 있습니다.
English
Recently, Large Reasoning Models (LRMs) have gradually become a research hotspot due to their outstanding performance in handling complex tasks. Among them, DeepSeek R1 has garnered significant attention for its exceptional performance and open-source nature, driving advancements in the research of R1-style LRMs. Unlike traditional Large Language Models (LLMs), these models enhance logical deduction and decision-making capabilities during reasoning by incorporating mechanisms such as long chain-of-thought and self-reflection through reinforcement learning. However, with the widespread application of these models, the problem of overthinking has gradually emerged. Specifically, when generating answers, these models often construct excessively long reasoning chains with redundant or repetitive steps, which leads to reduced reasoning efficiency and may affect the accuracy of the final answer. To this end, various efficient reasoning methods have been proposed, aiming to reduce the length of reasoning paths without compromising model performance and reasoning capability. By reviewing the current research advancements in the field of efficient reasoning methods systematically, we categorize existing works into two main directions based on the lens of single-model optimization versus model collaboration: (1) Efficient Reasoning with Single Model, which focuses on improving the reasoning efficiency of individual models; and (2) Efficient Reasoning with Model Collaboration, which explores optimizing reasoning paths through collaboration among multiple models. Besides, we maintain a public GitHub repository that tracks the latest progress in efficient reasoning methods.
PDF152August 8, 2025