ChatPaper.aiChatPaper

모델 병합을 통한 효율적인 장기-단기 LLM 추론의 개방

Unlocking Efficient Long-to-Short LLM Reasoning with Model Merging

March 26, 2025
저자: Han Wu, Yuxuan Yao, Shuqi Liu, Zehua Liu, Xiaojin Fu, Xiongwei Han, Xing Li, Hui-Ling Zhen, Tao Zhong, Mingxuan Yuan
cs.AI

초록

대규모 언어 모델(LLMs)에서 시스템 1에서 시스템 2 사고로의 전환은 신중하고 반복적인 사고를 통해 복잡한 작업을 처리하는 데 있어 상당한 진전을 이루었습니다. 그러나 이러한 진전은 종종 효율성을 희생시키며, 모델들이 과도하게 사고하여 출력 품질의 비례적 개선 없이 불필요한 추론 단계를 생성하는 경향이 있습니다. Long-to-Short(L2S) 추론은 이러한 문제를 해결하기 위한 유망한 솔루션으로, 추론 깊이와 실용적 효율성 사이의 균형을 맞추는 것을 목표로 합니다. 기존의 접근 방식인 지도 미세 조정(SFT), 강화 학습(RL), 프롬프트 엔지니어링 등은 잠재력을 보여주었지만, 계산 비용이 많이 들거나 불안정한 단점이 있습니다. 반면, 모델 병합은 시스템 1 모델의 빠른 사고 능력과 시스템 2 모델의 체계적인 추론을 통합함으로써 비용 효율적이고 견고한 대안을 제공합니다. 본 연구에서는 L2S 추론을 위한 모델 병합에 대한 포괄적인 실증 연구를 제시하며, 작업 벡터 기반, SVD 기반, 활성화 정보 기반 병합 등 다양한 방법론을 탐구합니다. 실험 결과, 모델 병합은 평균 응답 길이를 최대 55%까지 줄이면서도 기준 성능을 유지하거나 오히려 개선할 수 있음을 보여줍니다. 또한, 1.5B/7B/14B/32B 모델에 대한 광범위한 평가를 통해 모델 규모와 병합 효율성 사이의 강한 상관관계를 확인했습니다. 더 나아가, 병합된 모델의 자기 비판 및 자기 수정 능력과 작업 복잡도에 따른 적응적 응답 길이를 조사했습니다. 본 연구의 결과는 L2S 추론을 위한 매우 효율적이고 효과적인 패러다임으로서 모델 병합을 강조하며, 시스템 2 추론의 견고성을 유지하면서 과도한 사고 문제에 대한 실용적인 해결책을 제공합니다. 이 연구는 Github https://github.com/hahahawu/Long-to-Short-via-Model-Merging에서 확인할 수 있습니다.
English
The transition from System 1 to System 2 reasoning in large language models (LLMs) has marked significant advancements in handling complex tasks through deliberate, iterative thinking. However, this progress often comes at the cost of efficiency, as models tend to overthink, generating redundant reasoning steps without proportional improvements in output quality. Long-to-Short (L2S) reasoning has emerged as a promising solution to this challenge, aiming to balance reasoning depth with practical efficiency. While existing approaches, such as supervised fine-tuning (SFT), reinforcement learning (RL), and prompt engineering, have shown potential, they are either computationally expensive or unstable. Model merging, on the other hand, offers a cost-effective and robust alternative by integrating the quick-thinking capabilities of System 1 models with the methodical reasoning of System 2 models. In this work, we present a comprehensive empirical study on model merging for L2S reasoning, exploring diverse methodologies, including task-vector-based, SVD-based, and activation-informed merging. Our experiments reveal that model merging can reduce average response length by up to 55% while preserving or even improving baseline performance. We also identify a strong correlation between model scale and merging efficacy with extensive evaluations on 1.5B/7B/14B/32B models. Furthermore, we investigate the merged model's ability to self-critique and self-correct, as well as its adaptive response length based on task complexity. Our findings highlight model merging as a highly efficient and effective paradigm for L2S reasoning, offering a practical solution to the overthinking problem while maintaining the robustness of System 2 reasoning. This work can be found on Github https://github.com/hahahawu/Long-to-Short-via-Model-Merging.

Summary

AI-Generated Summary

PDF85March 27, 2025