SlimMoE: 전문가 경량화와 지식 증류를 통한 대규모 MoE 모델의 구조적 압축
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
저자: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
초록
전문가 혼합(Mixture of Experts, MoE) 아키텍처는 추론 효율성을 유지하면서 대규모 언어 모델(LLMs)을 확장하기 위한 강력한 패러다임으로 부상했습니다. 그러나 이러한 모델의 막대한 메모리 요구 사항은 리소스가 제한된 환경에서 미세 조정하거나 배포하기에는 비용이 너무 많이 든다는 문제를 안고 있습니다. 이러한 문제를 해결하기 위해, 우리는 대규모 MoE 모델을 훨씬 더 작고 효율적인 변형으로 변환하는 다단계 압축 프레임워크인 SlimMoE를 소개합니다. 이 방법은 전문가를 간소화하고 중간 단계를 통해 지식을 전달함으로써 매개변수 수를 체계적으로 줄여, 일회성 가지치기 접근법에서 흔히 발생하는 성능 저하를 효과적으로 완화합니다. 이 프레임워크를 사용하여, 우리는 Phi 3.5-MoE(총 41.9B/활성화 6.6B 매개변수)를 압축하여 Phi-mini-MoE(총 7.6B/활성화 2.4B 매개변수)와 Phi-tiny-MoE(총 3.8B/활성화 1.1B 매개변수)를 단 400B 토큰만으로 생성했습니다. 이는 원본 모델의 학습 데이터의 10%도 되지 않는 양입니다. 이러한 압축된 모델은 단일 GPU(A100은 Phi-mini-MoE, A6000은 Phi-tiny-MoE)에서 미세 조정할 수 있어, 학술적 및 리소스가 제한된 환경에 매우 적합합니다. 우리의 실험은 이러한 압축된 모델이 유사한 크기의 다른 모델을 능가하며 더 큰 모델과도 경쟁력을 유지한다는 것을 보여줍니다. 예를 들어, Phi-mini-MoE는 활성화 매개변수의 2/3만 사용하여 Phi-3-mini와 유사하거나 더 나은 성능을 달성하며, 훨씬 낮은 지연 시간에도 불구하고 Llama 3.1 8B와 비슷한 MMLU 점수를 얻습니다. 우리의 연구 결과는 구조화된 가지치기와 단계적 증류를 결합함으로써 고품질의 소형 MoE 모델을 만드는 효과적인 방법을 제시하며, MoE 아키텍처의 보다 광범위한 채택을 위한 길을 열어줍니다. 우리는 모델을 https://huggingface.co/microsoft/Phi-mini-MoE-instruct와 https://huggingface.co/microsoft/Phi-tiny-MoE-instruct에서 공개적으로 제공합니다.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .