SlimMoE: Gestructureerde compressie van grote MoE-modellen via expertversmalling en distillatie
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
Auteurs: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
Samenvatting
De Mixture of Experts (MoE)-architectuur is naar voren gekomen als een krachtig paradigma voor het schalen van grote taalmmodellen (LLMs) terwijl de inferentie-efficiëntie behouden blijft. Hun enorme geheugenvereisten maken het echter onbetaalbaar om ze te fine-tunen of te implementeren in omgevingen met beperkte middelen. Om deze uitdaging aan te pakken, introduceren we SlimMoE, een multi-staps compressieframework voor het transformeren van grote MoE-modellen naar veel kleinere, efficiënte varianten zonder de onbetaalbare kosten van training vanaf nul. Onze methode vermindert systematisch het aantal parameters door experts te verslanken en kennis over te dragen via tussenstadia, waardoor de prestatievermindering die vaak voorkomt bij one-shot pruning-benaderingen effectief wordt gemitigeerd. Met dit framework comprimeren we Phi 3.5-MoE (41,9B totale/6,6B geactiveerde parameters) om Phi-mini-MoE (7,6B totale/2,4B geactiveerde parameters) en Phi-tiny-MoE (3,8B totale/1,1B geactiveerde parameters) te creëren met slechts 400B tokens—minder dan 10% van de trainingsdata van het oorspronkelijke model. Deze gecomprimeerde modellen kunnen worden gefinetuned op een enkele GPU (A100 voor Phi-mini-MoE, A6000 voor Phi-tiny-MoE), waardoor ze zeer geschikt zijn voor academische en middelenbeperkte omgevingen. Onze experimenten tonen aan dat deze gecomprimeerde modellen beter presteren dan andere van vergelijkbare grootte en competitief blijven met grotere modellen. Zo behaalt Phi-mini-MoE vergelijkbare of betere prestaties dan Phi-3-mini met slechts 2/3 van de geactiveerde parameters en levert het vergelijkbare MMLU-scores op als Llama 3.1 8B ondanks een aanzienlijk lagere latentie. Onze bevindingen tonen aan dat gestructureerd pruning gecombineerd met gefaseerde distillatie een effectieve weg biedt om hoogwaardige, compacte MoE-modellen te creëren, wat de weg vrijmaakt voor een bredere adoptie van MoE-architecturen. We maken onze modellen publiekelijk beschikbaar op https://huggingface.co/microsoft/Phi-mini-MoE-instruct en https://huggingface.co/microsoft/Phi-tiny-MoE-instruct.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .