SlimMoE: Compressione Strutturata di Grandi Modelli MoE Tramite Sfoltimento degli Esperti e Distillazione
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
Autori: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
Abstract
L'architettura Mixture of Experts (MoE) è emersa come un paradigma potente per scalare i grandi modelli linguistici (LLM) mantenendo l'efficienza nell'inferenza. Tuttavia, i loro enormi requisiti di memoria li rendono proibitivamente costosi da ottimizzare o distribuire in ambienti con risorse limitate. Per affrontare questa sfida, introduciamo SlimMoE, un framework di compressione multi-stadio che trasforma grandi modelli MoE in varianti molto più piccole ed efficienti senza incorrere nei costi proibitivi dell'addestramento da zero. Il nostro metodo riduce sistematicamente il numero di parametri attraverso il ridimensionamento degli esperti e il trasferimento di conoscenza in stadi intermedi, mitigando efficacemente il degrado delle prestazioni comune negli approcci di pruning one-shot. Utilizzando questo framework, comprimiamo Phi 3.5-MoE (41,9B parametri totali/6,6B attivati) per creare Phi-mini-MoE (7,6B totali/2,4B attivati) e Phi-tiny-MoE (3,8B totali/1,1B attivati) utilizzando solo 400B token, meno del 10% dei dati di addestramento del modello originale. Questi modelli compressi possono essere ottimizzati su una singola GPU (A100 per Phi-mini-MoE, A6000 per Phi-tiny-MoE), rendendoli altamente adatti per contesti accademici e con risorse limitate. I nostri esperimenti dimostrano che questi modelli compressi superano altri di dimensioni simili e rimangono competitivi con modelli più grandi. Ad esempio, Phi-mini-MoE raggiunge prestazioni simili o migliori rispetto a Phi-3-mini utilizzando solo 2/3 dei parametri attivati e produce punteggi MMLU comparabili a Llama 3.1 8B nonostante abbia una latenza significativamente inferiore. I nostri risultati dimostrano che il pruning strutturato combinato con la distillazione a stadi offre un percorso efficace per creare modelli MoE compatti e di alta qualità, aprendo la strada a un'adozione più ampia delle architetture MoE. Rendiamo i nostri modelli pubblicamente disponibili su https://huggingface.co/microsoft/Phi-mini-MoE-instruct e https://huggingface.co/microsoft/Phi-tiny-MoE-instruct.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .