SlimMoE: Strukturierte Kompression großer MoE-Modelle durch Expertenslimming und Destillation
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
Autoren: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
Zusammenfassung
Die Mixture of Experts (MoE)-Architektur hat sich als leistungsstarkes Paradigma für die Skalierung großer Sprachmodelle (LLMs) erwiesen, während die Inferenzeffizienz erhalten bleibt. Allerdings machen ihre enormen Speicheranforderungen sie für das Feinabstimmen oder den Einsatz in ressourcenbeschränkten Umgebungen unerschwinglich teuer. Um diese Herausforderung zu bewältigen, stellen wir SlimMoE vor, ein mehrstufiges Kompressionsframework, das große MoE-Modelle in viel kleinere, effiziente Varianten umwandelt, ohne die unverhältnismäßig hohen Kosten einer Neuanlernung zu verursachen. Unsere Methode reduziert systematisch die Parameteranzahl, indem Experten verschlankt und Wissen durch Zwischenstufen transferiert wird, wodurch die Leistungsverschlechterung, die bei Ein-Schritt-Beschneidungsansätzen häufig auftritt, effektiv gemildert wird. Mit diesem Framework komprimieren wir Phi 3.5-MoE (41,9B Gesamt-/6,6B aktivierte Parameter) zu Phi-mini-MoE (7,6B Gesamt-/2,4B aktivierte Parameter) und Phi-tiny-MoE (3,8B Gesamt-/1,1B aktivierte Parameter) unter Verwendung von nur 400B Tokens – weniger als 10 % der Trainingsdaten des ursprünglichen Modells. Diese komprimierten Modelle können auf einer einzigen GPU (A100 für Phi-mini-MoE, A6000 für Phi-tiny-MoE) feinabgestimmt werden, was sie besonders für akademische und ressourcenbeschränkte Umgebungen geeignet macht. Unsere Experimente zeigen, dass diese komprimierten Modelle andere Modelle ähnlicher Größe übertreffen und mit größeren Modellen wettbewerbsfähig bleiben. Beispielsweise erreicht Phi-mini-MoE eine ähnliche oder bessere Leistung wie Phi-3-mini mit nur 2/3 der aktivierten Parameter und erzielt vergleichbare MMLU-Werte wie Llama 3.1 8B, obwohl es eine deutlich geringere Latenz aufweist. Unsere Ergebnisse zeigen, dass strukturiertes Beschneiden in Kombination mit gestufter Destillation einen effektiven Weg zur Erstellung hochwertiger, kompakter MoE-Modelle bietet und den Weg für eine breitere Akzeptanz von MoE-Architekturen ebnet. Wir stellen unsere Modelle öffentlich unter https://huggingface.co/microsoft/Phi-mini-MoE-instruct und https://huggingface.co/microsoft/Phi-tiny-MoE-instruct zur Verfügung.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .