SlimMoE: Структурированное сжатие крупных моделей с использованием смеси экспертов через оптимизацию и дистилляцию экспертов
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
Авторы: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
Аннотация
Архитектура Mixture of Experts (MoE) стала мощной парадигмой для масштабирования больших языковых моделей (LLM) при сохранении эффективности вывода. Однако их огромные требования к памяти делают их чрезмерно дорогими для тонкой настройки или развертывания в условиях ограниченных ресурсов. Для решения этой проблемы мы представляем SlimMoE — многоэтапную структуру сжатия, которая преобразует большие модели MoE в значительно более компактные и эффективные варианты без необходимости дорогостоящего обучения с нуля. Наш метод систематически сокращает количество параметров за счет уменьшения числа экспертов и передачи знаний через промежуточные этапы, эффективно смягчая снижение производительности, характерное для одноэтапных подходов к обрезке. Используя эту структуру, мы сжимаем модель Phi 3.5-MoE (41,9 млрд общих/6,6 млрд активных параметров) до Phi-mini-MoE (7,6 млрд общих/2,4 млрд активных параметров) и Phi-tiny-MoE (3,8 млрд общих/1,1 млрд активных параметров), используя всего 400 млрд токенов — менее 10% данных обучения оригинальной модели. Эти сжатые модели могут быть тонко настроены на одном GPU (A100 для Phi-mini-MoE, A6000 для Phi-tiny-MoE), что делает их идеально подходящими для академических и ресурсоограниченных сред. Наши эксперименты показывают, что эти сжатые модели превосходят другие модели аналогичного размера и остаются конкурентоспособными с более крупными моделями. Например, Phi-mini-MoE демонстрирует схожую или лучшую производительность по сравнению с Phi-3-mini, используя лишь 2/3 активных параметров, и показывает сопоставимые результаты MMLU с Llama 3.1 8B, несмотря на значительно меньшую задержку. Наши результаты демонстрируют, что структурированная обрезка в сочетании с поэтапной дистилляцией предлагает эффективный путь к созданию высококачественных компактных моделей MoE, открывая путь для более широкого внедрения архитектур MoE. Мы делаем наши модели общедоступными по адресам https://huggingface.co/microsoft/Phi-mini-MoE-instruct и https://huggingface.co/microsoft/Phi-tiny-MoE-instruct.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .