SlimMoE: Compresión Estructurada de Modelos MoE Grandes mediante Adelgazamiento de Expertos y Destilación
SlimMoE: Structured Compression of Large MoE Models via Expert Slimming and Distillation
June 23, 2025
Autores: Zichong Li, Chen Liang, Zixuan Zhang, Ilgee Hong, Young Jin Kim, Weizhu Chen, Tuo Zhao
cs.AI
Resumen
La arquitectura Mixture of Experts (MoE) ha surgido como un paradigma poderoso para escalar modelos de lenguaje grandes (LLMs) manteniendo la eficiencia en la inferencia. Sin embargo, sus enormes requisitos de memoria los hacen prohibitivamente costosos de ajustar o desplegar en entornos con recursos limitados. Para abordar este desafío, presentamos SlimMoE, un marco de compresión multi-etapa que transforma modelos MoE grandes en variantes mucho más pequeñas y eficientes sin incurrir en los costos prohibitivos de entrenar desde cero. Nuestro método reduce sistemáticamente el número de parámetros mediante la reducción de expertos y la transferencia de conocimiento a través de etapas intermedias, mitigando efectivamente la degradación del rendimiento común en enfoques de poda de una sola vez. Utilizando este marco, comprimimos Phi 3.5-MoE (41.9B parámetros totales/6.6B parámetros activados) para crear Phi-mini-MoE (7.6B totales/2.4B activados) y Phi-tiny-MoE (3.8B totales/1.1B activados) usando solo 400B tokens—menos del 10% de los datos de entrenamiento del modelo original. Estos modelos comprimidos pueden ajustarse en una sola GPU (A100 para Phi-mini-MoE, A6000 para Phi-tiny-MoE), lo que los hace altamente adecuados para entornos académicos y con recursos limitados. Nuestros experimentos demuestran que estos modelos comprimidos superan a otros de tamaño similar y se mantienen competitivos con modelos más grandes. Por ejemplo, Phi-mini-MoE logra un rendimiento similar o mejor que Phi-3-mini usando solo 2/3 de los parámetros activados y obtiene puntajes MMLU comparables a Llama 3.1 8B a pesar de tener una latencia significativamente menor. Nuestros hallazgos demuestran que la poda estructurada combinada con destilación por etapas ofrece un camino efectivo para crear modelos MoE compactos y de alta calidad, allanando el camino para una adopción más amplia de las arquitecturas MoE. Hacemos nuestros modelos disponibles públicamente en https://huggingface.co/microsoft/Phi-mini-MoE-instruct y https://huggingface.co/microsoft/Phi-tiny-MoE-instruct.
English
The Mixture of Experts (MoE) architecture has emerged as a powerful paradigm
for scaling large language models (LLMs) while maintaining inference
efficiency. However, their enormous memory requirements make them prohibitively
expensive to fine-tune or deploy in resource-constrained environments. To
address this challenge, we introduce SlimMoE, a multi-stage compression
framework for transforming large MoE models into much smaller, efficient
variants without incurring the prohibitive costs of training from scratch. Our
method systematically reduces parameter counts by slimming experts and
transferring knowledge through intermediate stages, effectively mitigating the
performance degradation common in one-shot pruning approaches. Using this
framework, we compress Phi 3.5-MoE (41.9B total/6.6B activated parameters) to
create Phi-mini-MoE (7.6B total/2.4B activated parameters) and Phi-tiny-MoE
(3.8B total/1.1B activated parameters) using only 400B tokens--less than 10% of
the original model's training data. These compressed models can be fine-tuned
on a single GPU (A100 for Phi-mini-MoE, A6000 for Phi-tiny-MoE), making them
highly suitable for academic and resource-limited settings. Our experiments
demonstrate that these compressed models outperform others of similar size and
remain competitive with larger models. For instance, Phi-mini-MoE achieves
similar or better performance to Phi-3-mini using only 2/3 of the activated
parameters and yields comparable MMLU scores to Llama 3.1 8B despite having
significantly lower latency. Our findings demonstrate that structured pruning
combined with staged distillation offers an effective path to creating
high-quality, compact MoE models, paving the way for broader adoption of MoE
architectures. We make our models publicly available at
https://huggingface.co/microsoft/Phi-mini-MoE-instruct and
https://huggingface.co/microsoft/Phi-tiny-MoE-instruct .