ChatPaper.aiChatPaper

Een Diepere Blik op Mixture-of-Experts in Grote Taalmodellen

A Closer Look into Mixture-of-Experts in Large Language Models

June 26, 2024
Auteurs: Ka Man Lo, Zeyu Huang, Zihan Qiu, Zili Wang, Jie Fu
cs.AI

Samenvatting

Mixture-of-experts (MoE) krijgt steeds meer aandacht vanwege zijn unieke eigenschappen en opmerkelijke prestaties, vooral voor taaltaken. Door voor elk token slechts een subset van parameters spaarzaam te activeren, kan de MoE-architectuur de modelgrootte vergroten zonder de rekenkundige efficiëntie op te offeren, waardoor een betere balans tussen prestaties en trainingskosten wordt bereikt. Het onderliggende mechanisme van MoE vereist echter nog verder onderzoek, en de mate van modularisering blijft twijfelachtig. In dit artikel doen we een eerste poging om de interne werking van op MoE gebaseerde grote taalmodellen te begrijpen. Concreet bestuderen we uitgebreid de parametrische en gedragsmatige kenmerken van drie recente op MoE gebaseerde modellen en onthullen we enkele intrigerende observaties, waaronder (1) Neuronen gedragen zich als fijnmazige experts. (2) De router van MoE selecteert meestal experts met grotere uitvoernormen. (3) De expertdiversiteit neemt toe naarmate de laag toeneemt, waarbij de laatste laag een uitzondering vormt. Op basis van deze observaties geven we ook suggesties voor een breed scala aan MoE-beoefenaars, zoals routerontwerp en experttoewijzing. We hopen dat dit werk toekomstig onderzoek naar het MoE-framework en andere modulaire architecturen kan verlichten. Code is beschikbaar op https://github.com/kamanphoebe/Look-into-MoEs.
English
Mixture-of-experts (MoE) is gaining increasing attention due to its unique properties and remarkable performance, especially for language tasks. By sparsely activating a subset of parameters for each token, MoE architecture could increase the model size without sacrificing computational efficiency, achieving a better trade-off between performance and training costs. However, the underlying mechanism of MoE still lacks further exploration, and its modularization degree remains questionable. In this paper, we make an initial attempt to understand the inner workings of MoE-based large language models. Concretely, we comprehensively study the parametric and behavioral features of three recent MoE-based models and reveal some intriguing observations, including (1) Neurons act like fine-grained experts. (2) The router of MoE usually selects experts with larger output norms. (3) The expert diversity increases as the layer increases, while the last layer is an outlier. Based on the observations, we also provide suggestions for a broad spectrum of MoE practitioners, such as router design and expert allocation. We hope this work could shed light on future research on the MoE framework and other modular architectures. Code is available at https://github.com/kamanphoebe/Look-into-MoEs.
PDF162November 29, 2024