ChatPaper.aiChatPaper

LIBMoE: 大規模言語モデルにおける専門家の混合を包括的にベンチマークするためのライブラリ

LIBMoE: A Library for comprehensive benchmarking Mixture of Experts in Large Language Models

November 1, 2024
著者: Nam V. Nguyen, Thong T. Doan, Luong Tran, Van Nguyen, Quang Pham
cs.AI

要旨

エキスパートの混合(MoEs)は、より効率的かつ効果的な大規模言語モデル(LLMs)の開発に重要な役割を果たしています。膨大なリソース要件のため、大規模MoEアルゴリズムの研究は多くの研究者にはアクセスしづらい状況です。本研究では、MoEアルゴリズムの研究、トレーニング、評価を効率化する包括的かつモジュラーなフレームワークであるLibMoEを開発しました。モジュラー設計、効率的なトレーニング、包括的な評価という3つの基本原則に基づいて構築されたLibMoEは、トレーニングと評価のパイプラインを標準化することで、幅広い研究者にMoEをLLMsによりアクセスしやすくしています。LibMoEを使用して、我々は5つの最先端MoEアルゴリズムを3つの異なるLLMsと11のデータセットでゼロショット設定下で徹底的にベンチマークしました。結果は、独自の特性にもかかわらず、すべてのMoEアルゴリズムが幅広いタスクにわたって平均化された際にほぼ同様のパフォーマンスを発揮することを示しています。モジュラー設計と包括的な評価により、LibMoEは次世代のMoEとLLMsに向けて意義ある進展を遂げるために研究者にとって貴重な存在となると考えています。プロジェクトページ:https://fsoft-aic.github.io/fsoft-LibMoE.github.io.
English
Mixture of Experts (MoEs) plays an important role in the development of more efficient and effective large language models (LLMs). Due to the enormous resource requirements, studying large scale MoE algorithms remain in-accessible to many researchers. This work develops LibMoE, a comprehensive and modular framework to streamline the research, training, and evaluation of MoE algorithms. Built upon three core principles: (i) modular design, (ii) efficient training; (iii) comprehensive evaluation, LibMoE brings MoE in LLMs more accessible to a wide range of researchers by standardizing the training and evaluation pipelines. Using LibMoE, we extensively benchmarked five state-of-the-art MoE algorithms over three different LLMs and 11 datasets under the zero-shot setting. The results show that despite the unique characteristics, all MoE algorithms perform roughly similar when averaged across a wide range of tasks. With the modular design and extensive evaluation, we believe LibMoE will be invaluable for researchers to make meaningful progress towards the next generation of MoE and LLMs. Project page: https://fsoft-aic.github.io/fsoft-LibMoE.github.io.

Summary

AI-Generated Summary

PDF82November 13, 2024