MobileLLM: オンデバイスユースケース向けに最適化されたサブ10億パラメータ言語モデルMobileLLM: Optimizing Sub-billion Parameter Language Models for
On-Device Use Cases
本論文は、クラウドコストの増加とレイテンシに関する懸念から、モバイルデバイス向けの効率的な大規模言語モデル(LLM)の必要性が高まっている現状に対処する。我々は、モバイル展開に適した実用的な選択肢として、10億パラメータ未満の高品質LLMの設計に焦点を当てる。モデルの品質を決定する上でデータとパラメータ量の重要性が強調される一般的な見解とは対照的に、我々の調査は、10億規模未満のLLMにおいてモデルアーキテクチャの重要性を浮き彫りにしている。深くて細いアーキテクチャを活用し、埋め込み共有とグループ化クエリ注意メカニズムを組み合わせることで、MobileLLMと称する強力なベースラインネットワークを確立し、先行する1億2500万/3億5000万パラメータの最先端モデルに対して2.7%/4.3%の精度向上を達成した。さらに、モデルサイズの増加なしに、わずかなレイテンシオーバーヘッドのみで即時ブロック単位の重み共有アプローチを提案する。その結果得られたMobileLLM-LSモデルは、MobileLLM 1億2500万/3億5000万モデルに対してさらに0.7%/0.8%の精度向上を示した。さらに、MobileLLMモデルファミリーは、従来の10億規模未満のモデルと比較してチャットベンチマークで大幅な改善を示し、API呼び出しタスクにおいてLLaMA-v2 7Bに近い正確性を実証し、一般的なオンデバイスユースケースにおける小型モデルの能力を強調している。