Qwen2技術レポートQwen2 Technical Report
本レポートでは、大規模言語モデルおよび大規模マルチモーダルモデルの最新シリーズであるQwen2を紹介します。0.5Bから72Bまでのパラメータ範囲をカバーする、密なモデルとMixture-of-Expertsモデルを含む、包括的な基盤モデルおよび指示チューニングされた言語モデルをリリースしました。Qwen2は、先行するQwen1.5を含むほとんどの既存のオープンウェイトモデルを凌駕し、言語理解、生成、多言語能力、コーディング、数学、推論など多様なベンチマークにおいて、プロプライエタリモデルと競合する性能を示しています。 フラッグシップモデルであるQwen2-72Bは、基盤言語モデルとして、MMLUで84.2、GPQAで37.9、HumanEvalで64.6、GSM8Kで89.5、BBHで82.4という顕著な性能を発揮します。指示チューニングされたバリアントであるQwen2-72B-Instructは、MT-Benchで9.1、Arena-Hardで48.1、LiveCodeBenchで35.7を達成しました。さらに、Qwen2は約30言語にわたる強力な多言語能力を示し、英語、中国語、スペイン語、フランス語、ドイツ語、アラビア語、ロシア語、韓国語、日本語、タイ語、ベトナム語などを含む多様な言語に対応し、その汎用性とグローバルな到達範囲を強調しています。 コミュニティのイノベーションとアクセシビリティを促進するため、Qwen2のモデルウェイトをHugging Face1およびModelScope2で公開し、GitHub3にはサンプルコードを含む補足資料を提供しています。これらのプラットフォームには、量子化、ファインチューニング、デプロイメントのためのリソースも含まれており、幅広いアプリケーションと研究活動を支援します。