Qwen3 技術レポートQwen3 Technical Report
本論文では、Qwenモデルファミリーの最新バージョンであるQwen3を紹介します。Qwen3は、性能、効率性、多言語対応能力を向上させるために設計された一連の大規模言語モデル(LLM)で構成されています。Qwen3シリーズには、密なアーキテクチャとMixture-of-Expert(MoE)アーキテクチャのモデルが含まれており、パラメータ規模は0.6億から2350億まで幅広くカバーしています。Qwen3の主要な革新点は、複雑な多段階推論を行う「思考モード」と、迅速な文脈駆動型応答を行う「非思考モード」を統合フレームワークに組み込んだことです。これにより、チャット最適化モデル(例:GPT-4o)や専用推論モデル(例:QwQ-32B)のような異なるモデル間で切り替える必要がなくなり、ユーザークエリやチャットテンプレートに基づいて動的にモードを切り替えることが可能になります。また、Qwen3では「思考予算メカニズム」を導入し、推論中に計算リソースを適応的に割り当てることで、タスクの複雑さに応じてレイテンシと性能のバランスを取ることができます。さらに、フラッグシップモデルの知識を活用することで、小規模モデルの構築に必要な計算リソースを大幅に削減しつつ、高い競争力のある性能を確保しています。実証評価の結果、Qwen3はコード生成、数学的推論、エージェントタスクなど多様なベンチマークにおいて、より大規模なMoEモデルやプロプライエタリモデルと競合する最先端の結果を達成しています。前身であるQwen2.5と比較して、Qwen3は多言語サポートを29言語から119言語および方言に拡大し、クロスリンガル理解と生成能力の向上を通じてグローバルなアクセシビリティを高めています。再現性とコミュニティ主導の研究開発を促進するため、すべてのQwen3モデルはApache 2.0ライセンスの下で公開されています。