BitNet b1.58 2B4T 技術レポートBitNet b1.58 2B4T Technical Report
BitNet b1.58 2B4Tを紹介します。これは、20億パラメータ規模で初めてのオープンソース、ネイティブ1ビット大規模言語モデル(LLM)です。4兆トークンのコーパスで学習されたこのモデルは、言語理解、数学的推論、コーディング能力、会話能力をカバーするベンチマークで厳密に評価されています。その結果、BitNet b1.58 2B4Tは、同規模の主要なオープンウェイト・フルプレシジョンLLMと同等の性能を達成しつつ、メモリ使用量、エネルギー消費、デコード遅延を大幅に削減するなど、計算効率において大きな利点を提供することが示されました。さらなる研究と採用を促進するため、モデルの重みはHugging Faceを通じて公開され、GPUおよびCPUアーキテクチャ向けのオープンソース推論実装も提供されています。