BitNet b1.58 2B4T 技術報告BitNet b1.58 2B4T Technical Report
我們推出BitNet b1.58 2B4T,這是首個開源的、原生1位元大型語言模型(LLM),參數規模達20億。該模型在4萬億個token的語料庫上進行訓練,並在多個基準測試中進行了嚴格評估,涵蓋語言理解、數學推理、編碼能力及對話技巧。我們的結果顯示,BitNet b1.58 2B4T在性能上與同規模的領先開源全精度LLM相當,同時在計算效率方面具有顯著優勢,包括大幅降低的記憶體佔用、能耗及解碼延遲。為促進進一步研究與應用,我們通過Hugging Face發布了模型權重,並提供了適用於GPU和CPU架構的開源推理實現。