1ビットLLMの時代:すべての大規模言語モデルは1.58ビットである
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
February 27, 2024
著者: Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei
cs.AI
要旨
近年の研究、例えばBitNetは、1ビット大規模言語モデル(LLM)の新時代を切り開いています。本論文では、1ビットLLMの変種であるBitNet b1.58を紹介します。このモデルでは、LLMの全てのパラメータ(または重み)が三値 {-1, 0, 1} で表現されます。BitNet b1.58は、同じモデルサイズと訓練トークン数を持つフル精度(FP16またはBF16)のTransformer LLMと比較して、パープレキシティおよびエンドタスク性能において同等の性能を発揮しつつ、レイテンシ、メモリ使用量、スループット、エネルギー消費の点で大幅にコスト効率が優れています。さらに深く掘り下げると、1.58ビットLLMは、高性能かつコスト効率の高い次世代LLMを訓練するための新しいスケーリング則とレシピを定義しています。また、1ビットLLMに最適化された専用ハードウェアの設計に向けた新しい計算パラダイムを可能にし、その扉を開くものです。
English
Recent research, such as BitNet, is paving the way for a new era of 1-bit
Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant,
namely BitNet b1.58, in which every single parameter (or weight) of the LLM is
ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16)
Transformer LLM with the same model size and training tokens in terms of both
perplexity and end-task performance, while being significantly more
cost-effective in terms of latency, memory, throughput, and energy consumption.
More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for
training new generations of LLMs that are both high-performance and
cost-effective. Furthermore, it enables a new computation paradigm and opens
the door for designing specific hardware optimized for 1-bit LLMs.Summary
AI-Generated Summary