Эра 1-битных LLM: все крупные языковые модели теперь в 1,58 бита
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits
February 27, 2024
Авторы: Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei
cs.AI
Аннотация
Недавние исследования, такие как BitNet, прокладывают путь к новой эре 1-битных крупных языковых моделей (LLM). В данной работе мы представляем вариант 1-битной LLM, а именно BitNet b1.58, в котором каждый параметр (или вес) модели является троичным {-1, 0, 1}. Эта модель соответствует полноточным (например, FP16 или BF16) трансформерным LLM с тем же размером модели и количеством обучающих токенов как по перплексии, так и по производительности на конечных задачах, при этом значительно превосходя их по экономической эффективности в плане задержек, использования памяти, пропускной способности и энергопотребления. Более того, 1.58-битная LLM определяет новый закон масштабирования и подход к обучению новых поколений LLM, которые одновременно являются высокопроизводительными и экономически эффективными. Кроме того, она открывает новую вычислительную парадигму и создает возможности для разработки специализированного оборудования, оптимизированного для 1-битных LLM.
English
Recent research, such as BitNet, is paving the way for a new era of 1-bit
Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant,
namely BitNet b1.58, in which every single parameter (or weight) of the LLM is
ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16)
Transformer LLM with the same model size and training tokens in terms of both
perplexity and end-task performance, while being significantly more
cost-effective in terms of latency, memory, throughput, and energy consumption.
More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for
training new generations of LLMs that are both high-performance and
cost-effective. Furthermore, it enables a new computation paradigm and opens
the door for designing specific hardware optimized for 1-bit LLMs.Summary
AI-Generated Summary