ChatPaper.aiChatPaper

A Era dos LLMs de 1 bit: Todos os Modelos de Linguagem de Grande Escala estão em 1,58 Bits

The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits

February 27, 2024
Autores: Shuming Ma, Hongyu Wang, Lingxiao Ma, Lei Wang, Wenhui Wang, Shaohan Huang, Li Dong, Ruiping Wang, Jilong Xue, Furu Wei
cs.AI

Resumo

Pesquisas recentes, como o BitNet, estão abrindo caminho para uma nova era de Modelos de Linguagem de Grande Escala (LLMs) de 1 bit. Neste trabalho, apresentamos uma variante de LLM de 1 bit, denominada BitNet b1.58, na qual cada parâmetro (ou peso) do LLM é ternário {-1, 0, 1}. Ele corresponde ao LLM Transformer de precisão total (ou seja, FP16 ou BF16) com o mesmo tamanho de modelo e tokens de treinamento em termos de perplexidade e desempenho em tarefas finais, ao mesmo tempo em que é significativamente mais econômico em termos de latência, memória, taxa de transferência e consumo de energia. Mais profundamente, o LLM de 1,58 bit define uma nova lei de escalonamento e uma receita para treinar novas gerações de LLMs que são tanto de alto desempenho quanto econômicos. Além disso, ele habilita um novo paradigma de computação e abre portas para o desenvolvimento de hardware específico otimizado para LLMs de 1 bit.
English
Recent research, such as BitNet, is paving the way for a new era of 1-bit Large Language Models (LLMs). In this work, we introduce a 1-bit LLM variant, namely BitNet b1.58, in which every single parameter (or weight) of the LLM is ternary {-1, 0, 1}. It matches the full-precision (i.e., FP16 or BF16) Transformer LLM with the same model size and training tokens in terms of both perplexity and end-task performance, while being significantly more cost-effective in terms of latency, memory, throughput, and energy consumption. More profoundly, the 1.58-bit LLM defines a new scaling law and recipe for training new generations of LLMs that are both high-performance and cost-effective. Furthermore, it enables a new computation paradigm and opens the door for designing specific hardware optimized for 1-bit LLMs.
PDF628143April 7, 2026