BiLLM: Expandindo os Limites da Quantização Pós-Treinamento para LLMs
BiLLM: Pushing the Limit of Post-Training Quantization for LLMs
February 6, 2024
Autores: Wei Huang, Yangdong Liu, Haotong Qin, Ying Li, Shiming Zhang, Xianglong Liu, Michele Magno, Xiaojuan Qi
cs.AI
Resumo
Modelos de linguagem grandes (LLMs) pré-treinados exibem capacidades excepcionais de processamento geral de linguagem, mas demandam recursos significativos de memória e computação. Como uma poderosa tecnologia de compressão, a binarização pode reduzir extremamente os pesos do modelo para meros 1 bit, diminuindo os custosos requisitos de computação e memória. No entanto, as técnicas de quantização existentes não conseguem manter o desempenho dos LLMs em larguras de bits ultrabaixas. Em resposta a esse desafio, apresentamos o BiLLM, um esquema inovador de quantização pós-treinamento de 1 bit, especialmente projetado para LLMs pré-treinados. Com base na distribuição de pesos dos LLMs, o BiLLM primeiro identifica e seleciona estruturalmente os pesos mais relevantes, e minimiza a perda de compressão por meio de uma estratégia eficaz de aproximação residual binária. Além disso, considerando a distribuição em forma de sino dos pesos não relevantes, propomos uma busca de divisão ótima para agrupá-los e binarizá-los com precisão. O BiLLM alcança, pela primeira vez, inferência de alta precisão (por exemplo, 8,41 de perplexidade no LLaMA2-70B) com apenas 1,08 bit de pesos em várias famílias de LLMs e métricas de avaliação, superando os métodos de quantização SOTA para LLMs por margens significativas. Além disso, o BiLLM permite o processo de binarização de um LLM com 7 bilhões de pesos em menos de 0,5 hora em uma única GPU, demonstrando eficiência temporal satisfatória.
English
Pretrained large language models (LLMs) exhibit exceptional general language
processing capabilities but come with significant demands on memory and
computational resources. As a powerful compression technology, binarization can
extremely reduce model weights to a mere 1 bit, lowering the expensive
computation and memory requirements. However, existing quantization techniques
fall short of maintaining LLM performance under ultra-low bit-widths. In
response to this challenge, we present BiLLM, a groundbreaking 1-bit
post-training quantization scheme tailored for pretrained LLMs. Based on the
weight distribution of LLMs, BiLLM first identifies and structurally selects
salient weights, and minimizes the compression loss through an effective binary
residual approximation strategy. Moreover, considering the bell-shaped
distribution of the non-salient weights, we propose an optimal splitting search
to group and binarize them accurately. BiLLM achieving for the first time
high-accuracy inference (e.g. 8.41 perplexity on LLaMA2-70B) with only 1.08-bit
weights across various LLMs families and evaluation metrics, outperforms SOTA
quantization methods of LLM by significant margins. Moreover, BiLLM enables the
binarization process of the LLM with 7 billion weights within 0.5 hours on a
single GPU, demonstrating satisfactory time efficiency.