ChatPaper.aiChatPaper

BiLLM: Expandindo os Limites da Quantização Pós-Treinamento para LLMs

BiLLM: Pushing the Limit of Post-Training Quantization for LLMs

February 6, 2024
Autores: Wei Huang, Yangdong Liu, Haotong Qin, Ying Li, Shiming Zhang, Xianglong Liu, Michele Magno, Xiaojuan Qi
cs.AI

Resumo

Modelos de linguagem grandes (LLMs) pré-treinados exibem capacidades excepcionais de processamento geral de linguagem, mas demandam recursos significativos de memória e computação. Como uma poderosa tecnologia de compressão, a binarização pode reduzir extremamente os pesos do modelo para meros 1 bit, diminuindo os custosos requisitos de computação e memória. No entanto, as técnicas de quantização existentes não conseguem manter o desempenho dos LLMs em larguras de bits ultrabaixas. Em resposta a esse desafio, apresentamos o BiLLM, um esquema inovador de quantização pós-treinamento de 1 bit, especialmente projetado para LLMs pré-treinados. Com base na distribuição de pesos dos LLMs, o BiLLM primeiro identifica e seleciona estruturalmente os pesos mais relevantes, e minimiza a perda de compressão por meio de uma estratégia eficaz de aproximação residual binária. Além disso, considerando a distribuição em forma de sino dos pesos não relevantes, propomos uma busca de divisão ótima para agrupá-los e binarizá-los com precisão. O BiLLM alcança, pela primeira vez, inferência de alta precisão (por exemplo, 8,41 de perplexidade no LLaMA2-70B) com apenas 1,08 bit de pesos em várias famílias de LLMs e métricas de avaliação, superando os métodos de quantização SOTA para LLMs por margens significativas. Além disso, o BiLLM permite o processo de binarização de um LLM com 7 bilhões de pesos em menos de 0,5 hora em uma única GPU, demonstrando eficiência temporal satisfatória.
English
Pretrained large language models (LLMs) exhibit exceptional general language processing capabilities but come with significant demands on memory and computational resources. As a powerful compression technology, binarization can extremely reduce model weights to a mere 1 bit, lowering the expensive computation and memory requirements. However, existing quantization techniques fall short of maintaining LLM performance under ultra-low bit-widths. In response to this challenge, we present BiLLM, a groundbreaking 1-bit post-training quantization scheme tailored for pretrained LLMs. Based on the weight distribution of LLMs, BiLLM first identifies and structurally selects salient weights, and minimizes the compression loss through an effective binary residual approximation strategy. Moreover, considering the bell-shaped distribution of the non-salient weights, we propose an optimal splitting search to group and binarize them accurately. BiLLM achieving for the first time high-accuracy inference (e.g. 8.41 perplexity on LLaMA2-70B) with only 1.08-bit weights across various LLMs families and evaluation metrics, outperforms SOTA quantization methods of LLM by significant margins. Moreover, BiLLM enables the binarization process of the LLM with 7 billion weights within 0.5 hours on a single GPU, demonstrating satisfactory time efficiency.
PDF503February 8, 2026