ChatPaper.aiChatPaper

A Geometria da Quantização de LLMs: GPTQ como o Algoritmo do Plano Mais Próximo de Babai

The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm

July 24, 2025
Autores: Jiale Chen, Torsten Hoefler, Dan Alistarh
cs.AI

Resumo

A quantização dos pesos de modelos de linguagem de grande escala (LLMs) de 16 bits para larguras de bits menores é a abordagem de facto para implantar transformadores massivos em aceleradores mais acessíveis. O GPTQ surgiu como um dos métodos padrão para quantização pós-treinamento em uma única etapa em escala de LLM. No entanto, seu funcionamento interno é descrito como uma sequência de atualizações algébricas ad-hoc que obscurecem qualquer significado geométrico ou garantias de pior caso. Neste trabalho, mostramos que, quando executado de trás para frente (da última para a primeira dimensão) em uma camada linear, o GPTQ é matematicamente idêntico ao algoritmo do plano mais próximo de Babai para o clássico problema do vetor mais próximo (CVP) em um reticulado definido pela matriz Hessiana das entradas da camada. Essa equivalência é baseada em um argumento matemático sofisticado e tem duas consequências analíticas: (i) a etapa de propagação de erro do GPTQ ganha uma interpretação geométrica intuitiva; (ii) o GPTQ herda o limite superior de erro do algoritmo de Babai sob a condição de não recorte. Juntos, esses resultados colocam o GPTQ em uma base teórica sólida e abrem as portas para importar décadas de progresso em algoritmos de reticulados para o design de futuros algoritmos de quantização para modelos com bilhões de parâmetros.
English
Quantizing the weights of large language models (LLMs) from 16-bit to lower bitwidth is the de facto approach to deploy massive transformers onto more affordable accelerators. GPTQ emerged as one of the standard methods for one-shot post-training quantization at LLM scale. Yet, its inner workings are described as a sequence of ad-hoc algebraic updates that obscure any geometric meaning or worst-case guarantees. In this work, we show that, when executed back-to-front (from the last to first dimension) for a linear layer, GPTQ is mathematically identical to Babai's nearest plane algorithm for the classical closest vector problem (CVP) on a lattice defined by the Hessian matrix of the layer's inputs. This equivalence is based on a sophisticated mathematical argument, and has two analytical consequences: (i) the GPTQ error propagation step gains an intuitive geometric interpretation; (ii) GPTQ inherits the error upper bound of Babai's algorithm under the no-clipping condition. Taken together, these results place GPTQ on firm theoretical footing and open the door to importing decades of progress in lattice algorithms towards the design of future quantization algorithms for billion-parameter models.
PDF312July 28, 2025