A Geometria da Quantização de LLMs: GPTQ como o Algoritmo do Plano Mais Próximo de Babai
The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm
July 24, 2025
Autores: Jiale Chen, Torsten Hoefler, Dan Alistarh
cs.AI
Resumo
A quantização dos pesos de modelos de linguagem de grande escala (LLMs) de 16 bits para larguras de bits menores é a abordagem de facto para implantar transformadores massivos em aceleradores mais acessíveis. O GPTQ surgiu como um dos métodos padrão para quantização pós-treinamento em uma única etapa em escala de LLM. No entanto, seu funcionamento interno é descrito como uma sequência de atualizações algébricas ad-hoc que obscurecem qualquer significado geométrico ou garantias de pior caso. Neste trabalho, mostramos que, quando executado de trás para frente (da última para a primeira dimensão) em uma camada linear, o GPTQ é matematicamente idêntico ao algoritmo do plano mais próximo de Babai para o clássico problema do vetor mais próximo (CVP) em um reticulado definido pela matriz Hessiana das entradas da camada. Essa equivalência é baseada em um argumento matemático sofisticado e tem duas consequências analíticas: (i) a etapa de propagação de erro do GPTQ ganha uma interpretação geométrica intuitiva; (ii) o GPTQ herda o limite superior de erro do algoritmo de Babai sob a condição de não recorte. Juntos, esses resultados colocam o GPTQ em uma base teórica sólida e abrem as portas para importar décadas de progresso em algoritmos de reticulados para o design de futuros algoritmos de quantização para modelos com bilhões de parâmetros.
English
Quantizing the weights of large language models (LLMs) from 16-bit to lower
bitwidth is the de facto approach to deploy massive transformers onto more
affordable accelerators. GPTQ emerged as one of the standard methods for
one-shot post-training quantization at LLM scale. Yet, its inner workings are
described as a sequence of ad-hoc algebraic updates that obscure any geometric
meaning or worst-case guarantees. In this work, we show that, when executed
back-to-front (from the last to first dimension) for a linear layer, GPTQ is
mathematically identical to Babai's nearest plane algorithm for the classical
closest vector problem (CVP) on a lattice defined by the Hessian matrix of the
layer's inputs. This equivalence is based on a sophisticated mathematical
argument, and has two analytical consequences: (i) the GPTQ error propagation
step gains an intuitive geometric interpretation; (ii) GPTQ inherits the error
upper bound of Babai's algorithm under the no-clipping condition. Taken
together, these results place GPTQ on firm theoretical footing and open the
door to importing decades of progress in lattice algorithms towards the design
of future quantization algorithms for billion-parameter models.