ChatPaper.aiChatPaper

De Geometrie van LLM-kwantisering: GPTQ als Babai's Nearest Plane-algoritme

The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm

July 24, 2025
Auteurs: Jiale Chen, Torsten Hoefler, Dan Alistarh
cs.AI

Samenvatting

Het kwantiseren van de gewichten van grote taalmodellen (LLMs) van 16-bit naar een lagere bitbreedte is de facto de aanpak om massieve transformers op betaalbare accelerators te implementeren. GPTQ is naar voren gekomen als een van de standaardmethoden voor one-shot post-training kwantisatie op LLM-schaal. Echter, de interne werking ervan wordt beschreven als een reeks ad-hoc algebraïsche updates die elke geometrische betekenis of garanties voor het slechtste geval verhullen. In dit werk tonen we aan dat, wanneer GPTQ van achter naar voren (van de laatste naar de eerste dimensie) wordt uitgevoerd voor een lineaire laag, het wiskundig identiek is aan Babai's nearest plane-algoritme voor het klassieke closest vector problem (CVP) op een rooster gedefinieerd door de Hessiaanmatrix van de invoer van de laag. Deze equivalentie is gebaseerd op een geavanceerd wiskundig argument en heeft twee analytische gevolgen: (i) de foutpropagatiestap van GPTQ krijgt een intuïtieve geometrische interpretatie; (ii) GPTQ erft de foutbovengrens van Babai's algoritme onder de no-clipping conditie. Samen genomen plaatsen deze resultaten GPTQ op een stevig theoretisch fundament en openen ze de deur om decennia van vooruitgang in roosteralgoritmen te importeren voor het ontwerpen van toekomstige kwantisatiealgoritmen voor modellen met miljarden parameters.
English
Quantizing the weights of large language models (LLMs) from 16-bit to lower bitwidth is the de facto approach to deploy massive transformers onto more affordable accelerators. GPTQ emerged as one of the standard methods for one-shot post-training quantization at LLM scale. Yet, its inner workings are described as a sequence of ad-hoc algebraic updates that obscure any geometric meaning or worst-case guarantees. In this work, we show that, when executed back-to-front (from the last to first dimension) for a linear layer, GPTQ is mathematically identical to Babai's nearest plane algorithm for the classical closest vector problem (CVP) on a lattice defined by the Hessian matrix of the layer's inputs. This equivalence is based on a sophisticated mathematical argument, and has two analytical consequences: (i) the GPTQ error propagation step gains an intuitive geometric interpretation; (ii) GPTQ inherits the error upper bound of Babai's algorithm under the no-clipping condition. Taken together, these results place GPTQ on firm theoretical footing and open the door to importing decades of progress in lattice algorithms towards the design of future quantization algorithms for billion-parameter models.
PDF403July 28, 2025