ChatPaper.aiChatPaper

Геометрия квантования LLM: GPTQ как алгоритм ближайшей плоскости Бабаи

The Geometry of LLM Quantization: GPTQ as Babai's Nearest Plane Algorithm

July 24, 2025
Авторы: Jiale Chen, Torsten Hoefler, Dan Alistarh
cs.AI

Аннотация

Квантование весов больших языковых моделей (LLM) с 16-битной точности до более низкой битовой ширины является стандартным подходом для развертывания масштабных трансформеров на более доступных ускорителях. GPTQ стал одним из стандартных методов одноэтапного посттренировочного квантования для моделей масштаба LLM. Однако его внутренняя работа описывается как последовательность эмпирических алгебраических обновлений, которые скрывают любую геометрическую интерпретацию или гарантии в худшем случае. В данной работе мы показываем, что при выполнении в обратном порядке (от последнего к первому измерению) для линейного слоя GPTQ математически эквивалентен алгоритму Бабаи для ближайшего вектора (CVP) на решетке, определенной матрицей Гессе входных данных слоя. Эта эквивалентность основана на сложном математическом аргументе и имеет два аналитических следствия: (i) шаг распространения ошибки GPTQ получает интуитивную геометрическую интерпретацию; (ii) GPTQ наследует верхнюю границу ошибки алгоритма Бабаи при условии отсутствия обрезки. В совокупности эти результаты закрепляют GPTQ на прочной теоретической основе и открывают путь для использования десятилетий прогресса в алгоритмах работы с решетками при разработке будущих алгоритмов квантования для моделей с миллиардами параметров.
English
Quantizing the weights of large language models (LLMs) from 16-bit to lower bitwidth is the de facto approach to deploy massive transformers onto more affordable accelerators. GPTQ emerged as one of the standard methods for one-shot post-training quantization at LLM scale. Yet, its inner workings are described as a sequence of ad-hoc algebraic updates that obscure any geometric meaning or worst-case guarantees. In this work, we show that, when executed back-to-front (from the last to first dimension) for a linear layer, GPTQ is mathematically identical to Babai's nearest plane algorithm for the classical closest vector problem (CVP) on a lattice defined by the Hessian matrix of the layer's inputs. This equivalence is based on a sophisticated mathematical argument, and has two analytical consequences: (i) the GPTQ error propagation step gains an intuitive geometric interpretation; (ii) GPTQ inherits the error upper bound of Babai's algorithm under the no-clipping condition. Taken together, these results place GPTQ on firm theoretical footing and open the door to importing decades of progress in lattice algorithms towards the design of future quantization algorithms for billion-parameter models.
PDF332July 28, 2025