Предварительное обучение крупных языковых моделей с использованием NVFP4
Pretraining Large Language Models with NVFP4
September 29, 2025
Авторы: NVIDIA, Felix Abecassis, Anjulie Agrusa, Dong Ahn, Jonah Alben, Stefania Alborghetti, Michael Andersch, Sivakumar Arayandi, Alexis Bjorlin, Aaron Blakeman, Evan Briones, Ian Buck, Bryan Catanzaro, Jinhang Choi, Mike Chrzanowski, Eric Chung, Victor Cui, Steve Dai, Bita Darvish Rouhani, Carlo del Mundo, Deena Donia, Burc Eryilmaz, Henry Estela, Abhinav Goel, Oleg Goncharov, Yugi Guvvala, Robert Hesse, Russell Hewett, Herbert Hum, Ujval Kapasi, Brucek Khailany, Mikail Khona, Nick Knight, Alex Kondratenko, Ronny Krashinsky, Ben Lanir, Simon Layton, Michael Lightstone, Daniel Lo, Paulius Micikevicius, Asit Mishra, Tim Moon, Deepak Narayanan, Chao Ni, Abhijit Paithankar, Satish Pasumarthi, Ankit Patel, Mostofa Patwary, Ashwin Poojary, Gargi Prasad, Sweta Priyadarshi, Yigong Qin, Xiaowei Ren, Oleg Rybakov, Charbel Sakr, Sanjeev Satheesh, Stas Sergienko, Pasha Shamis, Kirthi Shankar, Nishant Sharma, Mohammad Shoeybi, Michael Siu, Misha Smelyanskiy, Darko Stosic, Dusan Stosic, Bor-Yiing Su, Frank Sun, Nima Tajbakhsh, Shelby Thomas, Przemek Tredak, Evgeny Tsykunov, Gandhi Vaithilingam, Aditya Vavre, Rangharajan Venkatesan, Roger Waleffe, Qiyu Wan, Hexin Wang, Mengdi Wang, Lizzie Wei, Hao Wu, Evan Wu, Keith Wyss, Ning Xu, Jinze Xue, Charlene Yang, Yujia Zhai, Ruoxi Zhang, Jingyang Zhu, Zhongbo Zhu
cs.AI
Аннотация
Крупные языковые модели (LLM) сегодня являются мощными инструментами для решения задач в различных областях, и их возможности продолжают расти с увеличением размера модели, объема обучающих данных и их качества, что подтверждается многочисленными исследованиями и экспериментами в отрасли. Обучение передовой модели в настоящее время требует порядка десятков или сотен йоттафлопс, что представляет собой значительные затраты времени, вычислительных ресурсов и энергии. Поэтому повышение эффективности предварительного обучения крайне важно для создания следующего поколения еще более мощных LLM. Хотя обучение с использованием 8-битных чисел с плавающей запятой (FP8) уже широко применяется, переход к еще более узкой точности, такой как 4-битные числа с плавающей запятой (FP4), может обеспечить дополнительные улучшения в скорости вычислений и использовании ресурсов. Однако квантование на таком уровне создает проблемы для стабильности обучения, сходимости и реализации, особенно для крупномасштабных моделей, обучаемых на длинных последовательностях токенов.
В данном исследовании мы представляем новый подход для стабильного и точного обучения крупных языковых моделей (LLM) с использованием формата NVFP4. Наш метод интегрирует случайные преобразования Адамара (RHT) для ограничения выбросов на уровне блоков, применяет двумерную схему квантования для обеспечения согласованных представлений как в прямом, так и в обратном проходах, использует стохастическое округление для несмещенной оценки градиентов и включает выборочные слои с высокой точностью. Мы подтверждаем наш подход, обучив модель с 12 миллиардами параметров на 10 триллионах токенов — это самый длинный из публично задокументированных процессов обучения с 4-битной точностью на сегодняшний день. Наши результаты показывают, что модель, обученная с использованием нашей техники предварительного обучения на основе NVFP4, достигает потерь при обучении и точности на последующих задачах, сопоставимых с базовым уровнем FP8. Эти результаты подчеркивают, что NVFP4 в сочетании с нашим подходом к обучению представляет собой значительный шаг вперед в алгоритмах обучения LLM с узкой точностью.
English
Large Language Models (LLMs) today are powerful problem solvers across many
domains, and they continue to get stronger as they scale in model size,
training set size, and training set quality, as shown by extensive research and
experimentation across the industry. Training a frontier model today requires
on the order of tens to hundreds of yottaflops, which is a massive investment
of time, compute, and energy. Improving pretraining efficiency is therefore
essential to enable the next generation of even more capable LLMs. While 8-bit
floating point (FP8) training is now widely adopted, transitioning to even
narrower precision, such as 4-bit floating point (FP4), could unlock additional
improvements in computational speed and resource utilization. However,
quantization at this level poses challenges to training stability, convergence,
and implementation, notably for large-scale models trained on long token
horizons.
In this study, we introduce a novel approach for stable and accurate training
of large language models (LLMs) using the NVFP4 format. Our method integrates
Random Hadamard transforms (RHT) to bound block-level outliers, employs a
two-dimensional quantization scheme for consistent representations across both
the forward and backward passes, utilizes stochastic rounding for unbiased
gradient estimation, and incorporates selective high-precision layers. We
validate our approach by training a 12-billion-parameter model on 10 trillion
tokens -- the longest publicly documented training run in 4-bit precision to
date. Our results show that the model trained with our NVFP4-based pretraining
technique achieves training loss and downstream task accuracies comparable to
an FP8 baseline. These findings highlight that NVFP4, when combined with our
training approach, represents a major step forward in narrow-precision LLM
training algorithms.