ChatPaper.aiChatPaper

Laag-precisie training van grote taalmodelen: methoden, uitdagingen en mogelijkheden

Low-Precision Training of Large Language Models: Methods, Challenges, and Opportunities

May 2, 2025
Auteurs: Zhiwei Hao, Jianyuan Guo, Li Shen, Yong Luo, Han Hu, Guoxia Wang, Dianhai Yu, Yonggang Wen, Dacheng Tao
cs.AI

Samenvatting

Grote taalmodellen (LLMs) hebben indrukwekkende prestaties geleverd in verschillende domeinen. De aanzienlijke hardwarebronnen die nodig zijn voor hun training vormen echter een belangrijke belemmering voor efficiëntie en schaalbaarheid. Om deze uitdaging te mitigeren, zijn technieken voor training met lage precisie breed toegepast, wat heeft geleid tot aanzienlijke vooruitgang in trainings efficiëntie. Ondanks deze verbeteringen omvat training met lage precisie verschillende componenten—zoals gewichten, activaties en gradienten—die elk in verschillende numerieke formaten kunnen worden weergegeven. De resulterende diversiteit heeft een gefragmenteerd landschap gecreëerd in het onderzoek naar training met lage precisie, waardoor het voor onderzoekers moeilijk is om een overkoepelend overzicht van het veld te krijgen. Dit overzicht biedt een uitgebreide evaluatie van bestaande methoden voor training met lage precisie. Om deze benaderingen systematisch te organiseren, categoriseren we ze in drie primaire groepen op basis van hun onderliggende numerieke formaten, wat een sleutelfactor is die hardwarecompatibiliteit, computationele efficiëntie en het gemak van referentie voor lezers beïnvloedt. De categorieën zijn: (1) methoden gebaseerd op vaste komma en gehele getallen, (2) methoden gebaseerd op zwevendekommagetallen, en (3) methoden gebaseerd op aangepaste formaten. Daarnaast bespreken we benaderingen voor kwantisatiebewuste training, die belangrijke overeenkomsten vertonen met training met lage precisie tijdens voorwaartse propagatie. Tot slot belichten we verschillende veelbelovende onderzoeksrichtingen om dit veld verder te ontwikkelen. Een verzameling van de in dit overzicht besproken artikelen is beschikbaar op https://github.com/Hao840/Awesome-Low-Precision-Training.
English
Large language models (LLMs) have achieved impressive performance across various domains. However, the substantial hardware resources required for their training present a significant barrier to efficiency and scalability. To mitigate this challenge, low-precision training techniques have been widely adopted, leading to notable advancements in training efficiency. Despite these gains, low-precision training involves several componentsx2013such as weights, activations, and gradientsx2013each of which can be represented in different numerical formats. The resulting diversity has created a fragmented landscape in low-precision training research, making it difficult for researchers to gain a unified overview of the field. This survey provides a comprehensive review of existing low-precision training methods. To systematically organize these approaches, we categorize them into three primary groups based on their underlying numerical formats, which is a key factor influencing hardware compatibility, computational efficiency, and ease of reference for readers. The categories are: (1) fixed-point and integer-based methods, (2) floating-point-based methods, and (3) customized format-based methods. Additionally, we discuss quantization-aware training approaches, which share key similarities with low-precision training during forward propagation. Finally, we highlight several promising research directions to advance this field. A collection of papers discussed in this survey is provided in https://github.com/Hao840/Awesome-Low-Precision-Training.
PDF103May 6, 2025