ChatPaper.aiChatPaper

Formats de données à micro-échelle pour l'apprentissage profond

Microscaling Data Formats for Deep Learning

October 16, 2023
Auteurs: Bita Darvish Rouhani, Ritchie Zhao, Ankit More, Mathew Hall, Alireza Khodamoradi, Summer Deng, Dhruv Choudhary, Marius Cornea, Eric Dellinger, Kristof Denolf, Stosic Dusan, Venmugil Elango, Maximilian Golub, Alexander Heinecke, Phil James-Roxby, Dharmesh Jani, Gaurav Kolhe, Martin Langhammer, Ada Li, Levi Melnick, Maral Mesmakhosroshahi, Andres Rodriguez, Michael Schulte, Rasoul Shafipour, Lei Shao, Michael Siu, Pradeep Dubey, Paulius Micikevicius, Maxim Naumov, Colin Verilli, Ralph Wittig, Eric Chung
cs.AI

Résumé

Les formats de données à faible précision sont essentiels pour réduire les coûts de calcul et de stockage des applications modernes d'apprentissage profond. Cet article évalue les formats de données Microscaling (MX) qui combinent un facteur d'échelle par bloc avec des types à virgule flottante et entiers de faible précision pour les éléments individuels. Les formats MX équilibrent les besoins concurrents d'efficacité matérielle, de précision du modèle et de simplicité d'utilisation. Les résultats empiriques sur plus de deux douzaines de benchmarks démontrent la praticabilité des formats MX en tant que remplacement direct du format FP32 de base pour l'inférence et l'entraînement en IA, avec une faible complexité pour l'utilisateur. Nous montrons également la première instance d'entraînement de modèles de langage génératifs avec des poids, activations et gradients inférieurs à 8 bits, avec une perte de précision minimale et sans modifications de la procédure d'entraînement.
English
Narrow bit-width data formats are key to reducing the computational and storage costs of modern deep learning applications. This paper evaluates Microscaling (MX) data formats that combine a per-block scaling factor with narrow floating-point and integer types for individual elements.MX formats balance the competing needs of hardware efficiency, model accuracy, and user friction. Empirical results on over two dozen benchmarks demonstrate practicality of MX data formats as a drop-in replacement for baseline FP32 for AI inference and training with low user friction. We also show the first instance of training generative language models at sub-8-bit weights, activations, and gradients with minimal accuracy loss and no modifications to the training recipe.
PDF81December 15, 2024