ChatPaper.aiChatPaper

Scalify: propagazione della scala per un addestramento efficiente di LLM a bassa precisione

Scalify: scale propagation for efficient low-precision LLM training

July 24, 2024
Autori: Paul Balança, Sam Hosegood, Carlo Luschi, Andrew Fitzgibbon
cs.AI

Abstract

I formati a bassa precisione come float8 sono stati introdotti nell'hardware accelerato per il machine learning per migliorare l'efficienza computazionale nell'addestramento e nell'inferenza di modelli linguistici di grandi dimensioni. Tuttavia, l'adozione da parte della comunità ML è stata rallentata dalle tecniche complesse e talvolta fragili necessarie per raggiungere l'accuratezza dell'addestramento a precisione più elevata. In questo lavoro, presentiamo Scalify, un paradigma di propagazione della scala end-to-end per grafi computazionali, che generalizza e formalizza i metodi esistenti di ridimensionamento dei tensori. I risultati sperimentali mostrano che Scalify supporta nativamente la moltiplicazione di matrici e la rappresentazione dei gradienti in float8, nonché la memorizzazione dello stato dell'ottimizzatore in float16. La nostra implementazione di Scalify in JAX è open-source e disponibile all'indirizzo https://github.com/graphcore-research/jax-scalify.
English
Low-precision formats such as float8 have been introduced in machine learning accelerated hardware to improve computational efficiency for large language models training and inference. Nevertheless, adoption by the ML community has been slowed down by the complex, and sometimes brittle, techniques required to match higher precision training accuracy. In this work, we present Scalify, a end-to-end scale propagation paradigm for computational graphs, generalizing and formalizing existing tensor scaling methods. Experiment results show that Scalify supports out-of-the-box float8 matrix multiplication and gradients representation, as well as float16 optimizer state storage. Our JAX implementation of Scalify is open-sourced at https://github.com/graphcore-research/jax-scalify
PDF132November 28, 2024