DeepSpeed Ulysses: Systemoptimierungen zur Ermöglichung des Trainings von Transformer-Modellen mit extrem langen Sequenzen
DeepSpeed Ulysses: System Optimizations for Enabling Training of Extreme Long Sequence Transformer Models
September 25, 2023
Autoren: Sam Ade Jacobs, Masahiro Tanaka, Chengming Zhang, Minjia Zhang, Leon Song, Samyam Rajbhandari, Yuxiong He
cs.AI
Zusammenfassung
Die Berechnung in einem typischen Transformer-basierten großen Sprachmodell (LLM) kann durch die Batch-Größe, die versteckte Dimension, die Anzahl der Schichten und die Sequenzlänge charakterisiert werden. Bisher haben Systemarbeiten zur Beschleunigung des LLM-Trainings sich auf die ersten drei Dimensionen konzentriert: Datenparallelität für die Batch-Größe, Tensorparallelität für die versteckte Größe und Pipeline-Parallelität für die Modelltiefe oder Schichten. Diese weitgehend untersuchten Formen der Parallelität sind nicht auf lange Sequenz-Transformer-Modelle ausgerichtet oder optimiert. Angesichts der praktischen Anwendungsanforderungen für lange Sequenz-LLMs wird die Aufmerksamkeit erneut auf die Sequenzparallelität gelenkt. Allerdings sind bestehende Arbeiten zur Sequenzparallelität durch Speicher-Kommunikations-Ineffizienz eingeschränkt, was ihre Skalierbarkeit auf große Modelle mit langen Sequenzen begrenzt. In dieser Arbeit stellen wir DeepSpeed-Ulysses vor, eine neuartige, portable und effektive Methode zur Ermöglichung eines hocheffizienten und skalierbaren LLM-Trainings mit extrem langen Sequenzlängen. DeepSpeed-Ulysses partitioniert im Kern die Eingabedaten entlang der Sequenzdimension und verwendet eine effiziente All-to-All-Kollektivkommunikation für die Aufmerksamkeitsberechnung. Die theoretische Kommunikationsanalyse zeigt, dass während andere Methoden Kommunikationsoverhead mit zunehmender Sequenzlänge verursachen, DeepSpeed-Ulysses ein konstantes Kommunikationsvolumen beibehält, wenn die Sequenzlänge und die Rechengeräte proportional erhöht werden. Darüber hinaus zeigen experimentelle Auswertungen, dass DeepSpeed-Ulysses 2,5-mal schneller mit einer 4-mal längeren Sequenzlänge trainiert als die bestehende Methode SOTA-Baseline.
English
Computation in a typical Transformer-based large language model (LLM) can be
characterized by batch size, hidden dimension, number of layers, and sequence
length. Until now, system works for accelerating LLM training have focused on
the first three dimensions: data parallelism for batch size, tensor parallelism
for hidden size and pipeline parallelism for model depth or layers. These
widely studied forms of parallelism are not targeted or optimized for long
sequence Transformer models. Given practical application needs for long
sequence LLM, renewed attentions are being drawn to sequence parallelism.
However, existing works in sequence parallelism are constrained by
memory-communication inefficiency, limiting their scalability to long sequence
large models. In this work, we introduce DeepSpeed-Ulysses, a novel, portable
and effective methodology for enabling highly efficient and scalable LLM
training with extremely long sequence length. DeepSpeed-Ulysses at its core
partitions input data along the sequence dimension and employs an efficient
all-to-all collective communication for attention computation. Theoretical
communication analysis shows that whereas other methods incur communication
overhead as sequence length increases, DeepSpeed-Ulysses maintains constant
communication volume when sequence length and compute devices are increased
proportionally. Furthermore, experimental evaluations show that
DeepSpeed-Ulysses trains 2.5X faster with 4X longer sequence length than the
existing method SOTA baseline.