ChatPaper.aiChatPaper

with Reduced Precision Die Entkopplung von Skalierung und Verteilung: Ermöglichung stabiler und effektiver Trainings von großen Sprachmodellen mit reduzierter Präzision

Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models

February 21, 2025
Autoren: Ya Wang, Zhijian Zhuo, Yutao Zeng, Xun Zhou, Jian Yang, Xiaoqing Li
cs.AI

Zusammenfassung

Die Trainingsstabilität ist eine anhaltende Herausforderung bei der Vorverarbeitung großer Sprachmodelle (LLMs), insbesondere für Architekturen wie Post-Norm-Transformer, die anfällig für Gradientenexplosion und -dissipation sind. In diesem Artikel schlagen wir Scale-Distribution Decoupling (SDD) vor, einen neuartigen Ansatz, der das Training stabilisiert, indem er die Skalierung und Verteilung der Gewichtsmatrix in vollständig verbundenen Schichten explizit entkoppelt. SDD wendet einen Normalisierungsmechanismus an, um Aktivierungen zu regulieren, und einen lernbaren Skalierungsvektor, um gut konditionierte Gradienten aufrechtzuerhalten, wodurch Gradientenexplosion und -dissipation effektiv verhindert werden. Diese Trennung verbessert die Optimierungseffizienz, insbesondere in tiefen Netzwerken, indem sie eine stabile Gradientenausbreitung sicherstellt. Experimentelle Ergebnisse zeigen, dass unsere Methode das Training über verschiedene LLM-Architekturen hinweg stabilisiert und bestehende Techniken in unterschiedlichen Normalisierungskonfigurationen übertrifft. Darüber hinaus ist die vorgeschlagene Methode ressourcenschonend und mit bestehenden Frameworks kompatibel, was sie zu einer praktischen Lösung für die Stabilisierung des LLM-Trainings macht. Der Code ist unter https://github.com/kaihemo/SDD verfügbar.
English
Training stability is a persistent challenge in the pre-training of large language models (LLMs), particularly for architectures such as Post-Norm Transformers, which are prone to gradient explosion and dissipation. In this paper, we propose Scale-Distribution Decoupling (SDD), a novel approach that stabilizes training by explicitly decoupling the scale and distribution of the weight matrix in fully-connected layers. SDD applies a normalization mechanism to regulate activations and a learnable scaling vector to maintain well-conditioned gradients, effectively preventing gradient explosion and dissipation. This separation improves optimization efficiency, particularly in deep networks, by ensuring stable gradient propagation. Experimental results demonstrate that our method stabilizes training across various LLM architectures and outperforms existing techniques in different normalization configurations. Furthermore, the proposed method is lightweight and compatible with existing frameworks, making it a practical solution for stabilizing LLM training. Code is available at https://github.com/kaihemo/SDD.

Summary

AI-Generated Summary

PDF132February 26, 2025