ChatPaper.aiChatPaper

Desacoplamento Escala-Distribuição: Permitindo o Treinamento Estável e Eficaz de Modelos de Linguagem de Grande Escala

Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models

February 21, 2025
Autores: Ya Wang, Zhijian Zhuo, Yutao Zeng, Xun Zhou, Jian Yang, Xiaoqing Li
cs.AI

Resumo

A estabilidade do treinamento é um desafio persistente no pré-treinamento de grandes modelos de linguagem (LLMs), especialmente para arquiteturas como Transformers com normalização posterior (Post-Norm), que são propensas a explosão e dissipação de gradientes. Neste artigo, propomos o Desacoplamento Escala-Distribuição (SDD), uma abordagem inovadora que estabiliza o treinamento ao desacoplar explicitamente a escala e a distribuição da matriz de pesos em camadas totalmente conectadas. O SDD aplica um mecanismo de normalização para regular as ativações e um vetor de escala aprendível para manter gradientes bem condicionados, prevenindo efetivamente a explosão e dissipação de gradientes. Essa separação melhora a eficiência da otimização, principalmente em redes profundas, ao garantir a propagação estável de gradientes. Resultados experimentais demonstram que nosso método estabiliza o treinamento em várias arquiteturas de LLMs e supera técnicas existentes em diferentes configurações de normalização. Além disso, o método proposto é leve e compatível com frameworks existentes, tornando-o uma solução prática para estabilizar o treinamento de LLMs. O código está disponível em https://github.com/kaihemo/SDD.
English
Training stability is a persistent challenge in the pre-training of large language models (LLMs), particularly for architectures such as Post-Norm Transformers, which are prone to gradient explosion and dissipation. In this paper, we propose Scale-Distribution Decoupling (SDD), a novel approach that stabilizes training by explicitly decoupling the scale and distribution of the weight matrix in fully-connected layers. SDD applies a normalization mechanism to regulate activations and a learnable scaling vector to maintain well-conditioned gradients, effectively preventing gradient explosion and dissipation. This separation improves optimization efficiency, particularly in deep networks, by ensuring stable gradient propagation. Experimental results demonstrate that our method stabilizes training across various LLM architectures and outperforms existing techniques in different normalization configurations. Furthermore, the proposed method is lightweight and compatible with existing frameworks, making it a practical solution for stabilizing LLM training. Code is available at https://github.com/kaihemo/SDD.

Summary

AI-Generated Summary

PDF132February 26, 2025