ChatPaper.aiChatPaper

Desacoplamiento de Escala-Distribución: Habilitando el Entrenamiento Estable y Efectivo de Modelos de Lenguaje a Gran Escala

Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models

February 21, 2025
Autores: Ya Wang, Zhijian Zhuo, Yutao Zeng, Xun Zhou, Jian Yang, Xiaoqing Li
cs.AI

Resumen

La estabilidad del entrenamiento es un desafío persistente en el preentrenamiento de modelos de lenguaje grandes (LLMs, por sus siglas en inglés), particularmente para arquitecturas como los Transformers Post-Norm, que son propensos a la explosión y disipación de gradientes. En este artículo, proponemos Desacoplamiento de Escala y Distribución (SDD, por sus siglas en inglés), un enfoque novedoso que estabiliza el entrenamiento al desacoplar explícitamente la escala y la distribución de la matriz de pesos en capas completamente conectadas. SDD aplica un mecanismo de normalización para regular las activaciones y un vector de escala aprendible para mantener gradientes bien condicionados, previniendo efectivamente la explosión y disipación de gradientes. Esta separación mejora la eficiencia de la optimización, especialmente en redes profundas, al garantizar una propagación estable de los gradientes. Los resultados experimentales demuestran que nuestro método estabiliza el entrenamiento en diversas arquitecturas de LLMs y supera a las técnicas existentes en diferentes configuraciones de normalización. Además, el método propuesto es ligero y compatible con frameworks existentes, lo que lo convierte en una solución práctica para estabilizar el entrenamiento de LLMs. El código está disponible en https://github.com/kaihemo/SDD.
English
Training stability is a persistent challenge in the pre-training of large language models (LLMs), particularly for architectures such as Post-Norm Transformers, which are prone to gradient explosion and dissipation. In this paper, we propose Scale-Distribution Decoupling (SDD), a novel approach that stabilizes training by explicitly decoupling the scale and distribution of the weight matrix in fully-connected layers. SDD applies a normalization mechanism to regulate activations and a learnable scaling vector to maintain well-conditioned gradients, effectively preventing gradient explosion and dissipation. This separation improves optimization efficiency, particularly in deep networks, by ensuring stable gradient propagation. Experimental results demonstrate that our method stabilizes training across various LLM architectures and outperforms existing techniques in different normalization configurations. Furthermore, the proposed method is lightweight and compatible with existing frameworks, making it a practical solution for stabilizing LLM training. Code is available at https://github.com/kaihemo/SDD.

Summary

AI-Generated Summary

PDF132February 26, 2025