DiJiang: Modelos de Lenguaje a Gran Escala Eficientes mediante Kernelización Compacta
DiJiang: Efficient Large Language Models through Compact Kernelization
March 29, 2024
Autores: Hanting Chen, Zhicheng Liu, Xutao Wang, Yuchuan Tian, Yunhe Wang
cs.AI
Resumen
En un esfuerzo por reducir la carga computacional de los Transformers, la investigación sobre la atención lineal ha ganado un impulso significativo. Sin embargo, las estrategias de mejora para los mecanismos de atención generalmente requieren un extenso reentrenamiento, lo cual resulta poco práctico para modelos de lenguaje grandes con una gran cantidad de parámetros. En este artículo, presentamos DiJiang, un novedoso enfoque de Kernelización en el Dominio de la Frecuencia que permite transformar un Transformer preentrenado en un modelo de complejidad lineal con costos de entrenamiento mínimos. Al emplear un método de muestreo Quasi-Monte Carlo ponderado, el enfoque propuesto ofrece teóricamente una eficiencia de aproximación superior. Para reducir aún más la complejidad computacional del entrenamiento, nuestra kernelización se basa en operaciones de Transformada Discreta del Coseno (DCT). Experimentos exhaustivos demuestran que el método propuesto logra un rendimiento comparable al Transformer original, pero con costos de entrenamiento significativamente reducidos y velocidades de inferencia mucho más rápidas. Nuestro DiJiang-7B alcanza un rendimiento comparable con LLaMA2-7B en varios benchmarks, mientras que requiere solo alrededor de 1/50 del costo de entrenamiento. El código está disponible en https://github.com/YuchuanTian/DiJiang.
English
In an effort to reduce the computational load of Transformers, research on
linear attention has gained significant momentum. However, the improvement
strategies for attention mechanisms typically necessitate extensive retraining,
which is impractical for large language models with a vast array of parameters.
In this paper, we present DiJiang, a novel Frequency Domain Kernelization
approach that enables the transformation of a pre-trained vanilla Transformer
into a linear complexity model with little training costs. By employing a
weighted Quasi-Monte Carlo method for sampling, the proposed approach
theoretically offers superior approximation efficiency. To further reduce the
training computational complexity, our kernelization is based on Discrete
Cosine Transform (DCT) operations. Extensive experiments demonstrate that the
proposed method achieves comparable performance to the original Transformer,
but with significantly reduced training costs and much faster inference speeds.
Our DiJiang-7B achieves comparable performance with LLaMA2-7B on various
benchmark while requires only about 1/50 training cost. Code is available at
https://github.com/YuchuanTian/DiJiang.Summary
AI-Generated Summary