ChatPaper.aiChatPaper

DiJiang: Modelos de Lenguaje a Gran Escala Eficientes mediante Kernelización Compacta

DiJiang: Efficient Large Language Models through Compact Kernelization

March 29, 2024
Autores: Hanting Chen, Zhicheng Liu, Xutao Wang, Yuchuan Tian, Yunhe Wang
cs.AI

Resumen

En un esfuerzo por reducir la carga computacional de los Transformers, la investigación sobre la atención lineal ha ganado un impulso significativo. Sin embargo, las estrategias de mejora para los mecanismos de atención generalmente requieren un extenso reentrenamiento, lo cual resulta poco práctico para modelos de lenguaje grandes con una gran cantidad de parámetros. En este artículo, presentamos DiJiang, un novedoso enfoque de Kernelización en el Dominio de la Frecuencia que permite transformar un Transformer preentrenado en un modelo de complejidad lineal con costos de entrenamiento mínimos. Al emplear un método de muestreo Quasi-Monte Carlo ponderado, el enfoque propuesto ofrece teóricamente una eficiencia de aproximación superior. Para reducir aún más la complejidad computacional del entrenamiento, nuestra kernelización se basa en operaciones de Transformada Discreta del Coseno (DCT). Experimentos exhaustivos demuestran que el método propuesto logra un rendimiento comparable al Transformer original, pero con costos de entrenamiento significativamente reducidos y velocidades de inferencia mucho más rápidas. Nuestro DiJiang-7B alcanza un rendimiento comparable con LLaMA2-7B en varios benchmarks, mientras que requiere solo alrededor de 1/50 del costo de entrenamiento. El código está disponible en https://github.com/YuchuanTian/DiJiang.
English
In an effort to reduce the computational load of Transformers, research on linear attention has gained significant momentum. However, the improvement strategies for attention mechanisms typically necessitate extensive retraining, which is impractical for large language models with a vast array of parameters. In this paper, we present DiJiang, a novel Frequency Domain Kernelization approach that enables the transformation of a pre-trained vanilla Transformer into a linear complexity model with little training costs. By employing a weighted Quasi-Monte Carlo method for sampling, the proposed approach theoretically offers superior approximation efficiency. To further reduce the training computational complexity, our kernelization is based on Discrete Cosine Transform (DCT) operations. Extensive experiments demonstrate that the proposed method achieves comparable performance to the original Transformer, but with significantly reduced training costs and much faster inference speeds. Our DiJiang-7B achieves comparable performance with LLaMA2-7B on various benchmark while requires only about 1/50 training cost. Code is available at https://github.com/YuchuanTian/DiJiang.

Summary

AI-Generated Summary

PDF121November 26, 2024