Transformador Kolmogorov-Arnold
Kolmogorov-Arnold Transformer
September 16, 2024
Autores: Xingyi Yang, Xinchao Wang
cs.AI
Resumen
Los Transformers son la piedra angular del aprendizaje profundo moderno. Tradicionalmente, estos modelos dependen de capas de perceptrón multicapa (MLP) para mezclar la información entre canales. En este artículo, presentamos el Transformador Kolmogorov-Arnold (KAT), una arquitectura novedosa que reemplaza las capas MLP con capas de Red Kolmogorov-Arnold (KAN) para mejorar la expresividad y el rendimiento del modelo. Sin embargo, integrar KANs en los transformers no es tarea fácil, especialmente al escalar. Identificamos tres desafíos clave: (C1) Función base. La función estándar de B-spline utilizada en KANs no está optimizada para la computación paralela en hardware moderno, lo que resulta en velocidades de inferencia más lentas. (C2) Ineficiencia de parámetros y computación. KAN requiere una función única para cada par de entrada-salida, lo que hace que la computación sea extremadamente grande. (C3) Inicialización de pesos. La inicialización de pesos en KANs es particularmente desafiante debido a sus funciones de activación aprendibles, que son fundamentales para lograr la convergencia en redes neuronales profundas. Para superar los desafíos mencionados, proponemos tres soluciones clave: (S1) Base racional. Reemplazamos las funciones de B-spline con funciones racionales para mejorar la compatibilidad con las GPU modernas. Al implementar esto en CUDA, logramos cálculos más rápidos. (S2) Grupo KAN. Compartimos los pesos de activación a través de un grupo de neuronas para reducir la carga computacional sin sacrificar el rendimiento. (S3) Inicialización preservando la varianza. Inicializamos cuidadosamente los pesos de activación para asegurarnos de que la varianza de activación se mantenga en todas las capas. Con estos diseños, KAT escala de manera efectiva y supera fácilmente a los transformers tradicionales basados en MLP.
English
Transformers stand as the cornerstone of mordern deep learning.
Traditionally, these models rely on multi-layer perceptron (MLP) layers to mix
the information between channels. In this paper, we introduce the
Kolmogorov-Arnold Transformer (KAT), a novel architecture that replaces MLP
layers with Kolmogorov-Arnold Network (KAN) layers to enhance the
expressiveness and performance of the model. Integrating KANs into
transformers, however, is no easy feat, especially when scaled up.
Specifically, we identify three key challenges: (C1) Base function. The
standard B-spline function used in KANs is not optimized for parallel computing
on modern hardware, resulting in slower inference speeds. (C2) Parameter and
Computation Inefficiency. KAN requires a unique function for each input-output
pair, making the computation extremely large. (C3) Weight initialization. The
initialization of weights in KANs is particularly challenging due to their
learnable activation functions, which are critical for achieving convergence in
deep neural networks. To overcome the aforementioned challenges, we propose
three key solutions: (S1) Rational basis. We replace B-spline functions with
rational functions to improve compatibility with modern GPUs. By implementing
this in CUDA, we achieve faster computations. (S2) Group KAN. We share the
activation weights through a group of neurons, to reduce the computational load
without sacrificing performance. (S3) Variance-preserving initialization. We
carefully initialize the activation weights to make sure that the activation
variance is maintained across layers. With these designs, KAT scales
effectively and readily outperforms traditional MLP-based transformers.Summary
AI-Generated Summary