ChatPaper.aiChatPaper

Transformateur Kolmogorov-Arnold

Kolmogorov-Arnold Transformer

September 16, 2024
Auteurs: Xingyi Yang, Xinchao Wang
cs.AI

Résumé

Les Transformers constituent la pierre angulaire de l'apprentissage profond moderne. Traditionnellement, ces modèles s'appuient sur des couches de perceptrons multicouches (MLP) pour mélanger les informations entre les canaux. Dans cet article, nous introduisons le Transformateur Kolmogorov-Arnold (KAT), une architecture novatrice qui remplace les couches MLP par des couches de Réseau Kolmogorov-Arnold (KAN) pour améliorer l'expressivité et les performances du modèle. Intégrer des KAN dans les transformers, cependant, n'est pas une tâche facile, surtout à grande échelle. Plus précisément, nous identifions trois défis clés : (C1) Fonction de base. La fonction standard de B-spline utilisée dans les KAN n'est pas optimisée pour le calcul parallèle sur le matériel moderne, ce qui entraîne des vitesses d'inférence plus lentes. (C2) Inefficacité des paramètres et des calculs. Les KAN nécessitent une fonction unique pour chaque paire entrée-sortie, rendant le calcul extrêmement volumineux. (C3) Initialisation des poids. L'initialisation des poids dans les KAN est particulièrement difficile en raison de leurs fonctions d'activation apprenantes, qui sont cruciales pour atteindre la convergence dans les réseaux neuronaux profonds. Pour surmonter les défis mentionnés ci-dessus, nous proposons trois solutions clés : (S1) Base rationnelle. Nous remplaçons les fonctions de B-spline par des fonctions rationnelles pour améliorer la compatibilité avec les GPU modernes. En implémentant cela en CUDA, nous obtenons des calculs plus rapides. (S2) Groupe KAN. Nous partageons les poids d'activation à travers un groupe de neurones pour réduire la charge de calcul sans sacrifier les performances. (S3) Initialisation préservant la variance. Nous initialisons soigneusement les poids d'activation pour garantir que la variance d'activation est maintenue entre les couches. Avec ces conceptions, le KAT s'échelonne efficacement et surpasse facilement les transformers traditionnels basés sur les MLP.
English
Transformers stand as the cornerstone of mordern deep learning. Traditionally, these models rely on multi-layer perceptron (MLP) layers to mix the information between channels. In this paper, we introduce the Kolmogorov-Arnold Transformer (KAT), a novel architecture that replaces MLP layers with Kolmogorov-Arnold Network (KAN) layers to enhance the expressiveness and performance of the model. Integrating KANs into transformers, however, is no easy feat, especially when scaled up. Specifically, we identify three key challenges: (C1) Base function. The standard B-spline function used in KANs is not optimized for parallel computing on modern hardware, resulting in slower inference speeds. (C2) Parameter and Computation Inefficiency. KAN requires a unique function for each input-output pair, making the computation extremely large. (C3) Weight initialization. The initialization of weights in KANs is particularly challenging due to their learnable activation functions, which are critical for achieving convergence in deep neural networks. To overcome the aforementioned challenges, we propose three key solutions: (S1) Rational basis. We replace B-spline functions with rational functions to improve compatibility with modern GPUs. By implementing this in CUDA, we achieve faster computations. (S2) Group KAN. We share the activation weights through a group of neurons, to reduce the computational load without sacrificing performance. (S3) Variance-preserving initialization. We carefully initialize the activation weights to make sure that the activation variance is maintained across layers. With these designs, KAT scales effectively and readily outperforms traditional MLP-based transformers.

Summary

AI-Generated Summary

PDF465November 16, 2024