T-FREE : Modèles de langage génératifs sans tokenizer via des représentations éparses pour des embeddings économes en mémoire
T-FREE: Tokenizer-Free Generative LLMs via Sparse Representations for Memory-Efficient Embeddings
June 27, 2024
Auteurs: Björn Deiseroth, Manuel Brack, Patrick Schramowski, Kristian Kersting, Samuel Weinbach
cs.AI
Résumé
Les tokenizers sont essentiels pour encoder l'information dans les modèles de langage à grande échelle, mais leur développement a récemment stagné et ils présentent des faiblesses inhérentes. Les principales limitations incluent la surcharge computationnelle, l'utilisation inefficace du vocabulaire, ainsi que des couches d'embedding et de tête inutilement volumineuses. De plus, leur performance est biaisée en faveur d'un corpus de référence, ce qui réduit leur efficacité pour les langues sous-représentées.
Pour remédier à ces problèmes, nous proposons T-FREE, qui intègre directement les mots via des motifs d'activation clairsemés sur des triplets de caractères, sans nécessiter de corpus de référence. T-FREE exploite intrinsèquement les similarités morphologiques et permet une forte compression des couches d'embedding. Dans notre évaluation expérimentale exhaustive, nous obtenons des performances compétitives en aval avec une réduction de plus de 85 % des paramètres sur ces couches. Par ailleurs, T-FREE montre des améliorations significatives dans l'apprentissage par transfert multilingue.
English
Tokenizers are crucial for encoding information in Large Language Models, but
their development has recently stagnated, and they contain inherent weaknesses.
Major limitations include computational overhead, ineffective vocabulary use,
and unnecessarily large embedding and head layers. Additionally, their
performance is biased towards a reference corpus, leading to reduced
effectiveness for underrepresented languages.
To remedy these issues, we propose T-FREE, which directly embeds words
through sparse activation patterns over character triplets, and does not
require a reference corpus. T-FREE inherently exploits morphological
similarities and allows for strong compression of embedding layers. In our
exhaustive experimental evaluation, we achieve competitive downstream
performance with a parameter reduction of more than 85% on these layers.
Further, T-FREE shows significant improvements in cross-lingual transfer
learning.Summary
AI-Generated Summary