T-FREE: Tokenizer-freie generative LLMs über spärliche Repräsentationen für speichereffiziente Einbettungen.
T-FREE: Tokenizer-Free Generative LLMs via Sparse Representations for Memory-Efficient Embeddings
June 27, 2024
Autoren: Björn Deiseroth, Manuel Brack, Patrick Schramowski, Kristian Kersting, Samuel Weinbach
cs.AI
Zusammenfassung
Tokenisierer sind entscheidend für die Codierung von Informationen in großen Sprachmodellen, aber in letzter Zeit ist ihre Entwicklung ins Stocken geraten, und sie weisen inhärente Schwächen auf. Hauptbeschränkungen umfassen den Rechenaufwand, ineffektive Vokabularnutzung und unnötig große Einbettungs- und Kopfschichten. Darüber hinaus ist ihre Leistung auf ein Referenzkorpus ausgerichtet, was zu einer verringerten Effektivität für unterrepräsentierte Sprachen führt.
Zur Behebung dieser Probleme schlagen wir T-FREE vor, das Wörter direkt durch spärliche Aktivierungsmuster über Zeichentripel einbettet und kein Referenzkorpus erfordert. T-FREE nutzt morphologische Ähnlichkeiten von Grund auf und ermöglicht eine starke Komprimierung von Einbettungsschichten. In unserer umfassenden experimentellen Bewertung erzielen wir eine wettbewerbsfähige Leistung bei nachgelagerten Aufgaben mit einer Parameterreduzierung von mehr als 85 % auf diesen Schichten. Darüber hinaus zeigt T-FREE signifikante Verbesserungen beim transferlernen über verschiedene Sprachen hinweg.
English
Tokenizers are crucial for encoding information in Large Language Models, but
their development has recently stagnated, and they contain inherent weaknesses.
Major limitations include computational overhead, ineffective vocabulary use,
and unnecessarily large embedding and head layers. Additionally, their
performance is biased towards a reference corpus, leading to reduced
effectiveness for underrepresented languages.
To remedy these issues, we propose T-FREE, which directly embeds words
through sparse activation patterns over character triplets, and does not
require a reference corpus. T-FREE inherently exploits morphological
similarities and allows for strong compression of embedding layers. In our
exhaustive experimental evaluation, we achieve competitive downstream
performance with a parameter reduction of more than 85% on these layers.
Further, T-FREE shows significant improvements in cross-lingual transfer
learning.Summary
AI-Generated Summary