ChatPaper.aiChatPaper

Het schalen van LLM-pre-training met een vocabulaire-curriculum

Scaling LLM Pre-training with Vocabulary Curriculum

February 25, 2025
Auteurs: Fangyuan Yu
cs.AI

Samenvatting

Moderne taalmodellen vertrouwen op statische vocabulaire, die vastgesteld worden voorafgaand aan het vooraf trainen, in tegenstelling tot de adaptieve woordenschatverwerving die wordt waargenomen bij menselijke taalverwerving. Om deze kloof te overbruggen, introduceren we vocabulaire curriculumleren, een aanpak die de efficiëntie van het vooraf trainen verbetert met log-lineaire schaalwinsten ten opzichte van de vocabulairegrootte. Onze methode wisselt af tussen entropie-gestuurde vocabulaire-uitbreiding en modeloptimalisatie, waardoor modellen overdraagbare representaties kunnen leren over diverse tokenisatiegranulariteiten heen. Deze aanpak leidt van nature tot een optimaal patroon voor computationele toewijzing: langere tokens vangen voorspelbare inhoud op, terwijl kortere tokens zich richten op complexere, moeilijker te voorspellen contexten. Experimenten met kleinschalige GPT-modellen tonen verbeterde schaalefficiëntie aan, wat de effectiviteit van dynamische tokenisatie onderstreept. We stellen onze code beschikbaar om verder onderzoek te ondersteunen en zijn van plan onze experimenten uit te breiden naar grotere modellen en diverse domeinen.
English
Modern language models rely on static vocabularies, fixed before pretraining, in contrast to the adaptive vocabulary acquisition observed in human language learning. To bridge this gap, we introduce vocabulary curriculum learning, an approach that improves pretraining efficiency with log-linear scaling gains relative to vocabulary size. Our method alternates between entropy-guided vocabulary expansion and model optimization, enabling models to learn transferable representations across diverse tokenization granularities. This approach naturally gives rise to an optimal computation allocation pattern: longer tokens capture predictable content, while shorter tokens focus on more complex, harder-to-predict contexts. Experiments on small-scale GPT models demonstrate improved scaling efficiency, reinforcing the effectiveness of dynamic tokenization. We release our code to support further research and plan to extend our experiments to larger models and diverse domains.

Summary

AI-Generated Summary

PDF12February 26, 2025