ChatPaper.aiChatPaper

Repenser l'optimisation et l'architecture pour les petits modèles de langage

Rethinking Optimization and Architecture for Tiny Language Models

February 5, 2024
Auteurs: Yehui Tang, Fangcheng Liu, Yunsheng Ni, Yuchuan Tian, Zheyuan Bai, Yi-Qi Hu, Sichao Liu, Shangling Jui, Kai Han, Yunhe Wang
cs.AI

Résumé

La puissance des grands modèles de langage (LLMs) a été démontrée grâce à d'importantes ressources en données et en calcul. Cependant, l'application de ces modèles de langage sur les appareils mobiles se heurte à des défis majeurs en termes de coûts de calcul et de mémoire, ce qui rend crucial le développement de petits modèles de langage à haute performance. Limitée par la complexité du processus d'entraînement, de nombreux aspects liés à l'optimisation des modèles de langage restent peu étudiés en détail. Dans cette étude, en nous basant sur un petit modèle de langage de 1 milliard de paramètres, nous concevons soigneusement une série d'expériences pour analyser l'effet de chaque composant. Trois perspectives sont principalement abordées : l'architecture neuronale, l'initialisation des paramètres et la stratégie d'optimisation. Plusieurs formules de conception s'avèrent empiriquement particulièrement efficaces pour les petits modèles de langage, notamment la compression du tokenizer, l'ajustement de l'architecture, l'héritage des paramètres et l'entraînement en plusieurs étapes. Nous entraînons ensuite PanGu-pi-1B Pro et PanGu-pi-1.5B Pro sur un corpus multilingue de 1,6 téraoctets, en suivant ces formules établies. Les résultats expérimentaux montrent que les améliorations apportées à l'optimisation et à l'architecture entraînent une amélioration moyenne notable de 8,87 sur les ensembles d'évaluation de référence pour PanGu-pi-1B Pro. Par ailleurs, PanGu-pi-1.5B Pro surpasse une gamme de modèles SOTA de tailles plus importantes, validant ainsi ses performances supérieures. Le code sera bientôt publié (https://github.com/YuchuanTian/RethinkTinyLM).
English
The power of large language models (LLMs) has been demonstrated through numerous data and computing resources. However, the application of language models on mobile devices is facing huge challenge on the computation and memory costs, that is, tiny language models with high performance are urgently required. Limited by the highly complex training process, there are many details for optimizing language models that are seldom studied carefully. In this study, based on a tiny language model with 1B parameters, we carefully design a series of empirical study to analyze the effect of each component. Three perspectives are mainly discussed, i.e., neural architecture, parameter initialization, and optimization strategy. Several design formulas are empirically proved especially effective for tiny language models, including tokenizer compression, architecture tweaking, parameter inheritance and multiple-round training. Then we train PanGu-pi-1B Pro and PanGu-pi-1.5B Pro on 1.6T multilingual corpora, following the established formulas. Experimental results demonstrate the improved optimization and architecture yield a notable average improvement of 8.87 on benchmark evaluation sets for PanGu-pi-1B Pro. Besides, PanGu-pi-1.5B Pro surpasses a range of SOTA models with larger model sizes, validating its superior performance. The code will be released soon (https://github.com/YuchuanTian/RethinkTinyLM).
PDF131December 15, 2024