ChatPaper.aiChatPaper

Переосмысление оптимизации и архитектуры для компактных языковых моделей

Rethinking Optimization and Architecture for Tiny Language Models

February 5, 2024
Авторы: Yehui Tang, Fangcheng Liu, Yunsheng Ni, Yuchuan Tian, Zheyuan Bai, Yi-Qi Hu, Sichao Liu, Shangling Jui, Kai Han, Yunhe Wang
cs.AI

Аннотация

Мощь крупных языковых моделей (LLM) была продемонстрирована благодаря использованию значительных вычислительных ресурсов и объемов данных. Однако применение языковых моделей на мобильных устройствах сталкивается с серьезными вызовами, связанными с затратами на вычисления и память, что делает крайне необходимыми компактные языковые модели с высокой производительностью. Из-за сложности процесса обучения многие аспекты оптимизации языковых моделей остаются недостаточно изученными. В данном исследовании, основываясь на компактной языковой модели с 1 миллиардом параметров, мы тщательно разработали серию экспериментов для анализа влияния каждого компонента. Основное внимание уделено трем аспектам: архитектуре нейронной сети, инициализации параметров и стратегии оптимизации. Эмпирически доказана эффективность нескольких подходов, включая сжатие токенизатора, модификацию архитектуры, наследование параметров и многоэтапное обучение. Затем мы обучили модели PanGu-pi-1B Pro и PanGu-pi-1.5B Pro на 1.6 триллионах токенов многоязычных корпусов, следуя установленным принципам. Результаты экспериментов показывают, что улучшенная оптимизация и архитектура обеспечивают заметное повышение среднего показателя на 8.87 баллов на тестовых наборах для модели PanGu-pi-1B Pro. Кроме того, PanGu-pi-1.5B Pro превосходит ряд современных моделей с большим количеством параметров, подтверждая ее превосходную производительность. Код будет опубликован в ближайшее время (https://github.com/YuchuanTian/RethinkTinyLM).
English
The power of large language models (LLMs) has been demonstrated through numerous data and computing resources. However, the application of language models on mobile devices is facing huge challenge on the computation and memory costs, that is, tiny language models with high performance are urgently required. Limited by the highly complex training process, there are many details for optimizing language models that are seldom studied carefully. In this study, based on a tiny language model with 1B parameters, we carefully design a series of empirical study to analyze the effect of each component. Three perspectives are mainly discussed, i.e., neural architecture, parameter initialization, and optimization strategy. Several design formulas are empirically proved especially effective for tiny language models, including tokenizer compression, architecture tweaking, parameter inheritance and multiple-round training. Then we train PanGu-pi-1B Pro and PanGu-pi-1.5B Pro on 1.6T multilingual corpora, following the established formulas. Experimental results demonstrate the improved optimization and architecture yield a notable average improvement of 8.87 on benchmark evaluation sets for PanGu-pi-1B Pro. Besides, PanGu-pi-1.5B Pro surpasses a range of SOTA models with larger model sizes, validating its superior performance. The code will be released soon (https://github.com/YuchuanTian/RethinkTinyLM).
PDF131December 15, 2024