ChatPaper.aiChatPaper

Repensando a Otimização e a Arquitetura para Modelos de Linguagem Compactos

Rethinking Optimization and Architecture for Tiny Language Models

February 5, 2024
Autores: Yehui Tang, Fangcheng Liu, Yunsheng Ni, Yuchuan Tian, Zheyuan Bai, Yi-Qi Hu, Sichao Liu, Shangling Jui, Kai Han, Yunhe Wang
cs.AI

Resumo

O poder dos grandes modelos de linguagem (LLMs) tem sido demonstrado por meio de numerosos recursos de dados e computação. No entanto, a aplicação de modelos de linguagem em dispositivos móveis enfrenta um grande desafio em relação aos custos de computação e memória, ou seja, modelos de linguagem compactos com alto desempenho são urgentemente necessários. Limitados pelo processo de treinamento altamente complexo, há muitos detalhes para otimizar modelos de linguagem que raramente são estudados cuidadosamente. Neste estudo, com base em um modelo de linguagem compacto com 1 bilhão de parâmetros, projetamos cuidadosamente uma série de estudos empíricos para analisar o efeito de cada componente. Três perspectivas são principalmente discutidas, ou seja, arquitetura neural, inicialização de parâmetros e estratégia de otimização. Várias fórmulas de design são empiricamente comprovadas como especialmente eficazes para modelos de linguagem compactos, incluindo compressão de tokenizador, ajustes de arquitetura, herança de parâmetros e treinamento em múltiplas rodadas. Em seguida, treinamos o PanGu-pi-1B Pro e o PanGu-pi-1.5B Pro em corpora multilingues de 1,6T, seguindo as fórmulas estabelecidas. Os resultados experimentais demonstram que a otimização e a arquitetura aprimoradas resultam em uma melhoria média notável de 8,87 em conjuntos de avaliação de benchmark para o PanGu-pi-1B Pro. Além disso, o PanGu-pi-1.5B Pro supera uma série de modelos SOTA com tamanhos maiores, validando seu desempenho superior. O código será lançado em breve (https://github.com/YuchuanTian/RethinkTinyLM).
English
The power of large language models (LLMs) has been demonstrated through numerous data and computing resources. However, the application of language models on mobile devices is facing huge challenge on the computation and memory costs, that is, tiny language models with high performance are urgently required. Limited by the highly complex training process, there are many details for optimizing language models that are seldom studied carefully. In this study, based on a tiny language model with 1B parameters, we carefully design a series of empirical study to analyze the effect of each component. Three perspectives are mainly discussed, i.e., neural architecture, parameter initialization, and optimization strategy. Several design formulas are empirically proved especially effective for tiny language models, including tokenizer compression, architecture tweaking, parameter inheritance and multiple-round training. Then we train PanGu-pi-1B Pro and PanGu-pi-1.5B Pro on 1.6T multilingual corpora, following the established formulas. Experimental results demonstrate the improved optimization and architecture yield a notable average improvement of 8.87 on benchmark evaluation sets for PanGu-pi-1B Pro. Besides, PanGu-pi-1.5B Pro surpasses a range of SOTA models with larger model sizes, validating its superior performance. The code will be released soon (https://github.com/YuchuanTian/RethinkTinyLM).
PDF131December 22, 2025