ChatPaper.aiChatPaper

HARE: Priores Humanos, a chave para a Eficiência de Modelos de Linguagem Pequenos

HARE: HumAn pRiors, a key to small language model Efficiency

June 17, 2024
Autores: Lingyun Zhang, Bin jin, Gaojian Ge, Lunhui Liu, Xuewen Shen, Mingyong Wu, Houqian Zhang, Yongneng Jiang, Shiqi Chen, Shi Pu
cs.AI

Resumo

Os conhecimentos prévios humanos desempenham um papel crucial na utilização eficiente de dados no aprendizado profundo. No entanto, com o desenvolvimento de modelos de linguagem de grande escala (LLMs), há uma ênfase crescente na escalabilidade tanto do tamanho do modelo quanto do volume de dados, o que frequentemente diminui a importância dos conhecimentos prévios humanos na construção de dados. Influenciados por essas tendências, os modelos de linguagem de pequena escala (SLMs) existentes dependem principalmente de grandes volumes de dados de treinamento obtidos da web, negligenciando a incorporação adequada dos conhecimentos prévios humanos. Essa omissão limita a eficiência do treinamento de modelos de linguagem em ambientes com recursos limitados. Neste artigo, propomos um princípio para aproveitar os conhecimentos prévios humanos na construção de dados. Esse princípio enfatiza a obtenção de SLMs de alto desempenho por meio do treinamento em um conjunto de dados conciso que acomoda tanto a diversidade semântica quanto a consistência na qualidade dos dados, evitando o vazamento de dados de benchmark. Seguindo esse princípio, treinamos um SLM chamado HARE-1.1B. Experimentos extensos em grandes conjuntos de dados de benchmark demonstram que o HARE-1.1B tem um desempenho favorável em comparação com os SLMs mais avançados, validando a eficácia do princípio proposto. Além disso, isso fornece novas perspectivas sobre o treinamento eficiente de modelos de linguagem em ambientes com recursos limitados, sob a ótica dos conhecimentos prévios humanos.
English
Human priors play a crucial role in efficiently utilizing data in deep learning. However, with the development of large language models (LLMs), there is an increasing emphasis on scaling both model size and data volume, which often diminishes the importance of human priors in data construction. Influenced by these trends, existing Small Language Models (SLMs) mainly rely on web-scraped large-scale training data, neglecting the proper incorporation of human priors. This oversight limits the training efficiency of language models in resource-constrained settings. In this paper, we propose a principle to leverage human priors for data construction. This principle emphasizes achieving high-performance SLMs by training on a concise dataset that accommodates both semantic diversity and data quality consistency, while avoiding benchmark data leakage. Following this principle, we train an SLM named HARE-1.1B. Extensive experiments on large-scale benchmark datasets demonstrate that HARE-1.1B performs favorably against state-of-the-art SLMs, validating the effectiveness of the proposed principle. Additionally, this provides new insights into efficient language model training in resource-constrained environments from the view of human priors.
PDF391December 2, 2024