Relatório Técnico do Xmodel-LM
Xmodel-LM Technical Report
June 5, 2024
Autores: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI
Resumo
Apresentamos o Xmodel-LM, um modelo de linguagem compacto e eficiente com 1,1 bilhão de parâmetros, pré-treinado em mais de 2 trilhões de tokens. Treinado em nosso conjunto de dados autoconstruído (Xdata), que equilibra corpora em chinês e inglês com base na otimização de tarefas subsequentes, o Xmodel-LM exibe um desempenho notável apesar de seu tamanho reduzido. Ele supera significativamente os modelos de linguagem de código aberto existentes de escala similar. Nossos checkpoints do modelo e o código estão publicamente acessíveis no GitHub em https://github.com/XiaoduoAILab/XmodelLM.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model
pre-trained on over 2 trillion tokens. Trained on our self-built dataset
(Xdata), which balances Chinese and English corpora based on downstream task
optimization, Xmodel-LM exhibits remarkable performance despite its smaller
size. It notably surpasses existing open-source language models of similar
scale. Our model checkpoints and code are publicly accessible on GitHub at
https://github.com/XiaoduoAILab/XmodelLM.