Технический отчет по модели Xmodel-LM
Xmodel-LM Technical Report
June 5, 2024
Авторы: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI
Аннотация
Мы представляем Xmodel-LM, компактную и эффективную языковую модель объемом 1,1 млрд параметров, предварительно обученную на более чем 2 трлн токенов. Обученная на нашем собственном наборе данных (Xdata), который балансирует китайские и английские корпуса на основе оптимизации для последующих задач, Xmodel-LM проявляет выдающуюся производительность несмотря на свой более небольшой размер. Она заметно превосходит существующие открытые языковые модели схожего масштаба. Наши контрольные точки модели и код общедоступны на GitHub по адресу https://github.com/XiaoduoAILab/XmodelLM.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model
pre-trained on over 2 trillion tokens. Trained on our self-built dataset
(Xdata), which balances Chinese and English corpora based on downstream task
optimization, Xmodel-LM exhibits remarkable performance despite its smaller
size. It notably surpasses existing open-source language models of similar
scale. Our model checkpoints and code are publicly accessible on GitHub at
https://github.com/XiaoduoAILab/XmodelLM.Summary
AI-Generated Summary