Rapporto Tecnico di Xmodel-LM
Xmodel-LM Technical Report
June 5, 2024
Autori: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI
Abstract
Presentiamo Xmodel-LM, un modello linguistico compatto ed efficiente da 1,1 miliardi di parametri pre-addestrato su oltre 2 trilioni di token. Addestrato sul nostro dataset auto-costruito (Xdata), che bilancia corpora in cinese e inglese in base all'ottimizzazione per task downstream, Xmodel-LM dimostra prestazioni notevoli nonostante le sue dimensioni ridotte. In particolare, supera i modelli linguistici open-source esistenti di scala simile. I nostri checkpoint del modello e il codice sono accessibili pubblicamente su GitHub all'indirizzo https://github.com/XiaoduoAILab/XmodelLM.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model
pre-trained on over 2 trillion tokens. Trained on our self-built dataset
(Xdata), which balances Chinese and English corpora based on downstream task
optimization, Xmodel-LM exhibits remarkable performance despite its smaller
size. It notably surpasses existing open-source language models of similar
scale. Our model checkpoints and code are publicly accessible on GitHub at
https://github.com/XiaoduoAILab/XmodelLM.