Xmodel-LM Technischer Bericht
Xmodel-LM Technical Report
June 5, 2024
Autoren: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI
Zusammenfassung
Wir stellen Xmodel-LM vor, ein kompaktes und effizientes Sprachmodell mit 1,1 Milliarden Parametern, das auf über 2 Billionen Tokens vortrainiert wurde. Trainiert auf unserem selbst erstellten Datensatz (Xdata), der chinesische und englische Korpora basierend auf der Optimierung für nachgelagerte Aufgaben ausgleicht, zeigt Xmodel-LM eine bemerkenswerte Leistung trotz seiner geringeren Größe. Es übertrifft deutlich bestehende Open-Source-Sprachmodelle ähnlicher Größenordnung. Unsere Modell-Checkpoints und der Code sind öffentlich auf GitHub unter https://github.com/XiaoduoAILab/XmodelLM verfügbar.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model
pre-trained on over 2 trillion tokens. Trained on our self-built dataset
(Xdata), which balances Chinese and English corpora based on downstream task
optimization, Xmodel-LM exhibits remarkable performance despite its smaller
size. It notably surpasses existing open-source language models of similar
scale. Our model checkpoints and code are publicly accessible on GitHub at
https://github.com/XiaoduoAILab/XmodelLM.Summary
AI-Generated Summary