ChatPaper.aiChatPaper

Rapport Technique sur Xmodel-LM

Xmodel-LM Technical Report

June 5, 2024
Auteurs: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI

Résumé

Nous présentons Xmodel-LM, un modèle de langage compact et efficace de 1,1 milliard de paramètres, pré-entraîné sur plus de 2 000 milliards de tokens. Formé sur notre propre jeu de données (Xdata), qui équilibre les corpus chinois et anglais en fonction de l'optimisation des tâches en aval, Xmodel-LM démontre des performances remarquables malgré sa taille réduite. Il surpasse notamment les modèles de langage open source existants de taille similaire. Les points de contrôle de notre modèle ainsi que le code sont accessibles publiquement sur GitHub à l'adresse suivante : https://github.com/XiaoduoAILab/XmodelLM.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model pre-trained on over 2 trillion tokens. Trained on our self-built dataset (Xdata), which balances Chinese and English corpora based on downstream task optimization, Xmodel-LM exhibits remarkable performance despite its smaller size. It notably surpasses existing open-source language models of similar scale. Our model checkpoints and code are publicly accessible on GitHub at https://github.com/XiaoduoAILab/XmodelLM.

Summary

AI-Generated Summary

PDF111December 12, 2024