ChatPaper.aiChatPaper

Xmodel-LM技術レポート

Xmodel-LM Technical Report

June 5, 2024
著者: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI

要旨

私たちは、2兆以上のトークンで事前学習されたコンパクトで効率的な1.1Bパラメータの言語モデル、Xmodel-LMを紹介します。下流タスクの最適化に基づいて中国語と英語のコーパスをバランスよく含む独自構築データセット(Xdata)で学習されたXmodel-LMは、その小さなサイズにもかかわらず、驚くべき性能を発揮します。特に、同規模の既存のオープンソース言語モデルを凌駕しています。私たちのモデルのチェックポイントとコードは、GitHubのhttps://github.com/XiaoduoAILab/XmodelLMで公開されています。
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model pre-trained on over 2 trillion tokens. Trained on our self-built dataset (Xdata), which balances Chinese and English corpora based on downstream task optimization, Xmodel-LM exhibits remarkable performance despite its smaller size. It notably surpasses existing open-source language models of similar scale. Our model checkpoints and code are publicly accessible on GitHub at https://github.com/XiaoduoAILab/XmodelLM.

Summary

AI-Generated Summary

PDF111December 12, 2024