Informe Técnico de Xmodel-LM
Xmodel-LM Technical Report
June 5, 2024
Autores: Yichuan Wang, Yang Liu, Yu Yan, Xucheng Huang, Ling Jiang
cs.AI
Resumen
Presentamos Xmodel-LM, un modelo de lenguaje compacto y eficiente de 1.1B parámetros, preentrenado con más de 2 billones de tokens. Entrenado en nuestro conjunto de datos autoconstruido (Xdata), que equilibra corpus en chino e inglés basándose en la optimización de tareas posteriores, Xmodel-LM exhibe un rendimiento notable a pesar de su menor tamaño. Destaca por superar a los modelos de lenguaje de código abierto existentes de escala similar. Nuestros puntos de control del modelo y el código están disponibles públicamente en GitHub en https://github.com/XiaoduoAILab/XmodelLM.
English
We introduce Xmodel-LM, a compact and efficient 1.1B language model
pre-trained on over 2 trillion tokens. Trained on our self-built dataset
(Xdata), which balances Chinese and English corpora based on downstream task
optimization, Xmodel-LM exhibits remarkable performance despite its smaller
size. It notably surpasses existing open-source language models of similar
scale. Our model checkpoints and code are publicly accessible on GitHub at
https://github.com/XiaoduoAILab/XmodelLM.Summary
AI-Generated Summary