ChatPaper.aiChatPaper

CCI3.0-HQ: крупномасштабный китайский набор данных высокого качества, разработанный для предварительного обучения больших языковых моделей

CCI3.0-HQ: a large-scale Chinese dataset of high quality designed for pre-training large language models

October 24, 2024
Авторы: Liangdong Wang, Bo-Wen Zhang, Chengwei Wu, Hanyu Zhao, Xiaofeng Shi, Shuhao Gu, Jijie Li, Quanyue Ma, TengFei Pan, Guang Liu
cs.AI

Аннотация

Мы представляем CCI3.0-HQ (https://huggingface.co/datasets/BAAI/CCI3-HQ), высококачественный поднабор данных объемом 500 ГБ из Китайских корпусов Интернета 3.0 (CCI3.0) (https://huggingface.co/datasets/BAAI/CCI3-Data), разработанный с использованием новой гибридной двухэтапной системы фильтрации, которая значительно повышает качество данных. Для оценки его эффективности мы обучили модель с 0.5 миллиарда параметров с нуля на 100 миллиардах токенов по различным наборам данных, достигнув превосходных результатов на 10 бенчмарках в условиях нулевой настройки по сравнению с CCI3.0, SkyPile и WanjuanV1. Процесс фильтрации высокого качества эффективно концентрирует возможности модели Qwen2-72B-instruct в компактную модель с 0.5 миллиарда параметров, достигая оптимальных значений F1 для классификации китайских веб-данных. Мы считаем, что этот набор данных с открытым доступом способствует более широкому доступу к высококачественным языковым моделям.
English
We present CCI3.0-HQ (https://huggingface.co/datasets/BAAI/CCI3-HQ), a high-quality 500GB subset of the Chinese Corpora Internet 3.0 (CCI3.0)(https://huggingface.co/datasets/BAAI/CCI3-Data), developed using a novel two-stage hybrid filtering pipeline that significantly enhances data quality. To evaluate its effectiveness, we trained a 0.5B parameter model from scratch on 100B tokens across various datasets, achieving superior performance on 10 benchmarks in a zero-shot setting compared to CCI3.0, SkyPile, and WanjuanV1. The high-quality filtering process effectively distills the capabilities of the Qwen2-72B-instruct model into a compact 0.5B model, attaining optimal F1 scores for Chinese web data classification. We believe this open-access dataset will facilitate broader access to high-quality language models.

Summary

AI-Generated Summary

PDF113November 16, 2024