ChatPaper.aiChatPaper

YAYI 2: Многоязычные открытые большие языковые модели

YAYI 2: Multilingual Open-Source Large Language Models

December 22, 2023
Авторы: Yin Luo, Qingchao Kong, Nan Xu, Jia Cao, Bao Hao, Baoyu Qu, Bo Chen, Chao Zhu, Chenyang Zhao, Donglei Zhang, Fan Feng, Feifei Zhao, Hailong Sun, Hanxuan Yang, Haojun Pan, Hongyu Liu, Jianbin Guo, Jiangtao Du, Jingyi Wang, Junfeng Li, Lei Sun, Liduo Liu, Lifeng Dong, Lili Liu, Lin Wang, Liwen Zhang, Minzheng Wang, Pin Wang, Ping Yu, Qingxiao Li, Rui Yan, Rui Zou, Ruiqun Li, Taiwen Huang, Xiaodong Wang, Xiaofei Wu, Xin Peng, Xina Zhang, Xing Fang, Xinglin Xiao, Yanni Hao, Yao Dong, Yigang Wang, Ying Liu, Yongyu Jiang, Yungan Wang, Yuqi Wang, Zhangsheng Wang, Zhaoxin Yu, Zhen Luo, Wenji Mao, Lei Wang, Dajun Zeng
cs.AI

Аннотация

Последние достижения в области обработки естественного языка привели к тому, что крупные языковые модели (LLM) достигли уровня понимания и генерации языка, сопоставимого с человеческим, во многих реальных задачах, и даже рассматриваются как потенциальный путь к созданию искусственного общего интеллекта. Для более эффективного содействия исследованиям в области LLM недавно были предложены многие открытые модели, такие как Llama 2 и Falcon, которые демонстрируют производительность, сравнимую с проприетарными моделями. Однако эти модели в основном разработаны для англоязычных сценариев и показывают низкую производительность в китайских контекстах. В данном техническом отчете мы представляем YAYI 2, включая базовую и чат-модель, с 30 миллиардами параметров. YAYI 2 предварительно обучается с нуля на многоязычном корпусе, содержащем 2,65 триллиона токенов, отфильтрованных с помощью нашего конвейера обработки данных для предварительного обучения. Базовая модель согласуется с человеческими ценностями посредством контролируемого тонкого обучения на миллионах инструкций и обучения с подкреплением на основе обратной связи от людей. Многочисленные эксперименты на различных бенчмарках, таких как MMLU и CMMLU, последовательно демонстрируют, что предложенная модель YAYI 2 превосходит другие открытые модели аналогичного размера.
English
As the latest advancements in natural language processing, large language models (LLMs) have achieved human-level language understanding and generation abilities in many real-world tasks, and even have been regarded as a potential path to the artificial general intelligence. To better facilitate research on LLMs, many open-source LLMs, such as Llama 2 and Falcon, have recently been proposed and gained comparable performances to proprietary models. However, these models are primarily designed for English scenarios and exhibit poor performances in Chinese contexts. In this technical report, we propose YAYI 2, including both base and chat models, with 30 billion parameters. YAYI 2 is pre-trained from scratch on a multilingual corpus which contains 2.65 trillion tokens filtered by our pre-training data processing pipeline. The base model is aligned with human values through supervised fine-tuning with millions of instructions and reinforcement learning from human feedback. Extensive experiments on multiple benchmarks, such as MMLU and CMMLU, consistently demonstrate that the proposed YAYI 2 outperforms other similar sized open-source models.
PDF151December 15, 2024