Sailor2: Покорение Юго-Восточной Азии с инклюзивными многоязычными LLM
Sailor2: Sailing in South-East Asia with Inclusive Multilingual LLMs
February 18, 2025
Авторы: Longxu Dou, Qian Liu, Fan Zhou, Changyu Chen, Zili Wang, Ziqi Jin, Zichen Liu, Tongyao Zhu, Cunxiao Du, Penghui Yang, Haonan Wang, Jiaheng Liu, Yongchi Zhao, Xiachong Feng, Xin Mao, Man Tsung Yeung, Kunat Pipatanakul, Fajri Koto, Min Si Thu, Hynek Kydlíček, Zeyi Liu, Qunshu Lin, Sittipong Sripaisarnmongkol, Kridtaphad Sae-Khow, Nirattisai Thongchim, Taechawat Konkaew, Narong Borijindargoon, Anh Dao, Matichon Maneegard, Phakphum Artkaew, Zheng-Xin Yong, Quan Nguyen, Wannaphong Phatthiyaphaibun, Hoang H. Tran, Mike Zhang, Shiqi Chen, Tianyu Pang, Chao Du, Xinyi Wan, Wei Lu, Min Lin
cs.AI
Аннотация
Sailor2 представляет собой семейство передовых многоязычных языковых моделей для языков Юго-Восточной Азии (ЮВА), доступных в размерах 1B, 8B и 20B для различных приложений. Основанная на Qwen2.5, модель Sailor2 проходит непрерывное предварительное обучение на 500 миллиардах токенов (400 миллиардов специфичных для ЮВА и 100 миллиардов повторяющихся токенов) для поддержки 13 языков ЮВА, сохраняя при этом владение китайским и английским языками. Модель Sailor2-20B демонстрирует 50-50 соотношение побед против GPT-4o на языках ЮВА. Мы также предоставляем подробное руководство по эффективной разработке многоязычной модели, охватывающее пять ключевых аспектов: подготовка данных, предварительное обучение, пост-обучение, настройка модели и оценка. Мы надеемся, что модель Sailor2 (лицензия Apache 2.0) будет способствовать развитию языков в регионе ЮВА, а руководство Sailor2 вдохновит исследователей на создание более инклюзивных языковых моделей для других недостаточно охваченных языков.
English
Sailor2 is a family of cutting-edge multilingual language models for
South-East Asian (SEA) languages, available in 1B, 8B, and 20B sizes to suit
diverse applications. Building on Qwen2.5, Sailor2 undergoes continuous
pre-training on 500B tokens (400B SEA-specific and 100B replay tokens) to
support 13 SEA languages while retaining proficiency in Chinese and English.
Sailor2-20B model achieves a 50-50 win rate against GPT-4o across SEA
languages. We also deliver a comprehensive cookbook on how to develop the
multilingual model in an efficient manner, including five key aspects: data
curation, pre-training, post-training, model customization and evaluation. We
hope that Sailor2 model (Apache 2.0 license) will drive language development in
the SEA region, and Sailor2 cookbook will inspire researchers to build more
inclusive LLMs for other under-served languages.Summary
AI-Generated Summary