ChatPaper.aiChatPaper

LLaMAX: 100言語を超える翻訳能力の強化による大規模言語モデルの言語的視野の拡大

LLaMAX: Scaling Linguistic Horizons of LLM by Enhancing Translation Capabilities Beyond 100 Languages

July 8, 2024
著者: Yinquan Lu, Wenhao Zhu, Lei Li, Yu Qiao, Fei Yuan
cs.AI

要旨

大規模言語モデル(LLM)は、高リソース言語タスクにおいて驚異的な翻訳能力を発揮しますが、低リソース言語での性能は、事前学習中の多言語データの不足によって制限されています。この問題に対処するため、我々は35,000 A100-SXM4-80GB GPU時間を費やし、LLaMAシリーズモデルに対して大規模な多言語継続事前学習を実施し、100以上の言語に対応した翻訳サポートを実現しました。語彙拡張やデータ拡張などのトレーニング戦略を包括的に分析することで、LLaMAXを開発しました。注目すべきは、一般化能力を損なうことなく、LLaMAXが既存のオープンソースLLM(10 spBLEUポイント以上)を大幅に上回る翻訳性能を達成し、Flores-101ベンチマークにおいて専門的な翻訳モデル(M2M-100-12B)と同等の性能を発揮することです。広範な実験により、LLaMAXが堅牢な多言語基盤モデルとして機能し得ることが示されました。コード(\url{https://github.com/CONE-MT/LLaMAX/.})とモデル(\url{https://huggingface.co/LLaMAX/.})は公開されています。
English
Large Language Models~(LLMs) demonstrate remarkable translation capabilities in high-resource language tasks, yet their performance in low-resource languages is hindered by insufficient multilingual data during pre-training. To address this, we dedicate 35,000 A100-SXM4-80GB GPU hours in conducting extensive multilingual continual pre-training on the LLaMA series models, enabling translation support across more than 100 languages. Through a comprehensive analysis of training strategies, such as vocabulary expansion and data augmentation, we develop LLaMAX. Remarkably, without sacrificing its generalization ability, LLaMAX achieves significantly higher translation performance compared to existing open-source LLMs~(by more than 10 spBLEU points) and performs on-par with specialized translation model~(M2M-100-12B) on the Flores-101 benchmark. Extensive experiments indicate that LLaMAX can serve as a robust multilingual foundation model. The code~\url{https://github.com/CONE-MT/LLaMAX/.} and models~\url{https://huggingface.co/LLaMAX/.} are publicly available.

Summary

AI-Generated Summary

PDF382November 28, 2024