LLaMAX: Расширение лингвистических горизонтов LLM путем улучшения возможностей перевода за пределами 100 языков
LLaMAX: Scaling Linguistic Horizons of LLM by Enhancing Translation Capabilities Beyond 100 Languages
July 8, 2024
Авторы: Yinquan Lu, Wenhao Zhu, Lei Li, Yu Qiao, Fei Yuan
cs.AI
Аннотация
Большие языковые модели (LLM) демонстрируют выдающиеся возможности в области перевода в задачах на языках с высокими ресурсами, однако их производительность на языках с низкими ресурсами затруднена из-за недостаточного мультиязычного объема данных во время предварительного обучения. Для решения этой проблемы мы выделяем 35 000 часов GPU A100-SXM4-80GB на проведение обширного мультиязычного непрерывного предварительного обучения на моделях серии LLaMA, обеспечивая поддержку перевода более чем на 100 языках. Через комплексный анализ стратегий обучения, таких как расширение словаря и аугментация данных, мы разрабатываем LLaMAX. Заметно, не жертвуя своей обобщающей способностью, LLaMAX достигает значительно более высокой производительности перевода по сравнению с существующими открытыми LLM (более чем на 10 пунктов spBLEU) и работает на уровне специализированной модели перевода (M2M-100-12B) по показателям Flores-101. Обширные эксперименты показывают, что LLaMAX может служить надежной мультиязычной базовой моделью. Код \url{https://github.com/CONE-MT/LLaMAX/.} и модели \url{https://huggingface.co/LLaMAX/.} доступны публично.
English
Large Language Models~(LLMs) demonstrate remarkable translation capabilities
in high-resource language tasks, yet their performance in low-resource
languages is hindered by insufficient multilingual data during pre-training. To
address this, we dedicate 35,000 A100-SXM4-80GB GPU hours in conducting
extensive multilingual continual pre-training on the LLaMA series models,
enabling translation support across more than 100 languages. Through a
comprehensive analysis of training strategies, such as vocabulary expansion and
data augmentation, we develop LLaMAX. Remarkably, without sacrificing its
generalization ability, LLaMAX achieves significantly higher translation
performance compared to existing open-source LLMs~(by more than 10 spBLEU
points) and performs on-par with specialized translation model~(M2M-100-12B) on
the Flores-101 benchmark. Extensive experiments indicate that LLaMAX can serve
as a robust multilingual foundation model. The
code~\url{https://github.com/CONE-MT/LLaMAX/.} and
models~\url{https://huggingface.co/LLaMAX/.} are publicly available.Summary
AI-Generated Summary