ChatPaper.aiChatPaper

LLaMAX: Het uitbreiden van de linguïstische horizon van LLM door vertaalcapaciteiten te verbeteren voor meer dan 100 talen

LLaMAX: Scaling Linguistic Horizons of LLM by Enhancing Translation Capabilities Beyond 100 Languages

July 8, 2024
Auteurs: Yinquan Lu, Wenhao Zhu, Lei Li, Yu Qiao, Fei Yuan
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) tonen opmerkelijke vertaalcapaciteiten bij taken in talen met veel bronnen, maar hun prestaties in talen met weinig bronnen worden belemmerd door onvoldoende meertalige gegevens tijdens de voorafgaande training. Om dit aan te pakken, hebben we 35.000 A100-SXM4-80GB GPU-uren besteed aan uitgebreide meertalige voortgezette training op de LLaMA-serie modellen, waardoor vertaalondersteuning voor meer dan 100 talen mogelijk wordt gemaakt. Door een uitgebreide analyse van trainingsstrategieën, zoals vocabulaire-uitbreiding en data-augmentatie, ontwikkelen we LLaMAX. Opmerkelijk is dat LLaMAX, zonder in te leveren op zijn generalisatievermogen, aanzienlijk betere vertaalprestaties behaalt in vergelijking met bestaande open-source LLMs (met meer dan 10 spBLEU-punten) en vergelijkbaar presteert met gespecialiseerde vertaalmodellen (M2M-100-12B) op de Flores-101 benchmark. Uitgebreide experimenten geven aan dat LLaMAX kan dienen als een robuust meertalig basis model. De code~\url{https://github.com/CONE-MT/LLaMAX/.} en modellen~\url{https://huggingface.co/LLaMAX/.} zijn publiekelijk beschikbaar.
English
Large Language Models~(LLMs) demonstrate remarkable translation capabilities in high-resource language tasks, yet their performance in low-resource languages is hindered by insufficient multilingual data during pre-training. To address this, we dedicate 35,000 A100-SXM4-80GB GPU hours in conducting extensive multilingual continual pre-training on the LLaMA series models, enabling translation support across more than 100 languages. Through a comprehensive analysis of training strategies, such as vocabulary expansion and data augmentation, we develop LLaMAX. Remarkably, without sacrificing its generalization ability, LLaMAX achieves significantly higher translation performance compared to existing open-source LLMs~(by more than 10 spBLEU points) and performs on-par with specialized translation model~(M2M-100-12B) on the Flores-101 benchmark. Extensive experiments indicate that LLaMAX can serve as a robust multilingual foundation model. The code~\url{https://github.com/CONE-MT/LLaMAX/.} and models~\url{https://huggingface.co/LLaMAX/.} are publicly available.
PDF372November 28, 2024