LLaMAX: Skalierung der linguistischen Horizonte von LLM durch Verbesserung der Übersetzungsfähigkeiten über 100 Sprachen hinaus
LLaMAX: Scaling Linguistic Horizons of LLM by Enhancing Translation Capabilities Beyond 100 Languages
July 8, 2024
Autoren: Yinquan Lu, Wenhao Zhu, Lei Li, Yu Qiao, Fei Yuan
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) zeigen bemerkenswerte Übersetzungsfähigkeiten in hochwertigen Sprachaufgaben, doch ihre Leistungsfähigkeit in Sprachen mit geringen Ressourcen wird durch unzureichende mehrsprachige Daten während des Vortrainings beeinträchtigt. Um dies zu lösen, widmen wir 35.000 A100-SXM4-80GB GPU-Stunden der Durchführung umfangreichen mehrsprachigen kontinuierlichen Vortrainings an den LLaMA-Serienmodellen, was Übersetzungsunterstützung in über 100 Sprachen ermöglicht. Durch eine umfassende Analyse von Trainingsstrategien wie Vokabularerweiterung und Datenvermehrung entwickeln wir LLaMAX. Bemerkenswerterweise erreicht LLaMAX signifikant höhere Übersetzungsleistungen im Vergleich zu bestehenden Open-Source LLMs (um mehr als 10 spBLEU-Punkte) und steht auf Augenhöhe mit spezialisierten Übersetzungsmodellen (M2M-100-12B) im Flores-101 Benchmark. Umfangreiche Experimente deuten darauf hin, dass LLaMAX als robustes mehrsprachiges Grundlagenmodell dienen kann. Der Code \url{https://github.com/CONE-MT/LLaMAX/.} und die Modelle \url{https://huggingface.co/LLaMAX/.} sind öffentlich verfügbar.
English
Large Language Models~(LLMs) demonstrate remarkable translation capabilities
in high-resource language tasks, yet their performance in low-resource
languages is hindered by insufficient multilingual data during pre-training. To
address this, we dedicate 35,000 A100-SXM4-80GB GPU hours in conducting
extensive multilingual continual pre-training on the LLaMA series models,
enabling translation support across more than 100 languages. Through a
comprehensive analysis of training strategies, such as vocabulary expansion and
data augmentation, we develop LLaMAX. Remarkably, without sacrificing its
generalization ability, LLaMAX achieves significantly higher translation
performance compared to existing open-source LLMs~(by more than 10 spBLEU
points) and performs on-par with specialized translation model~(M2M-100-12B) on
the Flores-101 benchmark. Extensive experiments indicate that LLaMAX can serve
as a robust multilingual foundation model. The
code~\url{https://github.com/CONE-MT/LLaMAX/.} and
models~\url{https://huggingface.co/LLaMAX/.} are publicly available.Summary
AI-Generated Summary