ChatPaper.aiChatPaper

BigTrans: Erweiterung großer Sprachmodelle um mehrsprachige Übersetzungsfähigkeiten für über 100 Sprachen

BigTrans: Augmenting Large Language Models with Multilingual Translation Capability over 100 Languages

May 29, 2023
Autoren: Wen Yang, Chong Li, Jiajun Zhang, Chengqing Zong
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) zeigen vielversprechende Übersetzungsleistungen über verschiedene natürliche Sprachen hinweg. Allerdings sind viele LLMs, insbesondere die Open-Source-Modelle wie BLOOM und LLaMA, englischdominiert und unterstützen nur Dutzende von natürlichen Sprachen, wodurch das Potenzial von LLMs für die Sprachübersetzung weniger erforscht ist. In dieser Arbeit präsentieren wir BigTrans, das LLaMA, das nur 20 Sprachen abdeckt, anpasst und mit mehrsprachiger Übersetzungsfähigkeit für über 100 Sprachen erweitert. BigTrans basiert auf LLaMA-13B und wird in drei Schritten optimiert. Zunächst trainieren wir LLaMA mit umfangreichen chinesischen monolingualen Daten weiter. Anschließend trainieren wir das Modell mit einem groß angelegten parallelen Datensatz, der 102 natürliche Sprachen abdeckt. Schließlich instruktions-finetunen wir das Basismodell mit mehrsprachigen Übersetzungsanweisungen, was zu unserem BigTrans-Modell führt. Die vorläufigen Experimente zur mehrsprachigen Übersetzung zeigen, dass BigTrans in vielen Sprachen vergleichbar mit ChatGPT und Google Translate abschneidet und sogar ChatGPT in 8 Sprachpaaren übertrifft. Wir veröffentlichen das BigTrans-Modell und hoffen, dass es den Forschungsfortschritt vorantreiben kann.
English
Large language models (LLMs) demonstrate promising translation performance among various natural languages. However, many LLMs especially the open-sourced ones, such as BLOOM and LLaMA, are English-dominant and support only dozens of natural languages, making the potential of LLMs on language translation less explored. In this work, we present BigTrans which adapts LLaMA that covers only 20 languages and enhances it with multilingual translation capability on more than 100 languages. BigTrans is built upon LLaMA-13B and it is optimized in three steps. First, we continue training LLaMA with massive Chinese monolingual data. Second, we continue training the model with a large-scale parallel dataset that covers 102 natural languages. Third, we instruct-tune the foundation model with multilingual translation instructions, leading to our BigTrans model. The preliminary experiments on multilingual translation show that BigTrans performs comparably with ChatGPT and Google Translate in many languages and even outperforms ChatGPT in 8 language pairs. We release the BigTrans model and hope it can advance the research progress.
PDF42December 15, 2024