ChatPaper.aiChatPaper

BigTrans: Aprimorando Modelos de Linguagem de Grande Escala com Capacidade de Tradução Multilíngue para mais de 100 Idiomas

BigTrans: Augmenting Large Language Models with Multilingual Translation Capability over 100 Languages

May 29, 2023
Autores: Wen Yang, Chong Li, Jiajun Zhang, Chengqing Zong
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) demonstram desempenho promissor em tradução entre diversos idiomas naturais. No entanto, muitos LLMs, especialmente os de código aberto, como BLOOM e LLaMA, são predominantemente em inglês e suportam apenas dezenas de idiomas naturais, o que faz com que o potencial dos LLMs em tradução de idiomas seja menos explorado. Neste trabalho, apresentamos o BigTrans, que adapta o LLaMA, que cobre apenas 20 idiomas, e o aprimora com capacidade de tradução multilíngue para mais de 100 idiomas. O BigTrans é construído com base no LLaMA-13B e é otimizado em três etapas. Primeiro, continuamos o treinamento do LLaMA com uma grande quantidade de dados monolíngues em chinês. Segundo, continuamos o treinamento do modelo com um conjunto de dados paralelos em larga escala que abrange 102 idiomas naturais. Terceiro, ajustamos o modelo base com instruções de tradução multilíngue, resultando no nosso modelo BigTrans. Os experimentos preliminares em tradução multilíngue mostram que o BigTrans tem um desempenho comparável ao ChatGPT e ao Google Translate em muitos idiomas e até supera o ChatGPT em 8 pares de idiomas. Disponibilizamos o modelo BigTrans e esperamos que ele possa avançar o progresso da pesquisa.
English
Large language models (LLMs) demonstrate promising translation performance among various natural languages. However, many LLMs especially the open-sourced ones, such as BLOOM and LLaMA, are English-dominant and support only dozens of natural languages, making the potential of LLMs on language translation less explored. In this work, we present BigTrans which adapts LLaMA that covers only 20 languages and enhances it with multilingual translation capability on more than 100 languages. BigTrans is built upon LLaMA-13B and it is optimized in three steps. First, we continue training LLaMA with massive Chinese monolingual data. Second, we continue training the model with a large-scale parallel dataset that covers 102 natural languages. Third, we instruct-tune the foundation model with multilingual translation instructions, leading to our BigTrans model. The preliminary experiments on multilingual translation show that BigTrans performs comparably with ChatGPT and Google Translate in many languages and even outperforms ChatGPT in 8 language pairs. We release the BigTrans model and hope it can advance the research progress.
PDF42February 8, 2026