Afinamiento de LLMs con Instrucciones de Alineación Contrastiva para Traducción Automática en Lenguas No Vistas y de Bajos Recursos
Tuning LLMs with Contrastive Alignment Instructions for Machine Translation in Unseen, Low-resource Languages
January 11, 2024
Autores: Zhuoyuan Mao, Yen Yu
cs.AI
Resumen
Este artículo presenta instrucciones de alineación contrastiva (AlignInstruct) para abordar dos desafíos en la traducción automática (MT) con modelos de lenguaje de gran escala (LLMs). El primero es la expansión de los idiomas soportados a aquellos no vistos previamente. El segundo se relaciona con la falta de datos en idiomas de bajos recursos. El ajuste fino del modelo mediante instrucciones de traducción automática (MTInstruct) es un enfoque directo para el primer desafío. Sin embargo, MTInstruct está limitado por señales cruzadas débiles inherentes al segundo desafío. AlignInstruct enfatiza la supervisión cruzada a través de un discriminador cruzado construido utilizando alineaciones estadísticas de palabras. Nuestros resultados, basados en el ajuste fino de los modelos BLOOMZ (1b1, 3b y 7b1) en hasta 24 idiomas no vistos, mostraron que: (1) los LLMs pueden traducir efectivamente idiomas no vistos usando MTInstruct; (2) AlignInstruct condujo a mejoras consistentes en la calidad de la traducción en 48 direcciones de traducción que involucran el inglés; (3) las instrucciones basadas en discriminadores superaron a sus contrapartes generativas como instrucciones cruzadas; (4) AlignInstruct mejoró el rendimiento en 30 direcciones de cero disparos.
English
This article introduces contrastive alignment instructions (AlignInstruct) to
address two challenges in machine translation (MT) on large language models
(LLMs). One is the expansion of supported languages to previously unseen ones.
The second relates to the lack of data in low-resource languages. Model
fine-tuning through MT instructions (MTInstruct) is a straightforward approach
to the first challenge. However, MTInstruct is limited by weak cross-lingual
signals inherent in the second challenge. AlignInstruct emphasizes
cross-lingual supervision via a cross-lingual discriminator built using
statistical word alignments. Our results based on fine-tuning the BLOOMZ models
(1b1, 3b, and 7b1) in up to 24 unseen languages showed that: (1) LLMs can
effectively translate unseen languages using MTInstruct; (2) AlignInstruct led
to consistent improvements in translation quality across 48 translation
directions involving English; (3) Discriminator-based instructions outperformed
their generative counterparts as cross-lingual instructions; (4) AlignInstruct
improved performance in 30 zero-shot directions.