ChatPaper.aiChatPaper

ほんの少しの多言語性で行う多言語指示チューニング

Multilingual Instruction Tuning With Just a Pinch of Multilinguality

January 3, 2024
著者: Uri Shaham, Jonathan Herzig, Roee Aharoni, Idan Szpektor, Reut Tsarfaty, Matan Eyal
cs.AI

要旨

命令チューニングされた大規模言語モデル(LLM)が世界的に普及するにつれ、複数言語での指示に従う能力がますます重要になっています。有望なアプローチの一つは、ある言語でファインチューニングを行うことで、他の言語でも特定の機能を獲得する「言語間転移」です。本研究では、多言語LLMの命令チューニングにおける多言語性が、言語間での指示追従にどのような影響を与えるかを調査します。まず、単一言語でのチューニングであっても、多くの言語が他の言語に指示追従能力を転移させることができることを示します。さらに、英語のチューニングセットにわずか40の多言語例を追加するだけで、チューニング中に見た言語だけでなく、未見の言語でも多言語指示追従能力が大幅に向上することを発見しました。一般的に、多言語混合でチューニングされたモデルは、特定の言語での例数が10分の1であるにもかかわらず、単一言語でチューニングされたモデルと同等またはそれ以上の性能を示すことが観察されました。最後に、命令チューニングセットの言語数を1から2、3、または4に増やすだけで、言語間の汎化能力が向上することを確認しました。これらの結果は、大規模な多言語命令チューニングモデルを構築するために必要な多言語指示-応答セットが非常に小規模で済むことを示唆しています。
English
As instruction-tuned large language models (LLMs) gain global adoption, their ability to follow instructions in multiple languages becomes increasingly crucial. One promising approach is cross-lingual transfer, where a model acquires specific functionality on some language by finetuning on another language. In this work, we investigate how multilinguality during instruction tuning of a multilingual LLM affects instruction-following across languages. We first show that many languages transfer some instruction-following capabilities to other languages from even monolingual tuning. Furthermore, we find that only 40 multilingual examples in an English tuning set substantially improve multilingual instruction-following, both in seen and unseen languages during tuning. In general, we observe that models tuned on multilingual mixtures exhibit comparable or superior performance in several languages compared to monolingually tuned models, despite training on 10x fewer examples in those languages. Finally, we find that increasing the number of languages in the instruction tuning set from 1 to only 2, 3, or 4 increases cross-lingual generalization. Our results suggest that building massively multilingual instruction-tuned models can be done with only a very small set of multilingual instruction-responses.
PDF110December 15, 2024