ChatPaper.aiChatPaper

MURI : Ensembles de données de réglage d'instructions de haute qualité pour les langues à ressources limitées via des instructions inverses

MURI: High-Quality Instruction Tuning Datasets for Low-Resource Languages via Reverse Instructions

September 19, 2024
Auteurs: Abdullatif Köksal, Marion Thaler, Ayyoob Imani, Ahmet Üstün, Anna Korhonen, Hinrich Schütze
cs.AI

Résumé

L'optimisation des instructions améliore les grands modèles de langage (LLM) en les alignant avec les préférences humaines à travers diverses tâches. Les approches traditionnelles pour créer des ensembles de données d'optimisation des instructions rencontrent des défis sérieux pour les langues à faibles ressources en raison de leur dépendance à l'annotation des données. Ce travail introduit une méthode novatrice, les Instructions Inverses Multilingues (MURI), qui génère des ensembles de données d'optimisation des instructions de haute qualité pour les langues à faibles ressources sans nécessiter d'annotateurs humains ou de modèles multilingues préexistants. En utilisant des instructions inverses et un pipeline de traduction, MURI produit des paires instruction-sortie à partir de textes existants rédigés par des humains dans des langues à faibles ressources. Cette méthode garantit la pertinence culturelle et la diversité en puisant des textes dans différents domaines natifs et en appliquant des filtres pour éliminer les contenus inappropriés. Notre ensemble de données, MURI-IT, comprend plus de 2 millions de paires instruction-sortie à travers 200 langues. L'évaluation par des locuteurs natifs et des expériences de fine-tuning avec les modèles mT5 démontrent l'efficacité de l'approche pour la compréhension du langage naturel (NLU) et la génération ouverte. Nous publions publiquement les ensembles de données et les modèles sur https://github.com/akoksal/muri.
English
Instruction tuning enhances large language models (LLMs) by aligning them with human preferences across diverse tasks. Traditional approaches to create instruction tuning datasets face serious challenges for low-resource languages due to their dependence on data annotation. This work introduces a novel method, Multilingual Reverse Instructions (MURI), which generates high-quality instruction tuning datasets for low-resource languages without requiring human annotators or pre-existing multilingual models. Utilizing reverse instructions and a translation pipeline, MURI produces instruction-output pairs from existing human-written texts in low-resource languages. This method ensures cultural relevance and diversity by sourcing texts from different native domains and applying filters to eliminate inappropriate content. Our dataset, MURI-IT, includes more than 2 million instruction-output pairs across 200 languages. Evaluation by native speakers and fine-tuning experiments with mT5 models demonstrate the approach's effectiveness for both NLU and open-ended generation. We publicly release datasets and models at https://github.com/akoksal/muri.

Summary

AI-Generated Summary

PDF83November 16, 2024