MURI : Ensembles de données de réglage d'instructions de haute qualité pour les langues à ressources limitées via des instructions inverses
MURI: High-Quality Instruction Tuning Datasets for Low-Resource Languages via Reverse Instructions
September 19, 2024
Auteurs: Abdullatif Köksal, Marion Thaler, Ayyoob Imani, Ahmet Üstün, Anna Korhonen, Hinrich Schütze
cs.AI
Résumé
L'optimisation des instructions améliore les grands modèles de langage (LLM) en les alignant avec les préférences humaines à travers diverses tâches. Les approches traditionnelles pour créer des ensembles de données d'optimisation des instructions rencontrent des défis sérieux pour les langues à faibles ressources en raison de leur dépendance à l'annotation des données. Ce travail introduit une méthode novatrice, les Instructions Inverses Multilingues (MURI), qui génère des ensembles de données d'optimisation des instructions de haute qualité pour les langues à faibles ressources sans nécessiter d'annotateurs humains ou de modèles multilingues préexistants. En utilisant des instructions inverses et un pipeline de traduction, MURI produit des paires instruction-sortie à partir de textes existants rédigés par des humains dans des langues à faibles ressources. Cette méthode garantit la pertinence culturelle et la diversité en puisant des textes dans différents domaines natifs et en appliquant des filtres pour éliminer les contenus inappropriés. Notre ensemble de données, MURI-IT, comprend plus de 2 millions de paires instruction-sortie à travers 200 langues. L'évaluation par des locuteurs natifs et des expériences de fine-tuning avec les modèles mT5 démontrent l'efficacité de l'approche pour la compréhension du langage naturel (NLU) et la génération ouverte. Nous publions publiquement les ensembles de données et les modèles sur https://github.com/akoksal/muri.
English
Instruction tuning enhances large language models (LLMs) by aligning them
with human preferences across diverse tasks. Traditional approaches to create
instruction tuning datasets face serious challenges for low-resource languages
due to their dependence on data annotation. This work introduces a novel
method, Multilingual Reverse Instructions (MURI), which generates high-quality
instruction tuning datasets for low-resource languages without requiring human
annotators or pre-existing multilingual models. Utilizing reverse instructions
and a translation pipeline, MURI produces instruction-output pairs from
existing human-written texts in low-resource languages. This method ensures
cultural relevance and diversity by sourcing texts from different native
domains and applying filters to eliminate inappropriate content. Our dataset,
MURI-IT, includes more than 2 million instruction-output pairs across 200
languages. Evaluation by native speakers and fine-tuning experiments with mT5
models demonstrate the approach's effectiveness for both NLU and open-ended
generation. We publicly release datasets and models at
https://github.com/akoksal/muri.Summary
AI-Generated Summary