ChatPaper.aiChatPaper

MURI: Hoogwaardige instructie-afstemmingsdatasets voor talen met weinig bronnen via omgekeerde instructies

MURI: High-Quality Instruction Tuning Datasets for Low-Resource Languages via Reverse Instructions

September 19, 2024
Auteurs: Abdullatif Köksal, Marion Thaler, Ayyoob Imani, Ahmet Üstün, Anna Korhonen, Hinrich Schütze
cs.AI

Samenvatting

Instructieafstemming verbetert grote taalmodellen (LLM's) door ze af te stemmen op menselijke voorkeuren over diverse taken. Traditionele benaderingen om instructieafstemmingsdatasets te creëren staan voor serieuze uitdagingen bij talen met weinig bronnen vanwege hun afhankelijkheid van gegevensannotatie. Dit werk introduceert een nieuw methode, Multilingual Reverse Instructions (MURI), die hoogwaardige instructieafstemmingsdatasets genereert voor talen met weinig bronnen zonder menselijke annotators of bestaande meertalige modellen te vereisen. Door omgekeerde instructies en een vertaalpijplijn te gebruiken, genereert MURI instructie-uitvoerparen van bestaande door mensen geschreven teksten in talen met weinig bronnen. Deze methode waarborgt culturele relevantie en diversiteit door teksten uit verschillende inheemse domeinen te halen en filters toe te passen om ongepaste inhoud te elimineren. Onze dataset, MURI-IT, bevat meer dan 2 miljoen instructie-uitvoerparen in 200 talen. Evaluatie door moedertaalsprekers en fijnafstemmingsexperimenten met mT5-modellen tonen de effectiviteit van de benadering voor zowel NLU als open-end generatie aan. We stellen datasets en modellen openbaar beschikbaar op https://github.com/akoksal/muri.
English
Instruction tuning enhances large language models (LLMs) by aligning them with human preferences across diverse tasks. Traditional approaches to create instruction tuning datasets face serious challenges for low-resource languages due to their dependence on data annotation. This work introduces a novel method, Multilingual Reverse Instructions (MURI), which generates high-quality instruction tuning datasets for low-resource languages without requiring human annotators or pre-existing multilingual models. Utilizing reverse instructions and a translation pipeline, MURI produces instruction-output pairs from existing human-written texts in low-resource languages. This method ensures cultural relevance and diversity by sourcing texts from different native domains and applying filters to eliminate inappropriate content. Our dataset, MURI-IT, includes more than 2 million instruction-output pairs across 200 languages. Evaluation by native speakers and fine-tuning experiments with mT5 models demonstrate the approach's effectiveness for both NLU and open-ended generation. We publicly release datasets and models at https://github.com/akoksal/muri.

Summary

AI-Generated Summary

PDF83November 16, 2024