ChatPaper.aiChatPaper

Exploitation des Instructions : Sélection de Données d'Instruction de Haute Qualité pour les Grands Modèles de Langage

Instruction Mining: High-Quality Instruction Data Selection for Large Language Models

July 12, 2023
Auteurs: Yihan Cao, Yanbin Kang, Lichao Sun
cs.AI

Résumé

Les grands modèles de langage subissent généralement deux étapes d'entraînement : le pré-entraînement et le réglage fin. Bien que le pré-entraînement à grande échelle confère au modèle de solides capacités à générer des réponses en langage naturel, ces modèles pré-entraînés peuvent encore échouer à comprendre les instructions humaines dans certains cas. Pour améliorer la capacité des modèles de langage à interpréter et à répondre aux instructions, le réglage fin sur instructions est apparu comme une méthode cruciale dans ce domaine. Des études récentes ont montré que les grands modèles de langage peuvent être réglés pour bien performer même avec une petite quantité de données de haute qualité pour le suivi d'instructions. Cependant, la sélection de jeux de données de haute qualité pour le réglage fin des modèles de langage manque encore de lignes directrices claires à suivre. Dans cet article, nous proposons InstructMining, une règle linéaire pour évaluer la qualité des données de suivi d'instructions. Nous formulons InstructMining en utilisant des indicateurs spécifiques en langage naturel. Pour étudier la relation entre la qualité des données et ces indicateurs, nous menons en outre des expériences approfondies de réglage fin. Les résultats des expériences sont ensuite appliqués à l'estimation des paramètres dans InstructMining. Pour approfondir l'analyse de ses performances, nous utilisons InstructMining pour sélectionner des données de haute qualité à partir de jeux de données inédits. Les résultats démontrent qu'InstructMining peut aider à sélectionner des échantillons relativement de haute qualité parmi divers jeux de données de suivi d'instructions. Par rapport aux modèles réglés sur des jeux de données non filtrés, les modèles réglés sur des jeux de données sélectionnés par InstructMining performent mieux dans 42,5 % des cas.
English
Large language models typically undergo two training stages, pretraining and finetuning. Despite that large-scale pretraining endows the model with strong capabilities to generate natural language responses, these pretrained models can still fail to understand human instructions at times. To enhance language models' ability of interpreting and responding to instructions, instruction finetuning has emerged as a critical method in this area. Recent studies found that large language models can be finetuned to perform well even with a small amount of high-quality instruction-following data. However, the selection of high-quality datasets for finetuning language models still lacks clear guidelines to follow. In this paper, we propose InstructMining, a linear rule for evaluating instruction-following data quality. We formulate InstructMining using specific natural language indicators. To investigate the relationship between data quality and these indicators, we further conduct extensive finetuning experiments. The experiment results are then applied to estimating parameters in InstructMining. To further investigate its performance, we use InstructMining to select high-quality data from unseen datasets. Results demonstrate that InstructMining can help select relatively high-quality samples from various instruction-following datasets. Compared to models finetuned on unfiltered datasets, models finetuned on InstructMining selected datasets perform better on 42.5% cases.
PDF100December 15, 2024