RobustFT : Fine-tuning supervisé robuste pour les grands modèles de langage en présence de réponses bruitées

RobustFT: Robust Supervised Fine-tuning for Large Language Models under Noisy Response

December 19, 2024
Auteurs: Junyu Luo, Xiao Luo, Kaize Ding, Jingyang Yuan, Zhiping Xiao, Ming Zhang
cs.AI

Résumé

Le réglage fin supervisé (RFS) joue un rôle crucial dans l'adaptation des grands modèles de langage (GML) à des domaines ou tâches spécifiques. Cependant, comme le démontrent des expériences empiriques, les données collectées contiennent inévitablement du bruit dans des applications pratiques, ce qui pose des défis importants pour les performances du modèle sur des tâches ultérieures. Par conséquent, il est urgent de mettre en place un cadre de RFS robuste au bruit pour améliorer les capacités du modèle dans les tâches ultérieures. Pour relever ce défi, nous introduisons un cadre de RFS robuste (RobustFT) qui effectue la détection et le reclassement du bruit sur les données des tâches ultérieures. Pour l'identification du bruit, notre approche utilise un système collaboratif multi-expert avec des modèles améliorés par l'inférence pour obtenir une détection de bruit supérieure. Dans la phase de débruitage, nous utilisons une stratégie améliorée par le contexte, qui intègre les connaissances les plus pertinentes et les plus fiables suivies d'une évaluation minutieuse pour générer des annotations fiables. De plus, nous introduisons un mécanisme efficace de sélection des données basé sur l'entropie de réponse, garantissant que seuls les échantillons de haute qualité sont conservés pour le réglage fin. Des expériences approfondies menées sur plusieurs GML à travers cinq ensembles de données démontrent les performances exceptionnelles de RobustFT dans des scénarios bruyants.
English
Supervised fine-tuning (SFT) plays a crucial role in adapting large language models (LLMs) to specific domains or tasks. However, as demonstrated by empirical experiments, the collected data inevitably contains noise in practical applications, which poses significant challenges to model performance on downstream tasks. Therefore, there is an urgent need for a noise-robust SFT framework to enhance model capabilities in downstream tasks. To address this challenge, we introduce a robust SFT framework (RobustFT) that performs noise detection and relabeling on downstream task data. For noise identification, our approach employs a multi-expert collaborative system with inference-enhanced models to achieve superior noise detection. In the denoising phase, we utilize a context-enhanced strategy, which incorporates the most relevant and confident knowledge followed by careful assessment to generate reliable annotations. Additionally, we introduce an effective data selection mechanism based on response entropy, ensuring only high-quality samples are retained for fine-tuning. Extensive experiments conducted on multiple LLMs across five datasets demonstrate RobustFT's exceptional performance in noisy scenarios.

Summary

AI-Generated Summary

PDF892December 24, 2024